0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

点云分割相较图像分割的优势是啥?

3D视觉工坊 来源:3D视觉工坊 作者:3D视觉工坊 2022-12-14 14:25 次阅读

0. 笔者个人体会

近年来,自动驾驶领域的各项下游任务基本上都要求了对场景的语义理解,比如自动驾驶车辆要能够理解哪个是路面、哪个是交通灯、哪个是行人、哪个是树木,因此点云分割的作用就不言而喻。

但随着Transformer模型的大火,用于点云分割的深度神经网络参数量越来越庞大,动不动就上亿参数。想要训练如此庞大的模型,除了需要足够强的GPU外,还需要大量的标签和数据。数据很容易得到,64线的激光雷达一帧可以打出十几万个点云,现有的雷达数据集也不少了。但标签呢?给点云打过label的人都知道这个过程有多繁琐(haaaaa)。

由此,点云分割模型便出现了各种各样的训练范式,主要包括有监督、弱监督、无监督以及半监督。那么哪种训练方法才是最优的?显然这个问题在不同场景下有不同的答案。本文将带领读者阅读几种主流的顶会框架,探讨不同训练方法的基本原理。当然笔者水平有限,若有理解不当的地方,欢迎大家一起探讨,共同学习!

划重点,本文提到的算法都是开源的!文末附代码链接!各位读者可在现有模型的基础上设计自己的点云分割模型。

1. 点云分割相较图像分割的优势是啥?

自动驾驶领域的下游任务,我认为主要包括目标检测、语义分割、实例分割和全景分割。其中目标检测是指在区域中提取目标的候选框并分类,语义分割是对区域中不同类别的物体进行区域性划分,实例分割是将每个类别进一步细化为单独的实例,全景分割则要求对区域中的每一个像素/点云都进行分类。

因为图像中存在大量且丰富的纹理信息,且相机相较于雷达很便宜,所以对图像进行分割非常容易。近年来也涌现了一大批图像语义分割的深度模型,比如我们所熟知的ViT、TransUNet、YOLOP等等。各自架构层出不穷,不停的在各种排行榜上提点,似乎图像语义分割已经非常完美。

1acf8f4a-7b63-11ed-8abf-dac502259ad0.png

那么为啥还要对雷达点云进行分割呢?

主要有三个原因:

(1) 激光雷达可以获得绝对尺度。

我们知道单目图像是无法获得绝对尺度的,并且自动驾驶汽车在长时间运行过程中也会发生尺度漂移问题。虽然现有的一些方法在尝试从单目图像中恢复出绝对尺度,但基本上也都不太准确。这就导致了单纯从图像中提取出来的语义信息,很难直接应用于轨迹规划、避障、巡航等自动驾驶任务。

(2) 激光雷达对强/弱光线非常鲁棒

视觉语义分割非常受光照和恶劣天气影响,在过强、过弱、模糊等光线条件下,分割结果往往会出现很严重的畸变。但对于自动驾驶任务来说,恶劣天气显然是无法避免的。

(3) 激光雷达可以对环境进行3D感知

我们希望自动驾驶汽车能够对周围的整体环境进行全方位的感知,这对于激光雷达来说很容易。但对于图像来说就很难了,仅仅依靠单目图像很难恢复出完整的环境。依靠环视相机进行BEV感知的话也会带来像素畸变问题。

1acf8f4a-7b63-11ed-8abf-dac502259ad0.png

2. 都用啥数据集?

这里介绍几个主流的点云分割数据集,用于模型的训练和评估。

2.1 nuScenes-Lidarseg数据集

数据集链接:https://www.nuscenes.org/nuscenes#lidarseg(注意总文件有293G)

nuScenes数据集是由Motional公司在2019年3月发布的用于自动驾驶的共有大型数据集。数据集来源于波士顿和新加坡采集的1000个驾驶场景,每个场景选取了20秒长的视频,共计大约15小时的驾驶数据。场景选取时充分考虑多样化的驾驶操作、交通情况和意外情况等,例如不同地点、天气条件、车辆类型、植被、道路标和驾驶规则等。

完整的nuScenes数据集包括大约140万个图像、40万个激光雷达点云、140万个雷达扫描和4万个关键帧中的140万个对象边界框。其传感器包括6个摄像头、1个32线激光雷达、5个毫米波雷达、GPS和IMU,如下图所示。2020年7月发布的nuScenes-lidarseg数据集,增加了激光雷达点云的语义分割标注,涵盖了23个前景类和9个背景类。nuScenes-lidarseg在40万个点云和1000个场景(850个用于训练和验证的场景,150个用于测试的场景)中包含14亿个注释点。

1ba199cc-7b63-11ed-8abf-dac502259ad0.png

1bd9a2fe-7b63-11ed-8abf-dac502259ad0.png

2.2 SemanticKITTI数据集

数据集地址:http://www.semantic-kitti.org/index.html

SemanticKITTI数据集是一个基于KITTI Vision Benchmark里程计数据集的大型户外点云数据集,显示了市中心的交通、住宅区,以及德国卡尔斯鲁厄周围的高速公路场景和乡村道路。原始里程计数据集由22个序列组成,作者将序列00到10拆分为训练集,将11到21拆分为测试集,并且为了与原始基准保持一致,作者对训练和测试集采用相同的划分,采用和KITTI数据集相同的标定方法,这使得该数据集和KITTI数据集等数据集可以通用。

SemanticKITTI数据集作者提供了精确的序列扫描注释,并且在点注释中显示了前所未有的细节,包含28个类。

1c3f6f9e-7b63-11ed-8abf-dac502259ad0.png

2.3 ScribbleKITTI数据集

这个数据集很新,是CVPR2022 Oral的成果。

论文链接:https://arxiv.org/abs/2203.08537

数据集链接:http://github.com/ouenal/scribblekitti

ScribbleKITTI数据集希望通过利用弱监督(weak supervision)来实现3D语义分割方法,首次提出了使用涂鸦(scribbles)对雷达点云进行标注。但这也导致那些包含边缘信息的未标注点并未被使用,且由于缺乏大量标注点(该方法只使用8%的标注点)的数据,影响了具有长尾分布的类置信度,最终使得模型性能有所下降。

因此,ScribbleKITTI还提出了一个额外的pipeline,用以减少这种性能差距。该pipeline由三个独立的部分组成,可以与任何LiDAR语义分割模型相结合。论文代码采用Cylinder3D模型,在只使用8%标注的情况下,可达到95.7%的全监督性能。

1cfc1be4-7b63-11ed-8abf-dac502259ad0.png

论文提出的pipeline可分为训练、伪标签和蒸馏这三个阶段:在训练期间,首先通过PLS来对数据进行增强,再训练mean teacher,这有利于后面生成更高质量的伪标签。在伪标签阶段,通过CRB来产生目标标签,降低由于点云自身属性降低生成伪标签的质量。在蒸馏阶段,通过前面生成的伪标签再对mean teacher进行训练。

1d572386-7b63-11ed-8abf-dac502259ad0.png

3. 雷达点云表征

深度学习模型都需要一个规范化的数据表征,才能进行合理的特征提取和融合。对于图像来说,是一个非常规整的2D表征,即每个像素位置都是固定的,这有利于模型训练和测试。但对于3D点云来说,每帧点云有十几万个点,杂乱无章的点云必然不利于模型训练。因此需要对雷达点云进行合理表征。

1d8bb628-7b63-11ed-8abf-dac502259ad0.png

雷达点云主要的表征模式有四种:

(1) 2D Range View表征

非常接近图像,将点云投影到平面,直接进行2D表征,得到x、y坐标。有时投影过程中还会考虑点云强度、深度以及每个方格是否有点云。网络输入也就是2D Range View,首先提取特征,然后进行特征融合,最后根据不同的分割头进行语义训练。

1dac3b14-7b63-11ed-8abf-dac502259ad0.png

(2) 2D BEV表征

对于很多自动驾驶场景,往往是x和y坐标范围有几十米上百米,但z方向的坐标只有几米。因此有些表征就直接省略掉z方向的表达,通过俯视图得到极坐标表征。

(3) 3D Cylinder Voxel表征

在点云z方向进行Cylinder的划分,是一种3D描述,典型代表就是Cylinder3D。注意为什么要用Cylinder来表征而不是其他正方体呢?这是因为点云分布的密度是不一样的,在自车周围的点云密度很大,在周围的点云密度很小。通过这种不规则的划分就更有利于特征提取。

1e352f64-7b63-11ed-8abf-dac502259ad0.png

(4) 混合表征

显然每种表征方法都有各自的特点和优劣,那么有些文章就将不同的表征模式进行混合,进而得到更强的表征。具体执行过程中会先通过不同的支路单独进行特征提取,之后进行特征融合并输出头。

1e89114c-7b63-11ed-8abf-dac502259ad0.png

而针对不同的表征,也有不同的操作。对于3D表征来说,主要是Conv3d和SparseConv,对于2D表征来说,主要是Conv2d和线性Linear。对于直接将点作为输入的一维表征,使用Conv1d和线性Linear。

1f4e46d8-7b63-11ed-8abf-dac502259ad0.png

4. 全监督算法

华南理工大学今年11月在arXiv上传了论文“Superpoint Transformer for 3D Scene Instance Segmentation”,基于Transformer构建了一个新的点云分割框架,名为SPFormer。具体来说,作者提出一种基于Superpoint Transformer的新型端到端三维实例分割方法,它将点云中的隐特征分组为超点,并通过查询向量直接预测实例,而不依赖目标检测或语义分割的结果。

SPFormer其实针对的不是自动驾驶场景,它主要是在ScanNet和S3DIS这两个室内数据集上进行训练和评估。感觉最近很少有自动驾驶场景的全监督算法了,主要还是因为对数据量和标注要求太大。

这个框架的关键步骤是一个带有Transformer的新型查询解码器,它可以通过超点交叉关注机制捕捉实例信息并生成实例的超点掩码。通过基于超点掩码的双点匹配,SPFormer可以实现网络训练,而不需要中间的聚合步骤,这就加速了网络的发展。

1f7c3aac-7b63-11ed-8abf-dac502259ad0.png

SPFormer的结果也很漂亮,在ScanNetv2 hidden上的mAP达到了54.9%,比之前最好的结果高出4.3%。对于具体的18个类别,SPFormer在其中的8个类别上取得了最高的AP得分。特别是在counter类别中,SPFormer超过了之前最好的AP分数10%以上。

1fb1788e-7b63-11ed-8abf-dac502259ad0.png

总结一下,全监督算法的精度应该是最高的,因为接受了完全的标签训练,但是对数据量和标注的要求越来越大。

5. 弱监督算法

感觉ScribbleKITTI中提出的弱监督Pipeline非常妙了,可以与任何LiDAR语义分割模型相结合,这里再回顾一下。

1d572386-7b63-11ed-8abf-dac502259ad0.png

这里再介绍一个基于雷达引导的图像弱监督分割算法,感觉很有意思:

是由北京理工大学和上海AI Lab联合提出的LWSIS,今年12月7日上传到arXiv,录用到了2023 AAAI,可以说非常新!论文题目是“LWSIS: LiDAR-guidedWeakly Supervised Instance Segmentation for Autonomous Driving”。

LWSIS利用现有的点云和3D框,作为训练2D图像实例分割模型的自然弱监督。LWSIS不仅在训练过程中利用了多模态数据中的互补信息,而且显著降低了稠密二维掩膜的标注成本。具体来说,LWSIS包括两个关键模块:点标签分配(PLA)和基于图的一致性正则化(GCR)。前者旨在将三维点云自动分配为二维逐点标签,而后者通过增强多模态数据的几何和外观一致性来进一步优化预测。此外,作者对nuScenes进行了二次实例分割标注,命名为nuInsSeg,以鼓励多模态感知任务的进一步研究。

2010878e-7b63-11ed-8abf-dac502259ad0.png

在nuInsSeg和大规模Waymo上的大量实验表明,LWSIS在训练过程中只涉及三维数据,可以显著改进现有的弱监督分割模型。此外,LWSIS还可以与Point Painting等3D目标检测器结合,提升3D检测性能。

204b81cc-7b63-11ed-8abf-dac502259ad0.png

总结一下,感觉弱监督算法是现在的一个主流发展趋势。也就是说,放弃标注复杂的目标,转而去用一些容易得到的表情来引导训练。感觉这种思想非常巧妙!当然用来引导的标签不一定要是涂鸦或者点云,也可以是其他形式,读者可以由此设计自己的弱监督分割网络。

6. 无监督算法

点云分割算法是否可以完全不依赖标签?

这似乎是个很难回答的问题,没有标签,也就完全无法知道物体的类别先验,就更加无法进行训练。

但香港理工大学的2022 NeurIPS论文“OGC: Unsupervised 3D Object Segmentation from Rigid Dynamics of Point Clouds”似乎回答了这个问题。作者的思路也很巧妙:一辆汽车上的所有点一起向前运动,而场景中其他的点则保持静止。那么理论上,我们可以基于每个点的运动,将场景中属于汽车的点和其他点分割开,实现右图中的效果。

2085b798-7b63-11ed-8abf-dac502259ad0.png

OGC是一种通用的、能分割多个物体的无监督3D物体分割方法,这种方法在完全无标注的点云序列上进行训练,从运动信息中学习3D物体分割。经过训练后,能够直接在单帧点云上进行物体分割。OGC框架的核心是:以物体在运动中保持几何形状一致作为约束条件,设计一组损失函数,能够有效地利用运动信息为物体分割提供监督信号

OGC以单点云作为输入,并直接在一次向前传递中估计多个对象遮罩。OGC利用连续点云的潜在动态作为监督信号。具体架构由三个主要组件组成: (1)目标分割网络提取每一点的特征,并从单一点云估计所有对象掩模如橙色块所示;(2)辅助自监督网络来估计来自一对点云的每点运动矢量;3)一系列损失函数充分利用运动动态来监控目标分割骨干。对于前两个组件,实际上可以灵活地采用现有的提取器和自监督运动估计器。

20e92922-7b63-11ed-8abf-dac502259ad0.png

211c4370-7b63-11ed-8abf-dac502259ad0.png

总结一下,无监督算法现在应该还比较少。OGC是利用了运动约束,可以很巧妙得训练点云分割网络。但是静止的物体呢?比如树木、交通灯、建筑。未来应该还会有很多大神提出更多巧妙的思路,让我们拭目以待。

7. 半监督算法

全监督和弱监督都要求对每帧点云都进行标注,只是弱监督标注的少,无监督不需要标注。那么半监督呢?这里半监督指的是,一部分的点云需要进行标注,另外一部分不需要任何标注。即,在充分利用到现有的已标注数据的基础上,结合便于收集的大量无标注数据,训练泛化能力优异的模型。

本文介绍的算法是新加坡国立大学今年6月提出的LaserMix for Semi-Supervised LiDAR Semantic Segmentation。

这项工作的思路非常巧妙!作者发现,无论是静态背景还是动态前景对象,都在LiDAR点云场景中表现出很强的结构先验,而这种先验可以很好地由LiDAR的激光束所表征。以最常见的旋转型LiDAR传感器为例,其以自车为中心向周围各向同性地发射具有固定倾角的激光射线,由于不同类别本身具有特殊的分布,由激光射线探测并返回的点便能够较为精准地捕捉到这些不同类别所蕴藏的结构化信息。

例如,road类在靠近自车周围的区域中大量分布,主要由位于下部的射线所收集;vegetation类分布在远离自车的区域,主要由位于上部的具有较大正向倾角(inclination)的射线所收集;而car类主要分布在LiDAR点云场景的中部区域,主要由中间的射线所收集。

21385a24-7b63-11ed-8abf-dac502259ad0.png

216dbac0-7b63-11ed-8abf-dac502259ad0.png

LaserMix管道有两个分支,一个有标注的学生分支和没有标注的教师分支。在训练过程中,一个batch由一半有标签数据和一半无标签数据组成。LaserMix收集来自学生和教师的预测,并使用预定义的置信度阈值从教师网络的预测中生成伪标签。对于有标记数据,LaserMix计算学生网络的预测和真实值之间的交叉熵损失。对于无标签数据,LaserMix将每次扫描与随机标记扫描混合在一起,加上伪标记或真值。然后,令学生对混合数据进行预测,计算交叉熵损失。

21985be0-7b63-11ed-8abf-dac502259ad0.png

LaserMix在Range View和Voxel这两种点云表征上都进行了验证,体现出该方法的普适性和适配性。此外,作者将nuScenes、SemanticKITTI、ScribbleKITTI三个数据集按照1%,10%,20%和50%的有标注数据比例进行了划分,并认为其余数据均为未标注数据。结果显示,LaserMix极大地提升了半监督条件下的LiDAR分割结果。无论是在不同的数据集还是不同的LiDAR点云表征下,LaserMix的分割结果都明显地超过了Sup.-only和SOTA的半监督学习方法。其中Sup.-only代表仅使用有标注数据进行训练后的结果,可以理解为该任务的下界(lower bound)。

21c1039c-7b63-11ed-8abf-dac502259ad0.png

总结一下,半监督算法其实同时结合了弱监督和监督的优点。弱监督虽然标注的简单了,但本质上还是需要对每帧数据都进行标注,这个工程量也非常大。但是半监督居然可以在仅有1%标签数据的情况下进行训练,训练效果还超过了很多同类型的算法,所以我感觉半监督在未来也会成为主流发展趋势,

8. 结论

本文首先介绍了点云分割相较于图像分割的优势,然后阐述了一些点云分割必备的基础知识,最后分别探讨了全监督、弱监督、无监督、半监督点云分割算法的网络架构和基本原理。其中,全监督算法精度最高,但要求的数据量和标签也很大。无监督往往是依靠环境中的某种特殊假设进行训练,在特殊场景下会非常高效。弱监督和半监督在很少的数据标注条件下,达到了和全监督几乎相当的精度。笔者认为,在未来,弱监督和半监督是点云分割领域的重要发展趋势。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像
    +关注

    关注

    2

    文章

    1084

    浏览量

    40457
  • 数据集
    +关注

    关注

    4

    文章

    1208

    浏览量

    24693
  • 点云
    +关注

    关注

    0

    文章

    58

    浏览量

    3791

原文标题:点云分割训练哪家强?监督,弱监督,无监督还是半监督?

文章出处:【微信号:3D视觉工坊,微信公众号:3D视觉工坊】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    浅谈分割接地层的利弊

    如果分割接地层并且线路穿过分割线(如图1所示)那么电流返回通路在哪里呢?假设两个层在某处连接(通过在一个单独),则返回电流必在该大型环路内流动。大型环路内的高频电流产生辐射和高接地电感。大型环路内的低电平模拟电流易受干扰的影响
    的头像 发表于 10-30 10:09 196次阅读
    浅谈<b class='flag-5'>分割</b>接地层的利弊

    什么是三维分割

    是世界的一种非结构化三维数据表示,通常由激光雷达传感器、立体相机或深度传感器采集。它由一系列单个组成,每个由 x、y 和 z 坐标定义。
    的头像 发表于 10-29 09:21 181次阅读

    语义分割25种损失函数综述和展望

    本综述提供了对25种用于图像分割的损失函数的全面且统一的回顾。我们提供了一种新颖的分类法,并详细审查了这些损失函数如何在图像分割中被定制和利用,强调了它们的重要特征和应用,并进行了系统
    的头像 发表于 10-22 08:04 486次阅读
    语义<b class='flag-5'>分割</b>25种损失函数综述和展望

    画面分割器怎么调试

    画面分割器,通常指的是视频画面分割器,它是一种可以将一个视频信号分割成多个小画面的设备。这种设备广泛应用于监控系统、视频会议、多画面显示等场景。调试画面分割器是一个技术性很强的工作,需
    的头像 发表于 10-17 09:32 369次阅读

    画面分割器怎么连接

    器的基本原理 画面分割器的工作原理是通过数字信号处理技术,将多个视频信号源(如摄像头、DVR等)的图像数据进行处理,然后在一个监视器上以分割的形式显示出来。这些分割可以是1画面、4画面
    的头像 发表于 10-17 09:29 307次阅读

    图像语义分割的实用性是什么

    什么是图像语义分割 图像语义分割是一种将图像中的所有像素点按照其语义类别进行分类的任务。与传统的图像
    的头像 发表于 07-17 09:56 419次阅读

    图像分割和语义分割的区别与联系

    图像分割和语义分割是计算机视觉领域中两个重要的概念,它们在图像处理和分析中发挥着关键作用。 1. 图像
    的头像 发表于 07-17 09:55 918次阅读

    图像分割与目标检测的区别是什么

    图像分割与目标检测是计算机视觉领域的两个重要任务,它们在许多应用场景中都发挥着关键作用。然而,尽管它们在某些方面有相似之处,但它们的目标、方法和应用场景有很大的不同。本文将介绍图像分割
    的头像 发表于 07-17 09:53 1301次阅读

    机器学习中的数据分割方法

    在机器学习中,数据分割是一项至关重要的任务,它直接影响到模型的训练效果、泛化能力以及最终的性能评估。本文将从多个方面详细探讨机器学习中数据分割的方法,包括常见的分割方法、各自的优缺点、适用场景以及实际应用中的注意事项。
    的头像 发表于 07-10 16:10 1753次阅读

    图像分割与语义分割中的CNN模型综述

    图像分割与语义分割是计算机视觉领域的重要任务,旨在将图像划分为多个具有特定语义含义的区域或对象。卷积神经网络(CNN)作为深度学习的一种核心模型,在
    的头像 发表于 07-09 11:51 857次阅读

    机器人视觉技术中常见的图像分割方法

    机器人视觉技术中的图像分割方法是一个广泛且深入的研究领域。图像分割是将图像划分为多个区域或对象的过程,这些区域或对象具有某种共同的特征,如颜
    的头像 发表于 07-09 09:31 674次阅读

    机器人视觉技术中图像分割方法有哪些

    机器人视觉技术是人工智能领域的一个重要分支,它涉及到图像处理、模式识别、机器学习等多个学科。图像分割是机器人视觉技术中的一个重要环节,它的目标是从一幅图像中将目标物体与背景分离出来,以
    的头像 发表于 07-04 11:34 952次阅读

    15倍加速!SuperCluster:最强3D全景分割

    S3DIS Area 5的大规模全景分割结果,共有9.2 M个( 78M预采样)和1863个真实"物"对象。SuperCluster可以在3.3秒内在单块V100 - 32GB GPU上一次推理处理如此大的扫描,并达到50.1的PQ值。
    的头像 发表于 01-22 14:03 652次阅读
    15倍加速!SuperCluster:最强3D<b class='flag-5'>点</b><b class='flag-5'>云</b>全景<b class='flag-5'>分割</b>!

    改进棉花根系图像分割方法

    棉花是锦葵科棉属植物,棉花生产的纤维是我国各类衣服、家具布和工业用布的材料,目前我国的棉花产量也非常高,主要以新疆地区为主。根系是植物组成的重要部分,其生长发育至关重要。 根系图像分割是根系表型分析
    的头像 发表于 01-18 16:18 297次阅读

    【爱芯派 Pro 开发板试用体验】+ 图像分割和填充的Demo测试

    测试的程序是官方提供的交互式图像分割和修复(Segment and Inpaint Anything)。所谓交互式图像分割和修复,就是软件提供了一个基于QT6的GUI交互界面,实现了交
    发表于 12-26 11:22