0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

自动驾驶多模态传感器融合

智驾最前沿 来源:计算机视觉深度学习和自 作者:计算机视觉深度学 2022-04-20 09:46 次阅读

多模态融合是感知自动驾驶系统的一项基本任务,最近引起了许多研究人员的兴趣。然而,由于原始数据噪声大、信息利用率低以及多模态传感器的无对准,达到相当好的性能并非易事。本文对现有的基于多模态自动驾驶感知任务方法进行了文献综述。分析超过50篇论文,包括摄像头和激光雷达,试图解决目标检测和语义分割任务。与传统的融合模型分类方法不同,作者从融合阶段的角度,通过更合理的分类法将融合模型分为两大类,四小类。此外,研究了当前的融合方法,就潜在的研究机会展开讨论。

最近,用于自动驾驶感知任务的多模态融合方法发展迅速,其从跨模态特征表示和更可靠的模态传感器,到更复杂、更稳健的多模态融合深度学习模型和技术。然而,只有少数文献综述集中在多模态融合方法本身的方法论上,大多数文献都遵循传统规则,将其分为前融合、深度(特征)融合和后融合三大类,重点关注深度学习模型中融合特征的阶段,无论是数据级、特征级还是提议级。首先,这种分类法没有明确定义每个级别的特征表示。其次,它表明,激光雷达和摄像头这两个分支在处理过程中始终是对称的,模糊了激光雷达分支中融合提议级特征和摄像头分支中融合数据级特征的情况。综上所述,传统的分类法可能是直观的,但对于总结最近出现的越来越多的多模态融合方法来说却很落后,这使得研究人员无法从系统的角度对其进行研究和分析。

如图是自动驾驶感知任务的示意图:

2edefab0-c03e-11ec-bce3-dac502259ad0.png

深度学习模型仅限于输入的表示。为了实现该模型,需要在数据输入模型之前,通过一个复杂的特征提取器对原始数据进行预处理。

至于图像分支,大多数现有方法保持与下游模块输入的原始数据相同的格式。然而,激光雷达分支高度依赖于数据格式,这种格式强调不同的特性,并对下游模型设计产生巨大影响。因此,这里将其总结为基于点、基于体素和基于二维映射的点云数据格式,以适应异构深度学习模型。

数据级融合或前融合方法,通过空间对齐直接融合不同模式的原始传感器数据。特征级融合或深度融合方法通过级联或元素相乘在特征空间中混合跨模态数据。目标级融合方法将各模态模型的预测结果结合起来,做出最终决策。

一种新的分类法,将所有融合方法分为强融合和弱融合,如图展示了二者之间的关系:

2eff8ac8-c03e-11ec-bce3-dac502259ad0.png

为性能比较,KITTI benchmark的3D检测和鸟瞰目标检测。如下两个表分别给出BEV和3D的KITTI测试数据集上多模态融合方法的实验结果。

2f16012c-c03e-11ec-bce3-dac502259ad0.png

2f2e7e64-c03e-11ec-bce3-dac502259ad0.png

根据激光雷达和摄像头数据表示的不同组合阶段,将强融合再分为前融合、深度融合、后融合和非对称融合四类。作为研究最多的融合方法,强融合近年来取得了许多杰出的成就。

如图所示:强融合的每个小类都高度依赖于激光雷达点云,而不是摄像头数据。

2f5c7c6a-c03e-11ec-bce3-dac502259ad0.png

前融合。数据级融合是一种通过原始数据级的空间对齐和投影直接融合每个模态数据的方法,与之不同的是,前融合在数据级是融合激光雷达数据,在数据级或特征级则融合摄像头数据。一个例子如图所示:

2f73d158-c03e-11ec-bce3-dac502259ad0.png

在激光雷达分支,点云可以是有反射图、体素化张量、前视图/距离视图/鸟瞰视图以及伪点云等形式。尽管所有这些数据都具有不同的内在特征,与激光雷达主干网高相关,但除了伪点云之外,大多数据通过基于规则的处理生成。此外,与特征空间嵌入相比,该阶段的数据仍然具有可解释性,因此所有这些激光雷达数据表示都直观可视。

对于图像分支,严格的数据级定义应该只包含RGB或灰度等数据,缺乏通用性和合理性。与前融合的传统定义相比,摄像头数据放松为数据级和特征级数据。特别是,这里将有利于三维目标检测的图像语义分割任务结果作为特征级表示,因为这些“目标级”特征与整个任务的最终目标级提议不同。

深度融合。深度融合方法在激光雷达分支的特征级对跨模态数据融合,但在图像分支的数据级和特征级做融合。例如,一些方法使用特征提取器分别获取激光雷达点云和摄像头图像的嵌入表示,并通过一系列下游模块将特征融合到两种模式中。然而,与其他强融合方法不同,深度融合有时以级联方式融合特征,这两种方法都利用原始和高级语义信息。深度融合的一个例子如图所示:

2f8cc398-c03e-11ec-bce3-dac502259ad0.png

后融合。后融合,也称为目标级融合,指的是融合每个模态中流水线结果的方法。例如,一些后融合方法利用激光雷达点云分支和摄像头图像分支的输出,并基于两种模式的结果进行最终预测。请注意,两个分支提议的数据格式应与最终结果相同,但在质量、数量和精度上有所不同。后融合是一种多模态信息优化最终提议的集成方法(ensemble method)。如图是后融合的一个例子:

2fa8a7c0-c03e-11ec-bce3-dac502259ad0.png

非对称融合。除了早融合、深度融合和后融合外,一些方法以不同的权限处理跨模态分支,因此融合一个分支的目标级信息和其他分支的数据级或特征级信息,定义为非对称融合。强融合的其他方法将两个分支视为似乎相等的状态,非对称融合至少有一个分支占主导地位,而其他分支提供辅助信息来执行最终任务。如图是非对称融合的一个例子:可能具有提议的相同提取特征,但非对称融合只有来自一个分支的一个提议,而后融合有来自所有分支的提议。

2fbd49fa-c03e-11ec-bce3-dac502259ad0.png

与强融合不同,弱融合方法不会以多种方式直接从分支融合数据/特征/目标,而是以其他方式操作数据。基于弱融合的方法通常使用基于规则的方法来利用一种模态数据作为监督信号,以指导另一模态的交互。如图展示了弱融合模式的基本框架:

2fd2ec88-c03e-11ec-bce3-dac502259ad0.png

有可能图像分支中CNN的2D提议导致原始激光雷达点云出现截锥体(frustum)。然而,与图像特征组合非对称融合不同,弱融合直接将选择的原始激光雷达点云输入到激光雷达主干网,以输出最终提议。

有些工作不能简单地定义为上述任何类型的融合,在整个模型框架中采用多种融合方法,例如深度融合和后融合的结合,也有将前融合和深度融合结合在一起。这些方法从模型设计看存在冗余,这不是融合模块的主流。

待解决的问题有一些分析。

当前的融合模型面临着错对齐和信息丢失的问题。此外,平融合(flat fusion)操作也阻止了感知任务性能的进一步提高。总结一下:

错对齐和信息丢失:传统的前融合和深度融合方法利用外部标定矩阵将所有激光雷达点直接投影到相应的像素,反之亦然。然而,由于传感器噪声,这种逐像素对齐不够精确。因此,可以采取周围的信息作为补充,会产生更好的性能。此外,在输入和特征空间的转换过程中,还存在其他一些信息损失。通常,降维操作的投影不可避免地会导致大量信息丢失,例如,将3-D激光雷达点云映射到2-DBEV图像。将两个模态数据映射到另一个专门为融合设计的高维表示,可以有效地利用原始数据,减少信息损失。

更合理的融合操作:级联和元素相乘这些简单的操作可能无法融合分布差异较大的数据,难以弥合两个模态之间的语义鸿沟。一些工作试图用更复杂的级联结构来融合数据并提高性能。

前视图单帧图像是自动驾驶感知任务的典型场景。然而,大多数框架利用有限的信息,没有详细设计辅助任务来进一步理解驾驶场景。总结一下:

采用更多的潜在信息:现有方法缺乏对多维度和来源信息的有效利用。其中大多数都集中在前视图的单帧多模态数据上。其他有意义的信息还有语义、空间和场景上下文信息。一些模型试图用图像语义分割任务结果作为附加特征,而其他模型可能利用神经网络主干中间层的特征。在自动驾驶场景中,许多明确语义信息的下游任务可能会极大地提高目标检测任务的性能。例如车道检测、语义分割。因此,未来的研究可以通过各种下游任务(如检测车道、交通灯和标志)共同构建一个完整的城市场景的认知框架,帮助感知任务的表现。此外,当前的感知任务主要依赖于忽略时间信息的单一框架。最近基于激光雷达的方法结合了一个帧序列来提高性能。时间序列信息包含序列化的监控信号,与单帧方法相比,它可以提供更稳健的结果。

表征学习的自监督:相互监督的信号自然地存在于从同一个真实世界场景但不同角度采样的跨模态数据中。然而,由于缺乏对数据的深入理解,目前无法挖掘出各模态之间的协同关系。未来的研究可以集中在如何利用多模态数据进行自监督学习,包括预训练、微调或对比学习。通过实施这些最先进的机制,融合模型将加深对数据的理解并取得更好的结果。

域偏差和数据分辨率与真实场景和传感器高相关。这些缺陷阻碍了自动驾驶深度学习模型的大规模训练和实施。

域偏差:在自主驾驶感知场景中,由不同传感器提取的原始数据伴随着域相关特征。不同的摄像头系统有其光学特性,而激光雷达可能因机械激光雷达和固态激光雷达而不同。更重要的是,数据本身可能是有域偏差的,例如天气、季节或地理位置。因此,检测模型无法顺利适应新的场景。由于泛化失败,这些缺陷妨碍大规模数据集的收集和原始训练数据可重用性。

分辨率冲突:来自不同模式的传感器通常具有不同的分辨率。例如,激光雷达的空域密度明显低于图像的空域密度。无论采用何种投影方法,由于无法找到对应关系,一些信息被消除。这可能导致模型被一个特定模态的数据所主导,无论是特征向量的分辨率不同还是原始信息的不平衡。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2548

    文章

    50642

    浏览量

    751670
  • 激光雷达
    +关注

    关注

    967

    文章

    3937

    浏览量

    189563
  • 自动驾驶
    +关注

    关注

    783

    文章

    13674

    浏览量

    166096

原文标题:一文读懂自动驾驶多模态传感器融合

文章出处:【微信号:Zidonjiashi,微信公众号:Zidonjiashi】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    自动驾驶传感器数据融合方法

    文章来源:雅名特自动驾驶 近年来,深度学习技术在涉及高维非结构化数据领域展现出了最先进的性能,如计算机视觉、语音、自然语言处理等方面,并且开始涉及更大、更复杂的模态信息问题。 不同传感器
    的头像 发表于 10-09 16:23 2011次阅读
    <b class='flag-5'>自动驾驶</b><b class='flag-5'>多</b><b class='flag-5'>传感器</b>数据<b class='flag-5'>融合</b>方法

    未来已来,传感器融合感知是自动驾驶破局的关键

    驾驶的关键的是具备人类的感知能力,传感器融合感知正是自动驾驶破局的关键。昱感微的雷视一体
    发表于 04-11 10:26

    #硬声创作季 自动驾驶传感器数据融合(1):什么是传感器融合

    传感器自动驾驶自动驾驶汽车
    Mr_haohao
    发布于 :2022年10月12日 15:02:02

    自动驾驶的到来

    的攻击方式有几种,一是攻击自动驾驶的外部传感器,科恩实验室对于特斯拉的模拟攻击实验是一个很好的例子。在这方面,使用传感器融合,综合决策,而
    发表于 06-08 15:25

    自动驾驶汽车的定位技术

    手段有多种,多个传感器可根据定位方法进行随意组合。融合方案的定位精度会优于单一传感器,一个传感器在某种环境失效,补充传感器能顶上。例如市面上
    发表于 05-09 04:41

    自动驾驶系列报告大放送了涉及传感器,芯片,执行控制等

    自动驾驶系统:量产导向还是性能导向, 自动驾驶系列报告三:车载芯片篇,自动驾驶芯片,GPU的现在和ASIC的未来, 自动驾驶系列报告之四:传感器
    发表于 08-09 17:14

    自动驾驶的五大传感器各有千秋

    自动驾驶概念想必大家并不陌生,但对于其中发挥“眼睛”作用,眼观六路耳听八方的各种传感器,可能大家未必非常熟悉。通常而言,为获得良好的路况检测结果,一辆自动驾驶汽车会安装多种传感器,本文
    发表于 05-13 08:29

    自动驾驶汽车中传感器的分析

    特斯拉在五月份发生的自动驾驶事故,和最近在Defcon上演示的如何干扰传感器,都充分说明了传感器自动驾驶中的重要性:环境感知是自动驾驶实现
    发表于 05-14 07:34

    这些自动驾驶传感器,你了解多少?

    传感器技术发展本身来说,要在接下来十年里保证自动驾驶车安全地上路,硬件性能与背后的软件算法,以及不同传感器之间的数据融合,都是需要提升的地方。
    发表于 05-18 06:11

    传感器自动驾驶“硬实力” 有哪些

    随着自动驾驶等前沿科技领域发展加速,传感器的重要性和普及率也获得了持续提升。面对传感器在未来愈发广阔的蓝海“诱惑”,国内企业亟需加强各领域合作,并积极引进高端人才、完善培养体系,以获得突破性的创新
    发表于 07-29 07:54

    传感器融合自动驾驶领域的应用

    自动驾驶的安全事故原因绝大多数出现在传感器这个重要环节,将各类传感器融合在一起,能否就能起到1+1>2的效果呢?
    发表于 07-27 10:53 1871次阅读

    传感器融合技术在自动驾驶中的应用

    干货时间:本文将跟随iMotioner Ting一起走进传感器融合技术,结合具体方案,分享自动驾驶相关技术。
    的头像 发表于 06-14 16:27 2091次阅读

    自动驾驶汽车的未来趋势:集中式传感器融合

    现如今,大多数自动驾驶汽车都依靠传感器融合,即将毫米波雷达、激光雷达和摄像头的传感器数据以一定的准则进行分析和综合来收集环境信息。正如
    的头像 发表于 11-16 09:05 2741次阅读
    <b class='flag-5'>自动驾驶</b>汽车的未来趋势:集中式<b class='flag-5'>传感器</b><b class='flag-5'>融合</b>

    自动驾驶深度模态目标检测和语义分割:数据集、方法和挑战

    深度学习推动了自动驾驶感知技术的最新进展。为了实现鲁棒和准确的场景理解,自动驾驶汽车通常配备不同的传感器(如相机、激光雷达、雷 达),多种传感模式可以
    发表于 06-06 10:37 0次下载
    <b class='flag-5'>自动驾驶</b>深度<b class='flag-5'>多</b><b class='flag-5'>模态</b>目标检测和语义分割:数据集、方法和挑战

    自动驾驶“加速”,车载红外热像仪在传感器融合中的应用

    传感器融合自动驾驶的必由之路。实现高级别的辅助驾驶自动驾驶,需要多种
    的头像 发表于 08-18 16:51 883次阅读
    <b class='flag-5'>自动驾驶</b>“加速”,车载红外热像仪在<b class='flag-5'>多</b><b class='flag-5'>传感器</b><b class='flag-5'>融合</b>中的应用