0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何在复杂天气环境下进行视觉自主导航

新机器视觉 来源:CPNT Lab 作者:CPNT Lab 2022-12-01 10:13 次阅读

01、背景

作为计算机视觉中的一项基础任务,目标检测受到了广泛的关注。在恶劣的天气下,尤其是在雾天环境下,大气中存在很多浑浊介质(如颗粒、水滴等),传统相机可见光难以穿透颗粒介质,因此恶劣天气下的数据非常罕见,现有的检测架构依赖于未失真的传感器流,而恶劣天气下传感器会产生非对称的失真,使得户外场景图像出现退化和降质,清晰度低和对比度低,细节特征模糊不清等特点,对于在高质量图像下训练的目标检测模型,往往无法准确的定位目标,是当前目标检测任务中的一大挑战,同时也是当前如何在复杂天气环境下进行视觉自主导航的一大挑战。为解决这个问题,Bijelic提出了一个新的多模式数据集,该数据集是在北欧10,000 多公里的行驶中获得的。此数据集是恶劣天气下的第一个大型的多模式数据集,且具有10 万个激光雷达、相机、雷达和门控NIR传感器的标签。同时Bijelic提出了一种深层融合网络,可进行稳健的融合,而无需涵盖所有非对称失真的大量标记训练数据。从提议级融合出发,提出了一种由测量熵驱动的自适应融合特征的单镜头模型。

02、数据集介绍

bc73c788-70b6-11ed-8abf-dac502259ad0.png

为了评估恶劣天气中的目标检测,Bijelic进行了实地测试,构建了一个大型的汽车数据集,该数据集提供了用于多模式数据的2D 和3D 检测边界框,并对罕见恶劣天气情况下的天气,光照和场景类型进行了精细分类。表中比较了提出的数据集和最近的大规模汽车数据集,例如Waymo,NuScenes,KITTI和BDD数据集。与NuScenes和BDD相比,该数据集不仅包含在晴朗天气条件下的实验数据,还包含在大雪,雨天和雾中的实验数据。

bcaef7a4-70b6-11ed-8abf-dac502259ad0.png

所有实验数据分别在德国,瑞典,丹麦和芬兰获得,在不同的天气和光照条件下覆盖了10,000km 的距离。以10Hz 的帧速率共收集了140 万帧。每第100 帧都经过手动标记,以平衡场景类型的覆盖范围。生成的注释包含5500个晴天,1000个浓雾,1 000个薄雾,4000个雪/雨。本数据集具体包含文件如下图所示。

bcf98260-70b6-11ed-8abf-dac502259ad0.png

对于该数据集的使用,目前由于作者还未开源融合网络,暂时只能使用源数据,但是也算为后续恶劣天气下的多传感器融合3D目标检测提供了真实环境下的数据集。若仅针对于纯图像2D目标检测或3D检测来说,该数据集中可用于验证作用,或者以混合数据形式作为训练集,但是仅使用该数据集做为验证和训练可能不足以支撑网络学习。正如下图数据集具体标签所示,其标签主要包括五类,蓝色为注释标签,红色为该标签所包括的类别。注意若使用该数据集为训练集,其他数据集为验证集要重新归一标签,与其他数据集标签重合度较低,重新清洗数据也是使用该数据集的一个难点。

bd238722-70b6-11ed-8abf-dac502259ad0.png

03、自适应多模式单次融合

1、网络架构

数据表示。相机分支使用常规的三平面RGB 输入,而对于激光雷达和雷达分支,本文的方法与最近的鸟瞰(BeV)投影方案或原始点云表示不同。BeV 投影或点云输入不允许进行深度的早期融合,因为早期图层中的特征表示与相机特征天生不同。因此,现有的BeV 融合方法只能在建议匹配区域之后进行提升空间中的特征融合,而不能提前。图中可视化了本文提出的输入数据编码,该编码有助于进行深度多模态融合。深度,高度和脉冲强度作为激光雷达网络的输入,而不是仅使用朴素的深度输入编码。对于雷达网络,假设雷达在与图像平面正交和与水平图像尺寸平行的2D 平面中进行扫描。因此,考虑沿垂直图像轴雷达的不变性,并沿垂直轴复制扫描。使用单应性映射将门控图像转换为RGB 相机的图像平面。本文所提出的输入编码使用不同流之间的逐像素对应,可以实现与位置和强度相关的融合,用零值来编码缺失的测量样本。

特征提取。作为每个流中的特征提取堆栈,本文使用了改进的VGG主干。将通道数量减少一半,并在conv4 层上切断网络,使用conv4-10中的六个要素层作为SSD 检测层的输入。特征图随尺寸减小,实现了一个用于不同比例检测的特征金字塔。如结构图所示,不同特征提取堆栈的激活进行了交换。为了使融合更加可靠,为每个特征交换块提供了传感器熵。首先对熵进行卷积,应用Sigmoid与来自所有传感器的级联输入特征相乘,最后级联输入熵。熵的折叠和Sigmoid的应用在区间[0,1] 中生成一个乘法矩阵,这可以根据可用信息分别缩放每个传感器的级联特征。具有低熵的区域可以被衰减,而富熵的区域可以在特征提取中被放大。这样能够在特征提取堆栈中实现自适应融合特征

bd53c4b4-70b6-11ed-8abf-dac502259ad0.png

2、实验

在恶劣天气的实验测试数据上验证所提出的融合模型。将这种方法与现有的单传感器输入和融合的检测器,以及域自适应方法进行比较。由于训练数据获取存在天气偏向,仅使用提出的数据集的晴朗天气部分进行训练,使用Bijelic提出新的多模式天气数据集作为测试集来评估检测性能。结果如图所示。

bd7d9640-70b6-11ed-8abf-dac502259ad0.png

总体而言,由图中可看到随着雾密度的增加,特别是在严重失真的情况下,该文所提出的自适应融合模型的性能优于所有其他方法,与次佳的特征融合变体相比,它提高了9.69%的幅度。但是在有雾条件下,激光雷达的性能也同样具有很大的局限性,在仅激光雷达情况下的检测率,AP下降了45.38%。此外,它还对相机-激光雷达融合模型AVOD,Concat SSD 和Fusion SSD产生了重大影响。它使得学习到的冗余不再成立,这些方法甚至低于仅使用图像的方法。

04、结论

所提出的数据集解决了自动驾驶中的一个关键问题:场景中的多传感器融合和其中注释数据稀少且由于自然的天气偏向而难以获取的图像数据。为后续的研究者引入了一个新颖的恶劣天气数据集,涵盖了不同天气情况下的相机、激光雷达、雷达、门控NIR 和FIR 传感器数据。同时提出的一个实时的深度多模态融合网络不同于提案层的融合,而是由测量熵驱动自适应融合。

该方法一定程度上改进恶劣天气条件下智能自主驾驶车辆在户外环境下进行精确的视觉感知能力,同时也能为后续视觉导航在复杂天气环境下进行精确建图提供高精度的目标定位。

虽然该数据集提出一定程度上填补了多模态数据集的缺失,但是由于自然偏向的问题,恶劣天气采集到的图像还是较少,仍然不适用于网络的训练,如何解决恶劣天气条件下数据集稀少或者降低深度学习网络对于数据样本的依赖性仍亟待改进。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2552

    文章

    51228

    浏览量

    754653
  • 计算机
    +关注

    关注

    19

    文章

    7519

    浏览量

    88202
  • 数据集
    +关注

    关注

    4

    文章

    1208

    浏览量

    24737

原文标题:基于多模态自适应熵驱动融合的恶劣天气自动驾驶视觉感知技术研究

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NaVILA:加州大学与英伟达联合发布新型视觉语言模型

    日前,加州大学的研究人员携手英伟达,共同推出了一款创新的视觉语言模型——NaVILA。该模型在机器人导航领域展现出了独特的应用潜力,为智能机器人的自主导航提供了一种全新的解决方案。 视觉
    的头像 发表于 12-13 10:51 287次阅读

    Xsens Sirius-在严苛环境进行3D惯性导航

    海洋深度还是部署海底基础设施,依靠Xsens在水下世界的深处获得最佳可靠性和导航精度。自主式水下机器人(AUV)在油气钻探和开采、海洋勘测和水生环境监测等领域发挥
    的头像 发表于 11-23 01:09 161次阅读
    Xsens Sirius-在严苛<b class='flag-5'>环境</b>中<b class='flag-5'>进行</b>3D惯性<b class='flag-5'>导航</b>

    导航分析仪的技术原理和应用场景

    特定的编码规则进行解析,获取其中的位置、速度、时间等关键信息。  频谱分析:对于一些复杂导航信号环境导航分析仪会采用频谱分析技术。通过将
    发表于 11-19 15:13

    复杂环境多无人智能车辆协同调控

    摘要: 该文对多无人智能车以领航-跟随法在复杂环境运动的编队控制问题进行了探讨,通过采用闭环控制律设计了一种编队控制器和编队控制方案,该编队控制器的优点在于其主要考虑智能车之间的距离
    的头像 发表于 11-16 10:12 410次阅读
    <b class='flag-5'>复杂</b><b class='flag-5'>环境</b><b class='flag-5'>下</b>多无人智能车辆协同调控

    Bumblebee X 立体相机提升工业自动化中的立体深度感知

    深度感知对仓库机器人应用至关重要,尤其是在自主导航、物品拾取与放置、库存管理等方面。通过将深度感知与各种类型的3D数据(如体积数据、点云、纹理等)相结合,仓库机器人可以在错综复杂环境中实现自主
    的头像 发表于 11-09 01:09 461次阅读
    Bumblebee X 立体相机提升工业自动化中的立体深度感知

    agv叉车激光导航和二维码导航有什么区别?适用什么场景?选哪种比较好?

    无人叉车激光导航和二维码导航在多个方面存在显著差异,以下是它们的主要区别: 一、原理不同 激光导航:利用激光雷达扫描地面环境,实时获取机器人当前位置和周围
    的头像 发表于 10-15 17:45 346次阅读
    agv叉车激光<b class='flag-5'>导航</b>和二维码<b class='flag-5'>导航</b>有什么区别?适用什么场景?选哪种比较好?

    SLAM:机器人如何在未知地形环境进行导航

    的传统导航方法需要预先准备好的地图,但在未知地区,如果不穿越该区域,就不可能获得这样的地图。这是机器人技术领域的一个典型难题,通常被称为“鸡和蛋”的问题。机器人如何在没有地图的情况下在未知环境
    的头像 发表于 10-02 16:37 562次阅读

    一种完全分布式的点线协同视觉惯性导航系统

    在本文中,我们提出了一种完全分布式的点线协同视觉惯性导航系统。我们通过蒙特卡罗模拟和真实环境数据集,在稠密特征或稀疏特征环境将所提出的算法
    的头像 发表于 09-30 14:45 447次阅读
    一种完全分布式的点线协同<b class='flag-5'>视觉</b>惯性<b class='flag-5'>导航</b>系统

    何在不同应用场景构建音频测试环境

    在之前的文章中,我们已经详细介绍了基础音频参数和AP525的软硬件配置。本文将延续这一主题,以泰凌TLSR9518A EVB作为测试设备(DUT),向大家展示如何在不同应用场景构建音频测试环境
    的头像 发表于 07-03 15:00 594次阅读
    如<b class='flag-5'>何在</b>不同应用场景<b class='flag-5'>下</b>构建音频测试<b class='flag-5'>环境</b>

    如何利用MEMS进行导航

    利用 MEMS 进行导航
    发表于 05-17 06:17

    复杂环境,车载中控系统如何助力指挥车高效运作

    复杂多变的环境中,讯维车载中控系统通过其先进的技术和强大的功能,为指挥车的高效运作提供了重要支持。以下是几个方面的表现: 一、强大的信息感知与处理能力 在复杂环境
    的头像 发表于 03-06 16:15 372次阅读

    【LicheeRV-Nano开发套件试用连载体验】+ 实现三麦克纳姆轮小车自主导航

    【LicheeRV-Nano开发套件试用连载体验】+ 实现三麦克纳姆轮小车自主导航 非常感谢被选中成为Sipeed矽速科技、电子发烧友论坛组织的此次试用体验幸运儿,有机会参与
    发表于 03-03 14:20

    请问DAP miniwiggler工具如何在eclipse进行仿真?

    新买的DAP miniwiggler 工具如何在eclipse进行仿真?
    发表于 02-21 06:52

    何在Ununtu环境对Tc264开发板进行开发?

    何在Ununtu环境对Tc264开发板进行开发
    发表于 01-23 07:58

    富唯智能机器人集成了协作机器人、移动机器人和视觉引导技术

    富唯智能移动机器人是一款拥有自主导航能力和物料转移抓取功能的智能机器人,采用先进的无线通信技术和高精度传感器,能够实现自主导航和避障,完成生产线上的物料转运任务,并与其他设备实现无缝对接。此外,富唯
    的头像 发表于 01-17 11:58 445次阅读