0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于3D视觉系统的自动驾驶导航

YB7m_Apollo_Dev 来源:未知 作者:胡薇 2018-08-17 09:25 次阅读

自动驾驶需要许多技术,但强大的3D感知是车辆与周围环境互动的先决条件。目前,最标准的方法是基于Lidar来检测和识别物体,发现可行驶道路和相关任务。相比于Lidar,基于视觉信息(如图像或视频)的3D感知对降低成本也至关重要。

2018计算机视觉欧洲大会(European Conference on Computer Vision,简称ECCV)主办的这一挑战要求参赛者基于3D视觉系统来完成自动驾驶相关的一些相关任务,ApolloScape作为Apollo开源平台的一部分,将为本次大会的计算机视觉社区提供一个大规模和高质量的真实场景数据集。本次大会将于9月8日-14日在德国慕尼黑举办,该会议与CVPR、ICCV共称为计算机视觉领域三大顶级学术会议。

ApolloScape是百度在2017年创立的的Apollo自动驾驶开源平台的一部分。为了刻画高细粒度的静态3D世界,我们使用移动激光雷达扫描仪器从Reigl收集点云。这种方法产生的三维点云要比Velodyne产生点云更精确更稠密。在采集车车顶上安装有标定好的高分辨率相机以每一米一帧的速率同步记录采集车周围的场景。而且,整个系统配有高精度GPS和IMU,相机的实时位姿都可以被同步记录。我们的采集图像来自于中国的不同城市,比如北京、上海和深圳等。

ApolloScape拥有来自现实世界的高质量的静态场景的3D标注与动态物体的2D标注。目前,已经产出了14.7万张标注,覆盖了来自三个城市的三个站点周围10KM的地域。而且,每个区域都在不同的天气和光照条件下进行了重复扫描。最终,ApolloSacpe将会发展成为一个不断更新进化的数据集,来自新的城市的数据标注也会陆续的加入其中。ApolloSacpe计划产出至少20万张图片用于举行不同的挑战赛,其中将会覆盖来自三个城市的5个站点的20KM的道路。在下文中,我们将会针对不同的挑战任务进行详细的介绍。

关于挑战赛

对于所有的挑战,除了测试精准度外(精准度会用来给算法排名次),我们也要求参与者具体说明他们所使用的算法的速度和执行细节。我们会鼓励实时运行的算法,例如30 fps,也会将他们突出标注在排行榜上,因为速度是实际应用的关键属性。

挑战赛内容:基于视觉的细粒度车道标记分割

具有车道标记的高精地图通常用作自动驾驶车辆的后端导航。目前,大多数高精地图的生产主要由手工标记构建。在此挑战中,我们要求参与者设计实现基于RGB图像的道路基本元素的自动检测算法。这些分割结果直接用于高精地图的生产或更新环节。这项任务的挑战之处在于不清晰的车道标注和拥挤复杂的交通环境。

整个数据集的Ground truth是在三维点云上标注完成的。然后通过投影得到2D图像的Ground truth。 此外, 移动障碍物的遮挡问题我们也通过2D图像上的手动标注来完成了。参与者还可以利用相应的视频、相机内参和位置来帮助分割任务。我们在图一中举例说明了3D车道标记,在图二中列出了2D的Ground truth。详细的评估标准请参考我们的ECCV挑战赛网站(http://apolloscape.auto/ECCV/index.html)。

2.实时自定位

基于视觉的自定位,即通过图像或视频估计相机的6自由度位姿。与使用LIDAR相比, 具有成本低的优势,但同时也具有更高的挑战。在我们的数据集上我们测试了最新的自定位算法如VidLoc[2],然而我们发现离工业应用仍然有很大的差距(定位精度必须小于15cm)。此外,自我定位算法的实时性对于自动驾驶也至关重要。

在这次挑战中,我们提供了大量的带有精度相机位姿的训练视频。同时我们的测试视频也来自于同一个场景,但是在不同的时间、不同的天气以及交通状况下采集的。我们的指标与DeLS-3D[3]和PoseNet[4]相同。在图3中,我们突出标记了地面实况摄像头姿势。我们已经将所有的Ground truth与ApolloScape发布的数据结合起来。详细的评估标准请参考我们的ECCV挑战赛网站(http://apolloscape.auto/ECCV/index.html)。

3.3D汽车实例了解

对于自动驾驶车辆来说,检测其他车辆、行人、乘客等是非常重要的。系统必须了解每个图像帧中每个物体的3D关系,尤其是自动驾驶车辆周围或附近的物体。在该挑战中,参赛者需要检测,重建和估计图像中所有车辆的3D形状。图4中显示了两帧标注图像的样例。

我们将基于平均精度(AP)来评估车辆的3D边框果,3D形状和姿势。这与2D实例检测和分割类似。详细的评估标准请参考我们的ECCV挑战赛网站(http://apolloscape.auto/ECCV/index.html)。

关于ApolloScape

目前ApolloScape已开放了14.7万帧的像素级语义标注图像,向全球的自动驾驶技术研究人员提供更为实用的数据资源。通过高精度的采集、标注,创造了全球最大的三维自动驾驶数据集Scene Parsing(场景解析)。

此外,ApolloScape计划为数据集拓展更多类型、更多属性的数据:通过添加红外图像,帮助自动驾驶算法更容易进行夜间检测;提取更稠密的轨迹信息,用于对驾驶行为进行建模;以及通过众包模式采集立体视觉的驾驶特殊事件图像。开发者也可以参照我们在CVPR上发表的有关自动驾驶数据集的论文,以便于更好的使用ApolloScape数据集。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 自动驾驶
    +关注

    关注

    784

    文章

    13812

    浏览量

    166461
  • Apollo
    +关注

    关注

    5

    文章

    342

    浏览量

    18453

原文标题:ECCV 2018挑战赛 | ApolloScape:基于视觉的自动驾驶导航

文章出处:【微信号:Apollo_Developers,微信公众号:Apollo开发者社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    浅析基于自动驾驶的4D-bev标注技术

    4D-bev标注技术是指在3D空间中以时间作为第四个维度进行标注的过程。4D-bev通常在地场景较为复杂的自动驾驶场景中使用,其可以通过精准地跟踪和记录动态对象的运动轨迹、姿势变化以及
    的头像 发表于 12-06 15:01 852次阅读
    浅析基于<b class='flag-5'>自动驾驶</b>的4<b class='flag-5'>D</b>-bev标注技术

    双模驻波式超声波镜头清洗技术:为自动驾驶汽车视觉系统提供清晰视野

    为了确保摄像头在各种环境条件下都能提供清晰、准确的图像,超声波镜头清洗技术应运而生。其中,双模清洗技术以其高效性和全面性,成为保障自动驾驶汽车视觉系统清晰视野的有效手段。
    的头像 发表于 12-05 13:53 213次阅读
    双模驻波式超声波镜头清洗技术:为<b class='flag-5'>自动驾驶</b>汽车<b class='flag-5'>视觉系统</b>提供清晰视野

    马斯克重申:纯视觉自动驾驶的未来

    近日,特斯拉始终坚持其独特的纯视觉感知系统。这一系统摒弃了传统的毫米波雷达,完全依赖于摄像头与先进的人工神经网络,以实现自动驾驶的功能。 特斯拉CEO埃隆·马斯克近期再次就
    的头像 发表于 12-04 14:09 440次阅读

    使用STT全面提升自动驾驶中的多目标跟踪

    3D多目标跟踪(3D MOT)在各种机器人应用中发挥着关键作用,例如自动驾驶车辆。为了在驾驶时避免碰撞,机器人汽车必须可靠地跟踪道路上的物体,并准确估计它们的运动状态,例如速度和加速度
    的头像 发表于 10-28 10:07 241次阅读
    使用STT全面提升<b class='flag-5'>自动驾驶</b>中的多目标跟踪

    自动驾驶HiL测试方案 ——场景仿真3D演示#ADAS #自动驾驶 #VTHiL

    自动驾驶
    北汇信息POLELINK
    发布于 :2024年10月16日 10:55:35

    为什么自动驾驶中全球导航卫星系统如此重要?

    全球导航卫星系统(GNSS,Global Navigation Satellite System)作为实现高精度定位的核心技术之一,已经成为自动驾驶技术发展的重要支撑。随着高级辅助驾驶
    的头像 发表于 10-09 09:07 460次阅读
    为什么<b class='flag-5'>自动驾驶</b>中全球<b class='flag-5'>导航</b>卫星<b class='flag-5'>系统</b>如此重要?

    FPGA在自动驾驶领域有哪些优势?

    可以根据自动驾驶系统的具体需求,通过编程来配置FPGA的逻辑功能和连接关系,以适应不同的应用场景和算法变化。这种灵活性使得FPGA能够快速适应自动驾驶技术的快速发展和变化。 低延迟: 自动驾
    发表于 07-29 17:11

    FPGA在自动驾驶领域有哪些应用?

    数据的实时处理和反馈,为自动驾驶汽车的决策提供实时、准确的数据支持。 三、控制系统优化自动驾驶汽车的控制系统是复杂的,需要实现对车速、转向、刹车等多种信息的实时控制。FPGA可以提供高
    发表于 07-29 17:09

    3C薄片自动化上料,3D视觉技术如何赋能?

    随着制造业的快速发展,3C行业对薄片类零件的上料需求日益增长。传统的上料方式往往依赖于人工操作,效率低下且存在误差。为了解决这一问题,3D视觉技术应运而生,为3C薄片
    的头像 发表于 04-17 14:29 446次阅读
    <b class='flag-5'>3</b>C薄片<b class='flag-5'>自动</b>化上料,<b class='flag-5'>3D</b><b class='flag-5'>视觉</b>技术如何赋能?

    Cognex发布了In-Sight® L38 3D视觉系统,为3D检测设立新标准

    人工智能(AI)驱动的3D视觉系统自动化制造提供快速部署和可靠的检测功能。
    的头像 发表于 04-15 09:04 466次阅读

    未来已来,多传感器融合感知是自动驾驶破局的关键

    的架构,预计未来许多智能驾驶团队都会引入“占用网络”来提升系统能力。多维像素的应用前景非常广阔。昱感微的融合感知技术+BEV +Transformer+占用网格有望成为L3/L4级自动驾驶
    发表于 04-11 10:26

    工业自动化,3D视觉在五金件上下料中的应用

    3D视觉引导五金件上下料是一种先进的自动化解决方案,结合了3D视觉技术和机器人技术,实现对五金件的高效、准确上下料操作。以下是关于
    的头像 发表于 02-21 11:38 492次阅读
    工业<b class='flag-5'>自动</b>化,<b class='flag-5'>3D</b><b class='flag-5'>视觉</b>在五金件上下料中的应用

    3D视觉引导3C薄片自动化上料

    3D视觉引导3C薄片自动化上料 在当今高度自动化的制造环境中,精确、高效地处理薄片类零件至关重要。特别是在
    的头像 发表于 01-30 11:13 532次阅读
    <b class='flag-5'>3D</b><b class='flag-5'>视觉</b>引导<b class='flag-5'>3</b>C薄片<b class='flag-5'>自动</b>化上料

    如何搞定自动驾驶3D目标检测!

    可用于自动驾驶场景下基于图像的3D目标检测的数据集总结。其中一些数据集包括多个任务,这里只报告了3D检测基准(例如KITTI 3D发布了超过40K的图像,其中约15K用于
    发表于 01-05 10:43 589次阅读
    如何搞定<b class='flag-5'>自动驾驶</b><b class='flag-5'>3D</b>目标检测!

    一种用于2D/3D图像处理算法的指令集架构以及对应的算法部署方法

    二维(2D)和三维(3D)双模视觉信息在自动驾驶、工业机器人、人机交互等前沿领域具有广泛的应用前景。
    的头像 发表于 01-05 10:35 463次阅读
    一种用于2<b class='flag-5'>D</b>/<b class='flag-5'>3D</b>图像处理算法的指令集架构以及对应的算法部署方法