0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

无人驾驶数据集你只知道Kitti吗?而实际比你想象的多

ml8z_IV_Technol 来源:lp 2019-04-22 17:26 次阅读

无人驾驶数据集你只知道Kitti吗?而实际比你想象的多。

H3D - HRI-US(地址:https://usa.honda-ri.com/hdd/introduction/h3d)本田研究所于2019年3月发布其无人驾驶方向数据集,相关介绍于https://arxiv.org/abs/1903.01568介绍。本数据集使用3D LiDAR扫描仪收集的大型全环绕3D多目标检测和跟踪数据集。其包含160个拥挤且高度互动的交通场景,在27,721帧中共有100万个标记实例。凭借独特的数据集大小,丰富的注释和复杂的场景,H3D聚集在一起,以激发对全环绕3D多目标检测和跟踪的研究。

nuScenes(地址:https://www.nuscenes.org/)安波福于2019年3月正式公开了其数据集,并已在GitHub(地址:https://github.com/nutonomy/nuscenes-devkit)公开教程。数据集拥有从波士顿和新加坡收集的1000个“场景”的信息,包含每个城市环境中都有的最复杂的一些驾驶场景。该数据集由140万张图像、39万次激光雷达扫描和140万个3D人工注释边界框组成,是迄今为止公布的最大的多模态3D 无人驾驶数据集。

ApolloCar3D该数据集包含5,277个驾驶图像和超过60K的汽车实例,其中每辆汽车都配备了具有绝对模型尺寸和语义标记关键点的行业级3D CAD模型。该数据集比PASCAL3D +和KITTI(现有技术水平)大20倍以上。

KITTI Vision Benchmark Suite(地址:

http://www.cvlibs.net/datasets/kitti/raw_data.php)数据集为使用各种传感器模式,例如高分辨率彩色和灰度立体相机,Velodyne 3D激光扫描仪和高精度GPS/IMU惯性导航系统,在10-100 Hz下进行6小时拍摄的交通场景。

Cityscape Dataset(地址:https://www.cityscapes-dataset.com/)专注于对城市街景的语义理解。大型数据集,包含从50个不同城市的街景中记录的各种立体视频序列,高质量的像素级注释为5000帧,另外还有一组较大的20000个弱注释帧。因此,数据集比先前的类似尝试大一个数量级。可以使用带注释的类的详细信息和注释示例。

Mapillary Vistas Dataset(地址:https://www.mapillary.com/dataset/vistas?pKey=xyW6a0ZmrJtjLw2iJ71Oqg&lat=20&lng=0&z=1.5)数据集是一个新颖的大规模街道级图像数据集,包含25,000个高分辨率图像,注释为66个对象类别,另有37个类别的特定于实例的标签。通过使用多边形来描绘单个对象,以精细和细粒度的样式执行注释。

CamVid

(地址:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/)剑桥驾驶标签视频数据库(CamVid)是第一个具有对象类语义标签的视频集合,其中包含元数据。数据库提供基础事实标签,将每个像素与32个语义类之一相关联。该数据库解决了对实验数据的需求,以定量评估新兴算法。虽然大多数视频都使用固定位置的闭路电视风格相机拍摄,但我们的数据是从驾驶汽车的角度拍摄的。驾驶场景增加了观察对象类的数量和异质性。

Caltech数据集(地址:

http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/) - 加州理工学院行人数据集包括大约10小时的640x480 30Hz视频,这些视频来自在城市环境中通过常规交通的车辆。大约250,000个帧(137个近似分钟的长段)共有350,000个边界框和2300个独特的行人被注释。注释包括边界框和详细遮挡标签之间的时间对应。更多信息可以在我们的PAMI 2012和CVPR 2009基准测试文件中找到。

Comma.ai(地址:https://archive.org/details/comma-dataset)7.25小时的高速公路驾驶。包含10个可变大小的视频片段,以20 Hz的频率录制,相机安装在Acura ILX 2016的挡风玻璃上。与视频平行,还记录了一些测量值,如汽车的速度、加速度、转向角、GPS坐标,陀螺仪角度。这些测量结果转换为均匀的100 Hz时基。

Oxford's Robotic Car(地址:https://robotcar-dataset.robots.ox.ac.uk/) - 超过100次重复对英国牛津的路线进行一年多采集拍摄。该数据集捕获了许多不同的天气,交通和行人组合,以及建筑和道路工程等长期变化。

伯克利BDD100K数据(地址:https://bdd-data.berkeley.edu/)超过100K的视频和各种注释组成,包括图像级别标记,对象边界框,可行驶区域,车道标记和全帧实例分割,该数据集具有地理,环境和天气多样性。

Udacity(地址:https://github.com/udacity/self-driving-car/tree/master/datasets) - 为Udacity Challenges(地址:https://cn.udacity.com/course/self-driving-car-engineer--nd013)发布的Udacity数据集。包含ROSBAG训练数据。(大约80 GB)。

University of Michigan North Campus Long-Term Vision and LIDAR Dataset(地址:http://robots.engin.umich.edu/nclt/) - 包括全方位图像,3D激光雷达,平面激光雷达,GPS和本体感应传感器,用于使用Segway机器人收集的测距。

University of Michigan Ford Campus Vision and Lidar Data Set(地址:http://robots.engin.umich.edu/SoftwareData/Ford)基于改进的福特F-250皮卡车的自动地面车辆测试台收集的数据集。该车配备了专业(Applanix POS LV)和消费者(Xsens MTI-G)惯性测量单元(IMU),Velodyne 3D激光雷达扫描仪,两个推扫式前视Riegl激光雷达和Point Grey Ladybug3全方位摄像头系统。

DIPLECS Autonomous Driving Datasets (2015)(地址:https://cvssp.org/data/diplecs/)通过在Surrey乡村周围驾驶的汽车中放置高清摄像头来记录数据集。该数据集包含大约30分钟的驾驶时间。视频为1920x1080,采用H.264编解码器编码。通过跟踪方向盘上的标记来估计转向。汽车的速度是从汽车的速度表OCR估算的(但不保证方法的准确性)。

Velodyne SLAM Dataset from Karlsruhe Institute of Technology(地址:

https://www.mrt.kit.edu/z/publ/download/velodyneslam/dataset.html)在德国卡尔斯鲁厄市使用Velodyne HDL64E-S2扫描仪记录的两个具有挑战性的数据集。

SYNTHetic collection of Imagery and Annotations (SYNTHIA)(地址:http://synthia-dataset.net/)包括从虚拟城市渲染的照片般逼真的帧集合,并为13个类别提供精确的像素级语义注释:misc,天空,建筑,道路,人行道,围栏,植被,杆,汽车,标志,行人, 骑自行车的人,车道标记。

CSSAD Dataset(地址:http://aplicaciones.cimat.mx/Personal/jbhayet/ccsad-dataset) 包括若干真实世界的立体数据集,用于在自动驾驶车辆的感知和导航领域中开发和测试算法。然而,它们都没有记录在发展中国家,因此它们缺乏在街道和道路上可以找到的特殊特征,如丰富的坑洼,减速器和特殊的行人流。该立体数据集是从移动的车辆记录的,并且包含高分辨率立体图像,其补充有从IMU,GPS数据和来自汽车计算机的数据获得的定向和加速度数据。

Daimler Urban Segmetation Dataset(地址:http://www.6d-vision.com/scene-labeling) 包括城市交通中记录的视频序列。该数据集由5000个经过校正的立体图像对组成,分辨率为1024x440。500帧(序列的每10帧)带有5个类的像素级语义类注释:地面,建筑,车辆,行人,天空。提供密集视差图作为参考,但是这些不是手动注释的,而是使用半全局匹配(sgm)计算的。

Self Racing Cars- XSens/Fairchild Dataset(地址:http://data.selfracingcars.com/)文件包括来自Fairchild FIS1100 6自由度(DoF)IMU,Fairchild FMT-1030 AHRS,Xsens MTi-3 AHRS和Xsens MTi-G-710 GNSS / INS的测量结果。事件中的文件都可以在MT Manager软件中读取,该软件可作为MT软件套件的一部分提供,可在此处获得。

MIT AGE Lab(地址:http://lexfridman.com/automated-synchronization-of-driving-data-video-audio-telemetry-accelerometer/) - 由AgeLab收集的1,000多小时多传感器驾驶数据集的一小部分样本。

LaRA(地址:http://www.lara.prd.fr/lara)-巴黎的交通信号灯数据集

KUL Belgium Traffic Sign Dataset(地址:http://www.vision.ee.ethz.ch/~timofter/traffic_signs/) - 具有10000多个交通标志注释的大型数据集,数千个物理上不同的交通标志。用8个高分辨率摄像头录制的4个视频序列安装在一辆面包车上,总计超过3个小时,带有交通标志注释,摄像机校准和姿势。大约16000张背景图片。这些材料通过GeoAutomation在比利时,佛兰德斯地区的城市环境中捕获。

LISA: Laboratory for Intelligent & Safe Automobiles, UC San Diego Datasets(地址:http://cvrr.ucsd.edu/LISA/datasets.html)交通标志,车辆检测,交通灯,轨迹模式。

博世小交通灯(地址:https://hci.iwr.uni-heidelberg.de/node/6132) - 用于深度学习的小型交通灯的数据集。

Multisensory Omni-directional Long-term Place Recognition (MOLP) dataset for autonomous driving(地址:http://hcr.mines.edu/code/MOLP.html) - 它是在美国科罗拉多州的一年内使用全向立体相机录制的。论文(地址:https://arxiv.org/abs/1704.05215)

DeepTesla(地址:https://selfdrivingcars.mit.edu/deeptesla/):主要包括tesla在两种不同驾驶模式(human driving和autopilot)下的前置相机录制的视频和车辆的转向控制信号。数据可以从这里下载:百度云(地址:https://pan.baidu.com/s/1c2J2IFA#list/path=%2F)。可以参考此GitHub(地址:https://github.com/CJHMPower/deep-tesla)

看到其他数据将继续更新。。。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2547

    文章

    50522

    浏览量

    751408
  • 数据集
    +关注

    关注

    4

    文章

    1205

    浏览量

    24629
  • 无人驾驶
    +关注

    关注

    98

    文章

    4022

    浏览量

    120195

原文标题:无人驾驶数据集汇总

文章出处:【微信号:IV_Technology,微信公众号:智车科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    东华软件:无人驾驶项目成功落地

    近日,东华软件在互动平台上透露,公司在无人驾驶和车路协同、车路云一体化相关技术方面取得了显著进展。为此,公司组建了专业的咨询团队、技术团队及交付团队,致力于推动相关技术的研发与应用。
    的头像 发表于 11-13 17:23 366次阅读

    UWB模块如何助力无人驾驶技术

    ,它使用超过500MHz的带宽进行数据传输。与传统的窄带通信技术相比,UWB技术具有以下特点: 高精度定位 :UWB技术能够提供厘米级的定位精度,这对于无人驾驶车辆在复杂环境中的导航至关重要。 抗干扰能力强 :由于其宽频带特性,UWB信号对干
    的头像 发表于 10-31 14:05 224次阅读

    特斯拉推出无人驾驶Model Y

    北京时间10月11日,特斯拉“WE,ROBOT”发布会正式举行,在特斯拉发布会上,特斯拉推出无人驾驶Model Y。 在发布会上;埃隆·马斯克乘坐Robotaxi亮相。马斯克透露预计特斯拉明年将在
    的头像 发表于 10-11 16:05 949次阅读

    百度计划海外推出萝卜快跑无人驾驶服务

    百度正积极拓展其无人驾驶网约车服务至中国境外,意在增强全球竞争力。据悉,百度有意在中国香港、新加坡及中东地区测试和部署其萝卜快跑(Apollo Go)无人驾驶出租车服务。
    的头像 发表于 10-11 15:43 223次阅读

    易控智驾无人驾驶项目落地红沙泉露天煤矿

    在国能新疆红沙泉一号露天煤矿上,一辆辆白色无人驾驶矿卡在层层叠叠的矿山中穿梭作业,40台百吨级新能源无人驾驶矿卡 ET100已经正式规模化“上岗”,并已实现了稳定“下人”运行。
    的头像 发表于 09-03 10:01 499次阅读

    5G赋能车联网,无人驾驶引领未来出行

    无人驾驶车联网应用已成为智能交通领域的重要发展趋势。随着无人驾驶技术的不断进步和5G网络的广泛部署,5G工业路由器在无人驾驶车联网中的应用日益广泛,为无人驾驶车辆提供了稳定、高效、低时
    的头像 发表于 07-24 10:10 712次阅读
    5G赋能车联网,<b class='flag-5'>无人驾驶</b>引领未来出行

    无人驾驶汽车应用晶振TSX-3225

    近几年以来,无人产品推出了太多的产品,有无人超市,无人机,无人售货机,无人驾驶汽车等多种科技在高速的发展着,科技的发展带动电子元器件的发展电
    的头像 发表于 06-18 10:55 352次阅读
    <b class='flag-5'>无人驾驶</b>汽车应用晶振TSX-3225

    中国或支持特斯拉测试无人驾驶出租

    特斯拉首席执行官马斯克近期的中国之行引发了业界的广泛关注,特别是在“无人驾驶出租车”的推广方面。据悉,特斯拉有意将其“无人驾驶出租车”服务引入中国市场。
    的头像 发表于 05-09 09:29 403次阅读

    百度开放车道级地图数据,助力高级驾驶无人驾驶

    5月1日期,百度地图将向高级辅助驾驶行业提供全量车道级地图数据(LD地图)。该数据已经覆盖全国360个地级市及超过360万公里的高速公路及城市道路。值得关注的是,该LD轻图已通过相关车企的高级辅助
    的头像 发表于 04-30 16:54 1241次阅读

    如何利用无人机物联卡实现无人驾驶飞行

    无人机物联卡是专为无人机设计的物联卡,实现实时连接并提供定位、控制、数据传输等功能。无人驾驶飞行通过传感器、控制算法和飞行控制系统实现。使用无人
    的头像 发表于 04-15 13:32 457次阅读

    吉利汽车成功完成全球首个无人驾驶漂移!

    吉利汽车成功完成全球首个无人驾驶漂移!
    的头像 发表于 03-27 14:17 705次阅读
    吉利汽车成功完成全球首个<b class='flag-5'>无人驾驶</b>漂移!

    无人驾驶矿卡整体解决方案(5g物联网通信方案)

    无人驾驶矿卡是智能矿山的重要组成部分,通过远程操控替代人工驾驶,可以显著提高采矿效率和作业安全性。但要实现无人驾驶矿卡,需要依赖于可靠高效的通信网络,来传输现场视频、控制指令和运行数据
    的头像 发表于 03-26 17:21 489次阅读
    <b class='flag-5'>无人驾驶</b>矿卡整体解决方案(5g物联网通信方案)

    5G车载路由器引领无人驾驶车联网应用

    随着无人驾驶技术的不断发展,车联网正逐渐成为实现智能交通的重要组成部分。5G车载路由器将在车联网的应用中起到至关重要的作用,它能够满足无人驾驶应用的低时延、高速率和实时控制等需求,进一步推动无人驾驶
    的头像 发表于 02-19 11:48 752次阅读
    5G车载路由器引领<b class='flag-5'>无人驾驶</b>车联网应用

    小马智行启动深圳中心城区无人驾驶商业化运营

    小马智行近日宣布,已在深圳市宝安区启动中心城区无人驾驶商业化运营。该公司已获得深圳市宝安区颁发的智能网联汽车无人商业化试点许可,标志着其在无人驾驶技术领域取得了重要突破。
    的头像 发表于 02-04 10:53 849次阅读

    无人驾驶汽车,不听指挥,只看路灯?

    无人驾驶洞见分析
    电子发烧友网官方
    发布于 :2024年02月02日 18:04:30