0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

KITTI 3D检测数据集

新机器视觉 来源:新机器视觉 作者:千百度@知乎 2022-05-31 10:49 次阅读

77c8d9f8-e01e-11ec-ba43-dac502259ad0.png

基于Lidar的object检测模型包括Point-based [PointRCNN(CVPR19), IA-SSD(CVPR22)等], Voxel-based [PointPillars(CVPR19), CenterPoint(CVPR21)等],Point-Voxel-based [PV-RCNN(CVPR20), HVPR(CVPR21)等]和Multi-view-based[PIXOR(CVPR18)等]等。本博客主要记录,作为菜鸟的我,在KITTI数据集上(3类)基于PyTorch实现PointPillars的一些学习心得, 训练和测试的pipeline如Figure 1所示。这里按照深度学习算法的流程进行展开: 数据 + 网络结构 + 预测/可视化 + 评估,和实现的代码结构是一一对应的,完整代码已更新于github//github.com/zhulf0804/PointPillars [说明 - 代码的实现是通过阅读mmdet3dv0.18.1源码, 加上自己的理解完成的。因为不会写cuda, 所以cuda代码和少量代码是从mmdet3dv0.18.1复制过来的。]

78442ec8-e01e-11ec-ba43-dac502259ad0.jpg

一、KITTI 3D检测数据集

1.1 数据集信息:

·KITTI数据集论文:Are we ready for autonomous driving? the kitti vision benchmark suite[CVPR 2012] 和Vision meets robotics: The kitti dataset[IJRR 2013]·KITTI数据集下载(下载前需要登录): point cloud(velodyne, 29GB), images(image_2, 12 GB), calibration files(calib, 16 MB)和labels(label_2, 5 MB)。数据velodyne, calib 和 label_2的读取详见utils/io.py

1.2 ground truth label信息 [file]

对每一帧点云数据, label是 n个15维的向量, 组成了8个维度的信息。

786aee6e-e01e-11ec-ba43-dac502259ad0.png

1)训练时主要用到的是类别信息(type) 和3d bbox 信息 (location, dimension, rotation_y).2)观测角(alpha)和旋转角(rotation_y)的区别和联系可以参考博客blog.csdn.net/qq_161375。

1.3 坐标系的变换

因为gt label中提供的bbox信息是Camera坐标系的,因此在训练时需要使用外参等将其转换到Lidar坐标系; 有时想要把3d bbox映射到图像中的2d bbox方便可视化,此时需要内参。具体转换关系如Figure 2。坐标系转换的代码见utils/process.py

78b98984-e01e-11ec-ba43-dac502259ad0.jpg

1.4 数据增强

数据增强应该是Lidar检测中很重要的一环。发现其与2D检测中的增强差别较大,比如3D中会做database sampling(我理解的是把gt bbox进行cut-paste), 会做碰撞检测等。在本库中主要使用了采用了5种数据增强, 相关代码在dataset/data_aug.py
  • 采样gt bbox并将其复制到当前帧的点云
    • 从Car, Pedestrian, Cyclist的database数据集中随机采集一定数量的bbox及inside points, 使每类bboxes的数量分别达到15, 10, 10.
    • 将这些采样的bboxes进行碰撞检测, 通过碰撞检测的bboxes和对应labels加到gt_bboxes_3d, gt_labels
    • 把位于这些采样bboxes内点删除掉, 替换成bboxes内部的点.
  • bbox 随机旋转平移
    • 以某个bbox为例, 随机产生num_try个平移向量t和旋转角度r, 旋转角度可以转成旋转矩阵(mat).
    • 对bbox进行旋转和平移, 找到num_try中第一个通过碰撞测试的平移向量t和旋转角度r(mat).
    • 对bbox内部的点进行旋转和平移.
    • 对bbox进行旋转和平移.
  • 随机水平翻转
    • points水平翻转
    • bboxes水平翻转
  • 整体旋转/平移/缩放
    • object旋转, 缩放和平移
    • point旋转, 缩放和平移
  • 对points进行shuffle: 打乱点云数据中points的顺序。
Figure3是对上述前4种数据增强的可视化结果。

78e2ec70-e01e-11ec-ba43-dac502259ad0.jpg

二、网络结构与训练

790ffaf8-e01e-11ec-ba43-dac502259ad0.png

7944643c-e01e-11ec-ba43-dac502259ad0.png

2.2 GT值生成

Head的3个分支基于anchor分别预测了类别, bbox框(相对于anchor的偏移量和尺寸比)和旋转角度的类别, 那么在训练时, 如何得到每一个anchor对应的GT值呢 ? 相关代码见model/anchors.py

79a33d0e-e01e-11ec-ba43-dac502259ad0.png

79daebe6-e01e-11ec-ba43-dac502259ad0.png

2.3 损失函数和训练

现在知道了类别分类head, bbox回归head和朝向分类head的预测值和GT值, 接下来介绍损失函数。相关代码见loss/loss.py

7a01fcf4-e01e-11ec-ba43-dac502259ad0.png

总loss = 1.0*类别分类loss + 2.0*回归loss + 2.0*朝向分类loss。模型训练: 优化器torch.optim.AdamW(), 学习率的调整torch.optim.lr_scheduler.OneCycleLR(); 模型共训练160epoches。

三、单帧预测和可视化

基于Head的预测值和anchors, 如何得到最后的候选框呢 ? 相关代码见model/pointpillars.py。一般经过以下几个步骤:基于预测的类别分数的scores, 选出nms_pre (100) 个anchors: 每一个anchor具有3个scores, 分别对应属于每一类的概率, 这里选择这3个scores中最大值作为该anchor的score; 根据每个anchor的score降序排序, 选择anchors。

7a278974-e01e-11ec-ba43-dac502259ad0.png

3. 逐类进行以下操作:
  • 过滤掉类别score 小于 score_thr (0.1) 的bboxes
  • 基于nms_thr (0.01), nms过滤掉重叠框:

7a9bf3a4-e01e-11ec-ba43-dac502259ad0.png

另外, 基于Open3d实现了在Lidar和Image里3d bboxes的可视化, 相关代码见test.pyutils/vis_o3d.py。下图是对验证集中id=000134的数据进行可视化的结果。

7acf8ade-e01e-11ec-ba43-dac502259ad0.jpg

7af3dce0-e01e-11ec-ba43-dac502259ad0.jpg

四、模型评估

评估指标同2D检测类似, 也是采用AP, 即Precison-Recall曲线下的面积。不同的是, 在3D中可以计算3D bbox, BEV bbox 和 (2D bbox, AOS)的AP。先说明一下AOS指标和Difficulty的定义。

7b52c138-e01e-11ec-ba43-dac502259ad0.png

Difficulty: 根据2d框的高度, 遮挡程度和截断程度, 把bbox分为 difficulty=0, 1, 2 或 其它。相关定义具体查看代码pre_process_kitti.py#L16-32这里以3D bbox为例, 介绍类别=Car,difficulty=1AP的计算。注意, difficulty=1的数据实际上是指difficulty<=1的数据; 另外这里主要介绍大致步骤, 具体实现见evaluate.py1.计算3D IoU (utils/process.pyiou3d(bboxes1, bboxes2)), 用于判定一个det bbox是否和gt bbox匹配上 (IoU > 0.7)。2.根据类别=Car,difficulty=1选择gt bboxes和det bboxes。
  • gt bboxes: 选择类别=Car,difficulty<=1的bboxes;
  • det bboxes: 选择预测类别=Car的bboxes。
3. 确定P-R曲线中的点对(Pi, Ri)对应的score阈值。

7bed7ae8-e01e-11ec-ba43-dac502259ad0.png

7c33fc20-e01e-11ec-ba43-dac502259ad0.jpg

五、总结点云检测, 相比于点云中其它任务(分类, 分割和配准等), 逻辑和代码都更加复杂, 但这并不是体现在网络结构上, 更多的是体现在数据增强, Anchors和GT生成, 单帧推理等。点云检测, 相比于2D图像检测任务, 不同的是坐标系变换, 数据增强(碰撞检测, 点是否在立方体判断等), 斜长方体框IoU的计算等; 评估方式因为考虑到DontCare, difficulty等, 也更加复杂一些.初次接触基于KITTI的3D检测, 如有理解错误的, 还请指正; 内容太多了, 如有遗漏, 待以后补充。 审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 可视化
    +关注

    关注

    1

    文章

    1159

    浏览量

    20838
  • 数据集
    +关注

    关注

    4

    文章

    1200

    浏览量

    24606
  • 深度学习
    +关注

    关注

    73

    文章

    5456

    浏览量

    120850

原文标题:3D点云 (Lidar)检测入门篇 : PointPillars PyTorch实现

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    透明塑料件喷粉3D扫描CAV全尺寸检测逆向3D建模设计服务-CASAIM

    3D建模
    中科院广州电子
    发布于 :2024年08月30日 10:04:53

    安宝特产品 安宝特3D Analyzer:智能的3D CAD高级分析工具

    安宝特3D Analyzer包含多种实用的3D CAD高级分析工具,包括自动比对模型、碰撞检测、间隙检查、壁厚检查,以及拔模和底切分析,能够有效提升3D CAD模型
    的头像 发表于 08-07 10:13 299次阅读
    安宝特产品  安宝特<b class='flag-5'>3D</b> Analyzer:智能的<b class='flag-5'>3D</b> CAD高级分析工具

    广东3D扫描钣金件外观尺寸测量3D偏差检测对比解决方案CASAIM

    3D扫描
    中科院广州电子
    发布于 :2024年07月22日 16:13:45

    苏州吴中区多色PCB板元器件3D视觉检测技术

    3D视觉检测相较于2D视觉检测,有其独特的优势,不受产品表面对比度影响,精确检出产品形状,可以测出高度(厚度)、体积、平整度等。在实际应用中可以与2
    的头像 发表于 06-14 15:02 323次阅读
    苏州吴中区多色PCB板元器件<b class='flag-5'>3D</b>视觉<b class='flag-5'>检测</b>技术

    工业镜头在3D结构光检测中实际应用

    工业镜头在3D结构光检测中实际应用
    的头像 发表于 06-01 08:34 249次阅读
    工业镜头在<b class='flag-5'>3D</b>结构光<b class='flag-5'>检测</b>中实际应用

    Cognex发布了In-Sight® L38 3D视觉系统,为3D检测设立新标准

    人工智能(AI)驱动的3D视觉系统为自动化制造提供快速部署和可靠的检测功能。
    的头像 发表于 04-15 09:04 396次阅读

    大陆团的3D Flash激光雷达有何优势?

    在这一技术革命的前沿,激光雷达成为了不可或缺的一环。而在这其中,大陆团的3D Flash激光雷达引人瞩目。
    发表于 04-11 10:28 320次阅读
    大陆<b class='flag-5'>集</b>团的<b class='flag-5'>3D</b> Flash激光雷达有何优势?

    PLC如何应用于建筑的3D打印?

    MC Pi-Prime模块化PLC采用EtherCat作为通信协议,有助于实现快速的反应时间和精确的定位控制,为自动化工程师提供灵活的扩展与集成,并缩短实施时间,助力建筑行业引入3D打印。
    的头像 发表于 03-22 10:46 308次阅读
    宏<b class='flag-5'>集</b>PLC如何应用于建筑的<b class='flag-5'>3D</b>打印?

    Nullmax提出多相机3D目标检测新方法QAF2D

    今天上午,计算机视觉领域顶会CVPR公布了最终的论文接收结果,Nullmax感知部门的3D目标检测研究《Enhancing 3D Object Detection with 2D De
    的头像 发表于 02-27 16:38 1031次阅读
    Nullmax提出多相机<b class='flag-5'>3D</b>目标<b class='flag-5'>检测</b>新方法QAF2<b class='flag-5'>D</b>

    基于深度学习的方法在处理3D点云进行缺陷分类应用

    背景部分介绍了3D点云应用领域中公开可访问的数据的重要性,这些数据对于分析和比较各种模型至关重要。研究人员专门设计了各种
    的头像 发表于 02-22 16:16 933次阅读
    基于深度学习的方法在处理<b class='flag-5'>3D</b>点云进行缺陷分类应用

    如何搞定自动驾驶3D目标检测

    可用于自动驾驶场景下基于图像的3D目标检测数据总结。其中一些数据包括多个任务,这里只报告了
    发表于 01-05 10:43 528次阅读
    如何搞定自动驾驶<b class='flag-5'>3D</b>目标<b class='flag-5'>检测</b>!

    4DGen:基于动态3D高斯的可控4D生成新工作

    尽管3D和视频生成取得了飞速的发展,由于缺少高质量的4D数据,4D生成始终面临着巨大的挑战。
    的头像 发表于 01-04 15:57 797次阅读
    4DGen:基于动态<b class='flag-5'>3D</b>高斯的可控4<b class='flag-5'>D</b>生成新工作

    提供3D打印材料与解决方案,助力3D打印产业发展

    提供3D打印材料与解决方案,助力3D打印产业发展
    的头像 发表于 12-12 11:12 485次阅读

    3D 封装与 3D 集成有何区别?

    3D 封装与 3D 集成有何区别?
    的头像 发表于 12-05 15:19 934次阅读
    <b class='flag-5'>3D</b> 封装与 <b class='flag-5'>3D</b> 集成有何区别?

    当芯片变身 3D系统,3D异构集成面临哪些挑战

    当芯片变身 3D 系统,3D 异构集成面临哪些挑战
    的头像 发表于 11-24 17:51 731次阅读
    当芯片变身 <b class='flag-5'>3D</b>系统,<b class='flag-5'>3D</b>异构集成面临哪些挑战