1、Camera only
主要思想:固定900个query个数,随机初始化query。每个query对应一个3D reference point,然后反投影到图片上sample对应像素的特征。
缺点:需要预训练模型,且因为是随机初始化,训练收敛较慢
BEV Former
https://arxiv.org/abs/2203.17270
主要思想:将BEV下的每个grid作为query,在高度上采样N个点,投影到图像中sample到对应像素的特征,且利用了空间和时间的信息。并且最终得到的是BEV featrue,在此featrue上做Det和Seg。
Spatial Cross-Attention:将BEV下的每个grid作为query,在高度上采样N个点,投影到图像中获取特征。
Temporal Self-Attention: 通过self-attention代替运动补偿,align上一帧的feature到当前帧的Q
旷视,PETR
https://arxiv.org/pdf/2203.05625.pdf
2、多模态
清华,FUTR3D
https://arxiv.org/pdf/2203.10642.pdf
在DETR的基础上,将3D reference point投影到Lidar voxel特征和radar point 特征上。
香港科技大学,Transfusion
https://arxiv.org/pdf/2203.11496.pdf
利用CenterPoint在heatmap上获取Top K个点作为Query(这K个点可以看做是通过lidar网络初始化了每个目标的位置,这比DETR用随机点作为Qurey收敛要快),先经过Lidar Transformer得到proposal,把这个proposal作为Query,再和image feature做cross attention。
Google,DeepFusion
https://arxiv.org/abs/2203.08195
直接将Lidar feature和Camera feature做cross attention,这个思路牛逼,我不看到这篇论文是绝对想不到还能这么搞的。
编辑:黄飞
-
算法
+关注
关注
23文章
4604浏览量
92710 -
感知
+关注
关注
1文章
65浏览量
12116 -
Transformer
+关注
关注
0文章
141浏览量
5984
原文标题:BEV感知中的Transformer算法
文章出处:【微信号:3D视觉工坊,微信公众号:3D视觉工坊】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论