0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

CVPR 2023:视觉重定位,同等精度下速度提升300倍

INDEMIND 来源:INDEMIND 2023-06-05 17:26 次阅读

本次分享的论文来自CVPR 2023(Highlight),作者来自鼎鼎大名的Niantic Labs,是一个很有名的VR游戏开发公司,做了增强现实游戏Ingress和位置发现应用Field Trip和pokemon go手游。

4b71fe88-02ec-11ee-90ce-dac502259ad0.png

论文题目:Accelerated Coordinate Encoding:Learning to Relocalize in Minutes using RGB and Poses

论文链接:https://arxiv.org/pdf/2305.14059.pdf

代码主页:https://github.com/nianticlabs/ace

01介绍

本文是一篇基于学习的视觉定位算法,更具体的是通过网络学习回归图像密集像素三维坐标,建立2D-3D对应后放在鲁棒姿态估计器(RANSAC PNP + 迭代优化)中估计相机六自由度姿态。

与以往基于学习的视觉定位算法的区别在于:以前的方法往往需要数小时或数天的训练,而且每个新场景都需要再次进行训练,使得该方法在大多数应用程序中不太现实,所以在本文中作者团队提出的方法改善了这一确定,使得可以在不到5分钟的时间内实现同样的精度。

具体的,作者讲定位网络分为场景无关的特征backbone和场景特定的预测头。而且预测头不使用传统的卷积网络,而是使用MLP,这可以在每次训练迭代中同时对数千个视点进行优化,导致稳定和极快的收敛。

此外使用一个鲁棒姿态求解器的curriculum training替代有效但缓慢的端到端训练。

其方法在制图方面比最先进的场景坐标回归快了300倍!

curriculum training:Curriculum training是一种训练方法,训练时向模型提供训练样本的难度逐渐变大。在对新数据进行训练时,此方法需要对任务进行标注,将任务分为简单、中等或困难,然后对数据进行采样。

把原来的卷积网络预测头换成MLP预测头的动机是什么?作者认为场景坐标回归可以看作从高维特征向量到场景空间三维点的映射,与卷积网络相比,多层感知器(MLP)可以很好地表示这种映射,而且训练一个特定场景的MLP允许在每次训练迭代中一次优化多个(通常是所有可用的)视图,这会导致非常稳定的梯度,使其能够在非常积极的、高学习率的机制下操作。把这个和curriculum training结合在一起,让网络在后期训练阶段burn in可靠的场景结构,使其模拟了端到端训练方案,以此会极大提升训练速度和效率。

02主要贡献

(1)加速坐标编码(ACE),一个场景坐标回归算法,可以在5分钟内映射一个新场景,以前最先进的场景坐标回归系统需要数小时才能达到相当的重定位精度。

(2)ACE将场景编码成4MB的网络权重,以前的场景坐标回归系统需要7倍的存储空间。

(3)只需要RGB图像和对应的pose进行训练,以前的依赖于像深度图或场景网格这样的先验知识来进行。

03方法

算法的目标是估计给定的RGB图像I的相机姿态h。定义的相机姿态为一个刚体变换,其将相机空间下的坐标ei映射到场景空间的坐标yi,即yi = h*ei。

4b956cf6-02ec-11ee-90ce-dac502259ad0.png

其中C表示2D像素位置和3D场景坐标之间的对应,g表示一个鲁棒的姿态估计器。

设计的网络学习预测给定2D图像点对应的3D场景点,即:

4ba8b7e8-02ec-11ee-90ce-dac502259ad0.png

其中f表示学习到的权重参数化的网络,表示从图像I的像素位置附近提取的图像patch,所以f是一个patchs到场景坐标的映射。

网络在训练时在所有建图图像用他们的ground truth 作为监督进行训练:

4bc05650-02ec-11ee-90ce-dac502259ad0.png

3.1 通过解关联梯度进行高效训练

作者认为以往的方法在每次训练迭代中优化了成千上万个patch的预测,但它们都来自同一幅图像,因此它们的损失和梯度将是高度相关的。所以这篇文章的关键思想是在整个训练集上随机化patches,并从许多不同的视图中构造batch,这种方法可以解关联batch中的梯度,从而得到稳定的训练,而且对高学习率具有鲁棒性,并最终实现快速收敛。

以往的方法的网络如下图所示,一次一副图像,切图像特征编码器和预测头解码器都是CNN

4bdedbe8-02ec-11ee-90ce-dac502259ad0.png

作者将网络拆分为卷积主干和多层感知器(MLP)头,如下图所示:

4c275436-02ec-11ee-90ce-dac502259ad0.png

所以网络拆分成两部分:

4c63c100-02ec-11ee-90ce-dac502259ad0.png

其中是用来预测表示图像特征的高维向量,是用来预测场景坐标的回归头

4c787f50-02ec-11ee-90ce-dac502259ad0.png

作者认为可以用场景无关的卷积网络实现一个通用的特征提取器,可以使用一个MLP而不是另一个卷积网络来实现。这样做因为在预测patch对应的场景坐标时是不需要空间上下文的,也就是说,与backbone不同,不需要访问邻近的像素来进行计算,因此可以用所有图像中的随机样本构建的训练batch,具体就是通过在所有图像上运行预训练的backbone来构建一个固定大小的训练缓冲区,这个缓冲区包含数以百万计的特征及其相关像素位置、相机内参和ground truth ,在训练的第一分钟就产生了这个缓冲。然后开始在缓冲区上迭代主训练循环,即在每个epoch的开始,shuffle缓冲区以混合所有图像数据的特征,在每个训练步骤中,构建数千个特征batch,这可能同时计算数千个视图的参数更新,这样不仅梯度计算对于MLP回归头非常高效,而且梯度也是不相关的,这允许使用高学习速度来快速收敛。

3.2 课程(Curriculum)训练

课程(Curriculum)训练:比如像我们上课一样,开始会讲一些简单的东西,然后再慢慢深入学习复杂的东西,类比网络,就是开始给宽松的阈值,让网络学习简单的知识,后续随着训练时间的进行,增大阈值,让网络学习复杂且鲁棒的知识。

具体的,在整个训练过程中使用一个移动的内阈值,开始时是宽松的,随着训练的进行,限制会越来越多,使得网络可以专注于已经很好的预测,而忽略在姿态估计过程中RANSAC会过滤掉的不太精确的预测。

4c973c92-02ec-11ee-90ce-dac502259ad0.png

这种损失优化了所有有效坐标预测的鲁棒重投影误差π,有效的预测指在图像平面前方10cm到1000m之间,且重投影误差低于1000px。

再使用tanh夹持重投影误差:

4cbbb52c-02ec-11ee-90ce-dac502259ad0.png

根据在训练过程中变化的阈值τ动态地重新缩放tanh:

4cee06c6-02ec-11ee-90ce-dac502259ad0.png

其中t∈(0,1)表示相对训练进度。这个课程训练实现了一个循环的τ阈值时间表,τ阈值在训练开始时保持在附近,在训练结束时趋于。

3.3 Backbone训练

backbone可以使用任何密集的特征描述网络。作者提出了一种简单的方法来训练一个适合场景坐标回归的特征描述网络。为了训练backbone,采用DSAC*的图像级训练,并将其与课程训练相结合。用N个回归头并行地训练N个场景,而不是用一个回归头训练一个场景的backbone。这种瓶颈架构使得backbone预测适用于广泛场景的特性。在ScanNet的100个场景上训练1周,得到11MB的权重,可用于在任何新场景上提取密集的描述符。

04实验

主要在两个室内数据集7Scenes和12Scenes和一个室外数据集Cambridge上进行训练测试:

4d095f2a-02ec-11ee-90ce-dac502259ad0.png

4d3694fe-02ec-11ee-90ce-dac502259ad0.png

和DSAC*比较了在建图训练上的时间损耗:

4d638310-02ec-11ee-90ce-dac502259ad0.png

以及在无地图定位数据集(自己构建的 WaySpots)上的定位结果:

4d8a392e-02ec-11ee-90ce-dac502259ad0.png

4dd639fa-02ec-11ee-90ce-dac502259ad0.png

05总结

这是一个能够在5分钟内训练新环境的重定位算法。

与之前的场景坐标回归方法相比,将建图的成本和存储消耗降低了两个数量级,使得算法具有实用性。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4599

    浏览量

    92617
  • 视觉
    +关注

    关注

    1

    文章

    146

    浏览量

    23889
  • 卷积网络
    +关注

    关注

    0

    文章

    42

    浏览量

    2156

原文标题:前沿丨CVPR 2023:视觉重定位,同等精度下速度提升300倍

文章出处:【微信号:gh_c87a2bc99401,微信公众号:INDEMIND】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    直线电机定位精度和重复定位精度

    、直线电机的定位原理说明( 博扬直线电机)直线电机,通常根据机构所要求的精度,配合选择合适的光栅尺,形成闭环反馈,精度高直线电机和光栅尺大致决定了整个系统的定位
    发表于 07-12 06:56

    视觉定位方案求助,谢

    功能:视觉定位玻璃的位置和角度,给平面4轴机器人抓取1.附件是我自己用视觉助手做的验证,很不稳定2.相机是1200W,视野范围是350*200,玻璃规格大小有很多,图片是其中一款3.定位
    发表于 10-05 17:15

    深圳CCD视觉检测定位系统有什么特点?

    识别、测量、定位、判断等功能。那么深圳CCD视觉检测定位系统有什么特点?相信不少人是有疑问的,今天深圳四元数就跟大家解答一!四元数CCD视觉
    发表于 10-09 14:45

    CCD视觉定位系统在紫外激光打标机上的应用

    CCD视觉紫外激光打标机,紫外激光打标机有了CCD视觉定位系统的加持在标记加工领域更是如虎添翼,能够将紫外激光打标机的加工效率提升数倍,而且标记的位置更加精准。讲到这里可能很多人还是不
    发表于 03-08 14:20

    精度定位技术需求日益凸显,和SKYLAB了解一精度定位方案

    三号性能在北斗二号的基础上,提升了1至2定位精度,建成后的北斗全球导航系统将为民用用户免费提供约10米精度
    的头像 发表于 08-06 17:40 6059次阅读

    iOS 12正式版即将推出,高负载app启动速度最高提升至2

    今日苹果官方公众号推送了一条消息称,iOS 12 也马上要正式推出,很快就可以下载了。苹果表示,iOS 12正式版轻扫打开相机的速度最高提升至70%;键盘的显示速度最高提升至50%;高
    发表于 09-17 16:05 1052次阅读

    复杂环境的自动驾驶高精度定位技术

    今天为大家分享,自动驾驶在复杂环境的高精度定位技术。
    的头像 发表于 06-28 13:55 5187次阅读

    自动驾驶检测器可同时实现3D检测精读和速度提升

    3月19日,阿里巴巴达摩院宣布近日有论文入选计算机视觉顶会CVPR 2020。论文提出一个通用、高性能的自动驾驶检测器,可兼顾3D物体的检测精度速度
    的头像 发表于 03-20 13:40 2539次阅读

    教你们视觉SLAM如何去提高定位精度

    EpsAvlc: 这个事情的回答需要基于你的动机。 如果你想改进已有的算法以获得在数据集上的视觉里程计定位精度上的提升,那么我的判断是比较难。 如果你是在实际场景中发现已有的框架(例如
    的头像 发表于 07-06 10:57 3932次阅读

    CVPR 2021华为诺亚方舟实验室发表30篇论文 |CVPR 2021

    一年一度的计算机视觉顶会IEEE计算机视觉及模式识别大会CVPR录用结果最近公布。据悉,今年CVPR投稿量与论文接收量相对往年继续上升,有...
    发表于 01-25 18:24 1次下载
    <b class='flag-5'>CVPR</b> 2021华为诺亚方舟实验室发表30篇论文 |<b class='flag-5'>CVPR</b> 2021

    华为DATS路面感知响应速度提升100

    华为动态自适应扭矩系统(DATS)识别颠簸路面动态,智能调整扭矩,大幅提升通过平顺性。路面感知响应速度提升100
    的头像 发表于 09-06 16:21 3292次阅读
    华为DATS路面感知响应<b class='flag-5'>速度</b><b class='flag-5'>提升</b>100<b class='flag-5'>倍</b>

    铁路转辙机视觉精度定位抓取,大幅提升了产线自动化、柔性化水平

    铁路转辙机视觉精度定位抓取,高精度2D视觉大工件定位,既保证了较高的
    的头像 发表于 03-22 09:03 616次阅读

    HighLight:视觉定位同等精度速度提升300

    与以往基于学习的视觉定位算法的区别在于:以前的方法往往需要数小时或数天的训练,而且每个新场景都需要再次进行训练,使得该方法在大多数应用程序中不太现实,所以在本文中作者团队提出的方法改善了这一确定,使得可以在不到5分钟的时间内实现同样的
    的头像 发表于 06-01 14:38 467次阅读
    HighLight:<b class='flag-5'>视觉</b><b class='flag-5'>重</b><b class='flag-5'>定位</b>,<b class='flag-5'>同等</b><b class='flag-5'>精度</b><b class='flag-5'>下</b><b class='flag-5'>速度</b><b class='flag-5'>提升</b><b class='flag-5'>300</b><b class='flag-5'>倍</b>

    CVPR 2023 | 完全无监督的视频物体分割 RCF

    TLDR: 视频分割一直是标注的一个 task,这篇 CVPR 2023 文章研究了完全不需要标注的视频物体分割。仅使用 ResNet,RCF模型在 DAVIS16/STv2/FBMS59 上
    的头像 发表于 07-16 20:45 538次阅读
    <b class='flag-5'>CVPR</b> <b class='flag-5'>2023</b> | 完全无监督的视频物体分割 RCF

    激光焊接视觉定位引导方法

    激光焊接是一种高效、精确的焊接技术,广泛应用于汽车制造、航空航天、电子产品等领域。随着工业自动化和智能化的发展,激光焊接的精度和效率需求日益增加。在此背景视觉定位引导技术成为
    的头像 发表于 05-28 10:34 470次阅读
    激光焊接<b class='flag-5'>视觉</b><b class='flag-5'>定位</b>引导方法