0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

简单的V-SLAM介绍

新机器视觉 来源:知乎 作者:黄浴 2020-08-28 15:15 次阅读

【导读】SLAM是“Simultaneous Localization And Mapping”的缩写,可译为同步定位与建图。最早,SLAM 主要用在机器人领域,是为了在没有任何先验知识的情况下,根据传感器数据实时构建周围环境地图,同时根据这个地图推测自身的定位。因此本文以简单清晰的文字为大家介绍了视觉V-SLAM。

简单的V-SLAM介绍,就当入门:)。

首先,从双目立体几何(stereo geometry)原理开始来定义外极(epipolar)约束:两个摄像头光心分别是 c0 和 c1,3-D 空间点 p 在两个图像平面的投影点分别是 x0 和 x1,那么直线 c0c1 和两个图像平面的交点即外极点(epipole)e0 和 e1,pc0c1 平面称为外极平面(epipolar plane),它和两个图像平面的交线 l0 和 l1 即外极线(epipolar line);可以看到两个摄像头坐标系之间的转换满足(R,t),同时说明摄像头 c0 的图像点 x0 在摄像头 c1 的图像对应点 x1 一定落在其外极线 l1,反之依然;

(a)对应一条光线的外极线 (b)对应的外极线集合和外极平面 外极线约束

这里需要定义一个本质矩阵(essential matrix)E 和一个基础矩阵(fundamental matrix)F:E = [t]×R,其中 [t]× 是反对称矩阵,即定义向量

那么

而 F = A−TEA−1,其中 A 是摄像头内参数矩阵;对矩阵 E 和矩阵 F 来说,均满足外极约束方程x1TEx0 =0,x1TFx0 =0

前者是摄像头已标定情况下图像特征点的对应关系,后者是摄像头未标定情况下图像特征点的对应关系;

其次,得到外极线约束(以F矩阵为例,E矩阵同样)如下

l1=Fx0,l0=x1F,

以及,外极点约束(以F矩阵为例,E矩阵同样)如下

Fe0=0,FTe1=0;

根据上面图像特征点的外极约束方程,有8 点算法求解 F 和 E,以 F 为例,给定一组匹配特征点(n> 7)

定义F矩阵元素fij(i=1~3,j=1~3),那么线性齐次方程组为

简记为

Qf = 0

做SVD得到Q = USVT,而最终F的解是V最右的奇异向量(singular vector);

另外,因为E矩阵完全由摄像头外参数(R和t共6个未知参数,但有一个不确定平移尺度量)决定,所以存在5 点算法求解E矩阵;

可以分解E得到摄像头外参数,其步骤如下:

i. 同样对E矩阵做奇异值分解(SVD):

ii. 那么第一个摄像头投影矩阵简单设为

而第二个摄像头矩阵P2有四种可能情况,如图(a)-(d)所示:

其中

从E矩阵分解得到R和t

根据视图方向与摄像头中心到3-D点的方向之间夹角可以发现,四个可能中只有情况(a)是合理的解;

确定两个视角的姿态之后,匹配的特征点 x,x’可以重建其 3-D 坐标X,即三角化(triangulation)理论;首先存在一个线性解:设两个摄像头投影矩阵为 P 和 P’,相应的它们列向量为pi,pi’,i=1~3,则有方程组:AX= 0

其中

但一些误差干扰的存在,上述线性解是不存在的;所以需要一个非线性的解,这里采用F 矩阵定义的外极约束方程xTFx’= 0,得到最小化误差函数为

下面采用外极线 l, l’的来约束定义误差,如图所示,将目标函数重写为

外极线定义的误差

另外,在已知重建的 3-D 点集,如何和新视角的 2-D 图像特征点匹配呢?这个问题解法称为PnP(Perspective n Points),算法如下:

i. 首先,3D 点表示为 4 个控制点的加权和;

ii. 控制点坐标是求解的(12)未知数;

iii. 3D点投影到图像上以控制点坐标建立线性方程;

iv. 控制点坐标表达为零特征向量(null eigenvectors)线性组合;

v. 上面组合的权重(bi)是新未知数(<4);

vi. 增加刚体(rigidity)约束以得到bi二次方程;

vii. 根据bi数目(无论线性化,或重新线性化)求解。

(注:有时候3-D-2-D匹配比3-D之间匹配的精度高)

PnP求解的示意图

这里需要补充两个概念,一是鲁棒估计的随机样本共识法(RANSAC,RANdom SAmple Consensus),另一个是全局优化的集束修正法(BA,bundle adjustment):

i. RANSAC的目的是在包含异常点(outlier)的数据集上鲁棒地拟合一个模型,如图 2-12 所示:

1. 随机选择(最小)数据点子集并实例化(instantiate)模型;

2. 基于此模型,将所有数据点分类为内点(inlier)或异常点;

3. 迭代重复 1-2 步;

4. 选择最大的内地集,以此重新估计最终模型。

RANSAC示意图

ii. BA的目的是优化全局参数估计,对 SLAM 来说,结构重建的 3-D 点X和其对应的 2-D 特征点x,还有估计的视角变换参数(甚至包括摄像头内参数)P,位于一个重投影(reprojection)误差函数 D 最小化框架下(如图所示),即

BA示意图

这里集束(Bundle)指2-D点和3-D点之间的光线集,而修正(Adjustment)是指全局优化过程;其解法是非线性迭代的梯度下降法,如Gauss-Newton 方法和其修正 Levenberg-Marquardt 方法,因为问题自身的特性,这里的雅可比矩阵是非常稀疏的;另外,只取重建 3-D 点修正的话,称为 structure only BA,而只取视角变换修正的话,称为 motion-only BA;

在以上基础之上,再重新审视SLAM过程:

i. 首先要提到概念 VO,即视觉里程计(visual odometry);VO 是 SLAM 的一部分,VO 主要是估计视角之间的变换,或者运动参数,它不需要输出制图(mapping)的结果,而且 BA 就是 motion-only 的模式;

ii. SLAM 方法分两种途径,一种是递推滤波器方法,另一种是批处理估计方法;

a)滤波器方法,比如卡尔曼滤波递推估计,实际上建立一个状态空间的观测模型和状态转换(运动)模型;观察模型描述当摄像头姿态和地标位置(来自于地图)已知时观测(地标)的概率; 运动模型是系统状态(摄像头姿态)转换的概率分布,即马尔可夫过程; 那么在递归贝叶斯估计中,同时更新系统状态和建立的地图,其中融合来自不同视角的观测来完成制图,而估计系统状态可计算摄像头的姿态,即定位问题;

b)批处理估计方法,也称“关键帧”方法,其步骤是:

1)首先通过选择的头两(关键)帧,采用双目几何的特征点匹配得到初始的3-D点云重建;

2)正常模式:假设 3D 地图可用,并且估计出摄像头增量运动,跟踪特征点并使用 PnP 进行摄像头姿态估计;

3)恢复模式:假设 3D 地图可用,但跟踪失败故没有增量运动,可相对于先前重建的地图重新定位(re-localize)摄像头姿势;

4)关键帧 BA:保持一个“关键帧”子集,状态向量是所有关键帧的 3D 地标和对应摄像头姿势,BA 可以在与跟踪模块并列的线程中调整状态估计;

(注意:关键帧的选择策略是算法性能很重要的一个因素)

SLAM 中的闭环(loop closure)问题:当摄像头又回到原来位置,称为闭环,需要检测闭环,并以此在 BA 框架下优化结构和运动估计;闭环检测和重定位是类似的,可以基于图像特征的匹配实现,俗称“基于图像的重定位(image-based re-localization),当关键帧子集较大的时候,需要对特征匹配进行压缩和加速,比如词包(bag of words)法和K维-树(KD-tree)数据结构等等;

SLAM 中的传感器可以是单目、双目、深度传感器(RGB-D)甚至激光雷达,也可以和 IMU 融合,称为 VINS(visual inertial navigation system)。

附录:G-N 和 L-M 的非线性最小二乘算法

假设有观测向量 zi’,其预测模型为 zi = zi(x),其中x为模型参数;那么最小二乘(LS)法就是最小化如下代价函数:平方误差加权和(weighted Sum of Squared Error,SSE)

其中 Wi 是一个任意对称正定(symmetric positive definite,SPD) 矩阵,特征误差函数为

雅可比矩阵J和黑森(Hessian)矩阵H的计算为

那么 H 近似为

H≈J⊤WJ

作为梯度下降法,其 G-N 迭代的步进量即 z → z + delta z,由下面方程组计算

对于上面 G-N 的迭代步进量计算,可能左边的矩阵不可逆。为此,一种改进的方法是在对角线元素中加入阻尼因子(Damped factor),即 L-M 迭代的步进量计算变成如下方程组

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 机器人
    +关注

    关注

    210

    文章

    28240

    浏览量

    206662
  • 摄像头
    +关注

    关注

    59

    文章

    4815

    浏览量

    95496
  • SLAM
    +关注

    关注

    23

    文章

    419

    浏览量

    31789

原文标题:简单明了,一文入门视觉SLAM

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    最新图优化框架,全面提升SLAM定位精度

    同时定位与地图构建(SLAM)是一项关键技术,允许移动机器人在部分或完全未知的环境中自主导航。它包括使用机载传感器同时估计机器人状态和构建传感器检测到的环境地图。SLAM可以根据传感器和地图构建技术
    的头像 发表于 11-12 11:26 215次阅读
    最新图优化框架,全面提升<b class='flag-5'>SLAM</b>定位精度

    激光雷达在SLAM算法中的应用综述

    SLAM算法运行的重要传感器。基于激光雷达的SLAM算法,对激光雷达SLAM总体框架进行介绍,详细阐述前端里程计、后端优化、回环检测、地图构建模块的作用并总结所使用的算法;按由2D到
    的头像 发表于 11-12 10:30 300次阅读
    激光雷达在<b class='flag-5'>SLAM</b>算法中的应用综述

    MG-SLAM:融合结构化线特征优化高斯SLAM算法

    同步定位与地图构建 (SLAM) 是计算机视觉中的一个基本问题,旨在在同时跟踪相机姿势的同时对环境进行地图构建。基于学习的密集 SLAM 方法,尤其是神经辐射场 (NeRF) 方法,在捕获密集光度
    的头像 发表于 11-11 16:17 205次阅读
    MG-<b class='flag-5'>SLAM</b>:融合结构化线特征优化高斯<b class='flag-5'>SLAM</b>算法

    从算法角度看 SLAM(第 2 部分)

    作者: Aswin S Babu 正如我们在[第 1 部分]中所讨论的,SLAM 是指在无地图区域中估计机器人车辆的位置,同时逐步绘制该区域地图的过程。根据使用的主要技术,SLAM 算法可分为三种
    的头像 发表于 10-02 16:39 265次阅读
    从算法角度看 <b class='flag-5'>SLAM</b>(第 2 部分)

    一种适用于动态环境的实时视觉SLAM系统

    既能保证效率和精度,又无需GPU,行业第一个达到此目标的视觉动态SLAM系统。
    的头像 发表于 09-30 14:35 414次阅读
    一种适用于动态环境的实时视觉<b class='flag-5'>SLAM</b>系统

    深度解析深度学习下的语义SLAM

    随着深度学习技术的兴起,计算机视觉的许多传统领域都取得了突破性进展,例如目标的检测、识别和分类等领域。近年来,研究人员开始在视觉SLAM算法中引入深度学习技术,使得深度学习SLAM系统获得了迅速发展,并且比传统算法展现出更高的精度和更强的环境适应性。
    发表于 04-23 17:18 1248次阅读
    深度解析深度学习下的语义<b class='flag-5'>SLAM</b>

    步进电机的简单介绍

    步进电机的命名,参数,转速简单介绍
    的头像 发表于 04-17 21:40 947次阅读

    工程实践中VINS与ORB-SLAM的优劣分析

    ORB-SLAM是一种基于特征的单目视觉SLAM系统,广泛用于实时三维地图构建和机器人定位。该系统使用ORB特征进行高效的视觉识别和地图重建,支持关键帧技术和回环检测来优化地图的准确性。
    的头像 发表于 04-08 10:17 2654次阅读
    工程实践中VINS与ORB-<b class='flag-5'>SLAM</b>的优劣分析

    什么是SLAMSLAM算法涉及的4要素

    SLAM技术可以应用在无人驾驶汽车、无人机、机器人、虚拟现实等领域中,为这些领域的发展提供了支持。SLAM技术的发展已经逐渐从单纯的定位和地图构建转向了基于场景理解的功能。
    发表于 04-04 11:50 2215次阅读

    什么是SLAM?基于3D高斯辐射场的SLAM优势分析

    基于NeRF的SLAM算法采用全局地图和图像重建损失函数,通过可微分渲染捕获稠密的光度信息,具有高保真度。
    的头像 发表于 04-01 12:44 688次阅读

    从基本原理到应用的SLAM技术深度解析

    LSD-SLAM 即 Large-Scale Direct SLAM,兼容单目相机和双目相机。LSD-SLAM是一种基于光流跟踪的直接法SLAM,但是实现了半稠密建图,建图规模大,可以
    发表于 02-26 09:41 9014次阅读
    从基本原理到应用的<b class='flag-5'>SLAM</b>技术深度解析

    基于NeRF/Gaussian的全新SLAM算法

    基于NeRF的SLAM算法采用全局地图和图像重建损失函数,通过可微分渲染捕获稠密的光度信息,具有高保真度。
    的头像 发表于 01-26 10:48 622次阅读
    基于NeRF/Gaussian的全新<b class='flag-5'>SLAM</b>算法

    坐标系在动态SLAM中究竟有多重要?

    大多同时定位于建图(SLAM)系统在传统上假定的都是静态世界,这与现实世界的场景不符。
    的头像 发表于 01-05 13:46 833次阅读
    坐标系在动态<b class='flag-5'>SLAM</b>中究竟有多重要?

    NeRF何去何从?GS SLAM到底哪家强?来看看最新的开源方案!

    Gaussian-SLAM提出了用于seeding和优化Gaussian splats的新策略,以将其从多视图离线场景扩展到RGBD序列。还扩展了Gaussian splats来编码几何图形并尝试
    的头像 发表于 12-26 16:38 1150次阅读
    NeRF何去何从?GS <b class='flag-5'>SLAM</b>到底哪家强?来看看最新的开源方案!

    基于视觉SLAM的研究现状

    目前视觉SLAM系统可以在微型个人计算机(PC)和嵌入式设备中运行,甚至可以在智能手机等移动设备中运行(Klein和Murray,2009)。与室内或室外移动机器人不同,自动驾驶车辆具有更复杂的参数,尤其是当车辆在城市环境中自动驾驶时。
    发表于 12-04 09:22 1002次阅读
    基于视觉<b class='flag-5'>SLAM</b>的研究现状