0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种轻量级在线多目标车辆跟踪方法“extraCK”

ml8z_IV_Technol 来源:未知 作者:李倩 2018-08-20 17:38 次阅读

摘要:本文提出了一种基于最小成本线性成本分配的亲和匹配多目标车辆跟踪系统。该跟踪系统的目标是从安装在移动的自我车辆上的摄像机获取的场景记录。与其他低速跟踪应用(例如传统的行人跟踪)相比,在道路场景上的车辆跟踪和从移动的自我车辆的相机获取的图像放大了更大的边界框几何形状变化的问题。这种扰动发生在许多跟踪场景中,例如当高速物体从相对的车道接近时。由于自动驾驶算法需要以有效的方式使用处理资源,即使在满足计算复杂任务(如定位,对象检测,占用网格更新,传感器融合和轨迹规划)的要求时,我们的研究特别集中在开发计算轻量级的在线多物体跟踪模型和基准测试上。为了测试和评估我们的模型,我们使用KITTI对象跟踪 - 汽车基准数据集,我们的模型统计指标值相对较高; 我们的模型优于ML和MT的最先进方法,在MOTA和MOTP度量评估方面排名第二,与其他方法相比,处理时间快6到20倍。

I.介绍

多目标跟踪及其对周围动态交通场景的预测能力在自主驾驶中起着至关重要的作用,比如轨道规划和决策制定等安全关键任务[1],[2]。卷积神经网络( CNN )在运行时间和检测精度方面的性能增强创造了“检测跟踪”范例[ 3 ]–[ 5 ]。提供更高精度和更低数量的假阴性的网络需要嵌入更多的复杂性,需要调整大量的参数和更多的处理要求[ 6 ]。

鉴于自动驾驶[7],[8]中使用的定位,目标检测、传感器融合、占用网格更新、轨迹规划、动态建模和控制等任务,广泛使用都需要计算效率高且准确的解决方案。无论是使用激光雷达点云、立体对像、单相机图像传感器,还是采用在线或批量处理方法,多目标跟踪器都会被划分。我们提出了一种轻量级在线多目标车辆跟踪方法“extraCK”,它是一种依赖于单个摄像头的在线“检测跟踪”多目标车辆跟踪器。

II.相关工作

在线多目标跟踪(MOT)已被广泛研究。由于噪声检测,与先前跟踪的对象的关联是一项具有挑战性的任务。马尔可夫决策过程(MDP)已被采用,例如“出生/死亡”和目标的“出现/消失”被视为MDP中的状态转换[9]。在[10]中研究了MOT的最低成本流量优化,并且学习了“检测”,“生死”和“检测之间的过渡”边缘的成本。使用贪婪算法和线性规划提取具有二次交互的最优轨迹集。在[11]中使用长短期记忆(LSTM)模型对外观、运动和交互特征进行编码和组合,在行人跟踪方面获得了有希望的结果。引入了单个基于CNN的对象跟踪器,发现了每个目标的特定CNN分支,在线和提取的特征与目标运动模型相结合[12]。四核CNN已经在[13]中使用,跨帧的跟踪分配是根据四倍损失完成的。对检测到的物体进行网格划分,并根据它们的位置、外观相似性、目标动力学和轨迹正则化对局部流描述符进行分类,并将模型表述为所有假设集的能量最小化框架。在[14]中已经研究了物体和变化点的检测,通过以下[15]检测并将点轨迹定义为图形模型,并且解决了成对电位的最小成本多切问题。

已经研究了目标特定的相似度函数,对于时间局部窗口对象,在线学习了外观相似度函数,并且在[16]中解决了最小成本的多商品流问题。在[17]中已经提出了利用网络流优化来跟踪基于在线目标的外观和运动线索。[ 18 ]关注从安装在移动车辆上的摄像机获取的复杂场景,这也是我们的方法遵循的类似目标。将由对象之间的位置和速度差描述的结构运动约束与检测锚进行比较,并给出具有最小成本的分配。

III.方法

A.亲和特征

对于每个检测到的对象,可以提取各种特征用于亲和度测量,例如包含边界框坐标,宽度,高度的几何特征,取决于立体图像的可用性的视差度量,以及其他检测到的对象的遮挡百分比。基于外观的功能包括检查颜色直方图或关键点描述符[19]。准确测量两个连续帧的检测对象之间的成对亲和度是多对象跟踪的关键挑战。由于移动视觉平台,可以看到大量的运动场景,比如自我车辆合并右转道路,车辆穿过对面车道。

图1 :跟踪器模型的流程图。CNN处理获取的图像以进行对象检测。对于每个检测特征向量和RGB颜色直方图与前一帧进行比较。根据其亲和度测量来分配对象IDS。

在这些情况下,如果特征向量之间的给定距离足够大,则分配新的ID,否则在拥挤情况下分配的ID之间的切换次数会增加。总的来说,选择用于亲和力测量的广义信息特征集是一项具有挑战性的任务。

根据跟踪场景和情况,特定的问题可能会因不同的特性而发生。关键点描述符可用于被遮挡的对象,或者它们可以位于远离小的边界框区域内。使用距离信息看起来很直观,但是当可以发生由环境部分遮挡的检测到的对象时,可能存在如图2中突出显示的一些特定情况。在图2中,第一行给出了来自左摄像机图像的帧,第二行绘制了跟随[ 20 ]的视差图估计。在图2中,第一行给出了来自左摄像机图像的帧,第二行绘制了跟随[ 20 ]的视差图估计。即使对于低遮挡率,由于已经最小和最大差异度量没有给出任何有用的知识,因此平均差异度量表现出不一致性。需要先进的处理方法,如遮挡姿势估计[21],遮挡分类器[22]或直方图比较。被检测对象的外观被显示为信息丰富,RGB通道直方图通常被入库到任意数量的库[ 23 ]。即使对于低数量的区间,如果将三个通道的值添加到特征向量,则吸收边界框位置,也需要加权距离计算和权重参数的学习。

最后,如果使用一个物体与其他被检测物体的遮挡比率,当遮挡另一个物体的最近物体消失时,这两个物体之间会交换值。特征向量Fi由其边界框的特定值定义如下:

其中宽度和高度相关特征根据所获取帧的大小在0和1的范围之间归一化。另外,由Hi表示的i-th边界框补丁的三维RGB直方图用每个通道的6个区间提取。RGB直方图被归一化并平面化成一维,结果长度为216。

B.跟踪器模型

使用Faster R-CNN([3])检测获取图像中的对象,其中300个区域提议和锚步长为8个像素,骨干卷积网络是在ImageNet上预训练的预训练的Inception-Resnet-V2模型[24] 使用KITTI 2D物体检测数据集[4],[5]对数据集进行微调。对于每个检测到的对象,由Fi表示的亲和度特征被提取,并且对于帧 t> 1,成对的特征余弦距离矩阵Di*j被导出如下:

还使用卡方距离比较直方图,其中Si*j表示RGB颜色直方图的卡方距离矩阵。同样,对于t> 1,两个直方图的卡方距离由下式给出:

当分配成对特征距离和直方图相似度时,亲和力成本矩阵Ci*j通过以下公式计算:

一旦建立了成本矩阵,就提取行和列的最小值,以便确定先前跟踪的对象是否消失或者出现了新的对象。在这种情况下,计算亲和力成本大于确定的阈值,缓存消失的车辆,然后交叉检查新对象并与高速缓存的对象进行比较。图3从上到下分别显示了特征距离矩阵、方形直方图距离和成本矩阵。消失的车辆列和新出现的行都从成本矩阵中移除。

存在于成本矩阵中的剩余车辆被分配求解线性和分配问题,匈牙利算法引入的二分图的最小权重匹配[25]。如果X是布尔矩阵并且X(i; j)= 1当且仅当行i被分配给列j时,通过求解来确定最佳赋值:

对命令min(i; j)的方阵进行分配,因此如果对象未被分配给任何先前的检测或者未被确定类似于高速缓存的对象,则分配新的轨迹。

图2:顶行示出了用于KITTI对象跟踪训练序列0001,帧160到164的检测到的车辆和底行立体视差图。由边界框标记的区域的平均差异值以黄色显示。即使低的遮挡率也会导致检测到的对象的平均差异度量在序列中波动,并且不提供稳定的亲和力特征。

图3:特征余弦距离矩阵,卡方RGB颜色直方图相似度和成本矩阵分别从上到下表示。行索引表示对帧t处的对象的检测,列对前一帧的对象进行索引,t-1。

C.后帧处理

当完成当前帧的轨迹分配时,预测下一帧的高速缓存和活动车辆特征。此任务有三个目的:调整成本矩阵,识别先前跟踪的对象已消失但在下面的帧中重新出现,以及调整近处物体的边界框行为,这些行为也可能以高速移动。通过应用最小二乘法在时间索引t处拟合线,在时间索引t + 1处为帧预测对象特征。对于活动或缓存的所有对象,如果已经为高于给定阈值的帧数提供了数据,则提取每个特征的t + 1处的拟合值。外推特征值被观察到的特征值替换,并用于下一帧中的特征向量距离比较。

在图5中,被跟踪物体相对于自我车辆从相反方向接近。由于摄像机和检测到的物体之间的相对高速度,边界框特征显示出相当大的变化。如果亲和力模型接受这种相当大的特征距离,则在拥挤的跟踪场景中预测性能会显着降低。但是,将特征向量外推到下一帧可以深入了解下一个可能的边界框以及车辆是否仅部分可见。如果在帧限制之外外推边界框,则排除期望在框架外的部分。放置在图5左下方的框架示出了框架97处的检测的边界框与框架97的预测边界框和框架96中观察到的边界框之间的余弦距离。

由于CNN的遮挡或假阴性,也无法观察到先前跟踪的车辆。图4示出了说明性示例。CNN在帧73处最后检测到相同的车辆,其被绘制在第一行的最右边,并且直到帧78被重新检测,被绘制在第二行的最左边。在此消失期间,外推缓存的车辆特征以最小化再现时的特征距离。

图4:KITTI对象跟踪测试序列0007,帧73到78。右上方的图像显示了车辆的最后一次检测,其中红色水平和垂直线代表边界框坐标。对于框架74-77,紫色边界框是同一车辆的预测运动。最左边的数字,第78帧显示了检测到同一车辆时的边界框。

图5:属于跟踪训练序列0008的编号为94到97的帧序列表示连续帧之间的相当大的边界框大小变化。对于亲和力匹配,预期部分可见的被跟踪对象的边界框被调整。

IV.评估

出于评估目的,使用[2]中的KITTI对象跟踪评估2012数据集,仅考虑“汽车”类。训练数据集由21个具有8.008帧的序列组成,测试数据集由29个序列和11.095帧组成。从安装在自我车辆上的摄像机以10FPS记录帧。所有序列都具有不同数量的对象和长度及其独特的运动场景。在我们的评估研究中,采用以下指标:CLEAR MOT [26]以及Fragmentation(FRAG),ID-switch(IDS),Mostly-Tracked(MT)和Mostly-Lost(ML),它们在[27]中定义。

表I给出了我们方法“extraCK”的召回率、精确度、F - measure、虚警率( FAR )和真阳性( TP )、假阳性( FP )、假阴性( FN )、虚警率( FAR )的统计度量值。这些度量值是跟踪器的目标检测部分的结果。表II显示了多目标跟踪相关的统计度量值,即多目标跟踪精度(MOTP)说明了跟踪器估计精确对象位置的能力,多目标跟踪精度(MOTA)是FN总和的比值,FP 和总计帧数相对于地面实况对象总数计算的不匹配,[26]。

MT定义为覆盖超过80%的地面实际轨迹的输出轨迹的百分比,ML是覆盖不到20%的地面实际轨迹的输出轨迹的百分比,IDS是跟踪轨迹变化的次数和FRAG定义地面实况轨迹被中断的次数。我们的方法的性能与根据KITTI跟踪基准测试的最新方法进行了比较(例如,参见[ 2 ),列表基准目标跟踪评估方法相对于不同的度量值可在http://www.cvlibs.net/datasets/kitti/eval_tracking.php.获得。

在撰写本论文时,我们的模型在MOTA指标上排名第二,因为与性能更好的方法相比,它具有更高的FN度量值和IDS值,参见表II中的七种方法。定位跟踪对象(即MOTP值)的性能再次排名第二,并且相对接近第一排名方法。根据MT统计度量值以及ML统计度量值,为了捕获大部分跟踪,我们的方法“extraCK”优于其他最先进的方法。我们的方法的基准测试性能被可视化,并与图6中最先进的方法进行比较。

图6:“Car”类多目标跟踪精度(MOTA),多目标跟踪精度(MOTP),主要跟踪(MT)和大部分丢失(MT)度量与KITTI对象跟踪基准中的其他已发布方法的比较。

具有亲和力成本矩阵的跟踪分配的计算复杂性取决于当前和先前检测的最小数量,详细分析在[25],[28]中给出。鉴于在英特尔i7 - 6820HK上以2.70 GHz CPU测试包含检测对象的帧时的运行时性能,我们的跟踪器模型的平均运行时间为0.0295秒或34 fps,标准偏差为0.01228秒。运行时直方图和概率分布如图7所示。

图7 :运行时间直方图和概率分布图,由当前和先前检测到的物体数量的最小值决定。模型在KITTI物体跟踪序列上的平均频率≈34Hz。

V. 结论

本文提出了一种轻量级在线多目标车辆跟踪方法“extraCK”,该方法解决了结合外观特征的外推运动最小成本线性和分配问题。鉴于ML度量,我们的extraCK方法优于最先进的方法,同时我们的方法在MOTA、MOTP和MT测试的前三个度量结果中以KITTI对象跟踪基准的“Car”级为基准。运行时性能(0.03秒)将进行测试和交叉检查。与其他方法相比,速度提高了6到20倍,实现了自动驾驶的计算“轻量级”多车辆跟踪。所实现的运行时性能使得能够根据具有挑战性的跟踪场景中的周围车辆的运动来进行轨迹规划。沿着可接受的跟踪度量值水平的运行时性能使得自动驾驶车辆的计算资源能够被其他时间关键任务使用。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4769

    浏览量

    100687
  • 车辆跟踪
    +关注

    关注

    0

    文章

    6

    浏览量

    6126
  • 自动驾驶
    +关注

    关注

    784

    文章

    13779

    浏览量

    166348

原文标题:一种轻量级在线多目标车辆跟踪方法

文章出处:【微信号:IV_Technology,微信公众号:智车科技】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    一种轻量级的flashKV数据存储方案分享

    tinyFlash一种轻量级的flash KV数据存储方案Github 地址:https://github.com/ospanic/tinyFlash设计原理本方案采用两个扇区轮流使用的方法存储
    发表于 12-20 06:08

    一种适用于空间观测任务的实时多目标识别算法分享

    基于嵌入式图像处理平台的实时多目标识别算法人工智能技术与咨询 昨天本文来自《科学技术与工程》,作者王旭辉等摘 要提出了一种适用于空间观测任务的实时多目标识别算法,它基于DSP和FPGA组合的图像处理
    发表于 12-21 07:02

    基于运动检测与运动搜索的多目标跟踪

    提出一种新的单摄像机多目标跟踪方法,采用全局背景减法得到当前帧所有运动区域,利用kalman滤波器及局部背景减法得到已跟踪
    发表于 04-15 08:58 25次下载

    基于聚类融合的多目标跟踪算法

    多目标跟踪是多传感器数据融合中的个重要问题。基于模式识别理论,提出了一种通过对传感器测量数据集类,以区分源于不同目标的测量数据集合。对各个
    发表于 07-01 08:40 18次下载

    一种双基地MIMO雷达快速多目标定位方法

    该文研究了双基地MIMO雷达测向交叉多目标定位方法,提出了一种基于传播算子的双基地MIMO雷达快速多目标定位算法。该方法避免了
    发表于 11-13 13:56 18次下载

    多传感器多目标跟踪的JPDA算法

    文中提出了一种适用于多传感器多目标跟踪的JPDA算法,它以极大似然估计完成对来自多传感器的测量集合进行同源最优分划,然后采用JPDA方法多目标
    发表于 02-03 10:38 47次下载
    多传感器<b class='flag-5'>多目标</b><b class='flag-5'>跟踪</b>的JPDA算法

    基于传感器网络的多目标跟踪和特征管理方法

    针对传感器网络下多目标跟踪目标数量不断变化这复杂情况,文中对多目标跟踪和特征管理
    发表于 06-07 09:09 0次下载
    基于传感器网络的<b class='flag-5'>多目标</b><b class='flag-5'>跟踪</b>和特征管理<b class='flag-5'>方法</b>

    一种求解车辆垂向振动系统H_2_H_多目标控制的方法_孟建军_白

    一种求解车辆垂向振动系统H_2_H_多目标控制的方法_孟建军_白欢_牟健_银铭_
    发表于 01-14 22:32 0次下载

    改进霍夫森林框架的多目标跟踪算法

    针对单目视觉对多个相似的目标跟踪因遮挡等因素影响而失效的问题,提出一种基于改进霍夫森林框架的多目标跟踪算法。在将
    发表于 12-14 17:09 0次下载

    一种约束权重的改进多目标跟踪方法

    针对高斯混合概率假设密度( GM-PHD)滤波器未检查一对一假设以及难以跟踪跨越目标的问题,在其基础上提出一种约束权重的改进多目标
    发表于 02-24 13:55 0次下载
    <b class='flag-5'>一种</b>约束权重的改进<b class='flag-5'>多目标</b><b class='flag-5'>跟踪</b><b class='flag-5'>方法</b>

    一种轻量级的通信协议 - MAVLink

    一种轻量级的通信协议 - MAVLink
    的头像 发表于 03-12 14:14 4660次阅读
    <b class='flag-5'>一种</b><b class='flag-5'>轻量级</b>的通信协议 -  MAVLink

    基于多假设跟踪框架的多摄像机多目标跟踪方法

    加权问题(MwCP),在线实现对目标三维轨迹的估计。其次,为解决多帧图像处理的NP难问题提出了一种新的在线方案,该方案利用前帧结果的反馈信
    发表于 04-12 16:05 38次下载
    基于多假设<b class='flag-5'>跟踪</b>框架的多摄像机<b class='flag-5'>多目标</b><b class='flag-5'>跟踪</b><b class='flag-5'>方法</b>

    多目标跟踪过程中的数据关联技术综述

    目标跟踪直都是计算视觉领域研究的热点课题辶,作为计算视觉的基础学科,其应用已经渗透到各个领域,包括智能监控、智能人机交互、无人驾驶以及军事等方面。
    发表于 05-08 16:27 2次下载

    基于MobileNet的多目标跟踪深度学习算法

    针对深度学习算法在多目标跟踪中的实时性问题, 提出一种基于MobileNet的多目标跟踪算法. 借助于MobileNet深度可分离卷积能够对
    的头像 发表于 11-09 10:23 1072次阅读
    基于MobileNet的<b class='flag-5'>多目标</b><b class='flag-5'>跟踪</b>深度学习算法

    多目标跟踪算法总结归纳

    多目标跟踪是计算机视觉领域中的个重要任务,它旨在从视频或图像序列中准确地检测和跟踪多个移动目标。不过在落地部署时,有
    的头像 发表于 04-28 09:42 1829次阅读
    <b class='flag-5'>多目标</b><b class='flag-5'>跟踪</b>算法总结归纳