摘
要
目标检测是计算机视觉领域的重要研究方向. 传统的目标检测方法在特征设计上花费了大量时间, 且手工设计的特征对于目标多样性的问题并没有好的鲁棒性, 深度学习技术逐渐成为近年来计算机视觉领域的突破口. 为此, 对现有的基础神经网络进行研究, 采用经典卷积神经网络VGGNet作为基础网络, 添加部分深层网络, 结合SSD (single shot multibox detector)算法构建网络框架. 针对模型训练中出现的正负样本不均衡问题, 根据困难样本挖掘原理, 在原有的损失函数中引入调制因子, 将背景部分视为简单样本, 减小背景损失在置信损失中的占比, 使得模型收敛更快速, 模型训练更充分, 从而提高复杂背景下的目标检测精度. 同时, 通过构建特征金字塔和融合多层特征图的方式, 实现对低层特征图的语义信息融合增强, 以提高对小目标检测的精度, 从而提高整体的检测精度. 仿真实验结果表明, 所提出的目标检测算法(feature fusion based SSD, FF-SSD)在复杂背景下对各种目标均可取得较高的检测精度.
关键词
目标检测深度学习SSD算法复杂背景困难样本特征融合
引言
复杂背景下的目标检测是计算机视觉领域中一个十分重要的课题. 传统的目标检测方法面临以下两个问题: 一是基于滑动窗口的区域选择策略容易产生窗口冗余; 二是手工设计的特征对于目标多样性的变化并没有好的鲁棒性. 因此, 基于深度学习的目标检测方法开始受到人们的广泛关注. 深度学习方法能克服传统人工选取特征的缺点, 自适应地学习表征目标的最佳特征, 且抗干扰性能优异, 可以有效提高目标识别的准确性和鲁棒性[1].
在深度学习目标检测模型中, 具有代表性的是Girshick等[2]提出的一系列目标检测算法, 其开山之作是R-CNN (region-convolutional neural network). 针对R-CNN训练时间过长的问题, Girshick[3]又提出了Fast R-CNN. 与R-CNN类似, Fast R-CNN依然采用selective search[4]生成候选区域, 但是, 与R-CNN提取出所有候选区域并使用SVM分类的方法不同, Fast R-CNN在整张图片上使用CNN, 然后使用特征映射提取感兴趣区域(region of interest, RoI); 同时, 利用反向传播网络进行分类和回归. 该方法不仅检测速度快, 而且具有RoI集中层和全连接层, 使得模型可求导, 更容易训练. Ren等[5]又提出了Fast R-CNN的升级版本Faster R-CNN算法. Faster R-CNN是第一个真正意义上端到端的、准实时的深度学习目标检测算法. Faster R-CNN最大的创新点在于设计了候选区域生成网络(region proposal network, RPN), 并设计了anchor机制. 从R-CNN到Fast R-CNN再到Faster R-CNN, 候选区域生成、特征提取、候选目标确认以及边界框坐标回归被逐渐统一到同一个网络框架中.
同样是基于深度学习的目标检测方法, 另一个发展分支是基于回归的目标检测方法. 华盛顿大学的Redmon等[6]提出了YOLO (you only look once)算法, 其核心思想是使用整张图像作为网络输入, 直接在输出层中输出边界框的位置及其所属的类别. 它的训练和检测均在单独的网络中进行, 取得了较好的实时检测效果. YOLO方法舍弃了区域备选框阶段, 加快了速度, 但是定位和分类精度较低, 尤其对小目标以及比较密集的目标群检测效果不够理想, 召回率较低. 2017年, Redmon等[7]又提出了具有检测速度更快、检测精度更高和稳健性更强的YOLO v2. Ju等[8]则以YOLO v3[9]为基础, 提出了一种改进的多尺度目标检测算法, PASCAL VOC和KITTI数据集上的实验结果均表明了该算法的有效性. 针对现有网络模型在实时性方面存在的不足, He等[10]提出了实时的目标检测模型TF-YOLO (tiny fast YOLO), 仿真结果表明, 该算法在多种设备上都可实现实时目标检测.
针对YOLO算法定位精度低的问题, Liu等[11]提出了SSD算法, 该算法先根据锚点(anchor)提取备选框, 然后再进行分类. SSD算法将YOLO的回归思想与Faster R-CNN的锚点机制相结合, 一次即可完成网络训练, 并且定位精度和分类精度相比YOLO都有大幅度提高. Bosquet等[12]提出了一种基于改进SSD模型的SAR (synthetic aperture radar)目标检测算法, 仿真结果表明, 该算法可以实现复杂背景下SAR目标的检测.
尽管SSD算法在特定数据集上已经取得了较高的准确率和较好的实时性, 但是, 该算法损失函数的设计未考虑正负样本不均衡所带来的问题, 也存在因网络结构的缺陷而引起的小目标检测精度不高的问题. 针对模型中出现的正负样本失衡问题, 本文基于困难样本挖掘原理, 在损失函数中引入调制因子; 针对因低层语义信息缺乏所导致的小目标检测结果欠佳的问题, 采取多层特征融合的结构加以解决, 即进行预测之前先进行浅层特征图的融合, 增强其低层的语义信息, 以期能够提高小目标的检测精度.
1 网络模型
1.1
SSD网络结构
本文检测模型以传统的基础网络VGG16 (visual geometry group)为基础, 并添加深层卷积网络而构成. 前部分浅层网络采用卷积神经网络提取图像特征[10], 包括输入层、卷积层和下采样层; 后部分深层网络用卷积层代替原始的全连接层. 卷积层尺寸逐层递减, 分类和定位回归在多尺度特征图上完成.
1.2
先验框设计
SSD网络能够识别多个物体, 其核心是预测固定集合的类别分数和位置偏移, 并使用应用于特征映射的小卷积滤波器的默认边界框. SSD借鉴了Faster R-CNN中anchor的理念[5], 在特征图上通过卷积计算产生若干覆盖全图的候选区域, 形成了先验框机制. 通过为每个单元设置尺度或者长宽比不同的先验框(预测的边界框是以这些先验框为基准的偏移系数), 在一定程度上减少了训练难度. 对于每个单元的每个先验框, 都输出一套独立的检测值, 其对应的边界框由两部分描述: 第1部分是各个类别的置信度; 第2部分是边界框的位置, 包含4个值(cx,cy,w,h), 分别表示边界框的中心坐标以及宽和高. 由于先验框在模型训练之前就已确定, 很难与真实的标注区域完全重合. 为解决此问题, SSD算法使用位置回归层来输出4个位置校正参数(dx,dy,dw,dh). 先验框经过适当变换后, 便能与真实的标注区域基本吻合.
1.3
引入调制因子的损失函数
损失函数用来计算模型预测值与真实值的不一致程度. 对于样本集合(x,y), 本文采用多任务损失函数(multi-task loss function), 可以在损失函数中完成置信度判别和位置回归, 两者加权求和, 得到最终的损失函数[11], 即
(1)
(2)
(3)
SSD算法在损失计算中, 所有的候选框可以分为正样本和负样本两类, 即在所有的先验框中, 与每个标注框有最大重叠率的被视为正样本, 或者是与标注框的重叠大于某一阈值时, 被视为正样本, 其他为负样本. 然而, 在大多数图像中, 目标所占的比例通常远小于背景所占比例. 尽管人们对阈值选择以及正负样本的判断标准有所放松, 但是仍然存在正负样本不均衡的问题, 也就是“类别失衡”[13]. 负样本过多时, 容易造成负样本损失占比过大, 进而导致正样本的误差损失被忽略, 不利于模型的收敛.
为解决上述问题, 本文首先将所有的待训练先验框进行排序, 按照置信度得分情况从大到小排列, 取前四分之一为正样本, 其余为负样本, 以减少负样本比重; 然后, 在原损失函数中引入调制因子, 增加困难样本对参数的贡献值.
对于二分类的逻辑回归问题, 损失函数为
(4)
其中:p∈(0,1)且Lce∈(0,+∞), 它代表预测框相对于标注框的置信度.p越大,Lce越小, 说明所训练的样本越容易, 该样本越容易被正确识别, 从而对损失值的贡献也越小; 反之,p越小,Lce越大, 说明所训练的样本越困难, 该样本越不容易被正确识别, 从而对损失值的贡献也越大. 由于大量背景样本都是容易样本, 这些样本叠加, 损失值之和较大, 就有可能造成“类别失衡”. 因此, 可将(1−p) 作为调制因子, 加入到原有的交叉熵损失函数中. 原有的损失函数[14]变为
(5)
当样本为容易样本时,(1−p) 越小, 损失值会在原基础上进一步被降低, 该分类越容易, 被降低的程度也越大; 相反, 当样本为困难样本时,(1−p) 越大, 分类越困难, 也有可能被误判, 这时的调制因子相应较大, 损失值在一定程度上会被保持. 如此便实现了困难样本的挖掘.
对于多分类问题, 仍然采用交叉熵损失函数, 区别在于p的取值不再由sigmod激活函数的输出值所定义, 而是采用softmax函数来定义该变量, 这时p为某一类的回归结果, 即
(6)
1.4
引入调制因子后前向传播函数和反向传播函数的推导
为了让引入调制因子后的损失函数能够替换原有的损失函数, 下面进行损失函数的前向和反向传播推导. 损失函数的前向传播计算公式如下:
(7)
令t表示目标的类别(t∈[0,20]), 则损失函数为
(8)
(9)
下面计算 有
(10)
(11)
将式(10)代入(11), 可得
(12)
将式(10)和(12)代入(9), 可得
(13)
2 多层特征融合
SSD网络参与分类和定位回归的是多层特征图, 这些特征图呈金字塔结构. 下面先简单介绍特征金字塔和图像反卷积, 进而给出本文所设计的多层特征融合模型.
2.1
图像金字塔与特征金字塔
在目标检测中, 经常遇到多尺度问题, 通常采用图像金字塔[15]和特征金字塔[16-17]的方法. 特征金字塔是由图像金字塔发展而来, 它利用卷积特性, 在提取特征的同时也减小了图像尺寸. 一个卷积神经网络在不同的特征层, 其语义信息是不同的[18]. 特征金字塔中每一层特征都有丰富的语义信息, 但是, 如果使用金字塔中的全部特征图, 无疑会加大运算量, 并且产生较多冗余信息. 经过对特征图的分析, 实验确定使用conv4-3之后的部分特征层用于目标检测.
2.2
图像反卷积
不同卷积层的特征图有着不同的尺寸, 因此, 在进行特征融合之前, 需要对相融合的特征图进行尺寸变换, 这就需要用到反卷积结构[19]. 反卷积, 可以简单理解为卷积的逆过程. 即卷积层的反向传播就是反卷积的前向传播, 卷积层的前向传播就是反卷积的反向传播.
2.3
多层特征融合结构
SSD网络分别在conv4−−3至conv11的6层特征图上进行分类回归, 即使用conv4−−3、conv7、conv8−−2、conv9−−2、conv10−−2和conv11−−2这6层特征图进行检测, 较大的特征图用来检测相对较小的目标, 而较小的特征图负责检测较大的目标[11].
通过对卷积层可视化结构图可以看出: 特征层conv3−−3由于深度较浅, 边缘信息以及非目标干扰信息较为明显; conv4−−3和conv5−−3两层特征图, 除了有大致的轮廓信息以外, 还包含了更多的抽象语义信息; 对于更深的conv8−−2和conv9−−2特征层, 基本的轮廓信息以及细节信息都丢失了, 这对于小目标的检测效果不是很明显. 如果加以融合, 则不仅增加了计算量, 而且对于融合后所带来的信息增益并不明显.
综上, 针对SSD仅利用少量浅层特征图来检测目标, 缺少足够的语义信息所导致的小目标检测精度低的问题, 本文提取并融合浅层特征图, 加强浅层特征图的语义信息, 即选取conv4−−3到conv7之间的特征图进行特征融合, 多层特征融合结构如图 1所示.
图 1多层特征融合结构
特征图的融合方式主要有两种: 通道级联和同位置元素相加[20]. 通道级联法增加了原有的通道数, 即描述图像本身的特征数(通道数)增加了, 而每一特征下的信息没有增加. 同位置元素相加法将所对应的特征图相加, 再进行下一步的卷积操作. 该方法并未改变图像的维度, 只是增加了每一维下的信息量, 这对最终的图像分类显然是有益的. 此外, 同位置元素相加法所需要的内存和参数量小于通道级联法, 故计算量也小于通道级联法. 所以, 本文选择同位置元素相加法进行特征图融合.
3 仿真实验
3.1
实验数据集
本文采用PASCAL VOC数据集(VOC2007和VOC2012)[21-22]进行训练和测试, 该数据集组成为: 目标真值区域、类别标签、包含目标的图像、标注像素类别和标注像素所属的物体. 该数据集总共分4个大类: vehicle、household、animal和person, 共计21个小类(包括1个背景类). 实验统一图片规格为300×300.
3.2
检测模型评价指标
在对目标检测模型进行分析评价中, 本文使用公共评价指标: 平均精确度均值(mean average precision, mAP)对模型进行评价[23]. 下面先给出准确率(precision)和召回率(recall)的定义, 进而给出mAP的定义.
准确率是指在所有正样本中, 正确目标所占的比例, 衡量的是查准率; 召回率是指在所有真实的目标中, 被模型正确检测出来的目标所占的比例, 衡量的是查全率. 其计算公式分别为
(14)
(15)
其中: TP为模型正确检测的目标个数, FP为模型错误检测的目标个数, FN为模型漏检的正确目标个数.
以召回率为横坐标, 以准确率为纵坐标, 二者形成的曲线称为p-r曲线, 用来显示检测模型在准确率与召回率之间的平衡.p-r曲线下的面积为该类别的平均精度(average precision, AP). 在多类别分类中, 通过求取各个类别AP的均值来计算模型整体的检测性能指标, 其计算方法如下:
(16)
(17)
其中:c为目标检测的类别数, APii为第i类目标的平均精确度.
3.3
实验结果与分析
为加快网络模型的收敛速度并提升网络性能, 本文将已训练好的VGG16作为预训练模型, 后续目标检测只需在其基础上进行微调训练即可. 本文采用随机梯度下降法进行模型优化, 设定初始学习速率为0.001, 权值衰减为0.000 5, 动量为0.9;卷积核大小为3×3, IOU设置为0.5;采用Pytorch深度学习框架, Python版本为Anaconda 3.6, 实验统一图片规格为300××300.
表 1给出了Fast R-CNN[3]、Faster R-CNN[5]、YOLO[6]、YOLO v3[9]、SSD300[11]、DSSD321[20]以及本文算法的目标检测精度.
表 1不同目标检测算法检测结果对比
本文算法以VGGNet为基础网络, 其在检测精度方面较Fast R-CNN、Faster R-CNN、YOLO、YOLO v3和SSD300均有优势, 但是对比基础网络为ResNet-101的DSSD算法而言, 精度稍有下降. 主要原因是, VGGNet网络较浅, 而ResNet-101是非常深的网络, 网络越深, 目标特征越能够更好地被提取出来, 因此检测精度越高.
除了检测精度外, 时间复杂度也是算法设计时需要考虑的问题. 因Fast R-CNN、Faster R-CNN、YOLO、SSD300、DSSD321算法的运行平台与本文算法不同, 所以本文用基础网络的层数、基础网络所占内存的大小(网络参数)和预测框的数量来衡量不同算法的时间复杂度. GoogleNet[24]、VGGNet[25]、DarkNet-53[7]和ResNet-101[26]的层数分别为22层、19层、53层和101层, 它们所占的内存分别为99.8 M、82.1 M、30.8 M和170 M.
一般而言, 层数越多, 所占内存越大, 预测框数量越多, 则认为算法的时间复杂度越高. 从表 1和上述基础网络参数可以看出, YOLO算法中基础网络的层数和所占内存略高于VGGNet, 但是预测框数量较少, 所以其计算复杂度较低. YOLO v3使用的基础网络是DarkNet53, 其性能可以与最先进的分类器媲美, 但是因DarkNet53需要更少的浮点运算, 所以时间复杂度较低. Fast R-CNN、Faster R-CNN、SSD300和本文算法都使用VGGNet作为基础网络, Faster R-CNN的预测框数量相对较少, 所以时间复杂度也较低. Fast R-CNN采用的是选择性搜索算法, 其计算复杂度要高于采用候选框生成算法的Faster R-CNN. DSSD算法所使用的基础网络ResNet-101的层数远多于本文所采用的VGGNet, 所占用的内存高出87.9 MB, 在预测框的数量上, DSSD网络比本文算法多8 348个, 因此, DSSD算法计算复杂度最高.
图 2给出了不同算法在20个种类的测试集上的目标检测结果. 从实验结果可以看出, 本文算法对于bicycle、bus、car、cat、dog、horse、motorbike、train这8类目标检测效果较好, 都已达到了85 %以上.
图 2VOC2007上各类别检测结果对比
综合表 1和图 2可以看出, 本文算法在多数类别上的检测精度均能获得较好表现, 尤其是对于bicycle、bus、car、person等复杂背景下的目标, 相比于SSD网络提升较为明显, mAP分别提高了5.4 %、7.3 %、3.5 %、4 %. 但相比于DSSD网络在bird、bottle、cow、table、sofa、TV这些类别上, 检测精度稍有下降, 其原因可能是基础网络的不同而导致的特征提取信息不足.
为验证本文算法对不同大小目标的检测精度, 实验中随机选取100张图片, 其中包含198个目标, 将其分为大、中、小三类. 由于该网络的输入图像尺寸为300××300, 将图像中的检测目标按照其面积占图像总面积的比例分为三类: 目标面积占图像总面积5 %以下的认为是小目标, 目标面积占图像面积5 %∼∼25 %的是中等目标, 目标面积占图像总面积20 %以上的是大目标.表 2给出了SSD算法和本文算法的检测结果(其中: A方法为SSD算法, B方法为本文算法).
表 2随机检测结果对比
由表 2可知, 本文算法对于不同尺寸的目标检测精度均有不同程度的提高, 尤其是对于小目标的检测率由原来的47.1 %增加到58.3 %.
4 结论
针对正负样本不均衡所导致的低分类精度等问题, 本文在原SSD算法的损失函数中引入调制因子, 减小简单样本的损失权值, 增加困难样本的损失值所占比重, 以达到提高复杂背景下目标检测精度的目的. 同时, 调制因子的引入可以减少原模型交叉熵损失函数浪费在容易样本上的计算力, 使得损失函数可以更快地跳过原有容易样本的简单数据, 更快地进入后面困难样本的计算, 从而加快训练阶段的收敛速度. 其次, 针对因网络结构的缺陷而引起的小目标检测精度欠佳问题, 本文采取一种基于特征金字塔的多层特征检测结构, 以增强用于检测小目标的浅层特征图语义信息. 实验结果表明, 本文算法在多种类别目标的检测精度上都较SSD算法有了不同程度的提高, 尤其是在小目标检测识别方面, 检测精度显著提高.
-
SSD
+关注
关注
21文章
2862浏览量
117424 -
目标检测
+关注
关注
0文章
209浏览量
15611 -
深度学习
+关注
关注
73文章
5503浏览量
121163
原文标题:基于深度学习的复杂背景下目标检测
文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论