0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何实现基于SSD神经网络构建实时手部检测

zhKF_jqr_AI 来源:未知 作者:佚名 2017-12-22 08:00 次阅读

来源:Victor Dibia编译:weakish

编者按:传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(Research Staff Member)Victor Dibia在本月初发文介绍了如何使用Tensorflow框架基于SSD神经网络构建实时手部检测器。

本文记录了使用Tensorflow(Object Detection API)训练一个手部检测器的步骤和代码。我主要感兴趣的是实时检测桌子上的手。我希望本文能够展示如何将神经网络应用于追踪手部(第一人称视角和其他视角),并取得良好的结果。

可以从Github获取所有的代码(包括训练好的模型)。

下图是检测器的实时演示:

和任何基于DNN/CNN的任务一样,流程中成本最高的(也是风险最大的)部分是寻找或创建正确的(标注过的)数据集。我首先尝试了牛津手部数据集进行了实验(结果不好)。我接着尝试了Egohands数据集,这个数据集更符合我的需求(第一人称视角、高质量图像、手部标注)。

一些fps数字:

21 FPS使用320 * 240图像,运行时无可视化结果。

16 FPS使用320 * 240图像,运行时可视化结果

11 FPS使用640 * 480图像,运行时可视化结果(上图)

以上数据是在MacBook ProCPU(i7,2.5GHz,16GB)上测试的结果。

动机——为什么使用神经网络追踪/检测手部?

计算机视觉领域现在有若干追踪方法。凑巧的是,其中许多方法是基于规则的(例如,基于纹理和边界特征来提取背景,使用色彩直方图和HOG分类器来区分手和背景等),因而它们的鲁棒性不是非常好。例如,如果背景不同寻常,或者照明条件的急剧变化导致了肤色的急剧变化或追踪物被遮蔽,这些算法可能会很困惑。(可以参考这篇关于HCI领域估计手部姿态的综述:https://www.cse.unr.edu/~bebis/handposerev.pdf)。

快速移动或者手部角度比较特殊时会出现检测不到的情况

有了足够大的数据集,神经网络提供了训练表现良好的模型的机会,同时应对了现有对象追踪/检测算法的挑战——多样化的/差的照明条件,多化的视角甚至遮蔽。神经网络用于实时跟踪/检测的主要缺陷是,它们可能是很复杂的,与仅作追踪的算法比相对较慢,并且收集一个精良的数据集成本可能相当高。但随着神经网络的快速发展,情况正在改变。

此外,深度学习框架(例如tensorflow的Object Detection API)简化了针对自定义物体检测的模型的训练过程,使这个领域的工作变得更加容易上手。更重要的是,ssd、faster r-cnn、rfcn等快速神经网络模型如ssd,更快的r-cnn,rfcn(见这里)等的出现使神经网络成为实时检测(和追踪)应用的有吸引力的候选者。在HCI领域(如输入设备等),有很多像这样的鲁棒性很强的手部追踪应用。

如果你对训练检测器的过程不感兴趣,你可以直接跳到应用模型检测手部的那节。

噪杂背景和遮蔽

训练模型是一个多阶段过程(汇总数据集、清洗,分割训练、测试集并生成推理图)。虽然我简要描述了这些部分的细节,但还有其他一些教程更详细地介绍如何使用tensorflow Object Detection API。如果对从头开始训练一个定制的检测器感兴趣,我建议你通读这些教程。

Tensorflow的数据预备和网络训练

Egohands数据集

手部检测器模型使用了Egohands数据集中的数据的。这个数据集效果不错的原因有几个。 它包含优质的像素级别标注(> 15000个抠像标注),其中有4800张图像包含手部。所有的图像都是基于第一人称视角(Google glass)拍摄的,这些图像取自48个不同的环境(室内,室外)和活动(玩纸牌,下国际象棋,搭积木,解决谜题等)。如果你将使用Egohands数据集,可以按如下方式引用它:

Bambach, Sven, et al. “Lending a hand: Detecting hands and recognizing activities in complex egocentric interactions.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

Egohands数据集用多边形(白点)圈出了每只手

Egohands数据集(包含标注数据的zip文件)包含48个文件夹,每个文件夹对应于视频采集的地点(每个文件夹包含100张图片)。


— LOCATION_X

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 标注

— LOCATION_Y

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 标注

转换数据至Tensorflow格式

首先需要将Egohands数据集转换为适用于Tensorflow的格式(tfrecord)。Github 仓库中包含一个egohands_dataset_clean.py脚本,它可以帮助生成这些csv文件。

下载egohands数据集

重命名所有文件,在文件名中包含其目录名称,以确保每个文件名都是唯一的

将数据集分成训练(80%)和测试(20%)两个文件夹。

读入每个文件夹中的“polygons.mat”,生成包围盒,并将其可视化以确保正确。

一旦脚本运行完毕,你应该有一个包含训练和测试文件夹的图像文件夹。每个文件夹中还应该包含一个用于生成tfrecords的csv标注文件,文件名分别为train_labels.csv和test_labels.csv。

接着,将数据集和csv文件转换为tfrecord。请参考Harrison提供的教程了解如何转换(https://pythonprogramming.net/creating-tfrecord-files-tensorflow-object-detection-api-tutorial/)。如果你在本地训练,这个教程还介绍了如何在本地启动培训进程。如果你使用GCP之类的服务在云端训练,请参考这个教程(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/running_on_cloud.md)。

注意:虽然egohands数据集为手部提供了四个单独的标签(自己的左手、自己的右手、他人的左手、他人的右手),但本文只对一般的“手”感兴趣,因此上面的脚本将所有的训练数据都标记为“手”。你可以修改训练脚本以生成支持4个标签的tfrecord。

训练手部检测模型

预备好数据集后,接下来的任务就是在这个数据集上训练模型。我们可以使用迁移学习来缩短训练整个模型所需的时间。这意味着我们可以找一个已经在相关的领域(这里是图像分类)训练过的现有模型,并重新训练它最后一层或几层网络来检测手部。棒!考虑到神经网络有时候有几千甚至几百万参数,这些参数可能需要几周或几个月的时间来训练,迁移学习有助于缩短训练时间,可能缩短到几小时。实际上,Tensorflow就提供了一些模型(在tensorflow model zoo),我选择ssd_mobilenet_v1_coco模型作为起点,因为它是目前最快的机型(之一,参见SSD研究论文),训练过程可以在你本地的CPU机器上完成,这可能需要一段时间,或者在(云)GPU机器上训练,这样快很多(我正是这么做的)。作为参考,在我的MacBook Pro(从源码编译tensorflow以充分利用mac的cpu架构的特性)上,我取得的最大训练速度是每步5秒,而在GPU上则是每步 0.5秒。也就是说,在我的mac(i7,2.5GHz,16GB)上运行20万步需要约12天,而在GPU上需要约5小时。

随着训练过程的进展,我预期总损失(错误)会降低到可能的最小值(大约为1或更低)。通过观察tensorboard图形上显示的总损失(见下图),应该可以了解到训练过程何时完成(总损失不会因更多迭代/步骤而下降)。我运行了20万步训练(花了大约5小时),在总损失(错误)值2.575处停止训练。(现在反思一下,我本可以在大约5万步处停止训练,总损失值也差不多)。使用tensorflow,你还可以并发运行评估,评估你的模型在测试数据上的表现。衡量表现的常用指标是平均精确率(mean average precision,mAP),它是一个总结精度-召回曲线下面积的数字。mAP是衡量模型表现的度量,模型的表现指生成与我们的测试数据集中的抠像包围盒至少有50%重叠区域的包围盒。对于这里训练的手部检测器,mAP值为0.9686@0.5IOU。mAP取值范围为0-1,越高越好。

最终的损失值为2.275,mAP为0.9686

训练完成后,导出训练好的推理图(frozen_inference_graph.pb)(具体步骤参见前文提到的教程),将其保存在hand_inference_graph文件夹中。现在是时候做一些有趣的检测了。

使用检测器检测和追踪手部

将检测器应用到Youtube视频

如果你还没有安装好Tensorflow,请依照这个教程安装Tensorflow及其object detection api(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md)。

检测手部的一般步骤如下:

加载frozen_inference_graph.pb

读取输入图像(来自实时视频流、视频文件或静态图像)

检测手部并可视化包围盒

GitHub仓库中有两个脚本,整合了以上步骤:

detect_multi_threaded.py:读取摄像头视频输入并进行检测的多线程实现。

detect_single_threaded.py: 和上面的脚本一样,只不过它是单线程的。适用于视频文件。

最重要的,代码仓库中的frozen_inference_graph.pb包含了一个基于SSD训练好的模型,你能很容易地将它导入你的tensorflow应用来检测手部。

一些优化的想法

显著提升表现的因素:

线程:从摄像头读取图像是一个负担很重的I/O事件,如果在主应用线程上运行它,可能会减慢程序。我实现了Adrian Rosebuck的一些在多个工作线程上并行捕捉图像的好想法。基本上,这增加了约5 FPS。

新接触OpenCV的人可能没考虑到cv2.read()方法返回BGR格式的图像。 确保在检测之前将其转换为RGB(否则的话,精确率会大大降低)。

保证你的输入图像使用较小的尺寸将增加fps,同时不会带来任何显著的精确率下降(我使用了约320×240的图像,而不是我的摄像头默认提供的1280×720图像)。

组合效果不错的追踪算法也能提升表现,我仍在尝试这方面的优化。如果你有优化的想法,欢迎分享!

有很多手的随机图片显示了检测器的一些局限

注意:检测器确实反映了与训练集相关的一些限制。包括非第一人称视角、非常嘈杂的背景(手山手海),有时甚至是肤色。使用更多的数据有机会改善这方面的表现。

集成多DNN

让事情变得更有趣的一种方式是将我们对“手”的位置的新知识与经训练用于识别其他物体的检测器整合起来。不幸的是,虽然我们的手部检测器确实可以检测到手部,但它不能检测到其他物体。 要创建一个可以分类多个不同对象的检测器,意味着要为每个类预备一个数据集并进行训练,这一过程将十分漫长。

因此,一个潜在的替代策略是探索允许我们高效地交错用于多种物体的多个预训练模型的结构,并让它们检测单个图像上的多个物体。

举例来说,我有兴趣了解桌子上的物体相对于同一张桌子上的手的位置。我目前正在研发一个多线程应用,该应用加载多个检测器,在一张图像上输出多个包围盒。很快我会在后续的文章中介绍这方面的内容。

致谢

这个成果对我而言也是一次紧张的学习Python和Tensorflow的周末课程。没有Egohands数据集的话,这一切都是不可能的,非常感谢作者们![Harrison][pythongramming]和Dat Tran的tensorflow自定义对象检测教程对这个学习过程极有帮助。当然,非常感谢Tensorflow的作者们!它是一个很棒的框架!

引用本教程

如果你打算引用本教程:

Victor Dibia, Real-time Hand-Detection using Neural Networks (SSD) on Tensorflow, (2017), GitHub repository。


@misc{Dibia2017,

author = {Victor, Dibia},

title = {Real-time HandTrackingUsing SSD on Tensorflow },

year = {2017},

publisher = {GitHub},

journal = {GitHub repository},

howpublished = {url{https://github.com/victordibia/handtracking}},

commit = {b523a27393ea1ee34f31451fad656849915c8f42}

}

欢迎通过Twitter、Github和Linkedin与作者交流。

参考文献

Bambach, S., Lee, S., Crandall, D. J., and Yu, C. 2015.“Lending A Hand: Detecting Hands and Recognizing Activities in Complex Egocentric Interactions,”in ICCV, pp. 1949–1957

Erol, A., Bebis, G., Nicolescu, M., Boyle, R. D., and Twombly, X. 2007. “Vision-based hand pose estimation: A review,” Computer Vision and Image Understanding (108:1–2), pp. 52–73 (doi: 10.1016/j.cviu.2006.10.012).

Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., and Berg, A. C. 2016. “SSD: Single shot multibox detector,” in European conference on computer vision (Vol. 9905 LNCS), Springer Cham, pp. 21–37 (doi: 10.1007/978-3-319-46448-0_2).

Betancourt, A., Morerio, P., Regazzoni, C. S., and Rauterberg, M. 2015. “The Evolution of First Person Vision Methods: A Survey,” IEEE Transactions on Circuits and Systems for Video Technology (25:5), pp. 744–760 (doi: 10.1109/TCSVT.2015.2409731)

GitHub地址:https://github.com/victordibia/handtracking

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100723
  • SSD
    SSD
    +关注

    关注

    21

    文章

    2859

    浏览量

    117377
  • tensorflow
    +关注

    关注

    13

    文章

    329

    浏览量

    60530

原文标题:基于SSD神经网络实时检测手部

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    如何构建多层神经网络

    构建多层神经网络(MLP, Multi-Layer Perceptron)模型是一个在机器学习和深度学习领域广泛使用的技术,尤其在处理分类和回归问题时。在本文中,我们将深入探讨如何从头开始构建一个多层
    的头像 发表于 07-19 17:19 837次阅读

    如何构建三层bp神经网络模型

    能力。本文将介绍如何构建三层BP神经网络模型。 神经网络基础知识 2.1 神经元模型 神经元是神经网络
    的头像 发表于 07-11 10:55 485次阅读

    递归神经网络实现方法

    (Recurrent Neural Network,通常也简称为RNN,但在此处为区分,我们将循环神经网络称为Recurrent RNN)不同,递归神经网络更侧重于处理树状或图结构的数据,如句法分析树、自然语言的语法结构等。以下将从递归
    的头像 发表于 07-10 17:02 316次阅读

    如何在FPGA上实现神经网络

    随着人工智能技术的飞速发展,神经网络作为其核心组成部分,已广泛应用于图像识别、语音识别、自然语言处理等多个领域。然而,传统基于CPU或GPU的神经网络计算方式在实时性、能效比等方面存在诸多挑战。现场
    的头像 发表于 07-10 17:01 1918次阅读

    BP神经网络和人工神经网络的区别

    BP神经网络和人工神经网络(Artificial Neural Networks,简称ANNs)之间的关系与区别,是神经网络领域中一个基础且重要的话题。本文将从定义、结构、算法、应用及未来发展等多个方面,详细阐述BP
    的头像 发表于 07-10 15:20 1027次阅读

    PyTorch神经网络模型构建过程

    PyTorch,作为一个广泛使用的开源深度学习库,提供了丰富的工具和模块,帮助开发者构建、训练和部署神经网络模型。在神经网络模型中,输出层是尤为关键的部分,它负责将模型的预测结果以合适的形式输出。以下将详细解析PyTorch中
    的头像 发表于 07-10 14:57 494次阅读

    神经网络预测模型的构建方法

    神经网络模型作为一种强大的预测工具,广泛应用于各种领域,如金融、医疗、交通等。本文将详细介绍神经网络预测模型的构建方法,包括模型设计、数据集准备、模型训练、验证与评估等步骤,并附以代码示例。
    的头像 发表于 07-05 17:41 644次阅读

    rnn是递归神经网络还是循环神经网络

    RNN(Recurrent Neural Network)是循环神经网络,而非递归神经网络。循环神经网络是一种具有时间序列特性的神经网络,能够处理序列数据,具有记忆功能。以下是关于循环
    的头像 发表于 07-05 09:52 560次阅读

    递归神经网络是循环神经网络

    递归神经网络(Recurrent Neural Network,简称RNN)和循环神经网络(Recurrent Neural Network,简称RNN)实际上是同一个概念,只是不同的翻译方式
    的头像 发表于 07-04 14:54 740次阅读

    神经网络的基本原理及Python编程实现

    神经网络作为深度学习算法的基本构建模块,模拟了人脑的行为,通过互相连接的节点(也称为“神经元”)实现对输入数据的处理、模式识别和结果预测等功能。本文将深入探讨
    的头像 发表于 07-03 16:11 651次阅读

    卷积神经网络实现原理

    卷积神经网络(Convolutional Neural Networks,简称CNN)是一种深度学习模型,广泛应用于图像识别、视频分析、自然语言处理等领域。本文将详细介绍卷积神经网络实现原理、结构
    的头像 发表于 07-03 10:49 543次阅读

    卷积神经网络的原理与实现

    1.卷积神经网络(Convolutional Neural Networks,简称CNN)是一种深度学习模型,广泛应用于图像识别、视频分析、自然语言处理等领域。 卷积神经网络是一种前馈神经网络,其
    的头像 发表于 07-02 16:47 566次阅读

    使用PyTorch构建神经网络

    PyTorch是一个流行的深度学习框架,它以其简洁的API和强大的灵活性在学术界和工业界得到了广泛应用。在本文中,我们将深入探讨如何使用PyTorch构建神经网络,包括从基础概念到高级特性的全面解析。本文旨在为读者提供一个完整的、技术性的指南,帮助理解并实践PyTorch
    的头像 发表于 07-02 11:31 705次阅读

    基于神经网络算法的模型构建方法

    神经网络是一种强大的机器学习算法,广泛应用于各种领域,如图像识别、自然语言处理、语音识别等。本文详细介绍了基于神经网络算法的模型构建方法,包括数据预处理、网络结构设计、训练过程优化、模
    的头像 发表于 07-02 11:21 515次阅读

    构建神经网络模型方法有几种

    构建神经网络模型是深度学习领域的核心任务之一。本文将详细介绍构建神经网络模型的几种方法,包括前飨神经网络、卷积
    的头像 发表于 07-02 10:15 343次阅读