0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何使用OpenCV、Python和深度学习在图像和视频中实现面部识别?

8g3K_AI_Thinker 来源:未知 作者:易水寒 2018-07-17 16:20 次阅读

Face ID 的兴起带动了一波面部识别技术热潮。本文将介绍如何使用 OpenCV、Python深度学习在图像和视频中实现面部识别,以基于深度识别的面部嵌入,实时执行且达到高准确度。

以下内容由 CSDN 翻译:

想知道怎样用OpenCV、Python和深度学习进行面部识别吗?

这篇文章首先将简单介绍下基于深度学习的面部识别的工作原理,以及“深度度量学习”(deep metric learning)的概念。接下来我会帮你安装好面部识别需要的库。最后我们会发现,这个面部识别的实现能够实时运行。

▌理解深度学习面部识别嵌入

那么,基于深度学习的面部识别是怎样工作的呢?秘密就是一种叫做“深度度量学习”的技术。

如果你有深度学习的经验,你应该知道,通常情况下训练好的网络会接受一个输入图像,并且给输入的图像生成一个分类或标签

而在这里,网络输出的并不是单一的标签(也不是图像中的坐标或边界盒),而是输出一个表示特征向量的实数。

对于dlib面部识别网络来说,输出的特征向量为128维(即一个由128个实数组成的列表),用来判断面部。网络的训练是通过三元组进行的:

图1:利用深度度量学习进行面部识别需要“三元组训练”。三元组包括三张不同的面部图像,其中两张属于同一个人。神经网络为每张面部图像生成一个128维向量。对于同一个人的两张面部图像,我们调整神经网络使得输出向量的距离度量尽可能接近。图片来源:Adam Geitgey的“Machine Learning is Fun”博客(https://medium.com/@ageitgey/machine-learning-is-fun-part-4-modern-face-recognition-with-deep-learning-c3cffc121d78)

这里我们需要给网络提供三张图片:

其中两张图片是同一个人的面部;第三张图片是从数据集中取得的随机面部图片,并且保证与另外两张图片不是同一个人。以图1为例,这里我们用了三张图片,一张是Chad Smith,两张是Will Ferrell。

网络会测试这些面部图片,并为每张图片生成128维嵌入(embedding,即qualification)。

接下来,基本思路就是调整神经网络的权重,使得两张Will Ferrell的测量结果尽量接近,而Chad Smith的测量结果远离。

我们的面部识别网络的架构基于He等人在《Deep Residual Learning for Image Recognition》(https://arxiv.org/abs/1512.03385)中提出的ResNet-34,但层数较少,而且过滤器的数量减少了一半。

网络本身由Davis King(https://www.pyimagesearch.com/2017/03/13/an-interview-with-davis-king-creator-of-the-dlib-toolkit/)在大约300万张图片上训练。在Labeled Faces in the Wild(LFW)(http://vis-www.cs.umass.edu/lfw/)数据集上与其他方法相比,该网络的准确度达到了99.38%。

Davis King(dlib的作者)和Adam Geitgey(https://adamgeitgey.com/, 我们即将用到的face_recognition模块的作者)都有文章介绍了基于深度学习的面部识别的工作原理:

High Quality Face Recognition with Deep Metric Learning(Davis,http://blog.dlib.net/2017/02/high-quality-face-recognition-with-deep.html)

Modern Face Recognition with Deep Learning( Adam,https://medium.com/@ageitgey/machine-learning-is-fun-part-4-modern-face-recognition-with-deep-learning-c3cffc121d78)

强烈建议阅读以上文章,以深入了解深度学习面部嵌入的工作原理。

▌安装面部识别库

为了用Python和OpenCV吸纳面部识别,我们需要安装一些库:

dlib(http://dlib.net/);

face_recognition(https://github.com/ageitgey/face_recognition)。

由Davis King维护的dlib库包含了“深度度量学习”的实现,用来在实际的识别过程中构建面部嵌入。

Adam Geitgey创建的face_recognition库则封装了dlib的面部识别功能,使之更易用。

我假设你的系统上已经装好了OpenCV。如果没有也不用担心,可以看看我的OpenCV安装指南一文(https://www.pyimagesearch.com/opencv-tutorials-resources-guides/),选择适合你的系统的指南即可。

这里我们来安装dlib和face_recognition库。

注意:下面的安装过程需要在Python虚拟环境中进行。我强烈推荐使用虚拟环境来隔离项目,这是使用Python的好习惯。如果你看了我的OpenCV安装指南,并且安装了virtualenv和virtualenvwrapper,那么只要在安装dlib和face_recognition之前执行workon命令即可。

安装没有GPU支持的dlib

如果你没有GPU,可以用pip安装dlib(参考这篇指南:https://www.pyimagesearch.com/2018/01/22/install-dlib-easy-complete-guide/)。

$workon#optional$pipinstalldlib

或者从源代码进行编译:

$workon#optional$gitclonehttps://github.com/davisking/dlib.git$cddlib$mkdirbuild$cdbuild$cmake..-DUSE_AVX_INSTRUCTIONS=1$cmake--build.$cd..$pythonsetup.pyinstall--yesUSE_AVX_INSTRUCTIONS

安装有GPU支持的dlib(可选)

如果你有兼容CUDA的GPU,那么可以安装有GPU支持的dlib,这样面部识别能更快、更精确。

我建议从源代码安装dlib,这样可以更精细地控制安装过程:

$workon#optional$gitclonehttps://github.com/davisking/dlib.git$cddlib$mkdirbuild$cdbuild$cmake..-DDLIB_USE_CUDA=1-DUSE_AVX_INSTRUCTIONS=1$cmake--build.$cd..$pythonsetup.pyinstall--yesUSE_AVX_INSTRUCTIONS--yesDLIB_USE_CUDA

安装face_recognition包

face_recognition模块只需简单地使用pip命令即可安装:

$workon#optional$pipinstallface_recognition

安装imutlis

我们还需要imutils包提供一些遍历的函数。在Python虚拟环境中使用pip即可:

$workon#optional$pipinstallimutils

▌面部识别数据集

图2:利用Python和Bing图像搜索API自动创建的面部识别数据集,图中显示的是电影侏罗纪公园的六个角色。

1993年的《侏罗纪公园》是我最喜欢的电影,为了纪念最新上映的《侏罗纪世界:失落王国》,我们将使用电影中的一些角色进行面部识别:

Alan Grant,古生物学家(22张图像)

Clair Dearing,公园管理人(53张图像)

Ellie Sattler,古生物学家(31张图像)

Ian Malcolm,数学家(41张图像)

John Hammond,商人,侏罗纪公园所有者(36张图像)

Owen Grady,恐龙研究学者(35张图像)

这个数据集只需要30分钟就可以建好,参见我的文章《怎样(快速)建立深度学习图像数据集》(https://www.pyimagesearch.com/2018/04/09/how-to-quickly-build-a-deep-learning-image-dataset/)。

有了这个数据集,我们可以:

为数据集中的每张图像建立128维嵌入;

利用这些嵌入,从图像和视频中识别每个角色的面部。

▌面部识别项目结构

项目结构可以参考下面的tree命令的输出结果:

$tree--filelimit10--dirsfirst.├──dataset│├──alan_grant[22entries]│├──claire_dearing[53entries]│├──ellie_sattler[31entries]│├──ian_malcolm[41entries]│├──john_hammond[36entries]│└──owen_grady[35entries]├──examples│├──example_01.png│├──example_02.png│└──example_03.png├──output│└──lunch_scene_output.avi├──videos│└──lunch_scene.mp4├──search_bing_api.py├──encode_faces.py├──recognize_faces_image.py├──recognize_faces_video.py├──recognize_faces_video_file.py└──encodings.pickle10directories,11files

该项目有4个顶层目录:

dataset/:包含六个角色的面部图像,用角色名组织到各个子目录中;

examples/:包含三个不属于该数据集的测试图像;

output/:存储经过面部识别处理后的视频,上面有我生成的一个视频,来自于原版《侏罗纪公园》电影的午饭场景;

videos/:输入视频存放于该文件夹中,该文件夹也包含了尚未经过面部识别的“午饭场景”的视频。

根目录下还有6个文件:

search_bing_api.py:第一步就是建立数据集(我已经帮你做好了)。关于利用Bing API建立数据集的具体方法请参考我这篇文章:https://www.pyimagesearch.com/2018/04/09/how-to-quickly-build-a-deep-learning-image-dataset/;

encode_faces.py:该脚本用来进行面部编码(128维向量);

recognize_faces_image.py:基于数据集生成的编码,对单张图片进行面部识别;

recognize_faces_video.py:对来自摄像头的实时视频流进行面部识别并输出视频文件;

recognize_faces_video_file.py:对硬盘上保存的视频文件进行面部识别,并输出处理后的视频文件。本文不再讨论该脚本,因为它的基本结构与上面识别视频流的脚本相同;

encodings.pickle:该脚本将encode_faces.py生成的面部识别编码序列化并保存到硬盘上。

用search_bing_api.py创建好图像数据集之后,就可以运行encode_faces.py来创建嵌入了。

接下来我们将运行识别脚本来进行面部识别。

▌用OpenCV和深度学习对面部进行编码

图3:利用深度学习和Python进行面部识别。对每一个面部图像,用face_recognition模块的方法生成一个128维实数特征向量。

在识别图像和视频中的面部之前,我们首先需要在训练集中识别面部。要注意的是,我们并不是在训练网络——该网络已经在300万图像的训练集上训练过了。

当然我们可以从头开始训练网络,或者微调已有模型的权重,但那就超出了这个项目的范围。再说,你需要巨量的图像才能从头开始训练网络。

相反,使用预先训练好的网络来给训练集中的218张面部图像建立128维嵌入更容易些。

然后,在分类过程中,只需利用简单的k-NN模型,加上投票,即可确定最终的面部分类,也可以使用其他经典机器学习模型。

现在打开本文“下载”链接中的encode_faces.py文件,看看是如何构建面部嵌入的:

1#importthenecessarypackages2fromimutilsimportpaths3importface_recognition4importargparse5importpickle6importcv27importos

首先需要导入必需的包。这个脚本需要事先安装imutils、face_recognition和OpenCV。请翻到前面“安装面部识别库”一节确保你已经安装了必须的库。

首先用argparse处理运行时传递的命令行参数

1#constructtheargumentparserandparsethearguments2ap=argparse.ArgumentParser()3ap.add_argument("-i","--dataset",required=True,4help="pathtoinputdirectoryoffaces+images")5ap.add_argument("-e","--encodings",required=True,6help="pathtoserializeddboffacialencodings")7ap.add_argument("-d","--detection-method",type=str,default="cnn",8help="facedetectionmodeltouse:either`hog`or`cnn`")9args=vars(ap.parse_args())

如果你之前没有用过PyImageSearch,你可以多读读我的博客文章,就明白上面这段代码了。首先利用argparse分析命令行参数,在命令行上执行Python程序时,可以在终端中给脚本提供格外的信息。第2-9行不需要做任何改动,它们只是为了分析终端上的输入。如果不熟悉这些代码,可以读读我这篇文章:https://www.pyimagesearch.com/2018/03/12/python-argparse-command-line-arguments/。

下面逐一列出参数:

--dataset:数据集的路径(利用search_bing_api.py创建的数据集);

--encodings:面部编码将被写到该参数所指的文件中;

--detection-method:首先需要检测到图像中的面部,才能对其进行编码。两种面部检测方法为hog或cnn,因此该参数只接受这两个值。

现在参数已经定义好了,我们可以获得数据集文件的路径了(同时进行两个初始化):

1#grabthepathstotheinputimagesinourdataset2print("[INFO]quantifyingfaces...")3imagePaths=list(paths.list_images(args["dataset"]))45#initializethelistofknownencodingsandknownnames6knownEncodings=[]7knownNames=[]

行3用输入数据集的路径,建立了一个列表imagePaths。

我们还需要在循环开始之前初始化两个列表,分别是knownEncodings和knownNames。这两个列表分别包含面部编码数据和数据集中相应人物的名字(行6和行7)。

现在可以依次循环侏罗纪公园中的每个角色了!

1#loopovertheimagepaths 2for(i,imagePath)inenumerate(imagePaths): 3#extractthepersonnamefromtheimagepath 4print("[INFO]processingimage{}/{}".format(i+1, 5len(imagePaths))) 6name=imagePath.split(os.path.sep)[-2] 7 8#loadtheinputimageandconvertitfromBGR(OpenCVordering) 9#todlibordering(RGB)10image=cv2.imread(imagePath)11rgb=cv2.cvtColor(image,cv2.COLOR_BGR2RGB)

这段代码会循环218次,处理数据集中的218张面部图像。行2在所有图像路径中进行循环。

接下来,行6要从imagePath中提取人物的名字(因为子目录名就是人物名)。

然后将imagePath传递给cv2.imread(行10),读取图像保存到image中。

OpenCV中的颜色通道排列顺序为BGR,但dlib要求的顺序为RGB。由于face_recognition模块使用了dlib,因此在继续下一步之前,行11转换了颜色空间,并将转换后的新图像保存在rgb中。

接下来定位面部位置并计算编码:

1#detectthe(x,y)-coordinatesoftheboundingboxes 2#correspondingtoeachfaceintheinputimage 3boxes=face_recognition.face_locations(rgb, 4model=args["detection_method"]) 5 6#computethefacialembeddingfortheface 7encodings=face_recognition.face_encodings(rgb,boxes) 8 9#loopovertheencodings10forencodinginencodings:11#addeachencoding+nametooursetofknownnamesand12#encodings13knownEncodings.append(encoding)14knownNames.append(name)

这段代码是最有意思的部分!

每次循环都会检测一个面部图像(或者一张图像中有多个面部,我们假设这些面部都属于同一个人,但如果你使用自己的图像的话,这个假设有可能不成立,所以一定要注意)。

比如,假设rgb里的图像是Ellie Sattler的脸。

行3和4查找面部位置,返回一个包含了许多方框的列表。我们给face_recognition.face_locations方法传递了两个参数:

rgb:RGB图像;

model:cnn或hog(该值包含在命令行参数字典中,赋给了detection_method键)。CNN方法比较准确,但速度较慢;HOG比较快,但不太准确。

然后,在行7,我们要将Ellie Sattler的面部的边界盒boxes转换成128个数字。这个步骤就是将面部编码成向量,可以通过face_recognition.face_encodings方法实现。

接下来秩序将Ellie Sattler的encoding和name添加到恰当的列表中(knownEncodings或knownNames)。

然后对数据集中所有218张图像进行这一步骤。

提取这些编码encodings的目的就是要在另一个脚本中利用它们进行面部识别。现在来看看怎么做:

1#dumpthefacialencodings+namestodisk2print("[INFO]serializingencodings...")3data={"encodings":knownEncodings,"names":knownNames}4f=open(args["encodings"],"wb")5f.write(pickle.dumps(data))6f.close()

行3构建了一个字典,它包含encodings和names两个键。

行4-6将名字和编码保存到硬盘中,供以后使用。

怎样才能在终端上运行encode_faces.py脚本?

要创建面部嵌入,可以从终端执行以下命令:

1$pythonencode_faces.py--datasetdataset--encodingsencodings.pickle 2[INFO]quantifyingfaces... 3[INFO]processingimage1/218 4[INFO]processingimage2/218 5[INFO]processingimage3/218 6... 7[INFO]processingimage216/218 8[INFO]processingimage217/218 9[INFO]processingimage218/21810[INFO]serializingencodings...11$ls-lhencodings*12-rw-r--r--@1adrianstaff234KMay2913:03encodings.pickle

从输出中课件,它生成了个名为encodings.pickle的文件,该文件包含了数据集中每个面部图像的128维面部嵌入。

在我的Titan X GPU上,处理整个数据集花费了一分钟多一点,但如果只使用CPU,就要做好等待很久的心理准备。

在我的Macbook Pro上(没有GPU),编码218张图像需要21分20秒。

如果你有GPU并且编译dlib时选择了支持GPU,那么速度应该会快得多。

▌识别图像中的面部

图4:John Hammond的面部识别,使用了Adam Geitgey的深度学习Python模块face_recognition。

现在已经给数据集中的每张图像建好了128维面部嵌入,我们可以用OpenCV、Python和深度学习进行面部识别了。

打开recognize_faces_image.py,插入以下代码(或者从本文的”下载“部分下载代码和相关的图像):

1#importthenecessarypackages 2importface_recognition 3importargparse 4importpickle 5importcv2 6 7#constructtheargumentparserandparsethearguments 8ap=argparse.ArgumentParser() 9ap.add_argument("-e","--encodings",required=True,10help="pathtoserializeddboffacialencodings")11ap.add_argument("-i","--image",required=True,12help="pathtoinputimage")13ap.add_argument("-d","--detection-method",type=str,default="cnn",14help="facedetectionmodeltouse:either`hog`or`cnn`")15args=vars(ap.parse_args())

这段代码首先导入了必需的包(行2-5)。face_recognition模块完成主要工作,OpenCV负责加载图像、转换图像,并显示处理之后的图像。

行8-15负责分析三个命令行参数:

--encodings:包含面部编码的pickle文件的路径;

--image:需要进行面部识别的图像;

--detection-method:这个选项应该很熟悉了。可以根据系统的能力,选择hog或cnn之一。追求速度的话就选择hog,追求准确度就选择cnn。

注意:在树莓派上必须选择hog,因为内存容量不足以运行CNN方法。

接下来要加载计算好的编码和面部名称,然后为输入图像构建128维面部编码:

1#loadtheknownfacesandembeddings 2print("[INFO]loadingencodings...") 3data=pickle.loads(open(args["encodings"],"rb").read()) 4 5#loadtheinputimageandconvertitfromBGRtoRGB 6image=cv2.imread(args["image"]) 7rgb=cv2.cvtColor(image,cv2.COLOR_BGR2RGB) 8 9#detectthe(x,y)-coordinatesoftheboundingboxescorresponding10#toeachfaceintheinputimage,thencomputethefacialembeddings11#foreachface12print("[INFO]recognizingfaces...")13boxes=face_recognition.face_locations(rgb,14model=args["detection_method"])15encodings=face_recognition.face_encodings(rgb,boxes)1617#initializethelistofnamesforeachfacedetected18names=[]

行3从硬盘加载pickle过的编码和名字数据。稍后在实际的面部识别步骤中会用到这些数据。

然后,行6和行7加载输入图像image,并转换其颜色通道顺序(同encode_faces.py脚本一样),保存到rgb中。

接下来,行13-15继续检测输入图像中的所有面部,并计算它们的128维encodings(这些代码也应该很熟悉了)。

现在应该初始化一个列表names,用来保存每个检测的面部。该列表将在下一步填充。

现在遍历面部编码encodings列表:

1#loopoverthefacialembeddings2forencodinginencodings:3#attempttomatcheachfaceintheinputimagetoourknown4#encodings5matches=face_recognition.compare_faces(data["encodings"],6encoding)7name="Unknown"

行2开始遍历根据输入图像计算出的面部编码。

接下来见证面部识别的奇迹吧!

在行5和行6,我们尝试利用face_recognition.compare_faces将输入图像中的每个面部(encoding)对应到已知的编码数据集(保存在data["encodings"]中)上。

该函数会返回一个True/False值的列表,每个值对应于数据集中的一张图像。对于我们的侏罗纪公园的例子,数据集中有218张图像,因此返回的列表将包含218个布尔值。

compare_faces函数内部会计算待判别图像的嵌入和数据集中所有面部的嵌入之间的欧几里得距离。

如果距离位于容许范围内(容许范围越小,面部识别系统就越严格),则返回True,表明面部吻合。否则,如果距离大于容许范围,则返回False表示面部不吻合。

本质上我们用了个更”炫酷“的k-NN模型进行分类。具体的实现细节可以参考compare_faces的实现(https://github.com/ageitgey/face_recognition/blob/master/face_recognition/api.py#L213)。

最终,name变量会的值就是人的名字。如果没有任何”投票“,则保持"Unknown"不变(行7)。

根据matches列表,可以计算每个名字的”投票“数目(与每个名字关联的True值的数目),计票之后选择最适合的人的名字:

1#checktoseeifwehavefoundamatch 2ifTrueinmatches: 3#findtheindexesofallmatchedfacestheninitializea 4#dictionarytocountthetotalnumberoftimeseachface 5#wasmatched 6matchedIdxs=[ifor(i,b)inenumerate(matches)ifb] 7counts={} 8 9#loopoverthematchedindexesandmaintainacountfor10#eachrecognizedfaceface11foriinmatchedIdxs:12name=data["names"][i]13counts[name]=counts.get(name,0)+11415#determinetherecognizedfacewiththelargestnumberof16#votes(note:intheeventofanunlikelytiePythonwill17#selectfirstentryinthedictionary)18name=max(counts,key=counts.get)1920#updatethelistofnames21names.append(name)

如果matches中包含任何True的投票(行2),则需要确定True值在matches中的索引位置。这一步在行6中通过建立一个简单的matchedIdxs列表实现。对于example_01.png来说,它大概是这个样子:

1(Pdb)matchedIdxs2[35,36,37,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68,69,71,72,73,74,75]

然后初始化一个名为counts的字典,其键为角色的名字,值是投票的数量。

接下来遍历matchedIdxs,统计每个相关的名字,并在counts增加相应的计数值。counts字典可能是这个样子(Ian Malcolm高票的情况):

1(Pdb)counts2{'ian_malcolm':40}

回忆一下我们的数据集中只有41张图片,因此40分并且没有任何其他投票可以认为非常高了。

取出counts中投票最高的名字,本例中为'ian_malcolm'。

循环的第二次迭代(由于图像中有两个人脸)会取出下面的counts:

1(Pdb)counts2{'alan_grant':5}

尽管这个投票分值较低,但由于这是字典中唯一的人名,所以很可能我们找到了Alan Grant。

注意:这里使用了Python调试器PDB来检查counts字典的值。PDB的用法超出了本文的范围,你可以在Python的文档页面(https://docs.python.org/3/library/pdb.html)找到其用法。

如下面的图5所示,我们正确识别了Ian Malcolm和Alan Grant,所以这一段代码工作得还不错。

我们来继续循环每个人的边界盒和名字,然后将名字画在输出图像上以供展示之用:

1#loopovertherecognizedfaces 2for((top,right,bottom,left),name)inzip(boxes,names): 3#drawthepredictedfacenameontheimage 4cv2.rectangle(image,(left,top),(right,bottom),(0,255,0),2) 5y=top-15iftop-15>15elsetop+15 6cv2.putText(image,name,(left,y),cv2.FONT_HERSHEY_SIMPLEX, 70.75,(0,255,0),2) 8 9#showtheoutputimage10cv2.imshow("Image",image)11cv2.waitKey(0)

行2开始循环检测到的面部边界盒boxes和预测的names。我们调用了zip(boxes, names)以创建一个容易进行循环的对象,每次迭代将得到一个二元组,从中可以提取边界盒坐标和名字。

行4利用边界盒坐标画一个绿色方框。

我们还利用坐标计算了人名文本的显示位置(行5),并将人名的文本画在图像上(行6和行7)。如果边界盒位于图像顶端,则将文本移到边界盒下方(行5),否则文本就被截掉了。

然后显示图像,直到按下任意键为止(行10和11)。

怎样运行面部识别的Python脚本?

在终端中,首先用workon命令保证位于正确的Python虚拟环境中(如果你用了虚拟环境的话)。

然后运行该脚本,同时至少提供两个命令行参数。如果选择HoG方式,别忘了传递--detection-method hog(否则默认会使用深度学习检测方式)。

赶快试试吧!

打开终端并执行脚本,用OpenCV和Python进行面部识别:

1$pythonrecognize_faces_image.py--encodingsencodings.pickle2--imageexamples/example_01.png3[INFO]loadingencodings...4[INFO]recognizingfaces...

图5:Python + OpenCV + 深度学习方法识别出了Alan Grant和Ian Malcom的面部。

另一个面部识别的例子:

1$pythonrecognize_faces_image.py--encodingsencodings.pickle2--imageexamples/example_02.png3[INFO]loadingencodings...4[INFO]recognizingfaces...

图6:用OpenCV和Python进行面部识别。

▌在视频中进行面部识别

图7:用Python、OpenCV和深度学习在视频中进行面部识别。

我们已经完成了图像中的面部识别,现在来试试在视频中进行(实时)面部识别。

关于性能的重要提示:CNN面部识别器只能在有GPU的情况下实时运行(CPU也可以运行,但视频会非常卡,实际的帧速率不到0.5FPS)。如果你只有CPU,应当考虑使用HoG方式(或者甚至采用OpenCV的Haar层叠方式,以后会撰文说明),以获得较好的速度。

下面的脚本从前面的recognize_faces_image.py脚本中借用了许多代码。因此我将略过之前介绍过的部分,只说明下视频部分,以便于理解。

下载好代码之后,打开recognize_faces_video.py:

1#importthenecessarypackages 2fromimutils.videoimportVideoStream 3importface_recognition 4importargparse 5importimutils 6importpickle 7importtime 8importcv2 910#constructtheargumentparserandparsethearguments11ap=argparse.ArgumentParser()12ap.add_argument("-e","--encodings",required=True,13help="pathtoserializeddboffacialencodings")14ap.add_argument("-o","--output",type=str,15help="pathtooutputvideo")16ap.add_argument("-y","--display",type=int,default=1,17help="whetherornottodisplayoutputframetoscreen")18ap.add_argument("-d","--detection-method",type=str,default="cnn",19help="facedetectionmodeltouse:either`hog`or`cnn`")20args=vars(ap.parse_args())

行2-8导入包,然后行11-20解析命令行参数。

这里有四个命令行参数,其中两个是介绍过的(--encodings和--detection-method)。另外两个参数是:

--output:视频输出路径;

--display:指示是否将视频帧输出到屏幕的标志。1表示显示到屏幕,0表示不显示。

然后加载编码并启动VideoStream:

1#loadtheknownfacesandembeddings 2print("[INFO]loadingencodings...") 3data=pickle.loads(open(args["encodings"],"rb").read()) 4 5#initializethevideostreamandpointertooutputvideofile,then 6#allowthecamerasensortowarmup 7print("[INFO]startingvideostream...") 8vs=VideoStream(src=0).start() 9writer=None10time.sleep(2.0)

我们利用imutils中的VideoStream类来访问摄像头。行8启动视频流。如果系统中有多个摄像头(如内置摄像头和外置USB摄像头),可以将src=0改成src=1等。

稍后会将处理过的视频写到硬盘中,所以这里将writer初始化成None(行9)。sleep两秒让摄像头预热。

接下来启动一个while循环,开始抓取并处理视频帧:

1#loopoverframesfromthevideofilestream 2whileTrue: 3#grabtheframefromthethreadedvideostream 4frame=vs.read() 5 6#converttheinputframefromBGRtoRGBthenresizeittohave 7#awidthof750px(tospeedupprocessing) 8rgb=cv2.cvtColor(frame,cv2.COLOR_BGR2RGB) 9rgb=imutils.resize(frame,width=750)10r=frame.shape[1]/float(rgb.shape[1])1112#detectthe(x,y)-coordinatesoftheboundingboxes13#correspondingtoeachfaceintheinputframe,thencompute14#thefacialembeddingsforeachface15boxes=face_recognition.face_locations(rgb,16model=args["detection_method"])17encodings=face_recognition.face_encodings(rgb,boxes)18names=[]

循环从行2开始,第一步就是从视频流中抓取一个frame(行4)。

上述代码中剩下的行8-18基本上与前一个脚本相同,只不过这里处理的是视频帧,而不是静态图像。基本上就是读取frame,预处理,检测到面部边界盒boxes,然后给每个边界盒计算encodings。

接下来遍历每个找到的面部的encodings:

1#loopoverthefacialembeddings 2forencodinginencodings: 3#attempttomatcheachfaceintheinputimagetoourknown 4#encodings 5matches=face_recognition.compare_faces(data["encodings"], 6encoding) 7name="Unknown" 8 9#checktoseeifwehavefoundamatch10ifTrueinmatches:11#findtheindexesofallmatchedfacestheninitializea12#dictionarytocountthetotalnumberoftimeseachface13#wasmatched14matchedIdxs=[ifor(i,b)inenumerate(matches)ifb]15counts={}1617#loopoverthematchedindexesandmaintainacountfor18#eachrecognizedfaceface19foriinmatchedIdxs:20name=data["names"][i]21counts[name]=counts.get(name,0)+12223#determinetherecognizedfacewiththelargestnumber24#ofvotes(note:intheeventofanunlikelytiePython25#willselectfirstentryinthedictionary)26name=max(counts,key=counts.get)2728#updatethelistofnames29names.append(name)

在这段代码中依次循环每个encodings,并尝试匹配到已知的面部数据上。如果找到匹配,则计算数据集中每个名字获得的票数。然后取出得票最高的名字,就是该面部对应的名字。这些代码与前面的代码完全相同。

下一段代码循环找到的面部并在周围画出边界盒,并显示人的名字:

1#loopovertherecognizedfaces 2for((top,right,bottom,left),name)inzip(boxes,names): 3#rescalethefacecoordinates 4top=int(top*r) 5right=int(right*r) 6bottom=int(bottom*r) 7left=int(left*r) 8 9#drawthepredictedfacenameontheimage10cv2.rectangle(frame,(left,top),(right,bottom),11(0,255,0),2)12y=top-15iftop-15>15elsetop+1513cv2.putText(frame,name,(left,y),cv2.FONT_HERSHEY_SIMPLEX,140.75,(0,255,0),2)

这些代码也完全相同,所以我们只关注与食品有关的代码。

我们还可以将视频帧写到硬盘中,因此来看看是怎样使用OpenCV将视频写到硬盘中的(https://www.pyimagesearch.com/2016/02/22/writing-to-video-with-opencv/):

1#ifthevideowriterisNone*AND*wearesupposedtowrite 2#theoutputvideotodiskinitializethewriter 3ifwriterisNoneandargs["output"]isnotNone: 4fourcc=cv2.VideoWriter_fourcc(*"MJPG") 5writer=cv2.VideoWriter(args["output"],fourcc,20, 6(frame.shape[1],frame.shape[0]),True) 7 8#ifthewriterisnotNone,writetheframewithrecognized 9#facestodisk10ifwriterisnotNone:11writer.write(frame)

如果命令行参数提供了输出文件路径(可选),而我们还没有初始化视频的writer(行3),就要先初始化之。

行4初始化了VideoWriter_fourcc。FourCC是一种四字符编码,在这里就是MJPG 四字符编码。

接下来将对象、输出路径、每秒帧数的目标值和帧尺寸传递给VideoWriter(行5和6)。

最后,如果writer存在,就继续将帧写到磁盘中。

下面是是否将面部识别视频帧输出到屏幕的处理:

1#checktoseeifwearesupposedtodisplaytheoutputframeto2#thescreen3ifargs["display"]>0:4cv2.imshow("Frame",frame)5key=cv2.waitKey(1)&0xFF67#ifthe`q`keywaspressed,breakfromtheloop8ifkey==ord("q"):9break

如果设置了display命令行参数,就显示视频帧(行4)并检查退出键("q")是否被按下(行5-8),如果被按下,则break掉循环(行9)。

最后是一些清理工作:

1#doabitofcleanup2cv2.destroyAllWindows()3vs.stop()45#checktoseeifthevideowriterpointneedstobereleased6ifwriterisnotNone:7writer.release()

行2-7清理并释放屏幕、视频流和视频writer。

准备好运行真正的脚本了吗?

为了演示OpenCV和Python的实时面部识别,打开终端然后执行下面的命令:

1$pythonrecognize_faces_video.py--encodingsencodings.pickle2--outputoutput/webcam_face_recognition_output.avi--display13[INFO]loadingencodings...4[INFO]startingvideostream...

下面是我录制的演示视频,用来演示面部识别系统:

视频文件中的面部识别

之前在“面部识别项目结构”一节中说过,下载的代码中还有个名为recognize_faces_video_file.py的脚本。

这个脚本实际上和刚才识别摄像头的脚本相同,只不过它接收视频文件作为输入,然后生成输出视频文件。

我对原版侏罗纪公园电影中经典的“午饭场景”做了面部识别,在该场景中,演员们围在桌子旁边讨论他们对于公园的想法:

1$pythonrecognize_faces_video_file.py--encodingsencodings.pickle2--inputvideos/lunch_scene.mp4--outputoutput/lunch_scene_output.avi3--display0

下面是结果:

注意:别忘了我们的模型是根据原版电影中的四个角色进行训练的:Alan Grant、Ellie Sattler、Ian Malcolm和John Hammond。模型并没有针对Donald Gennaro(律师)进行训练,所以他的面部被标记为“Unknown”。这个行为是特意的(不是意外),以演示我们的视频识别系统在识别训练过的面部的同时,会把不认识的面部标记为“Unknown”。

下面的视频中我从《侏罗纪公园》和《侏罗纪世界》的预告片中截取的剪辑:

可见,面部识别和OpenCV代码的效果很不错!

▌面部识别代码能运行在树莓派上吗?

从某种意义上,可以。不过有一些限制:

树莓派内存太小,没办法运行更准确的基于CNN的面部检测器;

因此只能用HOG方式;

即使如此,HOG方式在树莓派上也太慢,没办法用于实时面部检测;

所以只能用OpenCV的Haar层叠方式。

即使这样能运行起来,实际的速率也只有1~2FPS,而且就算是这种速率也需要许多技巧。

▌总结

在这篇指南中,我们学习了如何利用OpenCV、Python和深度学习来进行面部识别。此外,我们还利用了Davis King的dlib库和Adam Geitgey的face_recognition模块,后者对dlib的深度度量学习进行了封装,使得面部识别更容易完成。

我们发现,我们的面部识别实现同时具有以下两个特点:准确,并且能在GPU上实时运行。

最后,希望你喜欢今天的面部识别的文章!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • OpenCV
    +关注

    关注

    30

    文章

    628

    浏览量

    41255
  • python
    +关注

    关注

    56

    文章

    4781

    浏览量

    84448
  • 面部识别
    +关注

    关注

    1

    文章

    375

    浏览量

    26617
  • 深度学习
    +关注

    关注

    73

    文章

    5492

    浏览量

    120971

原文标题:如何用OpenCV、Python和深度学习实现面部识别?

文章出处:【微信号:AI_Thinker,微信公众号:人工智能头条】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深度学习视角下的猫狗图像识别实现

    来源: 易百纳技术社区, 作者: 稗子酿的酒 人工智能技术图像识别领域取得了显著进展,其中基于深度学习图像分类方法
    的头像 发表于 08-15 10:38 3506次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>视角下的猫狗<b class='flag-5'>图像识别</b><b class='flag-5'>实现</b>

    深度学习汽车的应用

    嵌入式开发和平台抽象;TI硬件上实现用于加速CNN的高度优化的内核,以及支持从开放框架(如Caffe和TensorFlow)到使用TIDL应用程序编程界面的嵌入式框架进行网络转换的转换器。有关此解决方案的更多详细信息,请阅读白皮书“TIDL:嵌入式低功耗
    发表于 03-13 06:45

    深度学习医学图像分割与病变识别的应用实战

    突破性的进展。 代码实例下面通过一个代码实例,演示如何使用Python深度学习库TensorFlow进行医学图像分割与病变识别。这里以
    发表于 09-04 11:11

    Python下使用OpenCV的技巧教程与典型应用案例

    Python下使用OpenCV教程,本篇将介绍和深度学习数据处理阶段最相关的基础使用,并完成4个有趣实用的小例子: - 延时摄影小程序 -
    发表于 11-15 18:43 1.2w次阅读

    如何用OpenCVPython深度学习实现面部识别?

    Face ID 的兴起带动了一波面部识别技术热潮。
    的头像 发表于 07-05 09:57 2706次阅读

    如何使用Python-OpenCV实现餐盘水果识别与计价的应用

    导读本文主要介绍使用Python-OpenCV实现餐盘水果识别与计价的应用。 测试图像与说明 使用图像,拍摄环境有待改善(存在光照不均和拍摄
    的头像 发表于 07-06 11:02 2638次阅读

    如何使用Python OpenCV进行面部标志检测

    今天我们将使用相同的 OpenCV 和 Raspberry Pi 进行人脸标志检测。来自 dlib 库的预训练面部标志检测器模块将用于检测面部关键面部结构的位置,
    发表于 08-12 16:32 1426次阅读
    如何使用<b class='flag-5'>Python</b> <b class='flag-5'>OpenCV</b>进行<b class='flag-5'>面部</b>标志检测

    Linux Debian与Python、Flask和OpenCV识别面部

    电子发烧友网站提供《Linux Debian与Python、Flask和OpenCV识别面部.zip》资料免费下载
    发表于 08-24 10:16 2次下载
    Linux Debian与<b class='flag-5'>Python</b>、Flask和<b class='flag-5'>OpenCV</b><b class='flag-5'>识别</b><b class='flag-5'>面部</b>

    使用Xbox Kinect和OpenCV进行面部识别

    电子发烧友网站提供《使用Xbox Kinect和OpenCV进行面部识别.zip》资料免费下载
    发表于 07-04 11:25 0次下载
    使用Xbox Kinect和<b class='flag-5'>OpenCV</b>进行<b class='flag-5'>面部</b><b class='flag-5'>识别</b>

    Python实现OpenCV的安装与使用

      本文实例讲述了 Python 实现 OpenCV 的安装与使用。分享给大家供 大家参考,具体如下:  由于下一步要开始研究下深度学习,而
    发表于 07-20 11:46 7次下载

    面部表情识别的技术实现

    面部表情识别是一项复杂的技术,需要综合运用计算机视觉、机器学习深度学习等多种技术。本文将介绍面部
    的头像 发表于 08-02 18:10 1099次阅读

    OpenCV图像处理和深度学习的应用

    本文深入浅出地探讨了OpenCV图像处理和深度学习的应用。从基本概念和操作,到复杂的
    的头像 发表于 08-18 11:33 843次阅读

    如何使用Python进行图像识别的自动学习自动训练?

    如何使用Python进行图像识别的自动学习自动训练? 使用Python进行图像识别的自动学习和自
    的头像 发表于 01-12 16:06 535次阅读

    基于Python深度学习人脸识别方法

    基于Python深度学习人脸识别方法是一个涉及多个技术领域的复杂话题,包括计算机视觉、深度学习
    的头像 发表于 07-14 11:52 1174次阅读

    opencv-pythonopencv一样吗

    不一样。OpenCV(Open Source Computer Vision Library)是一个开源的计算机视觉和机器学习软件库,它提供了大量的图像视频处理功能。
    的头像 发表于 07-16 10:38 963次阅读