前年SeetaFace开源了人脸识别引擎,一度成为热门话题。
虽然后来SeetaFace又放出来 2.0版本,但是,我说但是。。。
没有训练代码,想要自己训练一下模型那可就犯难了。
虽然可以阅读源码,从前向传播的角度,反过来实现训练代码,
但是谁有那个闲功夫和时间,去折腾这个呢?
有的时候还是要站在巨人的肩膀上,你才能看得更远。
而SeetaFace不算巨人,只是当年风口上的猪罢了。
前年,为了做一个人脸项目,也是看遍了网上各种项目。
林林总总,各有优劣。
不多做评价,很多东西还是要具体实操,实战才能见真知。
有一段时间,用SeetaFace的人脸检测来做一些小的演示demo,
也花了一点小时间去优化它的算法。
不过很明显我只是把他当成玩具看待。
毕竟不能自己训练模型,这是很大的诟病。
直到后来深度学习大放异彩,印象最深刻莫过于MTCNN。
Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Neural Networks
大合照下,人脸圈出来很准确,壮观了去,这是第一印象。
上图,大家感受一下。
CNN的有三个网络结构。
Stage1: Proposal Net
Stage2: Refine Net
Stage3: Output Net
具体算法思路就不展开了。
我对MTCNN感兴趣的点在于,
MTCNN的思路可以拓展到各种物体检测和识别方向。
也许唯一缺少的就是打标好的数据,
而标注五个点,足够用于适配大多数物体了。
符合小而美的理念,这个是我比较推崇的。
所以MTCNN是一个很值得品味的算法。
github上也有不少MTCNN的实现和资源。
基于mxnet基于caffe基于ncnn等等。。。
很明显,mxnet和 caffe不符合小而美的理念。
果断抛弃了。
ncnn有点肥大,不合我心。
所以,我动了杀气。。
移除NCNN与mtcnn无关的层,
梳理ncnn的一些逻辑代码。
简单做了一些适配和优化。
砍掉一些边边角角。
不依赖opencv等第三方库。
编写示例代码完成后,还有不少工作要做,
不过第一步感觉已经符合我的小小预期。
完整示例代码:
#include "mtcnn.h"#include "browse.h"#define USE_SHELL_OPEN#ifndef nullptr#define nullptr 0#endif#if defined(_MSC_VER)#define _CRT_SECURE_NO_WARNINGS#include