0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

什么是Deepfake?为什么Deepfake生成的假脸会这么自然?

zhKF_jqr_AI 来源:未知 作者:李倩 2018-09-03 08:46 次阅读

编者按:自换脸工具Deepfake风行全球后,人们开始意识到除了诈骗短信、诈骗电话,现在连视频都能“诈骗”了。为了应对这种由新技术带来的犯罪风险,近来研究人员一直在努力发掘虚假视频和真实视频的区别,而就在本月初,美国国防部正式宣布了纽约大学开发的一个检测工具,他们找到了GAN生成视频的一些明显特征。

当时美国国防部把这项技术誉为人类对于AI的军备竞赛的一个开端,近日,这项技术的开发人员接受了媒体采访。让我们结合报道和论文,近距离看看他们的方法究竟怎样。

Deepfake当前的缺陷是没法找到足够闭着眼睛的图像

随着2018年年中将近,美国大选活动也开始逐渐升温,在诸多宣传中,一种新形式的虚假信息开始在社交媒体上广泛传播。这种生成虚假视频的技术叫做“Deepfake”,它能把视频中的脸换成其他人的脸,同时保持脸部肌肉运动和谐,口型和声音匹配。

结合政治宣传,这意味着任何人都能“恶搞”候选人,制作他们“演讲”“活动”的假视频。

由于这项技术十分新颖,效果又格外出色,普通人如果不仔细看,可能无法分辨真实视频和虚假视频之间的区别。为了防范它背后的社会安全隐患,近日,纽约大学的研究人员找到了一种区分真假视频的可靠方法,他们发现在虚假视频中,人物的头部动作和瞳孔颜色通常会很怪异,当人眨眼时,它的眼球会出现诡异运动。

什么是Deepfake?

既然要对抗虚假视频,就让我们先从Deepfake讲起,下面是它的作品“案例”:

视频中左侧为真实视频,右侧是Deepfake的加工产品。它的工作机制类似各语言间的互相翻译,先使用一种称为深层神经网络机器学习系统来检查一个人的面部运动,再合成目标人物的脸,让后者作出类似的动作。

在生成逼真的视频前,这个深层神经网络需要大量目标任务图像数据,图像的数量和多元性决定了网络的“学习”效果——数据越多,模拟效果就越逼真。

上图是对神经网络训练、测试过程的细化图解。看罢视频,也许有人会有疑问:为什么Deepfake生成的假脸会这么自然?这是因为在训练期间(Training Phase),我们会先把目标人物A的脸抠出来,定位好五官位置,训练一个无论如何扭曲A的脸,最后都能生成正常A脸的网络。

一旦上面的网络训练好,我们就可以往其中输入B的脸。这时在神经网络看来,B的脸其实就是经扭曲的A的脸,所以它会直接“纠正”。至于表情和口型等细节,这在训练过程中就已经学会了,数据越多,效果越好,相信这点不难理解。

除了上述基础内容,为了确保生成效果,我们还要关注清晰度、人脸识别效果、图片融合等问题。

眨眼/不眨眼?

如果我们再去观察上面这个视频,相信不少细心的读者会发现:在虚假视频中,人物往往“双眼无神”,几乎不怎么眨眼。这正是目前Deepfake的一个弱点。

当然,这个弱点并非来自算法本身,更多的是它使用的数据集。健康成年人的眨眼频率是2-10秒一次,一次眨眼耗费十分之一到十分之四秒。在真实演讲视频中,主讲人眨眼是十分正常的现象,但虚假视频里的假人几乎个个是“不眨眼”大师。

把主持人的脸换成尼古拉斯·凯奇(对应视频帧)

这是因为当训练深层神经网络时,我们用的是来自网络的静态图像。即便是尼古拉斯·凯奇这样的公众人物,他的大多数照片都是睁眼的,除非为了某种艺术效果,摄影师也不会公布明星的闭眼照。这意味着数据集中的图像没法表示眼球的自然运动方式。

既然数据集中几乎没有眨眼图像,那么Deepfake学会“眨眼”的概率就几乎为零。但看到这里也许有人会有疑问,之前的视频中明明也出现了眨眼镜头,这个依据是不是不可信?这就要联系人类眨眼的频率和速度。

上面是真假视频中人物的眨眼记录,研究人员统计了所有视频中的真人眨眼频率,并框定了一个范围,他们发现Deepfake视频中假人的眨眼频率远低于这个范围。

如何检测眨眼?

有了上述发现,整个“打假”问题就可以被简化为“眨眼检测”问题。

论文作者开发了一种检测视频中人物何时眨眼的方法。更具体地说,他们引入了两个神经网络,其中第一个网络先扫描视频的每一帧,检测其中是否包含人脸,如果有,自动定位到眼部。之后,第一个网络把眼部截图输入第二个网络,由它利用眼睛的外观、几何特征和运动来判断这是睁眼还是闭眼。

下面是第二个深层神经网络LRCN的示意图:

它包含三个模块:特征提取、序列学习和状态预测。

其中特征提取模块(第二行)负责把输入的眼部图像转成神经网络可以“理解”的特征,这是个基于VGG16架构的CNN。序列学习模块(第三行)由RNN和LSTM构成,LSTM-RNN的使用是为了增加模型的信息存储量,避免在使用随时间反向传播(BPTT)算法时出现梯度消失。最后一个模块——状态预测,由全连接层构成,它输入LSTM的输出,并用一个概率预测是睁眼(0)还是闭眼(1)。

根据实验结果,LRCN的准确率高达95%。

当然,虽然论文只介绍了判断眨眼频率的方法,到这里就结束了。但根据之前Siwei Lyu的介绍,他们团队其实找到了一种更高效的技术,只是为了防止某些人恶意迭代Deepfake,这种方法暂时需要保密。

论文方法的缺陷

在接受媒体采访时,Siwei Lyu自己也坦言,论文只提出了一种短期内的有效方法,它的“寿命”可能很短,破解方法也很简单。

之前我们提到了,算法学不会眨眼,主要是因为没有眨眼数据。换句话说,如果我们能提供大量不同眨眼阶段的图像,那么深层神经网络学会眨眼只是时间问题。更有甚者,为了让尼古拉斯·凯奇学会眨眼,我们不需要派狗仔去偷拍,收集自己的眼部数据就够了。

此外,对于上面这类视频,这种方法也没法起作用。因为它不同于Deepfake的全脸移植,而是把假嘴和假声音(这年头合成声音也能造假)移到真人脸上。

这是去年美国华盛顿大学研究团队公布的一项成果,它不需要扫描大量的演讲影音资料,也不需要分析不同人说出相同句子的嘴形,只需影音素材即可,成本和规模更小,制作耗时也更短(17小时)。

因此,全民“打假”依然任重道远,这种方法只是当前迈出的第一步。未来,生成假视频和检测假视频将成为日常生活中的常见博弈,但这应该不是所有人希望看到的。在鼓励研究人员开发更靠谱的检测方法的同时,我们应该呼吁停止滥用技术。

除了不要再制作某些低俗、违法视频,电影工业也要把它用于正途,不要让技术沦为抠图流量明星的新“捷径”。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4765

    浏览量

    100572
  • 算法
    +关注

    关注

    23

    文章

    4601

    浏览量

    92683
  • 人脸识别
    +关注

    关注

    76

    文章

    4007

    浏览量

    81784

原文标题:深度“打假”:通过眨眼检测“deepfake”视频

文章出处:【微信号:jqr_AI,微信公众号:论智】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    PPG信号识别思路开启DeepFake 的识别新方向

    在 Face Forensics++、CelebDF 等常用的数据集上,Fake Catcher 的准确率能够超过90%。
    的头像 发表于 10-09 16:21 3075次阅读

    科学家已找到AI换视频的破解之法

    利用Deepfake技术制作的视频足以乱真。但日前研究人员通过人工智能对虚假视频中的人像眨眼进行分析,从而可以有效将视频检测出来。
    的头像 发表于 07-20 17:05 1.6w次阅读

    全球首款“反AI变脸刑侦检测工具”,专用于检测AI变脸/换造假技术

    DARPA 的这款工具主要是基于纽约州立大学奥尔巴尼分校教授Siwei Lyu和他的学生 Yuezun Li 和 Ming-Ching Chang 的共同发现,也即使用AI技术生成(一般通称
    的头像 发表于 08-10 08:51 1.2w次阅读

    针对计算机生成视频DeepFake较为全面测评的论文

    他们经过一系列实验发现,当前已有的先进人脸识别模型和检测方法,在面对 DeepFake 时基本可以说是束手无策——性能最优的图像分类模型 VGG 和基于 Facenet 的算法,分辨真假视频错误率高达 95%;基于唇形的检测方法,也基本检测不出视频中人物说话和口型是否一致。
    的头像 发表于 01-02 09:49 7152次阅读

    AI Deepfake再升级,以假乱真!安全性令人担忧

    Deepfake在技术上突破更大,人们愈加感到不安。
    的头像 发表于 06-12 13:54 3284次阅读

    DeepFake术混淆视听 搅乱美国政坛

    最近,DeepFake 技术又一次站在了风口浪尖上。不只是因为它能在小电影上移花接木,而是立法者终于意识到它的可怕之处。
    的头像 发表于 06-17 09:35 3175次阅读

    伯克利打造AI识别系统,DeepFake不再可怕!精准判断真伪

    DeepFake视频的泛滥早已经不只是恶搞和娱乐的问题了!这些视频衍生出的假新闻可能会成为2020美国大选的一场噩梦。
    的头像 发表于 06-24 11:42 4849次阅读

    关上Deepfake的潘多拉魔盒,RealAI推出深度伪造视频检测工具

    的遮羞布也被无情揭开。 图:Saturday Night Live中凯特麦金农换伊丽莎白沃伦 面对因新技术而引发的公众恐慌,相关监管机构也加快采取行动,出台打假策略,旨在打击Deepfake虚假音视频,控制造假病毒的传播。同时,国内也迎来了最严数据管理的一年。 11月2
    发表于 12-19 10:13 588次阅读

    人工智能如何避免深度伪造的出现

    采用深度伪造(Deepfake生成的视频和音频,人工智能生成的文本、诗歌和歌词,网站和假新闻进入人们的世界。
    发表于 02-28 11:41 2502次阅读

    Facebook首届Deepfake检测挑战赛的结果:平均准确率65.18%

    据外媒报道,Facebook日前宣布了其首届Deepfake检测挑战赛的结果,获胜算法能够以65.18%的平均准确率发现非常逼真的Deepfake虚假内容。Deepfake检测挑战赛旨在寻找能够识别出由人工智能(AI)操纵的视频
    的头像 发表于 06-15 10:19 2304次阅读

    阿里DeepFake检测技术获国际顶认可,实现更好的检测效果

    一段包含多个人脸的视频中,攻击者只对一个或者几个人的人脸进行伪造,这种“半真半”的伪造情况能否被检测识别?近日,阿里安全图灵实验室宣布,其已成功打造出针对这种换视频的DeepFake检测技术,阐述该技术的论文被国际学术顶
    的头像 发表于 09-02 17:06 1862次阅读

    用 “心跳”识别视频,准确率高达 97%

    Deepfake 真是让人又爱又恨。 众所周知,基于深度学习模型的 Deepfake 软件,可以制造虚假的人脸视频或图像。它在影视、娱乐等行业有着广泛的应用场景。 但自 2017 年起
    的头像 发表于 10-30 16:34 2910次阅读

    AI换门槛渐低,如何制止走向堕落?

    Deepfake是一种换技术,可以将图片或视频中A的换到B的头上。其名字由深度机器学习(deep machine learning)和照片(fake photo)组合而成。这项技
    的头像 发表于 12-10 14:31 1569次阅读

    人工智能换为什么人脸转到90度时会出现漏洞?

    视频伪造是 Deepfake 技术最为主要的代表,其制作假视频的技术也被称为人工智能换(AI face swap)。一直以来,研究者发现 DeepFake 存在着这样一个漏洞:当伪造人脸头部转到 90 度时(侧
    发表于 08-16 11:04 689次阅读

    LastPass成功抵御Deepfake音频攻击,员工警惕度高未受影响

    据LastPass情报分析师麦克·科萨克介绍,该次攻击中,一位员工接收到多通电话、短信以及至少一封语音邮件,均为威胁者通过WhatsApp假冒公司CEO发出的Deepfake音频。
    的头像 发表于 04-12 15:41 311次阅读