小心!
别有用心的人,正在盯着你放在社交网络上的美照,还可能已经被Deepfake拿去生成果照。
最近,外媒The Verge曝光了这个现象:
在Telegram上,Deepfake机器人泛滥,随便一张社交网络上的照片,即可自动生成开车图。
还可以直接携图分享。
跟日常我们发送图片、接收图片一样简单~
与此相关的数据令人咋舌。
关注Deepfake传播的研究机构「Sensity」发现,截至到2020年7月,在Telegram公共频道中已经生成并分享了超过10万张。
这意味着,生成的图片总数,包括那些未曾分享过、或是7月以来制作的照片,是远远高于这个数字的。
Sensity表示,这些频道中的大部分用户,大概有70%来自俄罗斯和周边国家。
目前,仍然有很多渠道处在活跃状态中。
Deepfake机器人
这些机器人可以免费使用,不过会生成带有「FAKE」的红色字样水印,或只有部分果体的果体照片。
想要「升级」照片,用户需要一定的费用,来「揭开」这些照片。
比如,「初级收费」。
用户需要支付100卢布,折合人民币8.63元,就可以在7天内生成100张、没有水印的果体照。
说到这里,是不是有人觉得很熟悉?
这像是去年夏天火爆网络,但几天即下架的「DeepNude」。
对对对,就是那个「一键脱衣」。
Sensity也表示,这是DeepNude经过反向工程来打造的一款机器人。不同的是,这个机器人可以自动处理收款。
当然,这些果体照都是假的!
生成出来的果体照会存在斑点、像素化的现象,但也有些很容易被误认为是真实图片。
按照去年我们的DeepNude实测结果,果体生成是有诸多「讲究」的。
比如,穿的越少,效果越好。如果给了一个衣服特别多的图片,处理效果非常暴力。
所以,总体来说,美照穿得越少,被生成那种照片的难度越小。
没错,技术被滥用,逼得互联网也得“保守”。
「一键脱衣」原理
去年,就有人曾揭秘过DeepNude背后的技术原理。
DeepNude主要使用了计算机视觉领域的3项技术。
图像修复:Image Inpainting。
这是英伟达研究团队提出的一个模型,当画面被严重涂抹后,模型仍然能够恢复出“原来”的图像。此外,还可以做到去掉图像中的某些物品。
Pix2Pix:使用条件对抗网络作为图像到图像转换问题的通用解决方案。
以及2018年SIGGRAPH最佳博士论文奖得主朱俊彦提出的CycleGAN。
CycleGAN使用循环一致性损失函数来实现训练,而无需配对数据。它可以在普通的马和斑马之间进行转换,也能把夏天的景色变成冬天的景色。
背后的隐忧
正如去年DeepNude所带来的道德争议,Sensity对这个机器人表现出一定的担忧。
曾经一项民间调查显示,近7成民众更想要看「私人」的果体照(也就是不是大明星、模特的那种),当中90%的用户想要看现实生活中熟悉的女生。
那么,有了这个Telegam机器人,任何在社交网络上自拍照的女生都可能成为潜在的受害者。
甚至,如果遇到被陌生人偷拍,拿去生成照片,那就更加不堪设想了。
The Verge和Sensity都联系了Telegram,询问他们为何允许在其应用上发布这种内容。
目前尚未得到回复。
而且对这种技术滥用,当前似乎也没有比较好的治理方法。
如果你有思考和建议,也欢迎分享~
责任编辑:lq
-
机器人
+关注
关注
211文章
28418浏览量
207100 -
计算机视觉
+关注
关注
8文章
1698浏览量
45993 -
DeepFake
+关注
关注
0文章
15浏览量
6680
原文标题:小心,你放在社交网络上的图,正被Deepfake机器人用来生成果体照
文章出处:【微信号:TheBigData1024,微信公众号:人工智能与大数据技术】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论