当前,人工智能技术已经被应用于监控摄像头中,出现在交通、安防、零售、社区等多个场景。而对抗性样本有可能欺骗神经网络,导致其产生错误的输出。
近日,来自比利时鲁汶大学的研究人员,在预印本平台(arXiv.org)上分享的一篇论文中,研究人员展示了简单的印刷图案如何能够欺骗一个用来识别图像中人物的人工智能系统。
研究人员打印出特别设计的彩色图片并挂在脖子上,从人工智能的角度来看,这可能相当于“隐形斗篷”,也就是说,人工智能检测不出右边的人。
正如研究人员写道:“我们相信,如果我们将这项技术与复杂的服装模拟技术相结合,就可以设计出一种T恤印花,它可以让一个人在自动监控摄像头下几乎隐形。”
这可能看起来很奇怪,但实际上是人工智能世界中一个众所周知的现象。这些类型的模式被称为对抗性样本,它们利用计算机视觉系统的缺陷来诱骗它们看到不存在的东西。
在过去,对抗性样本被用来欺骗面部识别系统。许多研究人员警告说,对抗性的例子具有潜在的危险性。例如,它们可以用来欺骗自动驾驶汽车,将停车标志当成路灯柱,或者它们可以欺骗旨在识别疾病的医学人工智能视觉系统,这可能是为了医疗欺诈,甚至是故意造成伤害。
如何对对抗性样本进行有效的防御是很多学者的重要研究课题。不过,到目前为止,研究人员尚未找到针对对抗样本的最佳防御策略,希望在不久之后,该研究领域会出现突破性的进展。
-
人工智能
+关注
关注
1791文章
46859浏览量
237579
发布评论请先 登录
相关推荐
评论