毫无疑问,人工智能正在深刻改变着社会。如果我们谈论未来,一定无法避免谈论人工智能。
作为国家盖戳认证的“新基建”之一,人工智能近几年来进展飞速——从零售、出行、金融、到医疗、教育、农业、工业。。.。。.基于人工智能技术的应用在各个领域中间铺开,人工智能明星公司和独角兽大量涌现。
“科技是把双刃剑”,人工智能技术锋芒毕露的另一面,一些始料未及的“副作用”随之诞生,焦虑与恐惧随着AI技术的进步而不断被放大。
?
央视曝光“AI骚扰电话”
2019年,“315晚会”上揭露了从探针盒子截取用户App隐私数据到AI骚扰电话这一完整的黑色产业链;然而早在2017年AI就曾被“315晚会”点名——通过自拍照3D建模后的“伪活人”可以轻松骗过人脸识别登录系统,成功“黑”进个人账户。
AI技术围猎个人基本权益是一个长久的命题,但回顾2019年我们就会发现,在一个又一个新闻热点的背后,从肖像权到个人隐私权,个人信息的“裸奔”现状并未得到有效改善——
不消停的“AI侵权”
8月底,一个名为“ZAO”的AI换脸app突然刷屏朋友圈,大众又一次沦为现象级app的娱乐对象。在ZAO App中,用户可上传自己的头像照片,App利用AI换脸技术将用户肖像替换到各类影视剧中。
在一些论坛上,部分AI从业者对于“ZAO”的横空出世颇感意外,毕竟“因为法律纠纷,现在地下色情产业都不敢轻易碰这块儿,ZAO能过得了法律这一关吗?”。
果不其然,“ZAO”面世两天后,其用户协议上的陷阱被网友扒出,最受抨击的“使用者的肖像权为全球范围内免费、不可撤、永久可转授权”,意味着用户将自己的肖像权拱手让人。此外,若被换脸明星因侵犯肖像权提起诉讼,则用户承担全部责任,而“ZAO”作为平台方反而“置身事外”。
无论是“AI换脸”还是“人脸识别”,人脸作为每个人身上最直观的唯一性生物特征,其使用暗藏着巨大的法律风险,强制收集、过度攫取人脸信息的争议也因此一直不绝于耳。
19年10月,“中国人脸识别第一案”登上热搜。浙江理工大学特聘副教授郭兵将杭州野生动物世界告上法庭,理由是动物园要把年卡用户由之前的指纹认证入园改为人脸识别认证入园,未注册人脸识别的用户将无法正常入园,同时也无法办理退费。
凭什么没征求用户的意见,就默认用户有意愿将人脸信息放心交予园方?强制下达的新政策让郭兵很是气愤,“我觉得这显然违法了《消费者权益保护法》,也不符合《网络安全法》,更不符合目前正在制定的《个人信息保护法》。”
“人脸识别”成了AI技术侵权的“出头鸟”,但反观我们的日常生活,从手机APP开启麦克风权限“偷听”到监控输入法,精准推荐的“好意”与信息泄漏的边界难以界定,这其中又有多少出自用户的完全自愿?
小学生戴“头环”上课
新技术造就新的应用场景,也带了更多意想不到的法律难题——小学生头戴“脑机接口”头环上课,AI技术开始充当其老师和家长的“间谍”,人权与技术的冲突再一次被摆上台面……
监管的尴尬:立法滞后、诉讼难执行
2019年11月底,国家网信办、文旅部和广电总局等三部门联合发布了《网络音视频信息服务管理规定》,明确“利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的……应当及时采取相应的辟谣措施”。 12月20日,全国人大常委会法工委宣布,中国2020年将制定个人信息保护法、数据安全法——从根本上解决问题的“元规则”正在路上。
但由于AI技术革新快、应用技术广泛多变的特性,法律能否赶得上技术的日新月异?在公众个人信息保护意识普遍淡漠的当下,又该如何做到“违法必纠?
中国互联网协会法治工作委员会副秘书长、中国消费者协会律师团律师胡钢跟踪中国互联网成长20年,他对搜狐科技表示,在立法之外,中国新版《个人信息安全规范》(以下简称《规范》)在几天前的3月9日正式发布。作为国家性推荐标准,它具备约束行业的指导意义。
从《规范》来看,新版对于个人信息的主体告知收集、个人生物信息的存储方面都有了细化和完善。
不过胡钢指出,新版《规范》和老版一样,其制定者大部分还是企业及相关技术负责人,因此还是存在很大局限性。“(制定者)起码应该是三部分人,包括企业代表、消费者代表、然后是伦理、法律的相关专家。但事实上,后两者的占比甚至连两成都不到。”
自2017年,第一版《规范》发行以来,强制授权,过度索权,超范围收集个人信息的情况仍然普遍存在,我们所了解的很多大型互联网/科技公司都有被网信办等部门点名的经历。
“刷脸”登陆/支付如今已成为移动App主流
胡钢表示,以很多互联网/科技公司都在推广的“刷脸”功能为例,“正确的做法应该是用户拍下的个人照片通过算法推演一套不可对人脸进行还原的单向数据,将纯数据传输给公司,用户的照片在本地短暂保存后应立刻销毁。不过很可惜的是,基本全(互联网)行业没有这样做的,都是在做整张脸(将用户面部信息直接发送至企业后台)。”
此外,《规范》并不具备和法律同等的震慑力。职能部门一直以来的处理方式大都集中在点名、约谈、整改等方式上。两年前,支付宝因个人信息保护不力,仅仅被央行罚款5万元人民币,引起舆论一片哗然。
胡钢告诉搜狐科技,像个人信息泄漏/买卖基本上都是大规模案件,“没有人在乎什么50万用户数据,根本卖不了钱,要做都得1000万(用户信息)以上。”
这也意味着,即使立法出台后,由于诉讼难以执行,最后依然会重复没人管也没人改的恶性循环。
为了个人信息保护法出台后能够更好的落实,从源头上预防此类事件的发生,胡钢认为还需要做到三点,“首先必须要有专责机关,例如香港的隐私专员公署,或者纯粹的公益组织,能够代表广大消费者在关键时刻提起诉讼;第二,明确民事赔偿的数额标准,譬如一条信息具体赔多少钱;第三,行政处罚的力度要上去,像欧盟就会对一些公司开出上年全球收入的4%这种的巨额罚单。”
“反黑产AI”的前景与窘境
法律约束是整个行业行为规范的前提条件,但目前棘手的问题时,个人信息泄露/贩卖/伪造等已经形成了庞大且成熟的产业链。既然AI能够对“黑产”推波助澜,是否又能反过来“以其人之道还治其人之身”?
自2019年“AI拨打骚扰电话”的黑色产业链被曝光后,第二天,阿里巴巴人工智能实验室的一项内部代号名为“二哈”的智能防骚扰电话技术就被曝光。在一段演示视频中,一名推销贷款的推销员与“二哈”对聊一分多钟并未发现破绽, 甚至还遭到了“北京能不能贷款?”“最多能贷多少钱”这样的主动提问。
同期,国外像谷歌等国外大公司都宣布推出了“AI反骚扰电话“的研究,虽然这一技术均处在早期研究阶段,不过可以预见的是,未来的垃圾电话,很可能变成AI双方的对垒。
而自诞生以来丑闻不断的“AI换脸”技术,日前也等到了防伪“突破口”。今年2月,微软亚洲研究院计算机视觉组的最新研究成果、可以进行鉴别人脸图像、视频的真假“Face X-Ray”技术,其相关论文已被CVPR 2020收录。
微软最新研究成果 给“假脸”照X光
微软亚洲研究院高级研究员陈栋告诉搜狐科技,这一图像鉴别技术技术在搜索引擎过滤、视频网站审核、司法鉴定等场景里都有应用的前景,但目前Face X-Ray还处于基础研究阶段,基于现有的突破,算法上还需要不断的提升和优化,来解决一些已知的缺陷,例如鉴别全图合成的图片,此外对视频现在也只能做到逐帧鉴别。
遗憾的是 ,道高一尺魔高一丈,目前来看,“AI反黑产”的技术成果仍落后于被应用于“黑产”的AI技术的脚步。一位人工智能行业从业者透露,“这也完全可以理解,毕竟(这些技术)的主要是公益性大于商业性”。
人工智能的发展,需要大量的数据。此前有媒体报道,一个魔幻的现实是,许多人脸识别公司为了度过缺乏数据的冷启动期,甚至会去购买人脸数据,而中间商手里的人脸识别数据往往也是通过其他技术公司或数据标注公司几经倒手的获得的。
技术是中立的,但使用技术的人并不是。
可以预见的是,AI技术发展与个人信息保护之间仍然会持续长久地争议性对立,但通过法律的制定、技术的进步、市场的磨合,期望在未来能迈向更加平衡和稳定的关系。
-
人工智能
+关注
关注
1791文章
46737浏览量
237301 -
产业链
+关注
关注
3文章
1350浏览量
25642 -
深度学习
+关注
关注
73文章
5485浏览量
120937
发布评论请先 登录
相关推荐
评论