“1元购买健康宝查询方式”“2元70多位艺人健康宝照片”……近日,众多明星核酸检测照片的泄露,再度引发人们对人脸识别信息安全的担忧。
“人脸识别‘一次泄露,终身风险’的特点,使这种安全隐患的影响可能是长期的。”1月14日,中国科学院自动化所研究员、北京智源人工智能研究院AI伦理中心主任、国家新一代人工智能治理专委会委员曾毅在接受时代周报记者专访时表示,在拯救生命等严肃问题面前,AI伦理红线不应有任何程度的放宽。
疫情中,人脸识别技术搜集的海量数据如何避免泄露隐私,成为大众普遍关心话题。曾毅认为,在人脸识别相关产品与服务中,应做到设计、研发、使用、部署等全生命周期均符合伦理要求。
隐私数据保护缺位
时代周报:近日,大量明星核酸检测照片从网络上泄漏出来,包括杨幂、鹿晗、李易峰、王源等众多明星的核酸检测结果、素颜照片在微信群流传。这一现象透露出什么问题?
曾毅:通过这一现象可以看到,一方面,某些承接政府机构信息系统建设的企业并没有能很好地实现对公民关键隐私数据的有效保护。另一方面,相关政府机构对包含公民隐私数据的应用,特别是政府委托的相关应用服务,在数据保护方面急需加强管理和监督。
可以看到,之所以通过输入部分信息就可以获取他人核酸检测相关细节信息,从系统设计角度而言存在不严格的伦理设计。
他人代查这项功能仍具有现实意义,例如子女和朋友帮助老年人等非手机用户代查这样的需求仍然存在,但是如何确认代查结果经过当事人授权,确保知情同意,是系统设计与实现过程中必须思考清楚并通过技术实现的。
时代周报:你曾提出,从人工智能模型中删除数据十分困难。目前几乎没有一家企业可以做到在训练好的人工智能模型中,把某个用户数据的影响从模型中删除。当前还是这种现状吗?
曾毅:很遗憾,当前仍然是这种状况,这个问题虽然明确存在,但并没有引起学术界和产业界足够的重视。
安全隐患影响长远
时代周报:人脸识别应用场景扩展后,其涉及的安全重要性是否越来越大,我们对数据是否做好保护?
曾毅:目前,人脸识别应用领域急速扩展,然而相关负责任的、符合伦理的相关设计完全跟不上应用领域的扩张需求。很显然,从技术研发单位到监管部门对数据保护都没有完全做好准备。
人脸识别“一次泄露,终身风险”的特点增加了风险的不确定性。在人脸识别相关产品与服务中做到设计、研发、使用、部署等全生命周期符合伦理要求,避免安全隐患是未来人脸识别研发与应用必须做到的。
时代周报:人脸识别的准确度需要靠大量人脸数据来“投喂”。而对于一些用户来说,人脸数据被采集很多时候是缺乏选择权和知情权的,人脸识别的使用边界到底在哪里?如何才能不越过AI伦理红线?
曾毅:知情同意在我国个人数据保护相关规范中是有明确规定必须落实的。这其实并不存在商量的余地。
下一步的重要工作是人工智能研发与服务企业自律自治。此外,主管部门多方协同治理,引导和监督政策进行技术落地,落实数据与人工智能服务的合规发展。
中科院曾毅:人脸隐私数据“一次泄露,终身风险”
责任编辑:PSY
-
信息安全
+关注
关注
5文章
656浏览量
38898 -
中科院
+关注
关注
1文章
64浏览量
11844 -
人脸识别
+关注
关注
76文章
4011浏览量
81867
发布评论请先 登录
相关推荐
评论