欧盟基本权利机构(FRA)发布了一份关于人工智能的报告,深入探讨了必须考虑的技术伦理问题。
联邦铁路局的这份报告题为《走向正确的未来》(Getting The Future Right),开篇就介绍了人工智能已经让生活变得更好的一些方法,比如帮助癌症诊断,甚至预测入室盗窃可能发生在哪里。
“可能性似乎无穷无尽,”联邦铁蹄局局长迈克尔奥弗莱厄蒂在报告的前言中写道。“但在使用人工智能时,我们如何才能全面维护基本权利标准?”
为了回答这个问题,联邦铁路局采访了100多名公共行政官员、私营公司员工和各种专家。
有证据表明,算法存在偏见,这可能导致自动化的社会问题,如种族档案如果人工智能的全部潜力将为整个社会打开,这是一个需要回答的问题。
‘Flaherty说:
“人工智能并非绝对正确,它是由人制造的而人也会犯错。”这就是为什么人们需要意识到人工智能何时被使用,它是如何工作的,以及如何挑战自动决策。欧盟需要澄清现有规则如何适用于人工智能。组织需要评估他们的技术如何在开发和使用人工智能的过程中干扰人们的权利。我们有机会塑造不仅尊重我们的人权和基本权利,而且保护和促进它们的人工智能。”
人工智能正以某种形式应用于几乎每一个行业,如果不是现在,也会在不久的将来。
人工智能的偏见在某些行业比其他行业更危险。糖霜是一个明显的例子,但在金融服务等领域,它可能意味着一个人得到了贷款或抵押贷款,而另一个人却申请不到贷款。
如果没有适当的透明度,这些偏见可能会在没有人知道这些决定背后的原因的情况下发生,这可能只是因为有人在不同的社区长大,每个自动决策都对人有非常真实的影响。
联邦铁路局呼吁欧盟:
确保人工智能尊重所有基本权利,人工智能可以影响许多权利,而不仅仅是隐私或数据保护。它还可能歧视或妨碍正义。未来任何人工智能立法都必须考虑到这一点,并制定有效的保障措施。
人们可以对人工智能的决策提出质疑,人们需要知道何时使用人工智能,如何使用人工智能,以及如何以及在何处投诉。使用人工智能的组织需要能够解释他们的系统是如何做出决策的。
在使用人工智能减少负面影响之前和期间进行评估,私人和公共组织应该对人工智能如何损害基本权利进行评估。
提供更多资料保护规则的指引,欧盟应进一步澄清资料保护规则如何适用于人工智能。在使用人工智能时,自动化决策的含义以及人类审查的权利也需要更加明确。
评估人工智能是否歧视,对人工智能歧视的可能性及其影响的认识相对较低。这就要求提供更多的研究资金来研究人工智能潜在的歧视性影响,以便欧洲能够防范它。
创建一个有效的监督系统,欧盟应该投资一个更“一体化”的系统,让企业和公共行政部门在使用人工智能时负起责任。当局需要确保监督机构有足够的资源和技能来完成这项工作。
近年来,欧盟加强了对谷歌等“大型科技”公司的审查,原因是它们担心侵犯隐私的做法和滥用市场地位。上周,人工智能新闻报道,谷歌解雇了人工智能伦理研究负责人蒂姆尼特格布鲁(Timnit Gepu),原因是她在电子邮件中批评了自己的雇主。
谷歌首席执行官桑达尔皮查伊在一份备忘录中写道:“一名才华横溢的杰出黑人女性领导人不幸离开谷歌,我们需要为此承担责任。
“对我来说,让我们的黑人、女性以及没有得到充分代表的谷歌员工知道,我们重视你们,你们确实属于谷歌,这非常重要。”
格布鲁本周接受了BBC的采访,她在采访中称谷歌和大型科技公司是“制度上的种族主义者”。考虑到这一点,联邦铁路局报告中的呼吁似乎尤为重要。
责任编辑:YYX
-
谷歌
+关注
关注
27文章
6141浏览量
105068 -
人工智能
+关注
关注
1791文章
46838浏览量
237487
发布评论请先 登录
相关推荐
评论