人工智能(AI)提供了巨大的机会,不仅可以提高效率和降低成本,而且还可以帮助重新考虑业务并解决关键问题。然而,尽管AI拥有所有的希望,但在各个经济体和社会中都存在同样程度的焦虑。许多人认为先进技术将带来注定和不可避免的深刻变化。
随着AI变得越来越复杂,它将开始制定或协助对个人生活产生更大影响的决策。随着人们适应自动决策在社会中发挥的更大和更突出的作用,这将带来道德挑战。
因此,企业领导者和决策者需要认真对待这些担忧,并承担启用和应用“负责任的AI”的责任。
如果使用AI评估新工作的申请,如何确保申请人得到公正和公正的审查?潜在的员工如何对AI不易出错或基于如何培训而固有偏见充满信心?
自动化流程可能会通过我们可能不理解或无法解释的程序来“学习”导致我们可能不希望的结果的模式。算法可能会使社会中现有的偏见和歧视永久化,这加剧了人们对实施AI缺乏信任。
例如,弗吉尼亚大学的研究人员在广泛使用的照片数据集上训练了一个AI程序,后来发现该系统随后放大了传统的性别偏见。在后来的培训中,它甚至将站在火炉旁的男人分类为女人,这是人类不会做的。
领导者需要揭示机器决策。他们的AI必须产生可解释的结果,促进算法的责任感并消除偏见。这意味着领导者需要找到方法,例如审核算法和对处理后的数据进行评估,以便发现偏差。当系统犯错误时,必须明确责任在哪里。
建立消费者对AI和自动化系统的信任将需要安全性和保障性。建立财务责任是做到这一点的一种方法,但是确保人身安全和保障是关键。
例如,最高级的讨论围绕自动驾驶汽车展开。德国于2017年通过了一项新法律,根据驾驶员或自动驾驶汽车的控制权在驾驶员和制造商之间分配责任。在这种方法的支持下,汽车制造商表示,如果在使用“交通拥堵驾驶员”的情况下发生事故,他们将承担责任。
在旧有保险结构的背景下,此处新出现的是考虑由汽车制造商提供服务的责任。组织可以通过阐明和发展对责任的更普遍理解来帮助解决某些问题。但是,除了建立财务责任之外,安全和安保组织还需要解决一些合理的问题,包括确保通过设计将安全性应用到自治系统中。
这包括确保对AI进行训练以“举起手”,寻求有经验的聪明才智的人的帮助,以帮助在极端情况下做出最终决定,而不是如果对某事有51%的把握就继续进行。
-
人工智能
+关注
关注
1791文章
46699浏览量
237214 -
数据集
+关注
关注
4文章
1202浏览量
24623
发布评论请先 登录
相关推荐
评论