机器学习算法无处不在。不只是Facebook和Google。公司正在使用它们提供个性化的教育服务和高级商业智能服务,以抗击癌症并检测假冒商品。从农业到制药。从AI控制的自动驾驶汽车到临床决策支持软件。
该技术将使我们集体变得更富有,并更有能力提供人类福利,人权,人类正义以及促进我们在社区中生活良好所需要的美德。我们应该欢迎它,并尽一切努力促进它。
与任何新技术一样,存在道德挑战。新技术会公平和透明吗?利益会分配给所有人吗?他们会加剧现有的不平等吗?
开发和使用AI系统的组织需要道德原则,以指导他们应对我们已经面临的挑战以及即将面临的挑战。
去年,我的行业协会软件和信息行业协会发布了有关AI和数据分析的道德原则的问题简介,以应对这些挑战。它借鉴了权利,福利和美德的经典伦理传统,使组织能够仔细检查其数据实践。
公司需要恢复在商业上,尤其是在有关信息收集和使用的机构决策中,以道德的方式思考的能力。这些原则是切实可行的指南。
SIIA不是唯一一个将伦理考虑带入AI和数据分析领域的实体。计算机科学组织的机器学习公平性,问责制和透明度(FAT / ML)已起草了自己的原则。另一组在Asilomar开会的计算机科学家起草了更广泛的原则。IEEE已提出与设计中的道德价值观有关的原则。 ACM最近发布了一组原则,旨在确保AI算法使用的公平性。信息问责基金会在其关于人工智能,伦理学和增强数据管理的报告中制定了一套非常有用的原则。
在2017年10月的经合组织会议上,关于AI的一些不同道德方法在AI:智能机器,智能策略的会议上进行了宣讲。日本在2016年G7会议上提出了对AI的道德规则的要求,而意大利人在2017年G&G会议上提出了对AI的道德规则的要求。最近一次G7会议于2018年3月28日结束,发表了关于人工智能的声明,鼓励研究“审查AI的道德考量”。美国政府最近宣布将“与我们的盟国合作”以“增进对”人工智能技术的信任,从而涉足这一领域。
欧盟委员会在其最近发布的《欧洲人工智能交流》中,提议在AI联盟内制定“ AI伦理准则” ,以“ 欧洲”科学与新技术伦理学小组发表的这一声明为基础。
这些都是积极的发展。但是需要一些注意事项。到目前为止,抽象的伦理声明只会使我们受益。可行的道德原则需要考虑在特定情况下如何使用AI。例如,涉及自动武器的道德问题与使用AI进行累犯评分或就业筛选所涉及的道德问题大不相同。因此,SIIA就如何将权利,正义,福利和美德的一般原则应用于通过使用不同的影响分析确保算法公平性的特定案例提供了具体建议。
此外,没有专门适用于AI的特殊道德原则,但不适用于其他数据分析和预测模式。在AI应用程序的开发和实施中,必须尊重和尊重尊重权利,增进福利和培养人的道德的道德要求,并且需要大量艰苦的概念和实证工作来正确地做到这一点。但这与为AI寻找独特的规范性准则不同。
-
算法
+关注
关注
23文章
4622浏览量
93060 -
Facebook
+关注
关注
3文章
1429浏览量
54814 -
机器学习
+关注
关注
66文章
8425浏览量
132773
发布评论请先 登录
相关推荐
评论