一份新的政府报告显示,英国不需要专门的人工智能(AI)监管机构-但仍需要在公共部门的使用和道德规范方面更加明确。
报告“人工智能与公共标准:公共生活标准委员会的审查”(pdf,未选择加入,共78页)表示,尽管“担心开放”,但政府仍未做到“开放”。框AI‘(通过数据无法解释的方法产生结果)在很大程度上被放错了位置。
报告指出:“公共部门组织在使用AI方面不够透明,因此很难找到政府目前在哪里使用机器学习。”“现在判断公共部门机构是否成功维持责任制还为时过早。”
该报告提倡使用诺兰原则(公职人员期望达到的七个道德标准)为英国公共部门引入人工智能,认为他们不需要重新制定。然而,在三个方面-开放性,问责制和客观性-报告说,当前的标准不足。
报告提出的15项总体建议中,许多建议围绕准备,道德操守和透明度:
公众需要了解指导在公共部门使用AI的高级道德原则(当前为FAST SUM原则,OECD AI原则和数据道德框架)
所有公共部门组织应在使用AI进行公共服务交付之前发布声明,说明如何使用AI符合相关法律和法规
不需要专门的AI监管者,但是应该成立监管保证机构来发现监管领域的空白,并就与AI相关的问题向各个监管者和政府提供建议
政府应利用其在市场上的购买力来设定采购要求,以确保为公共部门开发AI解决方案的私营公司符合正确的标准
政府应考虑如何将AI影响评估要求整合到现有流程中,以评估AI对公共标准的潜在影响
政府应为公共机构建立有关AI系统声明和披露的指南
IT服务提供商Insight的技术策略师Alex Guillen在报告发布后发表评论说,这些建议是可行的,但请注意。
“AI引入政府,同时遵循诺兰原则应该是完全可能的,”吉兰说AI新闻。“首先,公共部门需要记住,当前,人工智能和机器学习等技术的最有效使用是在增强而不是替代人类工人。帮助公共部门的工人做出更明智的决定或更快地采取行动,不仅会改善公共服务;这将有助于满足69%的受访者的意见,他们说如果人类对任何决定做出最终判断,他们将更喜欢使用AI的公共机构。
“但是,无论在公共部门如何使用AI,都必须将其视为员工,并且要获得完成其工作所需的培训和信息,” Guillen补充说。与任何依赖数据的技术一样,垃圾进入意味着垃圾掉。从警务中的面部识别到在NHS上帮助诊断和治疗患者,AI需要正确的数据和正确的管理方式,以免造成超出其解决范围的问题。
“否则,任何实施都会受到道德关注和数据偏见或歧视指控的困扰。”
-
人工智能
+关注
关注
1791文章
46738浏览量
237305 -
机器学习
+关注
关注
66文章
8367浏览量
132359
发布评论请先 登录
相关推荐
评论