近日,由欧盟委员会任命的人工智能高级专家小组(AIHLEG)发布了 AI 开发和使用的道德草案。从到 2019 年 1 月 18 日为对外开放征求意见的期间,预计到了 2019 年 3 月,AI HLEG 将向欧盟委员会提交最终版本的指导方针,以及提出如何推进这项工作的建议,此外,欧盟委员会目前也正在向愿意分享相同价值观的所有非欧盟国家开放合作。
该草案提出了具体的框架,第一章阐述 AI 必须遵守的基本权利和价值观,以确保 AI 符合道德目的;第二章指出实现可信赖 AI 的指导方针,同时兼顾道德目的和技术稳健性,并列出可信赖 AI 的要求,包括技术和非技术方法;第三章则提供了具体但非穷举的可信赖 AI评估表。
其中,该草案指出,可信赖的 AI 有两个组成要素:一是应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”(ethical purpose);二是兼具技术鲁棒性和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。另外,AI 技术必须足够稳健及强大,以对抗攻击,以及如果 AI 出现问题,应该要有“应急计划”(fall-back plan),例如在 AI 系统失败了,必须要求交还由人类接手。
可信赖 AI 的不可为基本原则包括不应以任何方式伤害人类;AI 不应限制人的自由,即人们不应该被 AI 驱动的机器征服或强迫; AI 应该公平使用,不得歧视或诬蔑;AI 应透明地运作,即人类需要知道 AI 正在开发的目的,以及如何使用它;AI 应该只为个人和整个社会的福祉而发展。
欧盟委员会在 2018 年 4 月发布欧洲人工智能方法(European approach on AI)后,成立了人工智能高级专家小组,由 52 名来自学术界、工业界和民间社会的独立专家组成,此次的 AI 道德准则草案第一版是由该高级专家小组制定。
-
AI
+关注
关注
87文章
30897浏览量
269117 -
人工智能
+关注
关注
1791文章
47279浏览量
238515
原文标题:欧盟AI道德准则草案出炉
文章出处:【微信号:robotmagazine,微信公众号:机器人技术与应用】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论