北京大学哲学系副主任刘哲认为,具有完全自主性的人工智能和机器人产品暂时不会出现,但仍应尽快加快我国的伦理监管工作,协调并进人工智能和机器人的伦理标准制订。
伦理研究嵌入技术设计之初
受国家标准化管理委员会和国家机器人标准化总体组委托,我主持了《中国机器人伦理标准化白皮书2018》的制订工作。在研究过程中,我注意到其他国家(例如英、美、日等国)出台的机构白皮书以及相关政府报告中,人工智能和机器人并不判然分离。在我国相关伦理标准规划中,这两个领域伦理标准工作则是分别进行的。由于这两个领域伦理问题交集很多,我建议人工智能和机器人伦理标准工作能够协调合作进行,希望能够达成共识。
在人工智能和机器人伦理标准方面,我国的研究现状相对其他国家,包括日本、韩国在内,有一定程度滞后。国际社会对中国相关科技发展缺乏伦理监管的诟病非常不利于我们的技术发展。我们可以仔细想想,在过去几十年的经济高速发展过程中,伦理和社会价值驱动并不是经济发展的根本增长模式。现在,当我们走到以硬科技作为平台来推动经济发展的阶段时,我们已经绕不开对伦理和社会价值驱动的研究。这些技术无论是在工业、民用、还是军事领域的使用,都涉及太多关于人的价值以及社会价值的问题。
之前我在参加一些座谈时,有个直观感受,即很多人倾向于把人工智能和机器人的监管治理委托给法律。然而,目前人工智能的概念还很模糊,包括产业的发展方向、技术发展的突破口都相当开放,没人可以准确预测下一步会发展成什么样。在这些新兴科技自身尚未获得充分认知,对个人和社会的冲击尚未成型的时候,讨论怎么立法,靠什么法律监管,这是根本无法做到的。法律规制具有一定的保守性,当人工智能和机器人带来的现实问题还未出现的时候,是很难从法律方面进行监管的。从技术发展角度来说,当其引发的问题还没有出现的时候就立法,甚至很可能会直接扼杀对国家工业、军事、民生产生重要影响的技术突破,导致其无法继续发展了。在这个背景下,人工智能和机器人伦理监管是各国正在普遍采取的一种策略。
从英美这些国家的做法来看,它们意图把伦理价值融入在人工智能和机器人技术设计初期,而不是等事情发生了再去敲打。这种前瞻性的伦理路径是非常值得借鉴的。在我们思考技术发展的时候,应该把伦理价值关注转换成技术研发人员和工程师能懂的代码,把它实现在技术、产品设计的初期。
举个例子,在做《白皮书》的时候,我们看到有很多的论文是来自荷兰的两个大学(TU Delft和University of Twente),但这两个大学在我们国内所熟知的传统哲学领域并没有非常显赫的声誉。让我们特别诧异的是,他们的工作非常深入和系统,他们对人工智能和机器人的伦理研究紧密地融入在科技研发的平台上。后来我们从国内科技界同仁那里了解到,这两所大学都以机器人科技研发见长。他们的相关伦理研究并不是哲学系里一批人在单独工作,而是依托大学自身的技术工程背景进行跨学科整合。从技术发端之始,他们就进行着跨学科的团队合作,以此来推动伦理在科技创新中的深度融合。这对于我们未来产学研结构的调整是非常重要的启发。
AI和机器人领域的伦理难题
对于工业机器人,大家首先关注的是它的安全问题,协作型机器人出现之前,发生过一些严重的机器人事故,各国都有。工业协作型机器人出现之后,大家更多关注的是其对就业岗位的冲击。但也有另外一种声音,据国际机器人联合会(IFR)统计,机器人的确削减了很多就业岗位,但也增加了许多新兴岗位。
美国的机器人和人工智能战略中,提出人力资源管理部门要形成新的培训体系,对新的岗位提供培训平台,这一点在应对人工智能和机器人带来的岗位冲击时至关重要。然而,要想让再次就业成为可能,那就需要让大学教育,甚至中小学教育模式进行调整。就业人员的素质不是一两天能够培训出来的,也不是单纯靠技术知识灌输就可以完成的。若此问题解决不好,人工智能和机器人的广泛应用对于中国就业就是刚性冲击,会导致大量失业的出现。
第二,在工厂和车间中,当机器人和人进行协作作业时,工人在生产流程中被安排在什么样的位置中是非常重要的。我们设想,如果我们现在的这个会议是由机器人来指挥,我们要服从于机器人的各种指令,人类会觉得自身的价值严重受损,所以我们在设计人工智能和机器人时还要充分考虑人自身的自我价值评价。
第三,当协作机器人大量进入工业生产中,这会大大降低人与人间协作交流的机会,容易造成很多人员心理方面的问题,这也是需要我们重点考量。
在医疗健康领域,情况更加复杂。有案例表明,IBM Watson在通过大量扫描和解读医学影像后,可能给出的诊断结论和治疗建议与人类医生结论相反。在中国本已异常复杂的医患关系现实下,如果出现这种问题,患者和医生将应如何面对?如果甚至由此出现治疗问题,到底是人工智能设备、还是医院、或是医生来承担责任?还是大家一起捆绑承担?这些问题都是我们在引入这类新兴技术的时候从一开始就要考虑的。
目前,保险业也开始对人工智能和机器人在医疗领域的应用产生兴趣。这将带来另外的风险。保险公司可能会在掌握医疗大数据(包括基因数据)基础上提高投保门槛,并对采取什么样的治疗方案进行相当深度的干预,这些是和整个行业的利益捆绑在一起的。
另外一类,医用机器人,比如现在很受欢迎的达芬奇机器人,进行机器人手术治疗。在其官网上我们能看到很多案例介绍,达芬奇机器人优势在于其精准率高,创口小和术后康复时间短。但由于每个患者个体差异非常大,机器人手术会在个别患者身上出现复杂情况。在这样的手术复杂情况下,人类医生手术不得不介入,反而导致创伤面更大,康复过程非常复杂。这样的责任该由谁来承担?是机器人,还是医生、医院、保险公司等等?表面上来看,医疗技术的进步可能是患者的福音,但真正介入行业的时候会发现很多问题。我国医疗资源的分配本来就很不均衡,这种高科技医疗机器人的使用,是否会加剧既有的不平衡?
还有一些进入我们家庭生活的服务机器人,这些机器人在面对人类同时间多元需求时,无法区分需求的优先等级。设想正在陪伴孩子娱乐的机器人面对母亲召唤做一些厨房家务的指令,它将无法分配优先级并进行相应的回应。
还有日本在养老院推出的陪护机器人,最初设想是缓解老人之间缺乏沟通的孤独、封闭状态,通过把机器人摆在桌上,唤起老人对机器人的关爱从而引发老人彼此间的互动。但实际上这些陪护类机器人所面对的基本都是老人、儿童这类弱势群体,尤其是自闭症儿童。这类人群很容易形成人对于机器人和人工智能系统的单向情感绑定,这对于他们要更好地进行人类社会交流而言是灾难性的。
再来讲讲军事机器人,近年来有关这类机器人的伦理讨论在国际上有很多。当机器人走上战场,它们将如何区分平民和战斗人员?此外,如果把大量机器人派到战场上,这是否会大大降低发动战争的门槛,而并非削减战争?这对于国际政治秩序的冲击也将是非常大的。
实际上,今天很多人工智能和机器人技术研发其实是和社会的需求紧密相关的。比如护理机器人,因为在日本、北欧以及中国普遍出现的人口老龄化问题,导致我们不得不在此领域投入更多的力量去应对社会未来潜在风险。再比如医疗领域,也和我们医护人员严重不足息息相关。在无人驾驶领域,产业界会说人类驾驶交通事故率较高,无人驾驶可以让驾驶变得更安全。实际上,以规则为基础的方式为无人驾驶汽车嵌入一套道德法则是相当困难的。
即便在人类社会中,我们的道德规则体系之间也常常相互冲突,这不仅包括两类现代伦理体系——义务论和后果主义这样的伦理原则冲突,也包括古典美德伦理和现代伦理的冲突;而且不仅涉及东西方文化差异,还有非洲和拉美这些地域的文化差异。如果人们的价值体系、所诉求的道德原则以及行为准则,均展示巨大的文化差异,这种情况下,应该为机器人嵌入什么样的伦理原则?由于今天国际化和流动性的增加,每个社会内部就是伦理价值多元的。在这种情况下,谁有权决定哪一种伦理原则应该被嵌入?难道科技公司巨头来为人类决定道德生活规制?再则,责任分配和归属也面临非常大的问题。不管采取什么样的伦理原则,一旦出现了交通事故,该由谁来承担责任,是制造商、驾驶员,还是机器人系统本身等等?以上这些问题还仅仅是冰山一角,人工智能和机器人产品带来的挑战和风险都是我们要去面对的。
英美的人工智能伦理研究
欧盟早在2004年,就启动了对人工智能和机器人伦理问题的关注。英国议会的上院制定了一个雄心勃勃的计划。他们提出英国要在人工智能和机器人伦理方面成为国际领袖。由此,英国要来引导和规划全球人工智能和机器人的使用和研发。作为这个世纪的一个平台性技术,人工智能和机器人伦理标准对于科研、产业方向布局会产生重大的影响。
目前国际上,英国BSI和美国IEEE对人工智能和机器人伦理标准的研究和制定相对领先,研究投入和持续性很强。英国以后果主义伦理的基本框架来制定标准,美国则试图遵循新亚里士多德主义的美德伦理框架,并在第二版中增加了大量的对印度、非洲、日本伦理传统的跨文化研究。其负责人海文斯(John Havens)在2016年第二版发布会上曾表示:随着我们日益意识到文化和伦理价值的多元,我们必须要考虑到针对新兴科技的伦理标准和价值需要达成国际性共识。
根据目前技术发展平台,各国推出的人工智能和机器人伦理标准还没有深入涉及具有完全道德自主性的人工智能和机器人系统。基于现在的技术发展以及可预见的未来,具有完全自主性的人工智能和机器人产品暂时不会出现,所以我所看到的各个标准也暂时未赋予机器人具有与人类同等的道德地位。
-
机器人
+关注
关注
211文章
28418浏览量
207085 -
人工智能
+关注
关注
1791文章
47274浏览量
238477
原文标题:学者之声丨北京大学刘哲:伦理研究应与人工智能的技术发展相嵌融合
文章出处:【微信号:drc_iite,微信公众号:全球技术地图】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论