来自加拿大和澳大利亚的机器人和人工智能领域的专家们呼吁政府对杀手机器人下达禁令,专家们反对自动化武器的使用,并且认为它们的研发和使用越过了道德底线。
在新南威尔士大学Toby Walsh的组织下,澳大利亚人工智能研究界给澳大利亚政府写了一封信,呼吁禁止开发致命的自动化武器。澳大利亚机器人和人工智能(AI)研究机构的122位领先研究者发出了一封公开信,呼吁澳大利亚***Malcolm Turnbull采取反对将人工智能用于武器的立场。
澳大利亚的多位人工智能和机器人专家签署了这封信,要求Turnbull和他的政府成为禁止致命性自动化武器的第二十个国家,呼吁在即将召开的联合国(联合国)“特定常规公约”会议上禁止致命的自动化武器(CCW)。
这封同步公开信获得了加拿大数百名AI专家的签名,其中包括Deep Learning公司的两名创始人、AI先驱Geoffrey Hinton和Yoshua Bengio,以及加拿大渥太华大学伦理、法律和技术研究所的主任Ian Kerr教授。加拿大的公开信敦促加拿大***Justin Trudeau支持这一禁令。这两封信都是伴随着八月份打给联合国的一个电话而发出的。这个电话是由机器人和人工智能企业的137名创始人联合打出的,旨在反对打开致命自动化武器的潘多拉盒子。此次电话会议的签署方包括英国的AI研究员兼谷歌DeepMind Demis Hassabis公司的首席执行官和一些著名的技术专家,如OpenAI的创始人Elon Musk和Geometric Intelligence的创始人Gary Marcus。
澳大利亚人工智能专家在写给Turnbull的信中说,缺乏切实的人类控制的致命自动化武器很明显是错误的。信中说:“为此,我们要求澳大利亚在即将召开的联合国常规武器公约会议上宣布支持禁止致命的自动化武器系统。澳大利亚还应该承诺与其他国家合作达成一个新的国际协议,以达成这个目标。”信中说:这样,我们的政府就可以在世界舞台上恢复其道德领导地位,正如以前在其他领域,如不扩散核武器的情况一样。“随着澳大利亚最近参加联合国人权理事会的选举,处理致命的自动化武器问题对澳大利亚更为迫切。”
公开信的组织者、澳大利亚新南威尔士大学悉尼分校的AI教授Scientia表示,AI和机器人界近年来已经就这个问题发出了一个清晰而一致的信息。Walsh说:“我们现在需要采取行动来禁止致命的自动化武器。人工智能可以极大地提高生产力,应对气候变化,改善医疗保健。”“但同时,人工智能也可以使我们的生活变得更糟糕,特别是在我们允许机器来决定人的生死的情况下。我们应该选择如何使用各种技术。我非常希望我们在这里做出正确的选择。在这些技术被普及之前,留给我们的时间已经不多了。”Walsh教授说,如果没有禁令,将会产生军备竞赛,以发展日益强大的自动化武器。
在2015年布宜诺斯艾利斯举行的主要人工智能大会上,Walsh还协助组织公布了一封公开信,以警告自动化武器的危险,并再次提出了对其实施禁止的要求。这封信是由来自全球的数以千计的人工智能和机器人研究者们签署的,并得到了英国物理学家霍金(Stephen Hawking)、苹果联合创始人Steve Wozniack和认知科学家Noam Chomsky等的支持。人权委员会特别报告员Christof Heyns教授是第一个呼吁联合国解决自动化武器问题的人。他在2013年认为,机器不应该获得决定人类生死的权力。
澳大利亚的这封信也是在11月10日教科文组织的“和平与发展世界科学日”之前发出的。此外,Walsh将到联合国对致命自动化武器的危险提出警告:“像我这样的人工智能和机器人专家所担心的不是终结者,而是目前正在开发的更简单的技术。它们距离部署只有几年的时间。如果没有禁令,将会发生军备竞赛,以开发越来越强大的自动化武器。利用将会出现大规模的杀伤性武器,一个程序员将能够控制整个军队。其他任何大规模杀伤性武器都被禁止:化学武器、生物武器、甚至核武器。我们必须把自动化武器添加到道德上不可接受的武器清单上。”
Walsh的新书《它是鲜活的!:从逻辑钢琴到杀手机器人的人工智能》详细论述了对致命自动化武器的争论。
-
机器人
+关注
关注
210文章
28205浏览量
206532 -
人工智能
+关注
关注
1791文章
46859浏览量
237579
原文标题:专家呼吁禁止杀手机器人
文章出处:【微信号:AI_News,微信公众号:人工智能快报】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论