近日,在日内瓦联合国举行了常规武器公约关于致命自主武器系统的政府专家小组第一次会议。像“停止杀手机器人运动”这样的组织正在鼓励联合国推进自主武器的国际监管,这很好,因为谈论这些问题将如何影响机器人和社会的未来是一件非常重要的事情。
然而近日看到了一个视频,让我觉得这是一场令人不安的自主武器辩论。在Elon Musk的“未来生活研究所”的支持下制作的这部名为“屠宰机器人”的视频将图像暴力与技术合理性相结合,想象一个非常暗淡的场景:一个虚构的不久的将来,自主携带爆炸物的微型无人机在世界各地正在杀死数千人。
我们不会在这里嵌入视频,因为它包含了一些暴力场景,包括教室里的恐怖袭击(!)。
让我感到非常失望的是机器人和人工智能研究人员,我本来是很尊重的,他们会支持这种耸人听闻的说法,这似乎是为了让人们感到震惊和恐慌,而不是传递任何有用的信息,来了解实际的问题是什么。这里的信息似乎是,如果你有兴趣讨论这些问题,或者你认为可能有其他可能更有效的方法来塑造未来的自主武器,除了呼吁禁止,那么你就和***站在一边。这是一种非常熟悉的修辞形式,它被证明是有效的,因为它的目的不是要传达事实,而是利用情绪和恐惧。另一个问题是,像这样的视频,由学者创建和推广,可能会让公众更加不信任和害怕机器人,这是机器人界长期以来一直反对的事情。
就个人而言,我不是“杀手机器人”,也不是“有意义的人类控制之外的自主武器”。在这一点上,我觉得很难支持彻底的禁止,因为我认为这样做对于一个尚未完全表征的复杂问题是一个潜在的无效的解决办法。人工智能和武器控制专家们仍然在讨论什么,特别是应该受到管制或禁止,以及如何执行。说“我们有机会阻止你刚才看到的未来”,正如加州大学伯克利分校教授斯图尔特·拉塞尔(Russell,“屠宰机器人”的创造者之一)在录像结束时所做的那样,是一种过于简单化,在我看来,自主武器不会阻碍无人机的小型化,不会阻碍面部识别技术的进步,也不会妨碍二者的融合,这就是“屠宰机器人”呈现的方案。
当被问及这部电影是否依赖恐怖主义时,罗素的一位同事,新南威尔士大学的一位AI教授托比·沃尔什(Toby Walsh)也不同意。他说:“这不是恐惧。“俄罗斯驻联合国大使刚才对联合国常设委员会会议说,我们不用担心致命的自主武器,因为它们太遥远了,不必担心。相反,这部电影的目的是要证明我们离自主武器有多近。它显示了如果把一些现有的技术和这种技术的滥用放在一起,会发生什么事情。
两年前,我回应了第一封公开信,呼吁禁止攻击性自主武器,提出另一种观点,即为什么自主武器也可能是有益的。拉塞尔和沃尔什以及麻省理工学院教授马克斯·泰格马克(Max Tegmark)在IEEE《科技纵览》出版的一篇文章中做了回应,该文章从以下几点开始:
“我们欢迎埃文·阿克曼(Evan Ackerman)为拟议禁止攻击性自主武器的讨论做出贡献。这是一个复杂的问题,双方都有需要仔细权衡的有趣论据。“
我完全同意。现在进行这个讨论是为了更加和平的未来而努力的最好的方式,但是为了做到这一点,我们必须进行讨论,而不是制造吓人的视频来诋毁我们不同意的人,同时加强不切实际和日益消极的看法,人们已经有了机器人技术。
-
机器人
+关注
关注
210文章
28270浏览量
206731 -
无人机
+关注
关注
228文章
10368浏览量
179824
原文标题:有关致命的微型无人机,反乌托邦的未来和自治武器的辩论
文章出处:【微信号:IEEE_China,微信公众号:IEEE电气电子工程师】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论