这篇文章来源于DevicePlus.com英语网站的翻译稿。
埃隆·马斯克一直是技术创新和未来商业模式的前沿代表。所以,当他对硅谷加速采用人工智能(AI)和机器人技术感到害怕时,很多人感到惊讶。
随着争论的持续,您可能会怀疑他说的是否有道理。我们是否需要支持毁灭开关的AI和机器人标准?
马斯克(PayPal、特斯拉和SpaceX创始人)认为,人类或将无力抵抗发展到集中化的人工智能(AI)。他还认为AI的发展速度比人们想象的要快得多,并且很可能会摧毁人类。
该思想与马斯克前几年的说法遥相呼应。当时,马斯克表示人类与AI的融合不可避免,因此为了对人工智能实施更多控制,最佳解决方案是人类-智能共生体。
马斯克并不孤单!
理论物理学家斯蒂芬霍金表示,如果技术进步失控,那么智能程序和机器人可能会以人类无法比拟的速度持续进化升级,并能快速重新设计自己,我们都应该担心这一点。
此外,他认为当AI超越人类智慧时,我们将面临可怕的后果。生存风险研究中心(CSER)和剑桥大学Leverhulme未来智能中心的专家也表现出相同的担忧,并将AI列为未来最大的顾虑。
另外,他们还表示, 到2075年自主AI就能够赶上人类智能水平。因此,如果不加以控制,这些智能机器人可能会引发核战并摧毁整个人类。
然而,伦敦实验室DeepMind的联合创始人Demis Hassabis提出了不同意见。虽然AI经历了一段加速发展时期,但仍然不是马斯克所担心的全能自我进化软件。
如今的AI为Google搜索引擎、基本数字助理(比如Apple的Siri)以及Facebook使用的照片标记技术等领域提供支持。但是,人们的最终目标是构建一种可以模仿人类学习的高适应性自学AI,这并不是什么秘密。
因此,可以得出结论,Hassabis和马斯克都是对的。不受限制的AI发展是一个非常现实的危险,但是用世界末日描述这个问题可能是杞人忧天(更像是一种干扰)。
然而,即使是Hassabis的合作伙伴和DeepMind联合创始人Shane Legg也认为AI技术将导致人类灭绝。
AI在短期内为人民带来了巨大的好处,然而,参与机器人标准的讨论和对话从而制定相关标准也非常重要。
这意味着现在就应该拟定协议来管理人工智能和机器人,而不是在他们获得卓越智能之后。因此,在人工智能中加入毁灭开关可能是一个好主意,但是全球管理机构也必须回答一些道德问题。
比如,AI应该像人类一样获得权利吗?更重要的是,当AI造成伤害时,谁应该承担责任?
AI、机器人以及机器人定律
科幻作家Isaac Asimov在20世纪中期就考虑过这些事情。他建议实施以下机器人三大定律,以确保对人类的保护。
第一定律:机器人不得伤害人类或坐视人类遭受危险而袖手不管。第二定律:机器人必须始终服从人类的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己。虽然这些虚构的法则可能会让人想起阿诺德·施瓦辛格和终结者第一部,但可能是一个很好的起点。
马斯克对于的AI恐惧并没有被忽视。事实上,许多组织正在就系统地管理AI做出努力。亚马逊、Facebook、谷歌、IBM、微软等公司已经共同成立了AI合作组织(Partnership on Artificial Intelligence to Benefit People and Society)。Orwellian-sounding团队希望在研发AI和机器人技术最佳实践的同时经营一个开放式平台,以鼓励人们对该主题进行广泛讨论。此外,美国政府去年发布了自动驾驶汽车指南。
世界上最古老的两个科学组织——英国皇家学会和英国国家学术院——也发表了一份报告,呼吁建立一个国家机构,以管理AI的进化发展。可以肯定的是,尽管许多人不像马斯克那样激进,但是这些日益增长的担忧在世界范围内得到了共识。
然而,人们仍然存在许多分歧,因此我们仍未就如何实施达成任何协议。人们对机器人标准同样也未达成共识,所以我们只能拭目以待最终结果。
有一件事是肯定的:这次讨论生正逢时,而且世界上的许多伟大思想都已经参与其中。我们朝着正确方向迈出了一步,希望能够推动毁灭开关理论和最佳实践向前发展。
DevicePlus 编辑团队
设备升级版适用于所有热爱电子和机电一体化的人。
审核编辑黄宇
-
机器人
+关注
关注
211文章
28380浏览量
206919 -
AI
+关注
关注
87文章
30731浏览量
268893
发布评论请先 登录
相关推荐
评论