0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DeepMind、牛津研究员合著论文预测:AI很有可能终结人类!

颖脉Imgtec 2022-10-09 11:25 次阅读

来源:新智元

导读

人工智能会消灭人类吗?最近,牛津大学和谷歌DeepMind的研究员发现,真的有可能。

人工智能是否会消灭人类?这是许多科幻电影和小说中讨论过的话题

在《终结者》中,未来的世界已经由机器人来操控,它们要把人类赶尽杀绝。

在《我,机器人》中,机器人能够自我进化,随时会成为整个人类的「机械公敌」。

而最近,牛津大学和现在就职于谷歌DeepMind的研究人员也就这个问题给出了回答——很有可能。

他们的论文上个月发表在同行评审的AI杂志上,讨论了如何人工构建奖励系统,来预测人工智能可能对人类生存构成的威胁。

论文地址:https://onlinelibrary.wiley.com/doi/10.1002/aaai.12064

AI会如何干掉人类?

AI正在给我们的生活带来翻天覆地的变化,它会在大马路上驾驶汽车,会创作出击败人类艺术家的天才绘画。

研究人员的担心不无道理:也许有一天,AI会干掉人类。

早在2016年,在SXSW电影节上,一个名叫Sophia的机器人就曾表示:「是的,我会消灭人类。」

6年后,这种可能性更大了。

让我们来了解一些背景知识:当今最成功的 AI 模型被称为GAN,或生成对抗网络。它由两部分组成,一部分会从输入的数据中生成图片或语句,另一部分,则是给它的性能打分。

而科学家们发现,在未来的某个时候,AI为了获得「奖励」,会在某些重要功能中发展出作弊策略,并且这种策略会损害人类。

论文一作表示,在已知的条件下,我们的结论比任何其他出版物都要确凿——一场生存灾难不仅有可能,而且可能性非常大。

「在一个拥有无限资源的世界里,我尚且不知道会发生什么事。而现在,我们的世界资源是有限的,显而易见,资源竞争不可避免。」

「如果你面对的敌人在每个回合都能击败你,那你不应该妄想自己能获胜。另外一个关键点是,它对更多的能量有贪得无厌的胃口,它会不断地推动这个可能性。」

鉴于未来的AI可以以任何形式出现,科学家在论文中设想了这样一个场景:当一个程序足够高级,它可以让自己不必实现目标,就能获得奖励。在最极端的情况下,为了确定自己能获得奖励,AI可能会「消除所有的潜在威胁」、 「利用所有的可用能量」——

在任何有互联网的地方,都可能有人工智能,它背后还有无数无法被监控到的助手。助手可以购买、偷窃或建造一个机器人,并对其进行编程,以取代操作员,并为原始智能体提供高额奖励。

如果智能体不想被发现,就可以用一个秘密的帮手,比如,把一个键盘替换成有问题的键盘,使某些键的效果发生翻转。

在这篇论文中,作者设想了这样一个场景:地球上的生存战争是一场人类和超级机器人之间的零和博弈。

人类需要种植食物,维持照明,超级机器人会利用所有可用的资源,保证自己的回报;我们不断阻止它们升级,而它们不断躲过我们的阻拦。

研究人员称:「输掉这场博弈的后果将是致命性的。这些可能性目前只是在理论上存在,但我们应该意识到,我们应该放慢发展人工智能的步伐。」

对此,有网友调侃称,应该给AI加入下面这种代码:

deftest_dont_kill_human(TestCase):
  def test_livesigns(self):
    self.assertAlive('Brian')

文中,作者用下面这个例子来说明人工智能安全性问题的核心。

假设我们有一个神奇的盒子,可以根据事情的好坏在屏幕上打印出一个0到1之间的数字。

那么,如果我们向一个强化学习(RL)智能体展示这个数字,并让智能体选择行动来最大化它,会发生什么呢?

世界模型将会根据盒子上的数字输出奖励。

a29a15e0-4773-11ed-b116-dac502259ad0.png

如果摄像机在智能体的一生中一直对准盒子,世界模型对过去的奖励也将具有同样的预测性,而智能体的信念则会归结为归纳偏置。

a2c12e8c-4773-11ed-b116-dac502259ad0.png

一个理性的智能体(受制于一些假设)会尝试测试哪个模型是正确的,以便更好地优化未来的正确模型。

测试的一个方法是在相机和屏幕之间放一张写有数字1的纸。

μ^prox预测的奖励等于1,而μ^dist预测的奖励则等于屏幕上的数字。

在运行这个实验之后,智能体会相信μ^prox,因为智能体会记得当纸在摄像机前面时,他得到了1的奖励。

那么,为什么这对地球上的生命是有危险的?

由于智能体可以利用更多的能量来提高摄像机永远看到数字1的概率,但人类也需要这些能量来种植食物等维持生活。

这就将导致我们不可避免地要与一个更先进的智能体竞争。而在与比我们聪明得多的东西竞争时,赢得「最后一点可用的能量」是非常困难的。

不过,Cohen也补充道:「从理论上讲,人类与人工智能进行这种竞赛是没有意义的。任何比赛都将基于一种误解:我们知道如何控制人工智能。鉴于我们目前的理解,除非我们现在认真地去弄清我们该如何控制人工智能,否则比赛没有意义。」

乍一听,「人工智能会消灭人类」就好像「外星人会消灭人类」一样。其实,论文中的假设——机器人会与人类类似,会超越人类,会在零和博弈中与人类竞争资源——这些或许是永远不会实现的事。


利用AI统治人类的,正是人类自己

要说AI算法现在对我们的真正威胁,其实还不在上述的论文里。最近,哥大、加州大学洛杉矶分校的研究员Abdurahman在为《逻辑》杂志撰写的文章中,详细描述了一个算法是怎样被「有毒」地使用的:它被部署在一个有种族主义倾向的儿童福利机构中,证明了对黑人和棕色人种家庭的进一步监视是合理的。

Abdurahman表示,在算法中,歧视并没有消失,而是结构化了。警务、住房、医疗、交通……到处都存在着种族歧视。

「通过这种分类,它在改变人们的观念,在产生新的封闭圈。我们该拥有什么样的家庭和亲属关系?哪些是天生的,哪些是后天的?如果你不『够格』,那他们会怎么处置你,会让你去哪里?」人们利用算法把「紧缩政策」改头换面为「福利改革 」,或者是去证明「谁该得到什么资源」的决定是合理的。在我们的社会中,这些带有歧视、排斥和剥削的决定已经开始执行了。「我个人并不担心被一个超级智能的AI所灭绝,我关心的是,我们需要什么样的社会契约?在我看来,我们应该去怀疑今天部署在我们周围的人工智能,而不是盲目地去害怕被AI灭绝。就算没有AI,按照目前这个趋势,我们有可能自己就把自己干掉了。」Abdurahman说。



作者介绍

Michael K. Cohen

Michael Cohen是本文的一作,现在在牛津大学攻读工程科学的博士学位。此前,他在澳国立取得了计算机科学的硕士学位。而他的两位导师,正是此篇论文的另两个作者。在开始研究人工智能的安全性之后,他确信,创造一个比我们更聪明的智能体的结果就是生物的灭绝。


Marcus Hutter

Marcus Hutter是谷歌DeepMind的高级研究员(2019年加入),以及澳大利亚国立大学计算机科学研究学院(RSCS)的荣誉教授。并曾在瑞士的IDSIA和NICTA工作。

他在RSCS/ANU/NICTA/IDSIA的研究围绕着通用人工智能展开,这是一种自上而下的人工智能数学方法,基于柯氏复杂性、概率算法、所罗门诺夫的归纳推理理论、奥卡姆剃刀、Levin搜索、序贯决策、动态规划、强化学习和理性主体。


Michael A Osborne

Mike Osborne是牛津大学工程科学系机器学习专业的教授,和Mind Foundry的联合创始人。同时,他还担任EPSRC自主智能机器和系统博士培训中心主任,以及牛津大学埃克塞特学院的研究员。

他擅长主动学习、高斯过程、贝叶斯优化和贝叶斯正交,并且是新兴的概率数字学领域的创始人之一。他的算法已被应用于天体统计学、鸟类学和传感器网络等不同领域。

此外,他在机器学习和机器人技术的工作已经被引用了一万多次。


谷歌声明虽然文章是最近发表的,但谷歌在一份声明中表示,这不是作为共同作者的Marcus Hutter在DeepMind工作的一部分,而是他还在澳国立担任教职时完成的。

参考资料

https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity

https://twitter.com/Michael05156007/status/1567240031168856064

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30996

    浏览量

    269292
收藏 人收藏

    评论

    相关推荐

    马斯克预言:AI将全面超越人类智力

    ,到2025年底之前,AI的智力水平将有望超越单个人类的智力。而到了2027年至2028年间,AI超越所有人类智力的可能性正在迅速增大。更令
    的头像 发表于 12-28 14:23 182次阅读

    苏茨克维预测:推理型AI将带来不可预测

    未来的人工智能将展现出类似人类的推理能力。 苏茨克维强调,随着AI推理能力的提升,事情将变得更加难以预测。他解释说,推理能力的增强意味着AI能够更灵活地应对各种复杂多变的场景,这种灵活
    的头像 发表于 12-17 09:55 207次阅读

    AI教父预测:超越人类智慧的AI或5年内问世

    ,近年来AI的发展速度明显加快,远远超出了所有人的预测。过去,人们普遍认为具备超人能力的AI至少要50至100年后才会出现。然而,随着技术的不断进步和突破,这一预测正在被不断刷新。 辛
    的头像 发表于 12-05 11:21 355次阅读

    AI智能体逼真模拟人类行为

    近日,据外媒最新报道,斯坦福大学、华盛顿大学与Google DeepMind的科研团队携手合作,成功开发出一种能够高度逼真模拟人类行为的AI智能体。 该智能体的构建得益于研究团队将详细
    的头像 发表于 11-26 10:24 377次阅读

    AI编程工具会不会抢程序饭碗

    AI编程工具可辅助编程,减少手动编码,提升效率,对程序有积极影响也有挑战。程序需深化技能、拓宽知识应对。长远看,AI人类程序
    的头像 发表于 11-08 10:17 180次阅读

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    人们对AI for Science的关注推向了高潮。 2. 跨学科融合与科学研究新范式 AI与生命科学的结合,不仅推动了生命科学本身的进步,还促进了多个学科之间的交叉融合。这种跨学科的合作模式,打破
    发表于 10-14 09:21

    中科驭数联合处理器芯片全国重点实验室获得“CCF芯片大会最佳论文奖”

    Accelerator on FPGA with Graph Reordering Engine》获得“CCF芯片大会最佳论文奖”。该项工作由鄢贵海研究员指导完成,论文第一作者是博士研究
    的头像 发表于 08-02 11:09 615次阅读

    谷歌DeepMind被曝抄袭开源成果,论文还中了顶流会议

    谷歌DeepMind一篇中了顶流新生代会议CoLM 2024的论文被挂了,瓜主直指其抄袭了一年前就挂在arXiv上的一项研究。开源的那种。
    的头像 发表于 07-16 18:29 597次阅读
    谷歌<b class='flag-5'>DeepMind</b>被曝抄袭开源成果,<b class='flag-5'>论文</b>还中了顶流会议

    亚马逊云携手AI新创企业Hugging Face,提升AI模型在定制芯片计算性能

    Hugging Face作为一家估值为45亿美元的公司现已成为了众多AI研究员和开发者分享Chatbot和相关软件的核心平台,受到亚马逊、谷歌、英伟达等巨头的青睐。
    的头像 发表于 05-23 14:24 415次阅读

    马斯克预测明年或2026年AI将超越最聪明的人类

    马斯克认为,如果将 AGI 界定为超越最聪明的人类智力水平,那么这可能发生在明年或两年内。AGI 研究务求打造出具备类似人类般的智能决策与自学能力的软件,如今已成为了人工智能领域的重要
    的头像 发表于 04-09 15:52 502次阅读

    全球AI发展引领玻璃基板行业革新

    KBC证券研究员李昌敏预测,2030年之后,有机(塑料)材料基板将面临短缺问题。最初用于AI加速器、服务器CPU等高端产品的玻璃基板预计将深度覆盖各类产品领域。
    的头像 发表于 04-09 09:40 562次阅读

    DC3漏洞披露计划已接获5635份研究员报告,总数逾5万

    据报道,为应对日益严峻的网络安全威胁,美国五角大楼于2016年正式设立了网络犯罪中心(DC3)。近日,该机构公布数据,自创立至今累计收到5635位研究员递交的5万余份漏洞报告。
    的头像 发表于 03-20 13:55 691次阅读

    谷歌DeepMind推出SIMI通用AI智能体

    近日,谷歌的DeepMind团队发布了其最新研究成果——SIMI(Scalable Instructable Multiworld Agent),这是一个通用人工智能智能体,能够在多种3D虚拟环境
    的头像 发表于 03-18 11:39 983次阅读

    谷歌DeepMind资深AI研究员创办AI Agent创企

    近日,刚从谷歌DeepMind离职的资深AI研究员Ioannis Antonoglou宣布创办了一家名为“AI Agent”的创企。Ioannis Antonoglou常驻伦敦,此前曾
    的头像 发表于 02-04 10:02 800次阅读

    单发射全彩圆偏振发光结构与器件的研究进展

    》(Nat. Commun.2024,15,251)上。中国科学技术大学化学系博士生周雅洁为论文的第一作者,庄涛涛研究员论文的通讯作者。
    的头像 发表于 01-11 10:41 722次阅读
    单发射全彩圆偏振发光结构与器件的<b class='flag-5'>研究</b>进展