0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工智能可能在2040年前增加核战争的风险

DPVg_AI_era 来源:未知 作者:李倩 2018-05-02 14:42 次阅读

美国国防部副部长透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣,五角大楼已经准备在未来6个月内建成一个整合多个AI项目的新中心。于此同时,美兰德公司发布报告,警告说AI在军事任务中的应用可能增加核战争的风险。据美国非盈利新闻调查组织CPI的报道,美国国防部的第二把手上周二透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣。

美国国防部副部长、前波音公司高管Patrick Shanahan表示,人工智能(使用计算机系统执行通常需要人类智能的任务)可以帮助国防部更好地利用其收集的大量情报数据。

他还表示,AI可以用于加强军事后勤能力,在正确的时间为士兵和维修人员提供适当的零件和装备。AI也可以促进更明智的决策,为军方人员提供医疗服务,从而节省成本。

Patrick Shanahan以及其他高级国防官员说,五角大楼已经准备在未来6个月内建成一个“卓越中心”(Center for Excellence),将多个现有的与AI应用相关的军事计划整合在一起,为这项工作带来更多连贯性和动力。

在Shanahan向防务作家团体(Defense Writers Group)发表上述讲话的同一天,兰德公司(RandCorporation)发布了一分公开报告,警告说AI在军事任务中的应用可能导致令人担忧的负面影响,包括:AI可能通过巧妙地破坏核威慑的一个关键根基,从而增加核战争的风险。兰德公司是美国的一个智库,主要为美国军方提供调研和情报分析服务。

兰德报告:人工智能可能在2040年前增加核战争的风险

这份新报告题为《人工智能可能如何影响核战争的风险》(How might Artificial Intelligence Affect the Risk of Nuclear War),报告指出,AI具有破坏核安全基础的“巨大潜力”。这个严峻的结论是兰德组织的一系列研讨会得出的,参与该研讨会的人员包括AI、核安全、政府和军方的专家。这是兰德公司Security 2040项目的一部分,旨在评估AI以及其他现金计算在未来20年里对核安全的影响。针对这一报告的结论,兰德正在呼吁国际社会就此进行对话。

这一讨论的核心是核威慑的概念,即保证“相互保证毁灭”(MAD)或“保证报复”(assured retaliation),防止一方对有同等武装的对手发射其核武器。这是一种冷酷、计算式的逻辑,至少在我们经历过的历史阶段,它至少阻止了一场全面的核战争,让理性的、自我保护的大国选择了对抗冷战。只要没有一个核力量维持有重大的先发制人的能力,MAD的概念就仍占据主导地位;如果一个武器系统能够在第一次攻击中幸存下来,并以同等的力量回击,那么“保证报复”就仍然有效。但是如果一方失去了反击的能力,或者即使它开始认为它有失去这种能力的风险,这样的体系就可能削弱并变得不稳定。

这个方程式鼓励国家行为者避免采取可能破坏当前地缘政治平衡的行为,但是,正如我们在过去几十年里一再看到的那样,核大国仍欲图“先发制人”。例如,隐形轰炸机、核潜艇的发展,以及最近俄罗斯总统弗拉基米尔·普京(Vladimir Putin)展示的“无敌”弹道导弹。

值得庆幸的是,这些发展都没有真正地结束超级大国在第一次打击后的反击能力,但正如兰德的新报告指出的那样,先进的人工智能技术与无人机、卫星以及其他强大的传感器等监视技术相结合,可以削弱这种促使微妙的冷战平衡得以保持的技术平衡。该报告称,人工智能将通过对敌方安全基础设施实行大规模监控,发现人眼看不到的模式,揭示其破坏性的漏洞,从而实现这一目的。

报告作者之一,兰德公司的一名工程师Andrew Lohn说:“这可不仅是电影里的场景,如果我们不加以小心,很简单的事情就可能引发紧张局势,将我们带到危险的局面。”

一个暴露着的敌人突然意识到它很容易遭受“先发制人”,或者意识到它可能很快就会失去反击的能力,将陷入一个非常不利的位置。这种情况可能会迫使处境不利的国家寻找能够恢复平衡的方法,它的行动可能会变得像被逼到角落里的金刚狼一般。先进的人工智能可能导致一个充满不信任、竞争的新时代,孤注一掷的核大国会愿意承担灾难性的、甚至毁灭性的风险。

令人不安的是,即将失去“保证毁灭”可能会导致所谓的预防性战争,即一场以阻止敌方获取攻击能力为目的的战争。例如,在第一次世界大战前的几年中,德国严重担忧作为其竞争对手的俄罗斯开始成为重要的地区强国。德国专家预测,俄罗斯将能够在20年内在武装冲突中击败德国,这引发了一场预防性战争。而在二战结束后不久,美国的一些思想家,包括哲学家伯特兰·罗素和数学家约翰·冯诺伊曼,呼吁在苏联发展自己的核弹之前,对苏联实施先发制人的核打击。

正如这些例子所显示的那样,事态的发展如果要破坏军事优势或平衡状态(即MAD),这一时期可能是非常危险的,会引发各种疯狂的想法。正如兰德公司的报告指出的那样,我们可能正在进入另一个这样的转型期。作者在报告中写道,人工智能“有可能在2040年前加剧核战略稳定面临的挑战,即使技术进步的速度不大”。

兰德公司的助理政策研究员,该报告的合作作者Edward Geist说,自主系统不需要通过杀人来破坏稳定性,更有可能的是造成灾难性的战争。他在一份声明中说:“新的人工智能能力可能会让人们认为,如果他们犹豫不决的话,他们就会失败。”这可能会导致他们扣扳机的手指更加跃跃试试。到那时,尽管人类仍处于“控制”状态,AI将使战争更有可能发生。

最后,作者警告说,未来可能会出现严峻的形势,但作者也同意AI也可能迎来前所未有的稳定时代。 他们写道:

一些专家担心,对AI的日益依赖可能导致新的灾难性错误。在技术成熟之前,使用AI可能会有压力;它可能易受对抗性的破坏;或者敌方可能认为AI比它实际上的能力更强大,导致他们犯下灾难性的错误。另一方面,如果核大国设法建立一种与AI可能提供的新能力相适应的战略稳定形式,就可以减少不信任并缓解国际紧张局势,从而降低核战争的风险。

作者们表示,无法预测这两种情景哪一种会发生,但国际社会必须立即采取行动,以减轻潜在的风险。在解决方案而言,作者提出了国际讨论,建立新的全球机构和协议,发展创新技术、外交和军事保障等。

这是技术的双刃剑。AI既可以导致我们的厄运,也可以像在《巨人:福宾计划》(Colossus:The Forbin Project;1970)和《战争游戏》(War Games,1983)等电影中那样,保护我们免于由于自己的错误而毁灭。那么,最好记住这句古老的格言:抱最好的希望,做最坏的打算。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1787

    文章

    46124

    浏览量

    235416
  • 特朗普
    +关注

    关注

    1

    文章

    288

    浏览量

    19776

原文标题:特朗普欲将AI用于军事关键任务,兰德公司警告2040年前或导致核战争

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    risc-v在人工智能图像处理应用前景分析

    是一些未来发展趋势: 市场规模持续增长 :据多家研究机构和公司的预测,RISC-V的市场规模将持续增长。到2030,RISC-V处理器有望占据全球市场近四分之一的份额。这将为RISC-V在人工智能
    发表于 09-28 11:00

    生成式人工智能在教育中的应用

    生成式人工智能在教育中的应用日益广泛,为教育领域带来了诸多变革和创新。以下是对生成式人工智能在教育中的几个主要应用方面的详细阐述:
    的头像 发表于 09-16 16:07 159次阅读

    人工智能ai4s试读申请

    目前人工智能在绘画对话等大模型领域应用广阔,ai4s也是方兴未艾。但是如何有效利用ai4s工具助力科研是个需要研究的课题,本书对ai4s基本原理和原则,方法进行描诉,有利于总结经验,拟按照要求准备相关体会材料。看能否有助于入门和提高ss
    发表于 09-09 15:36

    【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    了在材料基因组工程的推动下,人工智能如何与材料科学结合,加快传统材料和新型材料的开发过程。 第4章介绍了人工智能在加快药物研发、辅助基因研究方面及在合成生物学中的普遍应用。 第5章介绍了人工智能如何在
    发表于 09-09 13:54

    报名开启!深圳(国际)通用人工智能大会将启幕,国内外大咖齐聚话AI

    呈现、产业展览、技术交流、学术论坛于一体的世界级人工智能合作交流平台。本次大会暨博览会由工业和信息化部政府采购中心、广东省工商联、海合作区管理局、深圳市工信局等单位指导,深圳市人工智能产业协会主办
    发表于 08-22 15:00

    人工智能在军事方面的应用

    智慧华盛恒辉人工智能在军事方面的应用广泛且深入,主要包括以下几个方面: 智慧华盛恒辉一、作战效能提升 自动目标识别与跟踪: 人工智能系统能够在复杂环境中准确识别和跟踪目标,提高作战效率。利用图像识别
    的头像 发表于 07-16 09:52 252次阅读

    人工智能在战略评估系统中的应用有哪些

    智慧华盛恒辉人工智能在战略评估系统中的应用广泛而深入,具体体现在以下几个方面: 人工智能在数据收集与处理方面发挥着重要作用。它能够自动化地从各种来源收集大量数据,包括市场趋势、竞争对手动态、用户反馈
    的头像 发表于 04-24 14:54 304次阅读

    马斯克:人工智能风险大于益处,仍值得冒险开发

    此次会议改变了马斯克过去对人工智能风险的估计,他表示:“我同意杰弗里·希顿的观点,即人工智能可能摧毁人类文明,失控概率约为 10%-20%。”不过,他也强调了积极
    的头像 发表于 04-01 16:07 400次阅读

    全球AI科学家呼吁合作应对人工智能风险

    在此份声明中,学者们强调必须联手建立起立体的人工智能安全防线,预防可能在人类寿命周期内带来无法承受的风险。人们须要团结协作,以规避未知技术可能引发的灾难后果。
    的头像 发表于 03-19 16:04 857次阅读

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17

    人工智能在软件测试中的应用

    测试中的应用。 人工智能在软件测试中的应用可以有效地提高测试的效率和准确性。通过机器学习、自然语言处理、模式识别等人工智能技术,测试工具可以自动分析软件的代码、性能、功能等各方面指标,并发现其中的缺陷和错误。
    的头像 发表于 12-26 11:02 480次阅读

    人工智能在工业领域的作用

    本文是系列的第一部分,我们将探讨人工智能在工业领域的作用。
    的头像 发表于 12-21 11:07 708次阅读

    浅谈人工智能监管制度

    人工智能在提供便利的同时,也会产生诸如算法黑箱和信息茧房等风险,因此,对其进行监管十分重要。本文通过梳理欧盟、美国和英国人工智能监管制度,来探究域外人工智能监管问题。
    发表于 11-23 10:47 288次阅读

    争分夺秒:人工智能速度下的战争

    随着武装冲突时间的缩短,会产生哪些技术影响?过去可能耗时数年的战争可能在数月甚至数周内就能决定胜负。历时数周的行动必须在数天或数小时内完成。而指挥官们在做出决定之前,在历史上可能有充足
    的头像 发表于 11-20 17:47 679次阅读

    做好人工智能发展的风险防范

    一是放大隐私信息泄露风险。当前,人工智能开发者和服务提供者可能利用用户数据进行优化训练,但相关服务条款却并未对数据使用做出解释说明,可能涉及在用户不知情情况下收集个人信息、商业秘密等,
    的头像 发表于 10-29 10:47 640次阅读