0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

马斯克呼吁暂停AI研究,吴恩达:呼吁无效!潘多拉的魔盒能“安全”打开吗?

硬科技星球 来源:硬科技星球 作者:硬科技星球 2023-04-12 11:40 次阅读

马斯克等“千人联名”呼吁暂停AI研究事件经过一天发酵后,以吴恩达、田渊栋为代表的AI研究支持派也开始发声,公开反对“千人联名”,一场关于“要不要打开潘多拉魔盒”的论战拉开帷幕,被网友戏称为“三体照进现实?降临派、拯救派和幸存派不是开玩笑的。”这究竟是怎么一回事?

暂停or继续,ChatGPT训练引发马斯克、吴恩达论战

事情起因是3月29日美国非营利性组织未来生命研究所(Future of Life Institute)发布的一封公开信,信中呼吁所有人工智能(AI)实验室立即暂停训练比GPT-4更强大的AI系统。

IMG_256

“千人联名”公开信(图片来源于网络截图)

半年前,ChatGPT的发布推动了AI热潮,不到两个月的时间就有了上亿个月活用户。时至今日,与ChatGPT相关的话题仍旧频繁登上社交媒体热搜榜单,A股市场上ChatGPT概念股板块历经多番涨停潮,百度、阿里、京东、网易等科技公司相继宣布推出或研发对标产品的计划。

就在行业期待通用型AI能够在ChatGPT的热潮中迎来真正落地的时刻,却冒出了呼吁暂停AI训练的公开信,而后特斯拉及推特首席执行官马斯克等上千人在这封公开信中予以了签名,Stability AI CEO、07年图灵奖得主、苹果联合创始人、多位DeepMind工程师也都赫然在列,形成了极具分量的“千人联名”,引发业界关注。

这封公开信表明了对AI潜在风险的担忧:“只有当我们能够确信,AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟。”

IMG_256

吴恩达公开发贴反对“千人联名”(图片来源于推特截图)

很快,吴恩达、田渊栋等一众AI大牛发文公开反对“千人联名”,吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:它(GPT-4)在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。

在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同,他们认为“6个月暂停令”本身并不是一个非常切实可行的建议,是在扼杀AI进步。

双方提到同一关键词“安全”,技术惊人进化引发人类担忧

无论是呼吁暂停研究的“拯救派”还是反对千人联名的“降临派”,仔细分析双方的发言,发现焦点集中在了“安全”:“千人联名”公开信中建议,利用“暂停训练”的这段时间,开发和实施一套共享安全协议,用于高级人工智能设计和开发,并由独立外部专家进行严格审核和监督……人工智能的研究和发展,应该重新聚焦于朝着更准确、安全、可信可解释等的AI系统开发工作上来。吴恩达的帖子中也提到,要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行。

从双方对AI“安全”的关注可以看出,这轮关于“暂停AI训练”的争议,本质上是人们对于AI技术无序发展的恐惧和不安,这也并非AI发展中第一次引发这样的担忧。2015年,物理学家斯蒂芬·霍金和埃隆·马斯克等数位科学家、企业家,与人工智能领域有关的投资者,就曾联名发出了一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。

当年的呼吁并没有阻挡技术前进的步伐,如今AI已经呈现出了更加令人不安的“智能”,以至于很多人担心,AI会不会像科幻作品中描述的那样,可以像人一样自主思考,甚至更全面更智慧,就像《流浪地球2》里的数字生命计划一样,人的智慧逃逸到数字空间之中,那么人类是否还有存在的必要?《人类简史》当中也描绘了未来人类这个物种可能面临的巨变。

清华大学计算机系长聘副教授、北京聆心智能科技有限公司创始人黄民烈表示,AI距离具备科幻作品中呈现的那种自主人格,还相差很远的距离。“通俗来说,AI学习了大量的人类对话数据,而这些对话来自不同的人,所以可以认为AI学习到了一个‘平均’的人格,但也仅仅是语言说话风格,而且是来自人类的说话风格,并不是AI自发形成的。”

但是,科学的确存在伦理风险,尤其是人类对AI的情感依赖越来越多的情况下,黄民烈教授举例:假想某个受到生活严重打击的人,对AI说:“我想找个桥跳下去”,AI立刻提供了附近桥的位置并导航路径,后果细思恐极。

“千人联名”事件前后发生的一次自杀事件似乎印证了这种担忧,一名化名为皮埃尔的比利时男子在与一个名为“艾丽莎”的智能聊天机器人频繁聊天六周后自杀身亡。“艾丽莎”由美国硅谷一家初创公司开发,背后由GPT-J支撑,与ChatGPT采用OpenAI开发的GPT-3或GPT-4为竞争关系。

ChatGPT的开发公司OpenAI也曾在GPT-4技术报告中描述了一些可预见的,与偏见、虚假信息、过度依赖、隐私、网络安全等相关的风险——ChatGPT“胡言乱语”的问题始终没有得到有效解决,其因此备受诟病。

用魔法打败魔法,用技术规范技术

由此看来,暂停AI研究的确不切实际,借用Meta FAIR研究院研究员/高级经理、CMU机器人系博士田渊栋对AI发展的描述来说:一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。

但这不意味着人类对可能存在的伦理安全问题“束手无策”,ChatGPT这类生成式AI是通过范例学习的,他们的行为是可以规范的,应该鼓励合规的机构去发展AI,用合法AI去对抗非法AI,而不是停滞不前。

事实上,AI飞速向前发展的同时,有关AI安全的技术也从未止步。前不久,微软在其首届Microsoft Secure活动中发布了一款生成式AI安全产品Security Copilot,把AI技术应用到了网络安全领域。该产品由OpenAI的大型语言模型GPT-4和微软自家的安全模型提供支持,在微软云服务Azure上运行,用以帮助更快、更准确地检测和响应安全威胁。

在更早的2021年,微软就成立了安全、合规、身份与管理部门来应对日益加剧的网络安全挑战。2022年,网络安全业务为微软带来了超200亿美元的营收。微软曾称,未来五年间将不断加大对网络安全业务的投入,预计将在客户安全保护方面投入近200亿美元。

国内在AI安全方面的相关成果也正在出现,例如,3月聆心智能联合清华大学CoAI实验室历经两年建立的大模型安全评估框架正式发布,对ChatGPT的安全设计所不能规避的风险问题形成了更全面的补充,建立了大模型安全分类体系,设置了八大不安全的对话场景,包括政治敏感、犯罪违法、身体健康、心理健康、财产隐私、歧视/偏见、辱骂/仇恨言论、伦理道德,并针对以上八大不安全场景对大模型进行针对性升级,使模型能够在遇到安全问题时给予正确的回复策略,不去做判断和误导。

此外,研究团队还收集和构造了相应的hard case(更难识别和处理的安全测试用例),总结和设计了六种一般模型难以处理的安全攻击方式,称为指令攻击。使安全体系更加完善,进一步改进和优化模型表现。

据了解,早在去年7月,黄民烈教授就在媒体报道中表现出了对AI安全的关注,他表示,“AI对话系统下一阶段发展的重点是更有伦理、更道德、更安全。我们可以通过额外的资源、规则、检测手段赋予AI这样的能力,使风险降至最低。”

“潘多拉的魔盒”难以逆转,积极拥抱AI for Social good

在科技发展的宏伟历史中,任何一项新兴技术的出现往往会引起人们对未知的恐惧,那些能够引起社会巨大变革的技术总是被比喻为“潘多拉的魔盒”,可能是引发灾难的根源,但是别忘了除了欲望与罪恶,盒子中也藏着希望。并且,“潘多拉的魔盒”一旦打开,很难扭转这一趋势,我们应该做的是规避不幸,释放希望。

就像当前急速发展的AI技术,暂停研究的呼吁是为了促进AI技术建立较高的道德标准和伦理规范,确保AI技术的应用不会对个人和社会造成潜在的危害。但应该看到,AI技术的发展是人类社会前进的必经之路,比起暂停进步,更应该做的是理解AI,适应它并利用其力量,同时建立起安全可信的框架规范其发展,确保其在促进人类社会发展的轨道上不偏航。

发展AI最终的目标是为人类谋福祉,而不是伤害人类,期待AI for Social good(AI赋能社会)尽快到来,为人类社会发展带来更高的社会意义和价值。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30097

    浏览量

    268370
  • ChatGPT
    +关注

    关注

    29

    文章

    1548

    浏览量

    7478
收藏 人收藏

    评论

    相关推荐

    马斯克:比特币是有价值的

    在特斯拉硅谷车主的一场活动中马斯克表示比特币以及一些其他加密货币是有价值的. 在这次在线活动中,马斯克还谈到了星舰的第五次试飞、星链Mini、Optimus人形机器人,以及Robotaxi
    的头像 发表于 07-31 17:59 1553次阅读

    马斯克透露FSD将对下月的Cybertruck车型开放

    旬正式对Cybertruck车型开放。这一消息是在马斯克与特斯拉车主进行的互动问答环节中披露的,当被问及Cybertruck车主何时体验到这一先进功能时,马斯克给出了乐观的回应。
    的头像 发表于 07-29 15:43 1030次阅读

    马斯克宣布开始在“全球最大AI训练集群”上训练

    在科技界的聚光灯下,埃隆·马斯克再次以他前瞻性的视野引领了人工智能领域的新一轮革新。近日,马斯克通过其社交媒体平台宣布,旗下新兴的AI公司xAI已经正式启动了位于美国田纳西州的“孟菲斯超级集群
    的头像 发表于 07-23 17:44 608次阅读

    通过menuconfig对潘多拉这块板子打开板载wifi之后,就无法重新创建项目了,怎么解决?

    当我通过menuconfig对潘多拉这块板子打开板载wifi之后,就无法重新创建项目了(pkgs更新过了,用的是GitHub上下载的5.0的版本)
    发表于 07-09 07:34

    马斯克自曝训练Grok 3用了10万块NVIDIA H100

    在科技界的前沿阵地上,埃隆·马斯克再次以其前瞻性的视野和大胆的尝试引领着新的风潮。近日,马斯克在社交媒体X上的一则回应,不经意间透露了其即将推出的AI聊天机器人Grok 3背后的惊人秘密——这款被
    的头像 发表于 07-03 14:16 452次阅读

    马斯克旗下xAI计划大举投资AI芯片

    特斯拉CEO马斯克最近宣布,其旗下的人工智能初创公司xAI计划斥资至少90亿美元购买30万块英伟B200 AI芯片。这一举措再次凸显了马斯克在人工智能领域的雄心壮志。
    的头像 发表于 06-05 09:33 400次阅读

    马斯克也给英伟打工了

    马斯克融来的60亿美元巨资,让xAI弯道超车,估值一跃成为全球第二大AI独角兽。但马斯克AI行业内积累的人望,以及此刻大模型创业之激烈,他的入局远远谈不上众望所归。而xAI由此被拉起
    的头像 发表于 06-03 08:04 196次阅读
    <b class='flag-5'>马斯克</b>也给英伟<b class='flag-5'>达</b>打工了

    马斯克回应特斯拉销量下滑:比亚迪销量也下滑

    前述事件发生在本周二。近日,洛克希德·马丁公司CEO杰夫·凯利强烈指责特斯拉第一季度表现欠佳,且将原因归咎于埃隆·马斯克,认为其行为不利于商品推广和市场营销。同时呼吁特斯拉董事会立即更换独立董事。
    的头像 发表于 04-03 16:09 794次阅读

    新火种AI|马斯克又一大动作!Grok-1.5性能超越GPT-4,AI反击战打响?

    野心勃勃的马斯克,能用Grok-1.5打赢AI这场仗吗?
    的头像 发表于 04-02 18:20 1018次阅读
    新火种<b class='flag-5'>AI</b>|<b class='flag-5'>马斯克</b>又一大动作!Grok-1.5性能超越GPT-4,<b class='flag-5'>AI</b>反击战打响?

    马斯克状告OpenAI,OpenAI回应马斯克诉讼

    马斯克在长达46页、1.4万字的诉讼文件中,控诉OpenAI背离了其初衷——即致力于开发开源人工通用智能(AGI)并服务全人类。
    的头像 发表于 03-04 15:33 863次阅读

    马斯克:AI发展速度前所未见 但马斯克起诉OpenAI及其创始人

    马斯克AI发展速度前所未见  现在市场上对于任何OpenAI的消息都非常敏感,我们分享一下马斯克对OpenAI起诉的一些事项。 马斯克在日前的一次活动表示
    的头像 发表于 03-02 15:29 1212次阅读

    马斯克确认特斯拉有意购买AMD芯片

    特斯拉CEO埃隆·马斯克(Elon Musk)近日宣布,特斯拉今年用于购买英伟硬件的花费将超过5亿美元。他表示,要在AI领域保持竞争力,至少需要每年数十亿美元的投入。
    的头像 发表于 02-01 16:44 869次阅读

    马斯克550亿美元薪酬方案被推翻 马斯克4000亿薪酬被判无效

    马斯克550亿美元薪酬方案被推翻 马斯克4000亿薪酬被判无效 就在市场强烈关注马斯克的首例人类脑机接口手术之际,马斯克又爆出他那超级高的薪
    的头像 发表于 01-31 11:18 1819次阅读

    Grok即将上线!马斯克据此成为“数据封建王”?

    马斯克背刺Open AI,即将成为“数据封建主”?
    的头像 发表于 12-12 10:18 573次阅读
    Grok即将上线!<b class='flag-5'>马斯克</b>据此成为“数据封建王”?

    马斯克称人工智能比核弹危险 需要全球合作的组织来监管AI

    马斯克又开始放嘴炮了吗?马斯克称人工智能比核弹危险;马斯克一直深度关注人工智能的发展,并警告隐性风险,着重提示应该对人工智能实施某种监管。 马斯克一直都是向来强调
    的头像 发表于 12-01 19:23 488次阅读