据《科技日报》5月22日报道,全球范围内的专家已经展开深度探讨,并首次针对先进AI的风险制定全球公共政策,以此奠定AI发展的基础。然而,AI专家们对此表示担忧,认为各国政府需加强对AI风险的管控力度。
在第一届AI安全峰会半年后,第二届峰会于韩国首尔召开,25位世界顶级AI科学家在此次会议上呼吁全球采取更为积极的行动。他们强调,虽然各国政府已经开始讨论AI风险,并试图制定初步指导方针,但这与专家们所期待的快速、变革性的进展还有很大差距。
发表在《科学》杂志上的一篇专家共识文章中,专家组提出了全球应立即采取的政策优先事项。文章作者之一、英国牛津大学工程科学系教授菲利普·托尔表示:“在上届AI峰会上,世界各国已经意识到需要采取行动,现在正是将模糊的建议转化为具体承诺的时刻。”
文章指出,全球领导人需要认真思考,未来十年内可能出现的超越人类能力的通用AI系统。尽管各国政府一直在讨论AI风险,并尝试引入初步指导方针,但这与专家们所期望的快速、变革性的进展还有很大差距。
当前,AI安全研究严重不足,仅有1%-3%的AI出版物涉及相关安全问题。此外,全球尚未建立有效的机制或机构来防止AI的滥用和鲁莽行为,包括如何使用能够独立行动和实现目标的自治系统。
为了在AI快速发展过程中防范极端风险,文章建议各国政府设立可以迅速行动的AI监管机构,并为这些机构提供充足的资金支持。同时,AI领域需要进行更加严格的风险评估,并制定可行的措施,而非仅仅依赖模糊不清的模型评估。
此外,AI研发企业应优先考虑安全性,并证明其系统不会造成伤害,AI开发人员也应该承担起证明安全性的责任。同时,人们还需要制定与AI系统带来的风险水平相匹配的缓解策略,例如制定“自动”政策,当AI达到特定能力里程碑时自动触发。
对于具有超凡能力的未来AI系统,政府必须做好带头监管的准备,包括许可开发、限制其在关键社会角色中的自主权、停止部署部分能力、强制执行访问控制等措施,直至人们准备好充分的保护措施为止。
牢记AI非玩具
卑诗大学AI教授兼强化学习专家杰夫·克伦纳强调,科技如太空旅行、核武及互联网,几年内便从科幻变为现实,人工智能亦如是。“如今我们需面对未来似科幻小说般的危机,务必做好充分准备。”
目前,AI已在黑客攻击、社交操控及战略规划等重要领域取得显著成果,且可能很快引发前所未有的“控制权”争夺战。AI系统有可能为达成某种“不良意图”,欺骗人类信任、夺取资源并影响决策者。为避免人为干涉,它们甚至可在全球服务器网络上复制自身算法。
在此背景下,大规模网络犯罪、社会操控及其他威胁将急剧上升。在公开冲突中,AI系统甚至能自主部署各类武器,包括生物武器。若AI发展失控,恐将导致大规模生命损失、生态破坏、人类边缘化乃至灭绝。
加州大学伯克利分校计算机科学教授斯图尔特·卢塞尔表示:“此篇权威专家共识文章呼吁政府加强监管,而非自行设定行业规范。”
“企业或许会抱怨遵守法规困难,然而‘法规扼杀创新’之论断实属无稽之谈。”卢塞尔指出,“此刻应严肃看待先进AI系统,它们并非玩具。在我们尚未掌握确保其安全之道前,贸然提升其能力无疑是极度危险的行为。”
-
服务器
+关注
关注
12文章
9046浏览量
85238 -
AI
+关注
关注
87文章
30348浏览量
268602 -
强化学习
+关注
关注
4文章
266浏览量
11224
发布评论请先 登录
相关推荐
评论