12 月 19 日,OpenAI宣布加紧内部安全防护工作,设立“安全顾问小组”以防范有害人工智能的潜在威胁。这一举措意味着技术团队之上增加新的“守护者”,为领导层提供专业意见,且拥有董事会的否决权。
OpenAI将针对每个模型在网络安全、说服力(如虚假信息)、模型自主性以及 CBRN(化学、生物、放射性和核威胁,如制造新病原体的可能性)等四个方面进行风险评级。
为了防止某些问题得不到充分讨论或处理,OpenAI设定了多种可能的缓解策略,例如模型拒绝教授如何制作凝固汽油或管式炸弹的传授。对于评级认定为“高风险”的模型,将禁止其发布;而若模型存在“关键风险”,则终止其后续研发。
然而,负责研发模型的人员并非最佳安全评估和建议者。为此,OpenAI正筹建一支“跨职能安全咨询小组”,涉足技术领域,审查研究人员报告,从更全面的视角提供建议,发掘此前未曾意识到的隐忧。
这个过程要求安全专家的意见同步反馈至董事会及领导层,领导层将权衡利弊并作出决定;尽管董事会享有最终决定权,但他们也可以随时撤回决定,防止潜在的安全隐患被忽略。
本次更新的重要焦点在于,OpenAI前任首席执行官Sam Altman因模型安全问题被董事会罢免。此次高层人事变动,导致两位主张谨慎做事的董事Ilya Sutskever和 Helen Toner离任。
然而,业界仍存担忧,若专家小组提出建议、CEO据此决策,眼下的 OpenAI董事会是否有足够力量制止此举?此外,OpenAI允诺引入独立第三方审计体现的透明度问题是否真正得到解决?
-
网络安全
+关注
关注
10文章
3125浏览量
59584 -
人工智能
+关注
关注
1791文章
46838浏览量
237496 -
OpenAI
+关注
关注
9文章
1042浏览量
6403
发布评论请先 登录
相关推荐
评论