2023年5月25日,美国微软公司发布报告《AI治理:未来蓝图》(Governing AI: A Blueprint for the Future),详细介绍了政府在制定人工智能的政策、法律和法规时应考虑的五项指导方针。
元战略观察员精心编译本报告,为人工智能治理研究提供参考。
各国政府正在寻求或制定治理人工智能的新蓝图。基于众多紧迫的问题和议题,本报告在此提出一个方案,以帮助人工智能治理取得更快进展。该方案认同人工智能可以改善人们的生活,同时也制定了新的治理措施。基于政府和私营部门的倡议,该方案为人工智能治理提出五项建议:
1.搭建并执行以政府为主导的人工智能安全新框架;
2.控制关键基础设施的人工智能系统必须具备有效的安全防护措施;
3.基于人工智能技术架构,搭建范围更广的法律监管框架;
4.提升透明度,确保学界和公众可利用人工智能技术;
5.加强公私合作,用人工智能解决新技术引发的社会挑战。
通过该方案,微软在一定程度上回应了美国白宫最近对人工智能公司的倡议,承诺确保人工智能的安全性和可靠性。
1、搭建并执行以政府
为主导的人工智能安全新框架
微软以政府工作的最新进展为基础,通过以下四种方式来提升人工智能的安全性:
第一,微软回应美国白宫最近的倡议,承诺将实施美国国家标准与技术研究院(NIST)的人工智能风险管理框架。
第二,将通过采取新措施,进一步加强与高风险人工智能系统相关的工程实践,来完善微软现有的人工智能测试工作。
第三,政府可以通过行政命令推进治理进程,要求向美国政府提供关键人工智能系统的供应商,应当自证其正在实施NIST的人工智能风险管理框架。
第四,与其他行业领导者和政府合作,制定与高度可靠的基础模型相关的新标准。
我们认识到,人工智能的快速发展带来了新的安全问题,并且通过合作制定可操作的标准,以帮助评估和解决这些问题。OpenAI、Google、Anthropic和其他人工智能公司的领导者已提出了重要的想法,为未来人工智能安全的进展奠定基础。
2、控制关键基础设施的人工智能系统
必须具备有效的安全防护措施
展望人工智能的未来,控制新技术潜在风险的基本方法一直以来都是有效的。该方法就是提前识别出新产品何时失控,并部署有效的安全“刹车”机制,以确保人工监督的有效性、及时性。
随着人工智能变得越来越强大,电网、供水系统和城市交通等关键基础设施交由人工智能控制的程度日益加深。因此,我们需要安全“刹车”机制来确保这些系统处于人类控制之下。
新的安全要求能为控制关键基础设施运行的人工智能系统进行安全“刹车”,从而确保基础设施人工监督的有效性、弹性和稳健性。政府将定义控制关键基础设施的高风险人工智能系统的类别,并确保运营商定期测试高风险系统,以确保系统安全措施有效。
3、基于人工智能技术架构
搭建范围更广的法律监管框架
随着对人工智能潜在监管问题的深入思考,我们需要建立一个与人工智能技术本身相符的法律和监管框架。简而言之,法律需要根据不同行为者在管理人工智能技术上的不同角色,赋予他们不同的监管责任。
在搭建人工智能的法律监管框架时,一方面,需要将现有的法律保护措施应用于人工智能。
第一,与客户合作,推动他们使用最佳方式来合法、负责地部署人工智能。
第二,监管机构需要新的人工智能专业知识和能力。
第三,支持广泛的教育倡议,为立法者、法官和律师提供人工智能技术和负责任的人工智能信息。
第四,人工智能的快速进步给立法者或执法人员带来了新压力,他们需要了解新的人工智能技术及其工作原理。
另一方面,针对高水平能力的人工智能基础模型制定新的法律法规。
第一,和其他领先的人工智能开发者共享先进人工智能模型的专业知识,以降低监管门槛。
第二,确立开发或部署高水平人工智能模型需要满足的条件。
第三,通过对人工智能数据中心运营商施加许可要求,确保有效执行高水平人工智能模型的许可制度。
4、提升透明度
确保学界和公众可利用人工智能技术
未来,有许多人工智能的政策问题有待认真讨论,包括安全与透明度之间的关系问题。在某些领域,许多专家认为保密对于安全至关重要,尤其是对于国家安全和公共安全。除此之外,透明度也很重要,甚至有助于更好地理解安全需求和最佳实践。
微软于2018年采用了人工智能伦理准则,并将透明度作为六项基本原则之一。在实施这一原则时,我们意识到在不同情况下提供不同类型的透明度非常重要。生成式人工智能的出现使得这一原则比以往更加重要,这也是需要持续进行研究和创新的关键领域。为了推动该领域的工作,微软向美国白宫做出了以下三项承诺:
第一,微软将发布年度透明度报告,向公众介绍其在负责任和安全管理人工智能方面的政策、系统、进展和表现。
第二,微软将支持建立一个开放的、供公众查阅的国家高风险人工智能系统注册机构,让公众了解这些系统的使用情况和方式。
第三,微软承诺确保其人工智能系统在与公众互动时能够清晰地向其传达系统的能力和不足。
第四,微软认同在重要场景中需标记人工智能生成的内容,以便公众“知晓所接收的内容”。
5、加强公私合作
用人工智能解决新技术引发的社会挑战
微软相信,公共和私营部门可以联合起来利用人工智能来改善世界,其中包括对抗技术变革所带来的挑战。微软对未来保持清醒的认识,并意识到有些人试图将人工智能作为武器而不是工具,技术变革会不可避免地带来难以预料的困难和问题。
近年来,人们越来越关注解决民主社会所面临的新风险,这些风险源于人工智能的潜在武器化。我们对未来技术的担忧是合理的,需要共同努力来对抗这种威胁。
在这一进程中,内容溯源和真实性联盟(C2PA)至关重要。该联盟由Adobe、BBC、Intel、Microsoft、Sony和Truepic等公司共同创立,整合了Adobe领导的内容真实性倡议(CAI),该倡议致力于为数字媒体提供历史背景,以及Microsoft和BBC领导的Project Origin倡议,旨在解决数字新闻生态系统中的虚假信息问题。
正如微软首席科学官埃里克·霍维茨去年所说,公私合营的成功需要采取“多管齐下的方法,包括媒体素养、意识和警觉性的培养,以及投资高质量传媒业的发展”。
微软将推出一套新的先进溯源工具,帮助公众识别人工智能生成的视听内容并了解其来源。在年度开发者大会上,微软宣布正在开发新的媒体溯源服务。该服务将使用元数据标记和签名来验证人工智能生成的视频和图像的真实性,该服务将按照C2PA的规范来实施。微软将支持主流的图像和视频格式,并将该服务提供给两款新人工智能产品Microsoft Designer和Bing Image Creator使用。这是一个重要措施,但也只是众多措施中的一个。幸运的是,许多人也正在采取类似且关键的行动,因此,需要将相关实践与更广泛的倡议结合起来。
-
微软
+关注
关注
4文章
6590浏览量
104026 -
人工智能
+关注
关注
1791文章
47185浏览量
238267
原文标题:微软发布!人工智能治理:未来蓝图
文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论