2023年9月6日,美国海军部(DON)签署并发布了“生成式人工智能(AI)和大语言模型(LLM)使用指南”,旨在为使用生成式AI和LLM提供临时指导。
生成式AI模型能以前所未有的速度和效率自动化地执行某些任务,具有改变任务流程的潜力,既可以输出文本,也可以输出图像、音频、视频和电磁信号,甚至可以快速生成代码。目前,生成式AI正广泛应用于ChatGPT、谷歌公司的Bard聊天机器人、Meta公司的LLaMA模型等。 虽然生成式人工智能(AI)和大语言模型(LLM)大语言模型应用前景广阔,但美国国家指挥当局(National Command Authority)、新兴技术行业的领导、以及学术界都发出警示,对其应用需要持谨慎态度。美国海军部(DON)的指南提出的警示包括以下5点。
01对于一般用途
生成式AI智能工具并不一定可靠,可能会产生“幻觉”和有偏差的结果。“幻觉”是指产生的响应包括或结合了看似真实的虚构数据。因此,这类工具必须经过严格的审查,包括利用人类专业知识进行批判性思考。
02对于军事用途
除非已提出了安全控制要求,并对其进行了全面的调查和识别、批准其用于受控环境,否则不建议将商业AI语言模型用于作战。
03数据安全和保护性
大语言模型会保存其收到的每一个提示,这会带来持续的安全操作风险。在商业生成式AI模型中使用专有数据或敏感信息可能会导致数据泄露。个人生成的AI输入和输出的集合可能会导致敏感或机密信息的意外泄露。为了应对这些安全问题,DON正在通过Jupiter(DON的企业数据和分析平台)建立参与和访问LLM技术的规则,同时将继续保持既有的安全措施,以确保符合现有政策并保护政府数据。
04验证和确认
为了有效利用这些智能工具的全部潜力,必须补充人类专业知识。开发政府专用的人工智能,需要在模型生成之前进行细致的信息验证,此时人类的专业知识不可或缺。目前AI技术的响应速度并不完美,并且没有方法确保一致的、可预测的输出。AI的集成必须以“负责任的人工智能(RAI)”为核心原则。这不仅需要校对并核查输入和输入的准确性,还需要核实来源的可信度,并积极处理可能侵犯知识产权的行为。同时,所有AI生成的软件代码在实现之前都要在受控的、非生产环境中经过全面的审查、评估和测试。
05责任和问责
用户因使用大语言模型而引起的漏洞、违规行为和意外后果,其责任由各组织的领导层来承担。 综上所述,生成式AI可以作为一种力量倍增器,但它也存在固有的安全漏洞和风险。因此,在探索生成式AI和大语言模型(LLM)的应用时,应认真考虑这些问题。
-
人工智能
+关注
关注
1791文章
46738浏览量
237315 -
语言模型
+关注
关注
0文章
502浏览量
10241 -
生成式AI
+关注
关注
0文章
481浏览量
452
原文标题:美国海军部发布生成式人工智能和大语言模型使用指南
文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论