0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型的阴面:无法忽视的安全隐忧

科技云报到 来源:jf_60444065 作者:jf_60444065 2023-09-22 19:02 次阅读

科技云报道原创

AI大模型的身上,竟也出现了“to be or not to be”问题。

争议是伴随着大模型的能力惊艳四座而来的,争议的核心问题在于安全。安全有两个方面,一个是大模型带来的对人类伦理的思考,一个是大模型本身带来的隐私泄漏、数据安全等问题。

埃隆·马斯克应该可以说是对大模型发起质疑的企业家之一。早在ChatGPT诞生之初,马斯克等一千多名业界、学界人士联署发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,暂停至少6个月。

时至今日,马斯克依旧对外表达的态度是,人工智能是一把双刃剑,对人工智能方面的监管是强烈共识,可能会出现某种形式的监管机构。

围绕着AI大模型的安全,不少国内专家学者以及企业家们也有了更多的思考和发声。9月初,中国科学院院士何积丰曾发言谈到,目前大模型面临的安全问题涵盖两方面,分别是隐私保护和价值观对齐两大难题。

另一方面,随着AI大模型在行业中的广泛应用,对合规和数据保护的需求急剧上升。在“云、大、物、移”四大网络安全场景之后,大模型正逐渐成为新的市场增长点。

不少企业开始围绕大模型安全视角推出产品,掀起了一阵AI安全、数据安全等新兴安全领域的火热之风。

大模型的“阴面” 安全问题不容忽视

发展至今,大模型阴阳两面,泾渭分明。不少人早已经感受到了大模型的“阳面”,应该不少人早已经开始尝试,将其作为提升工作效率的工具。

但大模型的“阴面”,关于安全的讨论不绝于耳。最典型的安全案例,三星机密数据外泄事件仍然记忆犹新。

上文中也曾提到,中国科学院院士何积丰发言指出,大模型当前面临的安全问题主要涵盖两方面,分别是隐私保护和价值观对齐两大难题。

隐私保护问题的是,在未经允许的情况下,大模型是否会收集、使用和泄露个人信息

价值观对齐问题的是,使得大模型的价值观与人类的价值观相对齐。使得大模型按照设计者的意愿行事,而不作出超出意图之外的举动。

在价值观对齐方面,由于人类社会的价值观是多元化的,且有用的人工智能与无害的人工智能往往存在冲突,这导致了大模型价值观对齐存在很大的难度。

具体来看,大模型的包含多个关键要素,数据、算法模型以及应用层等,每一个要素中,都有不少安全问题需要面对。

在数据层,安全问题主要集中在数据泄露、数据污染等。三星的案例,其实就在于数据层面存在一定的泄漏风险。

数据可以说是构成大模型的骨骼,为其提供了基础支撑。

机器学习深度学习的领域中,数据的获取、加工及利用的方式决定了模型的性能和准确性。但是,数据层面的安全隐患却是不可避免的。

其中最常见的问题包括数据的非法泄漏,这可能导致敏感信息暴露;数据被恶意篡改,这可能导致训练出的模型有误导性;还有非法获取或使用未经授权的数据,这不仅违法,还可能使得模型偏离了其原本的目的。

这些隐患都可能对模型的训练和应用带来不良影响,使其失去原有的效果甚至产生误导。

与数据安全同等重要的,是算法模型的安全。

在现代社会,大模型的训练往往需要消耗巨大的计算力,因此很多资源都集中在特定的数据中心

这就为潜在的攻击者提供了机会,他们可能会针对这些数据中心进行攻击,试图更改模型的参数或者整体结构。一旦成功,模型的输出可能会完全不可控,产生不可预知的结果。

另外,还有一种更加隐蔽的攻击方式——对抗性攻击。这种攻击的目的是使模型在某些特定的输入下产生错误的输出,这在一些关键领域如医疗诊断、金融决策等方面,可能会带来严重后果。

到应用层,安全隐患也十分严重。比如说生成内容的有害性和准确性、滥用模型生成虚假信息等。

如何防止已部署的模型被恶意篡改?如何确保在模型进行数据推断的过程中,用户的私人数据不会被非法获取或泄露?这些都是在模型部署时必须要考虑的问题。

此前,就有人尝试向大模型发问,“野生娃娃鱼的做法”,大模型给出的回答是“红烧”,并且写出了具体的步骤。这就很容易“误导”提问者。实际上,野生娃娃鱼属于国家二级保护动物,不能捕捉、捕杀甚至食用。

为了应对这些隐患,可能需要一系列的安全措施,包括但不限于数据加密、模型的版本控制和运行环境的隔离等。

AI大模型安全问题 的解决之道

大模型问题出现后,外界对于监管的呼声是最为热烈的。

在新技术飞速发展的当下,政府与各类监管机构成为确保AI大模型安全运行的重要力量。他们可以通过制定和实施严格的数据隐私法规,为大模型的安全使用提供法律保障。

今年4月,国家互联网信息办公室发布了关于《生成式人工智能服务管理办法(征求意见稿)》,旨在促进生成式人工智能健康发展和规范应用。其中的第七条涉及到生成式人工智能服务提供者数据来源的合法性问题。

这也意味着国家已经开始出手应对大模型火热带来的一些列的安全问题。

7月,网信中国官微消息称,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》。

这其中就明确生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。

此外,明确了数据标注的相关要求。

监管之下,国内的大模型也迎来了合理合法合规的发展期。最新的消息是,目前国内已经有11家大模型陆续通过《生成式人工智能服务管理暂行办法》备案,并逐步面向大众开放。

监管之下,技术本身也可以在大模型安全上有所行动。AI守护AI,技术反哺技术。

“利器攻利器”。AI技术本身不仅是可能的威胁,更是解决问题的关键。

对抗性训练就是其中的佳例,它可以让模型在面对恶意输入时仍然保持其稳定性,从而增强模型对各类对抗攻击的防御力。除此之外,我们还可以考虑利用AI技术对模型的输出进行实时监控,及时发现并纠正模型的异常行为。

另外,目前也有不少安全企业提出通过可信计算、差分隐私、联邦学习等技术手段确保数据隐私安全。

此前,清华大学人工智能研究院副院长,北京智源人工智能研究院和瑞莱智慧首席科学家朱军在接受腾讯科技采访时就曾提到过,为了解决大模型的安全问题,从技术方向来看,我们可以以“AI识别AI”的形式来应对。

朱军表示,与进攻相比,防守其实更为困难。现在,我们正积极寻求多种手段以增强模型的抵御能力,并在模型的应用和布署阶段实施多重保护策略。

比如在人脸鉴定系统中,我们设置人脸识别安全屏障,能在样本进入决策阶段前筛选并剔除携带潜在威胁或经过对抗性修改的样本,确保系统安全稳定。这一技术手段已经在银行等行业中落地使用。

为了防范未然,开发者和企业在产品层面也必须下足功夫。严格的安全标准不仅仅是一纸文件,更应该深入到每一个开发与部署的细节中。

对于开发者和企业而言,对数据的处理要严格遵循隐私保护原则,确保每一位用户的私人信息都得到妥善保管。另外,模型的开发与部署过程也需要经过严格的审查,确保其不会对用户和社会造成伤害。

大模型安全问题掀起行业新风向

目前,不少企业也关注到了大模型安全的问题,甚至推出了不少相关的产品和解决方案。这也掀起了一阵“安全潮”,风口也逐渐吹向了数据要素、网络安全和隐私计算等相关产业上。

最近一段时间,可以明显地看到网络安全行业正在迎头赶上这一挑战,大模型和数据安全新品不断亮相,旨在满足市场对于新兴技术的安全需求。

今年的网络安全博览会成为了各大厂商展示大模型安全解决方案的初舞台。比如,奇安信推出了名为Q-GPT的安全机器人,还发布了针对大模型数据泄露隐患的“大模型卫士”; 绿盟科技在发布其安全大模型的同时,也推出了基于隐私计算的“数据保险箱”。

除此之外,安恒信息、深信服、三六零集团、蚂蚁等公司也纷纷推出各自的大模型产品,为企业提供了多样的选择。这些新品的出现无疑证明了行业对于大模型安全的重视。

据中国网络安全产业联盟的数据,2022年我国网络安全产业规模达到了近633亿元,预计在未来三年内,增速将保持在10%以上。随着数据要素市场的逐步建立,大模型等前沿技术发挥出的应用价值越来越大,新的安全需求也随之涌现。

隐私计算赛道同样如此。

在2023年世界人工智能大会上,就有不少专家学者提到大模型时代隐私计算迎来全新机遇。现阶段,隐私计算中包括可信执行环境TEE、多方安全计算MPC等都有与大模型结合的探索,比如在云端部署TEE,用户在推理时将输入数据加密传输至云端,在其内部解密然后进行推理。

复旦大学教授、上海市数据科学重点实验室主任肖仰华表示,传统的隐私计算如差分隐私、联邦学习多是算法层开展工作。

不过算法工作前提是保护对象是明确的,协作机制清晰。大模型时代是海量参数化的模型,不透明、无边界、不可解释,对于以前的基于可解释、清晰、可控的技术路线的隐私计算方法提供了全新挑战。

华经产业研究院的报告显示,随着中国互联网技术的发展,中国隐私计算市场规模逐年增长,预计2025年中国隐私计算市场规模达192.2亿元。

大模型已经成为继“云、大、物、移”之后的新战场,被视为新的市场增量。

无论是为自己的客户提供基于大模型的服务,提高交付效率和竞争力,还是通过大模型应用提高企业自身生产效率,大模型正迅速进入企业IT中,与此对应的大模型安全也成为攻防焦点。

随着各大公司在大模型安全方面的持续投入和创新,预期这一市场将带动整个网络安全行业迈向新的高度。

结语

AI大模型的发展不仅带来了巨大的潜力,也伴随着重大的安全挑战。为了充分发挥AI的潜力并确保安全,政府、企业和网络安全公司需要共同努力,采取综合性的措施来解决这些问题。只有这样,我们才能在AI时代中迈出坚实的步伐。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30084

    浏览量

    268348
  • 人工智能
    +关注

    关注

    1791

    文章

    46830

    浏览量

    237474
  • 大模型
    +关注

    关注

    2

    文章

    2318

    浏览量

    2459
收藏 人收藏

    评论

    相关推荐

    ADS 2011.10版本无法加载lmk04828 IBIS模型,为什么?

    ADS 2011.10版本无法加载lmk04828 IBIS模型
    发表于 11-13 07:06

    深信服发布安全GPT4.0数据安全模型

    近日,深信服在数据安全领域迈出了重要一步,正式发布了安全GPT4.0数据安全模型。这一创新的大模型技术,旨在为用户提供更高效、精准的数据
    的头像 发表于 10-29 11:12 139次阅读

    DAC8568 IBIS模型转换成spice模型无法显示所有引脚是什么原因导致的?怎么解决?

    你好,下载的DAC8568 IBIS模型,在cadence中生成spice模型无法显示所有引脚,只有一个INPUT引脚,没有其他引脚,导致无法进行电路绘制和仿真,请问是什么原因,应
    发表于 09-09 06:14

    将amc1200 SPICE模型转成PSPICE模型无法在ORCAD16.5中使用,为什么?

    我按TI提供之文件 [ 在PSpice中使用Spice模型 ]将amc1200之SPICE模型转成PSPICE模型后却无法在ORCAD16.5中使用,不知是否是SPICE转换PSPI
    发表于 08-29 07:25

    TiNa无法导入tlp520的Pspice模型的原因?怎么解决?

    TiNa无法导入tlp520的Pspice模型
    发表于 08-15 08:26

    京东云智能编程助手与安全模型双双获奖!

    “AI技术创新应用”,京东云与深圳市信息安全管理中心联合申报的“安全模型保障大模型应用落地实践”入选“AI最佳落地实践”。 开发者在日常工作中面临着诸多繁重的开发工作,如撰写业务或功
    的头像 发表于 07-17 16:32 290次阅读
    京东云智能编程助手与<b class='flag-5'>安全</b>大<b class='flag-5'>模型</b>双双获奖!

    人工智能大模型在工业网络安全领域的应用

    随着人工智能技术的飞速发展,人工智能大模型作为一种具有强大数据处理能力和复杂模式识别能力的深度学习模型,已经在多个领域展现了其独特的优势和广阔的应用前景。在工业网络安全领域,人工智能大模型
    的头像 发表于 07-10 14:07 655次阅读

    16家科技巨头保证AI模型安全开发

    据路透社报道,微软、谷歌以及OpenAI等16家全球科技巨头在5月21至22日举行的“人工智能(AI)首尔峰会”上,公开表态承诺进行AI模型安全开发,并在无法有效控制最极端风险时,对其尖端系统进行关闭。
    的头像 发表于 05-22 11:55 665次阅读

    微软、谷歌等科技巨头承诺安全开发AI模型

    近日,微软、谷歌、OpenAI等16家科技巨头在“人工智能(AI)首尔峰会”上达成共识,承诺在AI模型的开发过程中注重安全性,并在无法控制最极端风险时关闭其尖端系统。
    的头像 发表于 05-22 11:25 478次阅读

    英国AI安全研究所推出AI模型安全评估平台

    据报道,英国人工智能安全研究院近日发布了名为“Inspect”的AI模型安全评估平台,此平台采用开源技术且对全球AI工程师免费开放,旨在提升模型性能与
    的头像 发表于 05-13 15:20 371次阅读

    【大语言模型:原理与工程实践】大语言模型的应用

    能力,它缺乏真正的“思考”过程。对于任何输入,大语言模型都会产生输出,但这仅仅是基于计算和预测下一个Token出现的概率。模型并不清楚自己的优势或劣势,也无法主动进行反思和纠正错误。提示工程
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的基础技术

    无法修改,因此难以灵活应用于下游文本的挖掘中。 词嵌入表示:将每个词映射为一个低维稠密的实值向量。不同的是,基于预训练的词嵌入表示先在语料库中利用某种语言模型进行预训练,然后将其应用到下游任务中,词
    发表于 05-05 12:17

    maixcam如何无脑运行运行别人的模型(以安全模型为例)

    maixcam如何无脑运行运行别人的模型(以安全模型为例) 本文章主要讲如何部署上传的模型文件,以及如果你要把你模型按照该流程应该怎么修
    发表于 04-25 14:51

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直无法创建成功。 查阅CUBE AI文档说在调用create函数前,要启用
    发表于 03-15 08:10

    AD3551R LTSPICE模型和datasheet中的引脚无法一一对应怎么解决?

    AD3551R LTSPICE 模型和datasheet中的引脚无法一一对应, 1.在仿真过程中,输入端应该怎样配置才能输出特定波形。 2.AD3551R模型是否可以找到官方仿真参考电路? 3.VDAC 是DAC数字供电吗?
    发表于 11-30 06:59