知名安全团队 Trail of Bits 近日披露了一项潜在风险,揭露了 “LeftoverLocals” 漏洞,它存在于多款主流消费级 GPU 产品如 NVIDIA、Apple、AMD 及 Qualcomm 的产品中。
此漏洞不限于消费者应用程序,更严重的是,它能通过破坏大型语言模型(LLM)及机器学习(ML)方案所依赖的 GPU 以获取关键数据。由于模型训练涉及敏感数据,故此时捕获数据的风险极大。
目前,来自卡内基梅隆大学的研究团队正在关注此问题,据悉,这则消息已被受影响的生产商,如 NVIDIA、Apple、AMD、ARM、Intel、Qualcomm 以及 Imagination 等公司所知晓并共享。
据研究显示,当在 AMD‘s Radeon RX 7900 XT 和 llama.cpp 上运行模型时,若因 “LeftoverLocals” 漏洞发生操作数据请求,大约会泄露 5.5MB 和 181MB 的数据,这些数据量足以精准还原大型语言模型的输出结果。
“LeftoverLocals” 漏洞主要设计的是 GPU 内存中的独立机制,相较 CPU 架构,它可利用编程接口实现访问权的获取,从而非法篡取内存数据。这无疑对 GPU 架构的安全性造成重大威胁。
对大多数消费者而言,“LeftoverLocals” 漏洞似乎并无大碍,然而对于从事云计算或推理事业的人而言,这将给他们在 LLM 和 ML 框架的安全性方面带来严重的疑虑。
-
gpu
+关注
关注
28文章
4729浏览量
128902 -
语言模型
+关注
关注
0文章
521浏览量
10268 -
机器学习
+关注
关注
66文章
8408浏览量
132576
发布评论请先 登录
相关推荐
评论