0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI模型常见压缩及减量方式

英特尔物联网 来源:英特尔物联网 2023-12-16 15:19 次阅读

作者:许哲豪 博士

英特尔边缘计算创新大使

1989年科幻电影《亲爱的,我把孩子缩小了》,2015年《蚁人》,2017年《缩小人生》,以及我们从小看到大的多啦A梦 “缩小灯”、“缩小隧道”,都不约而同的提到一个概念,就是可以透过一种神奇的机器,就能把人的体积大幅缩小但生理机能完全不减。这里姑且不论是否符合物理定律,但如果真的能实现,就会像《缩小人生》中所提到的,可大幅减少地球资源的浪费,大幅改善人类的生存环境。虽然以上提及的技术可能我们这辈子都难以看到实现的一天,但把超巨大的 AI 模型缩小但仍保持推论精度不变,还是有很多方法可以达到的。接下来我们就来帮大家简单介绍一下几种常见技术。

AI 模型组成元素

回顾一下本专栏三月份文章[1]第 1 小节提及的神经网络架构,其组成内容主要包括神经元内容(包含数量)、网络结构(神经元连接拓扑)及每个连结的权重值,如图 2 所示。简单的卷积神经网络 (CNN) 如 LeNet-5,就有约 6 万个权重,而大型模型 VGG16 则有约 1.38 亿个权重,到了现在流行的大型语言模型 GPT-3 已经激增到 1750 亿个权重,更不要说像 GPT-4 已有超过一兆个权重。

通常在训练模型时为了精度,权重值大多会使用32 位元浮点数 (FP32) 表示法[2],这就代表了每个权重占用了 4 个 Byte (32bit) 的储存 (硬碟) 和计算(随机记忆体)空间。这还不包括在推论计算过程中额外所需的临时随机记忆体需求。

为了让运行时减少资料(网路结构描述及权重值)在 CPU 和 AI 加速计算单元(如 GPU, NPU 等)间搬移的次数,所以通常会一口气把所有资料都都载入专用记忆体中,但一般配置的记忆体数量都不会太多,大约 1GB 到 16GB 不等,所以如果没有经过一些减量或压缩处理,则很难一口气全部载入。

057b0f84-9b42-11ee-8b88-92fbcf53809c.png

图 1 AI 模型主要元素示意图

常见压缩及减量作法

如同前面提到的,我们希望将一个强大复杂的 AI 模型减量、压缩后,得到一个迷你、简单的模型,但仍要能维持原有的推论精度或者只有些许(0% 到指定 %)的下降,就像我们平常看到的 JPG 影像、MP4 影片,虽然采大幅度破坏性压缩,但人眼是很难分辨其品质差异的。这样可以得到几项好处,包括大幅减少储存空间和计算用记忆体推论速度加快,耗能降低,同时更有机会使用较低计算能力的硬体(如 GPU 变成 CPU)来完成推论工作。以下就把常见的四种方式简单介绍给大家。

2.1 权重值量化 (Quantization)

通常在训练模型时,为求权重有较宽广的数值动态范围,所以大部分会采用 32 位元浮点数 ( FP32,符号 1 bit ,指数 8 bit,小数 23 bit,共 4 Byte,数值表示范围 ±1.18e-38 ~±3.40e38 )[2]。而经许多资料科学家实验后,发现在推论时将数值精度降至 16 位元浮点数(FP16, 2 Byte, -32,768 ~ +32767),甚至 8 位元整数 (INT8, 1 Byte, -128 ~ +127)、8 位元浮点数(FP8, e5m2, e4m3, 1 Byte) 在推论时其精度下降幅度可控制在一定程度内,同时可让储存空间和记忆体使用量减少 1/2 到 3/4,若加上有支持 SIMD 或平行运算指令集[1]还可让运算量提升 1.x ~ 3.x 倍,一举多得。

以 FP32 量化为 INT8 为例,一般最简单的作法就是把所有空间等比对称分割再映射,不过当遇到权重值分配往单边靠或集中在某个区间时就很难分别出细部差异。于是就有以最大值与最小值非对称方式来重新映射,以解决上述问题。

这样的量化减量的方式最为简单,但也常遇到模型所有层用同一数值精度后推论精度下降太多,于是开始有人采取合精度,即不同层的权重可能采不同数值精度(如 FP32, FP16, INT8 等)来进行量化。不过这样的处理方式较为复杂,通常需要一些自动化工具来协助。

0592acde-9b42-11ee-8b88-92fbcf53809c.png

图 2 权重值量化示意图[3]

2.2 模型剪枝 (Pruning)

所谓树大必有枯枝,模型大了自然有很多连结(权重)是没有存在必要的或者是删除后只产生非常轻微的影响。如果要透过人为方式来调整(删除、合并)数以百万到千万的连结势必不可能,此时就只能透过相关程序(如英特尔 OpenVINO, Nvidia TensorRT, Google TensorFlow Lite 等)使用复杂的数学来协助完成。

经过剪枝后,计算量会明显下降,但可以减少多少则会根据模型复杂度及训练的权重值分布状况会有很大差异,可能从数个 percent 到数十个 percent 不等,甚至运气好有可能达到减量 90% 以上。

另外由于剪枝后会造成模型结构(拓扑)变成很不完整,无法连续读取,所以需要另外增加一些描述信息。不过相对权重值占用的储存空间,这些多出来的部分只不过是九牛一毛,不需要太过在意。

059dfea4-9b42-11ee-8b88-92fbcf53809c.png

图 3模型剪枝示意图[3]

2.3权重共享 (Weight Share)

由于权重值大多是由浮点数表示,所以若能将近似值进行群聚(合并),用较少的数量来表达,再使用查表法来映射,如此也是一个不错的作法。但缺点是这样的作法会增加一些对照表,增加推论时额外的查表工作,且由于和原数值有些微差异,因此会损失一些推论精度。

如图 4 所示,即是将 16 个权重先聚类成 4 个权重(索引值),再将原本的权重值变成索引号,等要计算时再取回权重值,这样储存空间就降到原本的 1/4。

05c37a4e-9b42-11ee-8b88-92fbcf53809c.png

图 4 权重共享压缩示意图[3]

2.4知识蒸馏 (Knowledge Distillation)

知识蒸馏基本上不是直接压缩模型,而是利用一个小模型去学习大模型输出的结果,间接减少模型的复杂度、权重数量及计算量。大模型就像老师,学富五车,经过巨量资料集的训练,拥有数百万甚至千亿个权重来帮忙记住各种特征。而小模型就学生,上课时间有限,只能把老师教过的习题熟练于心,但若遇到老师没教过的,此时若不能举一反三,顺利答题就很难保证了。

如图 5 所示,训练学生模型时,将同一笔资料输入到老师模型和学生模型中,再将老师的输出变成学生的标准答案,学生模型再以此调整所有权重,使输出推论结果和老师一样即可。当给予足够多量及多样的样本训练后,学生就能结束课程,独当一面了。

05e480a4-9b42-11ee-8b88-92fbcf53809c.png

图 5 知识蒸馏示意图[3]

小结

以上只是简单介绍了部分减量及压缩模型的方式,还不包含模型减量、压缩后造成的精度下降如何调整。这些工作相当复杂,只能交给专业的工具来办,其中英特尔OpenVINO Toolkit就有提供许多模型优化(Model Optimization)[4] 及神经网络压缩工具NNCF (Neural Network Compression Framework)[5],有兴趣的朋友可以自行了解一下,下次有机会再为大家做更进一步介绍。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9879

    浏览量

    171426
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10824

    浏览量

    211109
  • AI
    AI
    +关注

    关注

    87

    文章

    30095

    浏览量

    268357
  • 模型
    +关注

    关注

    1

    文章

    3160

    浏览量

    48703

原文标题:亲爱的,我把 AI 模型缩小了—— 模型减量与压缩技术简介 | 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    腾讯 AI Lab 开源世界首款自动化模型压缩框架PocketFlow

    AI科技评论按:腾讯 AI Lab 机器学习中心今日宣布成功研发出世界上首款自动化深度学习模型压缩框架—— PocketFlow,并即将在近期发布开源代码。根据雷锋网
    的头像 发表于 09-18 11:51 4251次阅读

    模型压缩技术,加速AI模型在终端侧的应用

    电子发烧友网报道(文/李弯弯)当前,全球众多科技企业都在积极研究AI模型,然而因为参数规模太大,要想实现AI模型在边/端侧部署,需要用到模型
    的头像 发表于 04-24 01:26 2486次阅读

    使用cube-AI分析模型时报错的原因有哪些?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    发表于 03-14 07:09

    cubemx ai导入onnx模型压缩失败了怎么解决?

    cubemx ai导入onnx模型压缩失败。请问我怎么解决
    发表于 03-19 07:58

    STM CUBE AI错误导入onnx模型报错的原因?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    发表于 05-27 07:15

    AI模型可以设计电路吗?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:09:29

    AI模型怎么解决芯片过剩?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:42:05

    AI学习】AI概论:(Part-A)与AI智慧交流

    任务一:电脑+AI(让电脑拥有学习能力)目标:安装Python和TensorFlow。安装Keras、Numpy、OpenCV。安装ResNet50人工智慧模组(模型)。 运行测试程序,展现简单
    发表于 10-30 14:04

    压缩模型会加速推理吗?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 将简单的 CNN 导入到 STM32L462RCT我发现压缩模型对推理时间没有影响。aiRun 程序在 8
    发表于 01-29 06:24

    训练好的ai模型导入cubemx不成功怎么解决?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 08-04 09:16

    边缘AI模型压缩技术

    在某个时间点,人们认为大型和复杂的模型表现更好,但现在它几乎是一个神话。随着边缘AI的发展,越来越多的技术将大型复杂模型转换为可以在边缘上运行的简单模型,所有这些技术结合在一起执行
    的头像 发表于 10-19 14:22 1018次阅读
    边缘<b class='flag-5'>AI</b>的<b class='flag-5'>模型</b><b class='flag-5'>压缩</b>技术

    将数据预处理嵌入AI模型常见技巧

    本文将介绍基于 OpenVINO 模型优化器或预处理 API 将数据预处理嵌入 AI 模型常见技巧,帮助读者在硬件投入不变的情况下,进一步提升端到端的
    的头像 发表于 12-16 13:55 1216次阅读

    边缘AI模型压缩技术

    模型压缩是在计算能力和内存较低的边缘设备上部署SOTA(最先进的)深度学习模型的过程,而不会影响模型在准确性、精度、召回率等方面的性能。模型
    的头像 发表于 05-05 09:54 830次阅读
    边缘<b class='flag-5'>AI</b>的<b class='flag-5'>模型</b><b class='flag-5'>压缩</b>技术

    AI模型的知识产权博弈:矛与盾的较量

    模型复制与非法分发:这是最直接的窃取方式。第三方通过复制AI模型,并将其非法分发或销售,直接侵犯了原始模型开发者的知识产权。这种
    的头像 发表于 12-10 11:12 1260次阅读

    常见AI模型的比较与选择指南

    在选择AI模型时,明确具体需求、了解模型的训练数据、计算资源要求和成本,并考虑模型的可解释性和社区支持情况等因素至关重要。以下是对常见
    的头像 发表于 10-23 15:36 459次阅读