0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

蚂蚁链AIoT团队与NVIDIA合作加速AI推理

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-09-09 09:53 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

蚂蚁链 AIoT 团队与 NVIDIA 合作,将量化感知训练(QAT)技术应用于深度学习模型性能优化中,并通过 NVIDIA TensorRT 高性能推理 SDK 进行高效率部署, 通过 INT8 推理, 吞吐量提升了 3 倍, 助力蚂蚁链版权 AI 平台中的模型推理服务大幅降本增效。

依托于蚂蚁链自研的区块链和 AI 技术,以及金融级的加密算法能力和云计算能力的加持,蚂蚁链版权 AI 平台能够为数字媒体时代的内容管理方、内容平台方以及创作者提供一站式的版权保护能力。作为蚂蚁链版权平台的核心能力,AI 技术可以快速提取音视频及图像特征,在短时间内完成对相似内容的自动识别和判断。得益于 NVIDIA 完善的软硬件生态,蚂蚁链团队除了可以方便的在云端 GPU 部署深度学习模型推理服务,在进一步的合作中,双方亦成功将其 TensorRT 支持的业界领先的 INT8-QAT 技术应用到版权保护业务模型上,对 AI 模型的推理效率进行大幅度优化,实现了在几乎精度无损的情况下,单 GPU 上的吞吐量提升约 300%。

利用深度学习模型高效且自动化地进行相似内容识别是蚂蚁链版权 AI 平台的一项关键技术能力,这对 AI 模型研发提出了较高的技术挑战。一方面,多媒体版权保护业务场景中作品侵权的类型复杂而多变, 为了到达高召回率和低虚警率的效果精度,蚂蚁链团队需采用较为复杂的算法模型方案;而另一方面,版权场景中高吞吐、低成本的需求又对模型提出了性能方面的挑战。换言之,算法模型需要的存算资源必须有所限制、推理性能必须较高,而一般情况下,这与模型的效果要求是矛盾的,因为深度学习模型的效果往往与模型的尺寸和所需算力正相关。而这些复杂而又多维的业务需求,也确实给团队的算法研发和优化工作,带来了相当大的挑战。

因此,蚂蚁链团队将算法研发拆解为不同的流程以解决不同维度的业务需求。简而言之,就是优先以满足业务效果指标为目的研发模型,随后借助模型压缩技术对模型存算需求进行优化,而第二部分工作实现,则需仰赖 NVIDIA 相关软硬件生态对于高性能AI模型推理加速的优秀支持。一方面,NVIDIA GPU 所提供的强大并行算力以及 INT8 Tensor Core 提供的整型计算能力,为深度学习模型推理的高效实现奠定了基础;另一方面,NVIDIA TensorRT 8 SDK 中对模型计算图的高效融合,以及对于新型模型结构的支持和优化(例如 QAT 所采用的 QDQ 结构以及 transformer-based 模型)让我们可以在 PyTorch 模型的基础上生成高效的量化推理模型。其中,QAT 作为此项目模型性能优化的重要技术,最大的优点莫过于可以在大幅提升推理速度的同时,做到几乎完全消弭量化网络整型计算相比浮点网络数值精度差异带来的算法效果损失。而近年来,随着 NVIDIA 对相关软硬件生态的对 QAT 技术的支持日臻完善,蚂蚁链团队希望能藉由 NVIDIA 相关的软硬件生态,将 QAT 技术应用到蚂蚁链版权 AI 项目中,以满足严苛的业务需求。

基于以上挑战,蚂蚁链 AIoT 技术部与 NVIDIA 技术专家合作,引入 QAT 技术对深度学习模型进行性能优化,并将模型转换为 TensorRT 引擎部署至 NVIDIA T4 GPU 进行在线推理。

首先,团队使用 QAT 技术对算法模型以“伪量化”模式进行微调,使模型得以在 INT8 整型推理模式下在算法效果指标上几乎没有损失。具体实现方案主要包括:使用 NVIDIA PyTorch Quantization 工具在模型中一些特定位置插入量化/反量化节点,在原模型的基础上构造一个“伪量化”模型。紧接着,使用该“伪量化”模型在原任务上进行一定轮数的微调,使模型参数在受到量化误差扰动的同时依然可以收敛到一个局部最优,最终最小化量化推理对模型算法指标带来的负面影响。实践中,蚂蚁链团队通过 QAT 技术可以将 INT8 模型与单精度模型的算法指标的相对差距缩小到 0.2% 以内,做到了算法效果几乎无损的模型量化。

随后,则需要将微调完成的 QAT 模型转换为真正的 INT8 版本模型部署到线上生产环境中。这一流程主要依赖 NVIDIA 提供的 TensorRT 高性能推理框架,相较其他部署框架,TensorRT 在 NVIDIA GPU 上表现出巨大的性能优势:一方面通过 graph fusion,kernel tuning 等功能,可以自动化精简网络结构,为模型各层的不同 op 寻找最优 CUDA kernel 等优化操作;更重要的是,TensorRT 8.0 开始,添加了针对“伪量化”节点的自动化解析和融合功能,使 QAT 模型落地的门槛大大降低,让 QAT 模型真正有可能在部署环境中展现出近似 INT8 后量化模型的极高推理性能。实践中,采用 INT8-QAT 的模型做到了比单精度模型约 300% 的单位时间吞吐提升,极大提高了模型推理服务的效率;同时,量化模型更低的显存占用也为模型部署带来了更高的灵活性。

借助 NVIDIA 在高性能模型推理方面完善的软硬件生态,蚂蚁链团队得以使用 INT8-QAT 技术大幅优化蚂蚁链版权 AI 平台中模型推理服务的效率,帮助系统整体降本增效。300% 的推理速度提升,以及算法指标几乎无损的特性,让此项目的 AI 模型可以做到兼顾效果与性能,帮助蚂蚁链版权 AI 平台在业界树立技术优势。

“版权保护是一个富有挑战的技术领域,互联网内容类型多样、隐匿性强、易复制与编辑等特点对我们提出了诸多挑战。蚂蚁链从 2019 年发布鹊凿版权保护平台以来,在音视图文的侵权检索、侵权比对与定位方面做了大量深入的研究工作。我们 AIoT 团队在 2022 年世界知识产权日向公众发布了蚂蚁链版权 AI 计算引擎,可以对相似内容的提取精确到帧,直接以秒为单位反馈比对结果。这种细颗粒度的识别能力极大提高了下游工作效率,同时也需要我们充分探索和利用 NVIDIA INT8-QAT 等加速技术,在效果和性能之间达到最佳平衡。接下去我们还会面向低成本高性能的版权 AI 算法演进,让技术普惠更多的普通创作者。”蚂蚁链 AIoT 高级算法专家张晓博与钱烽表示。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5682

    浏览量

    110095
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5258

    浏览量

    136039
  • AI
    AI
    +关注

    关注

    91

    文章

    40922

    浏览量

    302511
  • 英伟达
    +关注

    关注

    23

    文章

    4112

    浏览量

    99595

原文标题:NVIDIA 携手蚂蚁链实现 INT8 QAT 技术加速 AI 推理,打造新一代版权保护平台

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Oracle和NVIDIA合作加速向量搜索和企业数据处理

    Oracle 和 NVIDIA 正在与客户合作,将 GPU 加速的向量索引构建应用于实际工作负载。Oracle Private AI Services Container 初期支持 C
    的头像 发表于 03-23 15:26 400次阅读

    使用NORDIC AI的好处

    ; 自定义 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的专用 AI 加速器,对 TensorFlow Lite 模型可实现最高约 15× 推理
    发表于 01-31 23:16

    NVIDIA 推出 Alpamayo 系列开源 AI 模型与工具,加速安全可靠的推理型辅助驾驶汽车开发

    新闻摘要 : l NVIDIA 率先发布为应对辅助驾驶长尾场景挑战而设计的开源视觉-语言-动作推理模型(Reasoning VLA);NVIDIA Alpamayo 系列还包含赋能辅助驾驶汽车开发
    的头像 发表于 01-06 09:40 505次阅读
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列开源 <b class='flag-5'>AI</b> 模型与工具,<b class='flag-5'>加速</b>安全可靠的<b class='flag-5'>推理</b>型辅助驾驶汽车开发

    软通动力荣膺蚂蚁数科“领航AI Agent合作伙伴”

    12月11日,首届蚂蚁数科生态合作伙伴大会在苏州召开。大会以“与AI同行· 价值共生”为主题,汇聚数字科技产业核心力量,共探AI大模型产业
    的头像 发表于 12-12 21:52 1412次阅读

    NVIDIA扩大与微软合作推动AI超级工厂建设

    在 Microsoft Ignite 大会上,NVIDIA 扩大与微软的合作,包括在由 NVIDIA Blackwell 平台驱动的全新 Microsoft Fairwater AI
    的头像 发表于 12-01 09:52 962次阅读

    利用NVIDIA Cosmos开放世界基础模型加速物理AI开发

    NVIDIA 最近发布了 NVIDIA Cosmos 开放世界基础模型(WFM)的更新,旨在加速物理 AI 模型的测试与验证数据生成。借助 NVID
    的头像 发表于 12-01 09:25 1388次阅读

    MediaTek携手NVIDIA开启个人AI算力新纪元

    即将上市的 NVIDIA DGX Spark 个人 AI 超级计算机,搭载 MediaTek 与 NVIDIA 合作设计的 GB10 Grace Blackwell 超级芯片,
    的头像 发表于 10-16 11:26 920次阅读

    什么是AI模型的推理能力

    NVIDIA 的数据工厂团队NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理
    的头像 发表于 09-23 15:19 1445次阅读

    NVIDIA从云到边缘加速OpenAI gpt-oss模型部署,实现150万TPS推理

    的发布持续深化了双方的 AI 创新合作NVIDIANVIDIA Blackwell 架构上优化了这两款全新的开放权重模型并实现了推理
    的头像 发表于 08-15 20:34 2474次阅读
    <b class='flag-5'>NVIDIA</b>从云到边缘<b class='flag-5'>加速</b>OpenAI gpt-oss模型部署,实现150万TPS<b class='flag-5'>推理</b>

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    模态的技术特性,DeepSeek正加速推动AI在金融、政务、科研及网络智能化等关键领域的深度应用。 信而泰:AI推理引擎赋能网络智能诊断新范式信而泰深度整合DeepSeek-R1大模型
    发表于 07-16 15:29

    NVIDIA全栈加速代理式AI应用落地

    在近期举办的 AWS 中国峰会上,NVIDIA 聚焦于“NVIDIA 全栈加速代理式 AI 应用落地”,深入探讨了代理式 AI (Agent
    的头像 发表于 07-14 11:41 1446次阅读

    NVIDIA携手诺和诺德借助AI加速药物研发

    NVIDIA 宣布与诺和诺德开展合作,借助创新 AI 应用加速药物研发。此次合作也将支持诺和诺德与丹麦
    的头像 发表于 06-12 15:49 1461次阅读

    商汤科技“小浣熊家族”与蚂蚁集团旗下智能体开发平台“蚂蚁百宝箱”正式达成生态合作

    打开蚂蚁百宝箱,跳出一只商汤小浣熊。 商汤科技“小浣熊家族”与蚂蚁集团旗下智能体开发平台“蚂蚁百宝箱”正式达成生态合作,双方联合打造“AI
    的头像 发表于 06-09 15:09 1513次阅读
    商汤科技“小浣熊家族”与<b class='flag-5'>蚂蚁</b>集团旗下智能体开发平台“<b class='flag-5'>蚂蚁</b>百宝箱”正式达成生态<b class='flag-5'>合作</b>

    NVIDIA携手微软加速代理式AI发展

    代理式 AI 正在重新定义科学探索,推动各行各业的研究突破和创新发展。NVIDIA 和微软正通过深化合作提供先进的技术,从云到 PC 加速代理式 A
    的头像 发表于 05-27 14:03 1205次阅读

    企业使用NVIDIA NeMo微服务构建AI智能体平台

    已发布的 NeMo 微服务可与合作伙伴平台集成,作为创建 AI 智能体的构建模块,使用商业智能与强大的逻辑推理模型 (包括 NVIDIA Llama Nemotron) 处理更多任务。
    的头像 发表于 04-27 15:05 1467次阅读