0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

蚂蚁链AIoT团队与NVIDIA合作加速AI推理

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-09-09 09:53 次阅读

蚂蚁链 AIoT 团队与 NVIDIA 合作,将量化感知训练(QAT)技术应用于深度学习模型性能优化中,并通过 NVIDIA TensorRT 高性能推理 SDK 进行高效率部署, 通过 INT8 推理, 吞吐量提升了 3 倍, 助力蚂蚁链版权 AI 平台中的模型推理服务大幅降本增效。

依托于蚂蚁链自研的区块链和 AI 技术,以及金融级的加密算法能力和云计算能力的加持,蚂蚁链版权 AI 平台能够为数字媒体时代的内容管理方、内容平台方以及创作者提供一站式的版权保护能力。作为蚂蚁链版权平台的核心能力,AI 技术可以快速提取音视频及图像特征,在短时间内完成对相似内容的自动识别和判断。得益于 NVIDIA 完善的软硬件生态,蚂蚁链团队除了可以方便的在云端 GPU 部署深度学习模型推理服务,在进一步的合作中,双方亦成功将其 TensorRT 支持的业界领先的 INT8-QAT 技术应用到版权保护业务模型上,对 AI 模型的推理效率进行大幅度优化,实现了在几乎精度无损的情况下,单 GPU 上的吞吐量提升约 300%。

利用深度学习模型高效且自动化地进行相似内容识别是蚂蚁链版权 AI 平台的一项关键技术能力,这对 AI 模型研发提出了较高的技术挑战。一方面,多媒体版权保护业务场景中作品侵权的类型复杂而多变, 为了到达高召回率和低虚警率的效果精度,蚂蚁链团队需采用较为复杂的算法模型方案;而另一方面,版权场景中高吞吐、低成本的需求又对模型提出了性能方面的挑战。换言之,算法模型需要的存算资源必须有所限制、推理性能必须较高,而一般情况下,这与模型的效果要求是矛盾的,因为深度学习模型的效果往往与模型的尺寸和所需算力正相关。而这些复杂而又多维的业务需求,也确实给团队的算法研发和优化工作,带来了相当大的挑战。

因此,蚂蚁链团队将算法研发拆解为不同的流程以解决不同维度的业务需求。简而言之,就是优先以满足业务效果指标为目的研发模型,随后借助模型压缩技术对模型存算需求进行优化,而第二部分工作实现,则需仰赖 NVIDIA 相关软硬件生态对于高性能AI模型推理加速的优秀支持。一方面,NVIDIA GPU 所提供的强大并行算力以及 INT8 Tensor Core 提供的整型计算能力,为深度学习模型推理的高效实现奠定了基础;另一方面,NVIDIA TensorRT 8 SDK 中对模型计算图的高效融合,以及对于新型模型结构的支持和优化(例如 QAT 所采用的 QDQ 结构以及 transformer-based 模型)让我们可以在 PyTorch 模型的基础上生成高效的量化推理模型。其中,QAT 作为此项目模型性能优化的重要技术,最大的优点莫过于可以在大幅提升推理速度的同时,做到几乎完全消弭量化网络整型计算相比浮点网络数值精度差异带来的算法效果损失。而近年来,随着 NVIDIA 对相关软硬件生态的对 QAT 技术的支持日臻完善,蚂蚁链团队希望能藉由 NVIDIA 相关的软硬件生态,将 QAT 技术应用到蚂蚁链版权 AI 项目中,以满足严苛的业务需求。

基于以上挑战,蚂蚁链 AIoT 技术部与 NVIDIA 技术专家合作,引入 QAT 技术对深度学习模型进行性能优化,并将模型转换为 TensorRT 引擎部署至 NVIDIA T4 GPU 进行在线推理。

首先,团队使用 QAT 技术对算法模型以“伪量化”模式进行微调,使模型得以在 INT8 整型推理模式下在算法效果指标上几乎没有损失。具体实现方案主要包括:使用 NVIDIA PyTorch Quantization 工具在模型中一些特定位置插入量化/反量化节点,在原模型的基础上构造一个“伪量化”模型。紧接着,使用该“伪量化”模型在原任务上进行一定轮数的微调,使模型参数在受到量化误差扰动的同时依然可以收敛到一个局部最优,最终最小化量化推理对模型算法指标带来的负面影响。实践中,蚂蚁链团队通过 QAT 技术可以将 INT8 模型与单精度模型的算法指标的相对差距缩小到 0.2% 以内,做到了算法效果几乎无损的模型量化。

随后,则需要将微调完成的 QAT 模型转换为真正的 INT8 版本模型部署到线上生产环境中。这一流程主要依赖 NVIDIA 提供的 TensorRT 高性能推理框架,相较其他部署框架,TensorRT 在 NVIDIA GPU 上表现出巨大的性能优势:一方面通过 graph fusion,kernel tuning 等功能,可以自动化精简网络结构,为模型各层的不同 op 寻找最优 CUDA kernel 等优化操作;更重要的是,TensorRT 8.0 开始,添加了针对“伪量化”节点的自动化解析和融合功能,使 QAT 模型落地的门槛大大降低,让 QAT 模型真正有可能在部署环境中展现出近似 INT8 后量化模型的极高推理性能。实践中,采用 INT8-QAT 的模型做到了比单精度模型约 300% 的单位时间吞吐提升,极大提高了模型推理服务的效率;同时,量化模型更低的显存占用也为模型部署带来了更高的灵活性。

借助 NVIDIA 在高性能模型推理方面完善的软硬件生态,蚂蚁链团队得以使用 INT8-QAT 技术大幅优化蚂蚁链版权 AI 平台中模型推理服务的效率,帮助系统整体降本增效。300% 的推理速度提升,以及算法指标几乎无损的特性,让此项目的 AI 模型可以做到兼顾效果与性能,帮助蚂蚁链版权 AI 平台在业界树立技术优势。

“版权保护是一个富有挑战的技术领域,互联网内容类型多样、隐匿性强、易复制与编辑等特点对我们提出了诸多挑战。蚂蚁链从 2019 年发布鹊凿版权保护平台以来,在音视图文的侵权检索、侵权比对与定位方面做了大量深入的研究工作。我们 AIoT 团队在 2022 年世界知识产权日向公众发布了蚂蚁链版权 AI 计算引擎,可以对相似内容的提取精确到帧,直接以秒为单位反馈比对结果。这种细颗粒度的识别能力极大提高了下游工作效率,同时也需要我们充分探索和利用 NVIDIA INT8-QAT 等加速技术,在效果和性能之间达到最佳平衡。接下去我们还会面向低成本高性能的版权 AI 算法演进,让技术普惠更多的普通创作者。”蚂蚁链 AIoT 高级算法专家张晓博与钱烽表示。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4841

    浏览量

    102694
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4663

    浏览量

    128541
  • AI
    AI
    +关注

    关注

    87

    文章

    29640

    浏览量

    267982
  • 英伟达
    +关注

    关注

    22

    文章

    3712

    浏览量

    90622

原文标题:NVIDIA 携手蚂蚁链实现 INT8 QAT 技术加速 AI 推理,打造新一代版权保护平台

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    印度头部IT企业与NVIDIA合作加速AI采用

    Infosys、TCS、Tech Mahindra 和 Wipro 这四家公司的近 50 万名开发者和顾问使用 NVIDIA AI Enterprise 软件设计和部署 AI 智能体,并使用
    的头像 发表于 10-29 15:08 233次阅读

    NVIDIA助力丽蟾科技打造AI训练与推理加速解决方案

    丽蟾科技通过 Leaper 资源管理平台集成 NVIDIA AI Enterprise,为企业和科研机构提供了一套高效、灵活的 AI 训练与推理加速
    的头像 发表于 10-27 10:03 129次阅读
    <b class='flag-5'>NVIDIA</b>助力丽蟾科技打造<b class='flag-5'>AI</b>训练与<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解决方案

    NVIDIA与思科合作打造企业级生成式AI基础设施

    NVIDIA 加速计算平台、NVIDIA AI Enterprise 软件和 NVIDIA NIM
    的头像 发表于 10-10 09:35 240次阅读

    英伟达推出全新NVIDIA AI Foundry服务和NVIDIA NIM推理微服务

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服务和 NVIDIA NIM 推理微服务,与同样刚推出的 Llama 3.1
    的头像 发表于 07-25 09:48 635次阅读

    HPE 携手 NVIDIA 推出 NVIDIA AI Computing by HPE,加速生成式 AI 变革

    by HPE 包含了可持续的加速计算产品组合以及全生命周期服务,将简化 AI 创造价值的过程,加速生成式 AI 的发展步伐。 NVIDIA
    的头像 发表于 06-21 14:39 295次阅读

    NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 变革

    简化 AI 创造价值的过程,加速生成式 AI 的发展步伐。 NVIDIA AI Computing by HPE 由 HPE 与
    的头像 发表于 06-20 17:36 657次阅读

    MediaTek与NVIDIA TAO加速物联网边缘AI应用发展

    在即将到来的COMPUTEX 2024科技盛会上,全球知名的芯片制造商MediaTek宣布了一项重要合作——将NVIDIA的TAO(TensorRT Accelerated Optimizer)与其NeuroPilot SDK(软件开发工具包)集成,共同推动边缘
    的头像 发表于 06-12 14:49 425次阅读

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI模型部署过程,为全球的2800万英伟达开发者提供前所未有的便利。
    的头像 发表于 06-04 09:15 610次阅读

    英特尔助力京东云用CPU加速AI推理,以大模型构建数智化供应

    英特尔助力京东云用CPU加速AI推理,以大模型构建数智化供应
    的头像 发表于 05-27 11:50 471次阅读
    英特尔助力京东云用CPU<b class='flag-5'>加速</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>,以大模型构建数智化供应<b class='flag-5'>链</b>

    研华与英伟达深化合作, 成为NVIDIA AI Enterprise软件全球分销商

    台北,2024年4月 - 研华科技(2395.TW)宣布,已扩大与NVIDIA合作,成为台湾首家获得NVIDIA AI Enterprise认证的、用于开发和部署生产级
    发表于 05-07 11:21 248次阅读
    研华与英伟达深化<b class='flag-5'>合作</b>, 成为<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise软件全球分销商

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVI
    的头像 发表于 04-20 09:39 603次阅读

    NVIDIA和谷歌云宣布开展一项新的合作加速AI开发

    NVIDIA 和谷歌云宣布开展一项新的合作,以帮助全球初创企业加速创建生成式 AI 应用和服务。
    的头像 发表于 04-11 14:03 440次阅读

    SAP与NVIDIA携手加速生成式AI在企业应用中的普及

    SAP SE 和 NVIDIA 宣布深化合作,致力于加速企业客户在 SAP 云解决方案和应用组合中利用数据和生成式 AI 的变革力量。
    的头像 发表于 03-22 10:02 542次阅读

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 527次阅读

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41