0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在MLPerf推理2.0上如何获得人工智能模型所需的性能

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-04-08 15:53 次阅读

Megatron 530B 等机型正在扩大人工智能可以解决的问题范围。然而,随着模型的复杂性不断增加,它们对人工智能计算平台构成了双重挑战:

这些模型必须在合理的时间内进行训练。

他们必须能够实时进行推理工作。

我们需要的是一个多功能的人工智能平台,它可以在各种各样的模型上提供所需的性能,用于训练和推理。

为了评估这种性能, MLPerf 是唯一一个行业标准人工智能基准,用于测试六个应用程序中的数据中心和边缘平台,测量吞吐量、延迟和能效。

在 MLPerf 推理 2.0 , NVIDIA 交付领先的结果在所有工作负载和场景,同时数据中心 GPU最新的参赛者,NVIDIA Jetson AGX ORIN SOC 平台,为边缘设备和机器人建造。

除了硬件,还需要大量的软件和优化工作才能充分利用这些平台。 MLPerf 推理 2.0 的结果展示了如何获得处理当今日益庞大和复杂的人工智能模型所需的性能。

下面我们来看一下 MLPerf 推理 2.0 的性能,以及其中的一些优化,以及它们是如何构建的。

计算数字

图 1 显示了最新的参赛者 NVIDIA Jetson AGX Orin 。

pYYBAGJP6iuABxnLAACkQTDDlRA696.png

图 1 NVIDIA Jetson AGX Orin 性能改进

MLPerf v2.0 推断边闭合和边闭合幂;数据中心和边缘、离线吞吐量和功率的 MLPerf 结果的性能/瓦特。NVIDIA Xavier AGX Xavier:1.1-110 和 1.1-111 | Jetson AGX Orin:2.0-140 和 2.0-141 。 MLPerf 名称和徽标是商标。资料来源: http://www.mlcommons.org/en 。

图 1 显示 Jetson AGX Orin 的性能是上一代的 5 倍。在测试的全部使用范围内,它平均提高了约 3.4 倍的性能。此外, Jetson AGX Orin 的能效提高了 2.3 倍。

Jetson Orin AGX 是一个 SoC ,为多个并发人工智能推理管道提供多达 275 个人工智能计算顶层,并为多个传感器提供高速接口支持。NVIDIA Jetson AGX ORIN 开发者工具包使您能够创建先进的机器人和边缘 AI 应用程序,用于制造、物流、零售、服务、农业、智能城市、医疗保健和生命科学。

在数据中心领域,NVIDIA 继续在所有应用领域提供全面的人工智能推理性能领先。

pYYBAGJP6jSAHoqvAADlUejP7Rc692.png

图 2 NVIDIA A100 每台加速器性能

MLPerf v2 。 0 推理关闭;使用数据中心脱机和服务器中报告的加速器计数,根据各自提交的最佳 MLPerf 结果得出每加速器性能。高通 AI 100:2.0-130 ,来自 MLPerf v.1.1 的英特尔至强 8380 提交: 1.1-023 和 1.1-024 ,英特尔至强 8380H 1.1-026 ,NVIDIA A30:2.0-090 ,NVIDIA A100 ( Arm ): 2.0-077 ,NVIDIA A100 ( x86 ): 2.0-094 。 MLPerf 名称和徽标是商标。

NVIDIA A100 在离线和服务器场景下的所有测试中都提供了最佳的每加速器性能。

我们提交了以下配置的 A100 :

A100 SXM 搭配 x86 CPUAMD Epyc 7742 )

A100 PCIe 与 x86 CPU ( AMD Epyc 7742 )配对

A100 SXM 配 Arm CPU (NVIDIA 安培架构 Altra Q80-30 )

Microsoft Azure 也使用其 A100 实例提交,我们也在这一数据中显示了这一点。

所有配置都提供了大致相同的推理性能,这证明了我们 Arm 软件堆栈的就绪性,以及 A100 本地和云中的总体性能。

A100 还提供了高达 105 倍的性能,比仅 CPU 提交( RNN-T ,服务器方案)。 A30 在除一项工作外的所有工作上都表现出领导水平。与 A100 一样,它运行了所有数据中心类别测试。

关键优化

提供出色的推理性能需要一种全堆栈方法,在这种方法中,优秀的硬件与优化且通用的软件相结合。 NVIDIA TensorRT 和 NVIDIA Triton 推理服务器都在不同工作负载下提供出色的推理性能方面发挥着关键作用。

Jetson AGX-Orin 优化

NVIDIA Orin 新 NVIDIA 安培架构 I GPU 由 NVIDIA TensorRT 8.4 支持。对于 MLPerf 性能而言,它是 SoC 中最重要的组件。扩展了大量优化 GPU 内核的 TensorRT 库,以支持新的体系结构。 TensorRT 生成器会自动拾取这些内核。

此外, MLPerf 网络中使用的插件都已移植到 NVIDIA Orin 并添加到 TensorRT 8.4 中,包括 res2 插件( resnet50 )和 qkv 到上下文插件( BERT )。与带有离散 GPU 加速器的系统不同,输入不会从主机内存复制到设备内存,因为 SoC DRAM 由 CPU 和 iGPU 共享。

除了 iGPU , NVIDIA 还使用了两个深度学习加速器( DLA ),以在离线情况下在 CV 网络( resnet50 、 ssd mobilenet 、 ssd-resnet34 )上实现最高的系统性能。

NVIDIA Orin 采用了新一代 DLA 硬件。为了利用这些硬件改进, DLA 编译器添加了以下 NVIDIA Orin 功能,这些功能在升级到 TensorRT 的未来版本时自动可用,无需修改任何应用程序源代码。

SRAM chaining: 在本地 SRAM 中保留中间张量,以避免对 DRAM 的读写,从而减少延迟和平台 DRAM 的使用。它还减少了对 GPU 推理的干扰。

卷积+池融合: INT8 卷积+偏差+缩放+重新调整可以与后续池节点融合。

卷积+元素融合: INT8 卷积+元素和可以与后续的 ReLU 节点融合。

对两个 DLA 加速器的批量大小进行了微调,以获得 GPU + DLA 聚合性能的适当平衡。该调整平衡了将 DLA 引擎 GPU 后备内核的调度冲突降至最低的需求,同时减少了 SoC 共享 DRAM 带宽的整体潜在不足。

3D UNet 医学成像

虽然大多数工作负载与 MLPerf 推断 v1 相比基本保持不变。 1 、使用 KITS19 数据集增强了 3D UNet 医学成像工作量。这个新的肾肿瘤图像数据集有更大的不同大小的图像,每个样本需要更多的处理。

KiTS19 数据集为实现高效节能推理带来了新的挑战。更具体地说:

KiTS19 中使用的输入张量的形状从 128x192x320 到 320x448x448 不等;最大输入张量比最小输入张量大 8.17 倍。

推理过程中需要大于 2GB 的张量。

在特定感兴趣区域( ROI )形状( 128x128x128 )上有一个滑动窗口,具有较大的重叠系数( 50% )。

为了解决这个问题,我们开发了一种滑动窗口方法来处理这些图像:

根据重叠因子,将每个输入张量切成 ROI 形状。

使用循环处理给定输入张量的所有滑动窗口切片。

加权并规范化每个滑动窗口的推理结果。

通过滑动窗口推断的聚合结果的 ArgMax 获得最终分割输出。

poYBAGJP6j2AXg8eAACExe9yWus477.png

图 3 3D UNet 使用滑动窗口方法执行 KiTS19 肾脏肿瘤分割推断任务

在图 3 中,每个输入张量被切片成具有重叠因子( 50% )的 ROI 形状( 128x128x128 ),并输入预训练网络。然后对每个滑动窗口输出进行最佳加权,以获取归一化 sigma = 0.125 的高斯核特征。

推理结果根据原始输入张量形状进行聚合,并对这些权重因子进行归一化。然后, ArgMax 操作会切割分割信息,标记背景、正常肾细胞和肿瘤。

该实现将分割与基本事实进行比较,并计算骰子分数以确定基准测试的准确性。您还可以直观地检查结果。

我们的数据中心 GPU 已经支持 INT8 精度超过 5 年,与 FP16 和 FP32 精度级别相比,这种精度在许多型号上带来了显著的加速,精度损失接近于零。

对于 3D UNet ,我们通过使用 TensorRT IInt8MinMaxCalibrator 校准校准集中的图像来使用 INT8 。该实现在 FP32 参考模型中实现了 100% 的精度,从而实现了基准的高精度和低精度模式。

poYBAGJP6kqAESVZAAEQHd7KUMg866.png

图 5 MLPerf 推理 v2 中使用的 NVIDIA 3D UNet KiTS19 实现。 0 提交

在图 5 中,绿色框在设备( GPU )上执行,黄色框在主机( CPU )上执行。滑动窗口推理所需的一些操作被优化为融合操作。

利用 GPUDirect RDMA 和存储,可以最小化或消除主机到设备或设备到主机的数据移动。从 DGX-A100 系统中测量一个输入样本(其大小接近平均输入大小)的每项工作的延迟。切片内核和 ArgMax 内核的延迟随输入图像大小成比例变化。

以下是一些具体的优化措施:

用于加权的高斯核补丁现在已预先计算并存储在磁盘上,并在基准测试的定时部分开始之前加载到 GPU 内存中。

加权和归一化作为融合操作进行优化,使用 27 个预计算的面片,用于 3D 输入张量上 50% 重叠的滑动窗口。

编写处理切片、加权和 ArgMax 的自定义 CUDA 内核,以便所有这些操作都在 GPU 中完成,无需 H2D / D2H 数据传输。

INT8 线性内存布局中的输入张量使 H2D 传输中的数据量最小,因为 KiTS19 输入集是单通道。

TensorRT 需要 NC / 32DHW32 格式的 INT8 输入。我们使用一个定制的 CUDA 内核,该内核在 GPU 全局内存中的一个连续内存区域中执行对零填充的切片,并将 INT8 线性输入张量切片重新格式化为 INT8 NC / 32DHW32 格式。

GPU 中的零填充和重新格式化张量要比其他昂贵的 H2D 传输速度快得多, H2D 传输的数据要多 32 倍。这种优化显著提高了整体性能,并释放了宝贵的系统资源。

TensorRT 引擎用于在每个滑动窗口切片上运行推理。因为 3D UNet 是密集的,我们发现增加批量大小会成比例地增加引擎的运行时间。

NVIDIA Triton 优化

NVIDIA 提交继续显示 Triton 推理服务器的多功能性。这一轮, Triton 推理服务器还支持在 AWS 推理机上运行 NVIDIA Triton 。NVIDIA Triton 使用 Python 后端运行推理优化 PyTorch 和 TensorFlow 模型。

使用NVIDIA Triton 和火炬神经元, NVIDIA 提交获得 85% 至 100% 的推断推理的自然推断性能。

poYBAGJP6lKAL9rAAACX4khGPFU905.png

图 6 。 Triton 推理服务器性能

MLPerf v1 。 1 。关闭推理;每个加速器的性能源自使用数据中心脱机中报告的加速器计数的各个提交的最佳 MLPerf 结果。显示所有提交工作负载的几何平均值。 CPU 基于 MLPerf 推理 1.1 中的英特尔提交数据进行比较,以比较相同 CPU 的配置,提交 1.0-16 、 1.0-17 、 1.0-19 。 NVIDIA Triton 在 CPU 上: 2.0-100 和 2.0-101 。 A2:2.0-060 和 2.0-061 。 A30:2.0-091 和 2.0-092 。 A100:2.0-094 和 2.0-096 。 MLPerf 名称和徽标是商标。

NVIDIA Triton 现在支持 AWS 推理处理器,并提供与仅在 AWS Neuron SDK 上运行几乎相同的性能。

它需要一个平台

NVIDIA 推理领导力来自于打造最优秀的人工智能加速器,用于培训和推理。但优秀的硬件只是开始。

NVIDIA TensorRT 和 Triton 推理服务器软件在跨这一组不同的工作负载提供出色的推理性能方面发挥着关键作用。他们可以在 NGC ,NVIDIA 中心,以及其他 GPU 优化的软件,用于深度学习,机器学习,和 HPC 。

NGC 容器化软件使加速平台的建立和运行变得更加容易,因此您可以专注于构建真正的应用程序,并加快实现价值的时间。 NGC 可以通过您首选的云提供商的市场免费获得。

关于作者

Dave Salvator 是 NVIDIA 旗下 Tesla 集团的高级产品营销经理,专注于超规模、深度学习和推理。

Ashwin Nanjappa 是 NVIDIA TensorRT 团队的工程经理。他领导 MLPerf 推理计划,展示 NVIDIA 加速器的性能和能效。他还参与改进 TensorRT DL 推理库的性能。在加入NVIDIA 之前,他曾参与培训和部署 CV 的 DL 模型、深度相机的 GPU 加速 ML / CV 算法,以及手机和 DVD 播放器中的多媒体库。他拥有来自新加坡国立大学( NUS )的计算机科学博士学位,重点是 GPU 算法用于三维计算几何。

Jinho 是NVIDIA DLSIM 团队的高级深度学习架构师。他正在研究 NVIDIA 加速器上的深度学习工作负载的性能建模和分析,并有助于NVIDIA MLPIFF 推理实现。在加入NVIDIA 之前,他曾在英特尔和 Arm 从事服务器 CPU 和 SoC 体系结构及微体系结构方面的工作。他拥有南加州大学计算机工程博士学位,专注于计算机体系结构。

Ian 是 NVIDIA TensorRT 团队的高级系统软件工程师,他专注于 MLPerf 推理。在加入 TensorRT 团队之前,他曾为 NVIDIA 自动驾驶软件开发实时调度系统。伊恩毕业于多伦多大学工程科学专业,主修电气和计算机工程。

Madhumitha Sridhara 是 TensorRT 团队的高级软件工程师,专注于使用 Triton 推理服务器的 NVIDIA MLPerf推理提交。她拥有卡内基梅隆大学计算机工程硕士学位和印度卡纳塔克邦苏拉特卡尔国家理工学院电子通信工程学士学位。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4994

    浏览量

    103196
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4743

    浏览量

    129009
  • 服务器
    +关注

    关注

    12

    文章

    9206

    浏览量

    85564
  • MLPerf
    +关注

    关注

    0

    文章

    35

    浏览量

    646
收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    领域,如工业控制、智能家居、医疗设备等。 人工智能是计算机科学的一个分支,它研究如何使计算机具备像人类一样思考、学习、推理和决策的能力。人工智能的发展历程可以追溯到上世纪50年代,经
    发表于 11-14 16:39

    《AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    人工智能在科学研究中的核心技术,包括机器学习、深度学习、神经网络等。这些技术构成了AI for Science的基石,使得AI能够处理和分析复杂的数据集,从而发现隐藏在数据中的模式和规律。 2. 高性能
    发表于 10-14 09:16

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    ,无疑为读者铺设了一条探索人工智能(AI)如何深刻影响并推动科学创新的道路。阅读这一章后,我深刻感受到了人工智能技术科学领域的广泛应用潜力以及其带来的革命性变化,以下是我个人的学习
    发表于 10-14 09:12

    澎峰科技高性能模型推理引擎PerfXLM解析

    自ChatGPT问世以来,大模型遍地开花,承载大模型应用的高性能推理框架也不断推出,大有百家争鸣之势。在这种情况下,澎峰科技作为全球领先的智能
    的头像 发表于 09-29 10:14 492次阅读
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>引擎PerfXLM解析

    risc-v人工智能图像处理应用前景分析

    满足人工智能图像处理中对于高性能、低功耗和特定功能的需求。 低功耗 : 人工智能图像处理中,低功耗是一个重要的考量因素。RISC-V架构的设计使其
    发表于 09-28 11:00

    人工智能ai4s试读申请

    目前人工智能在绘画对话等大模型领域应用广阔,ai4s也是方兴未艾。但是如何有效利用ai4s工具助力科研是个需要研究的课题,本书对ai4s基本原理和原则,方法进行描诉,有利于总结经验,拟按照要求准备相关体会材料。看能否有助于入门和提高ss
    发表于 09-09 15:36

    FPGA人工智能中的应用有哪些?

    FPGA(现场可编程门阵列)人工智能领域的应用非常广泛,主要体现在以下几个方面: 一、深度学习加速 训练和推理过程加速:FPGA可以用来加速深度学习的训练和推理过程。由于其高并行性和
    发表于 07-29 17:05

    LLM大模型推理加速的关键技术

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型处理复杂任务
    的头像 发表于 07-24 11:38 907次阅读

    人工智能模型工业网络安全领域的应用

    随着人工智能技术的飞速发展,人工智能模型作为一种具有强大数据处理能力和复杂模式识别能力的深度学习模型,已经多个领域展现了其独特的优势和广
    的头像 发表于 07-10 14:07 771次阅读

    人工智能模型有哪些

    人工智能(Artificial Intelligence, AI)作为21世纪最具影响力的技术之一,正以前所未有的速度改变着我们的生活、工作乃至整个社会结构。AI模型作为AI技术的核心,是实现智能
    的头像 发表于 07-04 17:28 907次阅读

    人工智能与大模型的关系与区别

    科技日新月异的今天,人工智能(AI)已成为推动社会进步的重要力量。而在人工智能的众多分支中,大模型(Large Models)作为近年来兴起的概念,以其巨大的参数数量和强大的计算能力
    的头像 发表于 07-04 16:07 3800次阅读

    模型应用之路:从提示词到通用人工智能(AGI)

    模型人工智能领域的应用正迅速扩展,从最初的提示词(Prompt)工程到追求通用人工智能(AGI)的宏伟目标,这一旅程充满了挑战与创新。本文将探索大
    的头像 发表于 06-14 10:20 2231次阅读
    大<b class='flag-5'>模型</b>应用之路:从提示词到通用<b class='flag-5'>人工智能</b>(AGI)

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V2)

    Aidlite-SDK模型推理 https://v2.docs.aidlux.com/sdk-api/aidlite-sdk/aidlite-python 人工智能 5G AIoT技术实践入门与探索_V2 59分
    发表于 05-10 16:46

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    化能力和适应性。自然语言处理任务中,大语言模型展现出卓越的语言理解和生成能力。此外,大语言模型还能在创新和探索中发挥作用,推动科学和技术的发展。总之,大语言模型的涌现能力为其
    发表于 05-04 23:55

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷嵌入式
    发表于 02-26 10:17