0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MLPerf V2.0推理结果放榜,NVIDIA表现抢眼

荷叶塘 来源:电子发烧友 作者:程文智 2022-04-15 22:12 次阅读

(文/程文智)不久前,AI性能基准评测平台MLPerf公布了2022年首次推理(Inference v2.0)测试成绩,NVIDIA的AI平台表现依然抢眼。

据MLPerf官方介绍,它是由来自学术界、研究实验室和相关行业的 AI 领导者组成的联盟,旨在“构建公平和有用的基准测试”,在规定的条件下,针对硬件、软件和服务的训练和推理性能提供公平的评估。每年组织AI推理和AI训练测试各两次,以对迅速增长的AI计算需求与性能进行及时的跟踪测评。MLPerf比赛通常分为固定任务(Closed)和开放优化(Open)两类任务,开放优化能力着重考察参测厂商AI技术创新力,固定任务则因更公平地考察参测厂商的硬件系统和软件优化的能力,成为更具参考价值的AI性能基准测试。因此,目前MLPerf被看作是AI领域的风向标,谁能够在这个测试中取得更多的领先,谁的AI能力就越突出。


最新一期的榜单中,浪潮、NVIDIA、英特尔高通、阿里巴巴、戴尔、Deci.ai、Azure、富士通、技嘉、联想、宁畅、美超微、华硕、浙江实验室、及新华三等厂商参与了竞赛。评测以最新MLPerf Inference V2.0为基准,涵盖了图像分类、目标检测、医疗图像分割、自然语言处理、语音转文字和推荐系统6类AI应用场景,分为数据中心和边缘两类处理场景,每类场景都包含固定任务(Closed)和开放优化(Open)两类性能竞赛。其中,在最新的V2.0规范中,在边缘运算环境导入多资料流(Multi Stream)测试项目,测量边缘运算设备在多摄影机、多传感器场景的性能表现,以得到更贴近真实使用情况的数据。


据统计,本轮测试一共展示了超过3900 次性能测试和 2200 次功耗测试,分别是上一轮的2倍和6倍。根据公开的数据显示,本次测试中除了戴尔科技、富士通、技嘉、浪潮、联想、宁畅和美超微等外,华硕和新华三本次测试中首次使用了NVIDIA AI平台提交MLPerf结果。

Jetson AGX Orin提升边缘AI性能,取得不俗成绩

值得一提的是基于NVIDIA Ampere架构的低功耗系统级芯片NVIDIA Orin首次参加MLPerf基准测试,就取得了不俗的成绩。在边缘AI领域,NVIDIA Orin预生产版本在六项性能测试中的五项处于领先地位,其运行速度比上一代Jetson AGX Xavier快了5倍,能效平均提高了2倍。


根据NVIDIA官网的介绍,Jetson AGX Orin 系列有32GB和64GB两个版本,该系列具有高达275TOPS的AI性能,由 Ampere GPU深度学习加速器 (DLA) 提供支持。CPU配备了多达12个Arm Cortex A78AE内核。

Orin配备了其第三代Tensor Cores,可提高性能并支持稀疏矩阵。基于NVIDIA为 Xavier 所做的多处理器构建,它不仅具有 GPU 和CPU,还具有其他处理器,可以帮助从GPU和CPU卸载应用程序的某些部分。它包括一个专用于 AI 应用的深度学习加速器、一个用于计算机视觉应用和ISP的视觉加速器,以及一个视频解码和视频编码引擎。与 Xavier 相比,NVIDIA还为 Orin 带来了 LPDDR5 以提高带宽,传输速度可达204.8GB/s。 Orin 还具备丰富的IO连接,比如其具有多达22个PCIe4.0通道、4个千兆以太网、16个MIPI CSI通道,以及各种其他传感器接口等。


根据测试,Jetson AGX Orin提供了8倍于Jetson AGX Xavier的性能,Jetson AGX Orin是能够运行所有六项MLPerf基准测试的边缘加速器。凭借JetPack SDK,Orin可以运行整个NVIDIA AI平台,这个软件堆栈已经在数据中心和云端得到了验证,并且获得了NVIDIA Jetson平台100万名开发者的支持。


在应用方面,目前,Orin主要关注三大领域,分别为:工业自动驾驶和医疗。Orin现已加入到用于机器人和自动化系统的NVIDIA Jetson AGX Orin开发者套件。包括亚马逊网络服务、约翰迪尔、小松、美敦力和微软Azure在内的6000多家客户使用NVIDIA Jetson平台进行AI推理或其他任务。

Orin也是NVIDIA Hyperion自动驾驶汽车平台的关键组成部分。据NVIDIA介绍,Orin可处理在自动驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D 等系统安全标准。而且,比亚迪近期已经宣布,他们将在其新一代自动驾驶电动汽车中使用内置Orin的DRIVE Hyperion架构。

Orin同样也是NVIDIA Clara Holoscan医疗设备平台的关键组成部分,且该平台可供系统制造商和研究人员用来开发新一代AI仪器。

NVIDIA其他AI成果

除了Orin之外,本轮MLPerf,验证了NVIDIA的多项成果,包括多实例GPU(MIG)、TensorRT等。比如MIG可提升每个 NVIDIA A100 Tensor 核心 GPU 的性能和价值。MIG可将 A100 GPU 划分为多达七个实例,每个实例均与各自的高带宽显存、缓存和计算核心完全隔离。管理员可以支持从大到小的各项工作负载,为每项工作提供规模适当的 GPU,而且服务质量 (QoS) 稳定可靠,从而优化利用率,让每位用户都能享用加速计算资源。


而根据实际测试结果,在使用7个实例时的性能为仅用一个实例的98%,这也意味着MIG可以充分利用GPU,避免了算力的浪费。


软件是性能提升的关键驱动因素,NVIDIA在AI推理方面的软件包括了用于优化 AI 模型的 NVIDIA TensorRT 和用于有效部署它们的 NVIDIA Triton开源推理服务软件。NVIDIA AI 推理和云高级产品经理David Salvator在媒体发布会上介绍了NVIDIA的Triton开源推理服务软件。


目前TensorRT广泛的优化GPU内核库已支持Jetson Orin,MLPerf中使用的插件已全部移植到Orin并添加到 TensorRT 8.4。Triton则Kubernetes紧密集成,可以管理GPU以及x86和Arm CPU上的AI推理工作,NVIDIA宣布,Triton现在可以只在CPU上运行,而无需GPU。

而也正是因为NVIDIA的跨平台管理能力,使A100在Arm和x86-64平台上的性能几乎相同。并且,通过NVIDIA的软件优化,AI性能在过去一年中就增长了高达50%。

结语

这几年,NVIDIA在AI领域一路狂奔,不仅仅在数据中心方面优势明显,在汽车、边缘计算方面也正推出优势产品,另外在他们还在准备推出工业级的AI产品,进入传统工业领域。AI正在不断渗透到人们生活的各个方面。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5087

    浏览量

    103914
  • AI
    AI
    +关注

    关注

    87

    文章

    31845

    浏览量

    270671
  • 人工智能
    +关注

    关注

    1797

    文章

    47867

    浏览量

    240836
  • 推理
    +关注

    关注

    0

    文章

    8

    浏览量

    7277
  • MLPerf
    +关注

    关注

    0

    文章

    35

    浏览量

    657
收藏 人收藏

    评论

    相关推荐

    使用NVIDIA推理平台提高AI推理性能

    NVIDIA推理平台提高了 AI 推理性能,为零售、电信等行业节省了数百万美元。
    的头像 发表于 02-08 09:59 245次阅读
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平台提高AI<b class='flag-5'>推理</b>性能

    k230如何将yolo分类视频流推理后的视频结果保存到本地?

    请问k230如何将yolo分类视频流推理后的视频结果保存到本地?
    发表于 02-08 08:09

    WTS-100(V2.0 GNSS) 无线定位系统(GNSS) 彩页

    产品概述:WTS-100(V2.0 GNSS)是一款采用国产新兴窄带高并发TurMass物联网通讯技术回传信息的无线定位系统,系统通过GNSS定位终端接收来自多颗卫星的信号来确定目标位置,具备定位
    发表于 01-17 10:59 0次下载

    ANSVG-G-A混合动态滤波补偿装置使用说明书 V2.0

    电子发烧友网站提供《ANSVG-G-A混合动态滤波补偿装置使用说明书 V2.0 .pdf》资料免费下载
    发表于 12-16 14:08 0次下载

    从TMS320TCI648x DSP的EDMA v2.0迁移到EDMA v3.0

    电子发烧友网站提供《从TMS320TCI648x DSP的EDMA v2.0迁移到EDMA v3.0.pdf》资料免费下载
    发表于 10-16 11:33 0次下载
    从TMS320TCI648x DSP的EDMA <b class='flag-5'>v2.0</b>迁移到EDMA <b class='flag-5'>v</b>3.0

    从EDMA v2.0迁移到TMS320DM644X DMSoC的EDMA v3.0

    电子发烧友网站提供《从EDMA v2.0迁移到TMS320DM644X DMSoC的EDMA v3.0.pdf》资料免费下载
    发表于 10-16 10:55 0次下载
    从EDMA <b class='flag-5'>v2.0</b>迁移到TMS320DM644X DMSoC的EDMA <b class='flag-5'>v</b>3.0

    从EDMA v2.0迁移到EDMA v3.0 TMS320C64X DSP

    电子发烧友网站提供《从EDMA v2.0迁移到EDMA v3.0 TMS320C64X DSP.pdf》资料免费下载
    发表于 10-15 10:12 0次下载
    从EDMA <b class='flag-5'>v2.0</b>迁移到EDMA <b class='flag-5'>v</b>3.0 TMS320C64X DSP

    阿童木二代Atom XL数字模拟对讲手机用户手册V2.0

    阿童木二代Atom XL数字模拟对讲手机用户手册V2.0 0119
    发表于 10-14 14:03 0次下载

    浪潮信息AS13000G7荣获MLPerf™ AI存储基准测试五项性能全球第一

    北京2024年9月27日 /美通社/ -- 9月25日,MLCommons协会发布最新MLPerf™ Storage v1.0 AI存储基准测试成绩。浪潮信息分布式存储平台AS13000G7表现
    的头像 发表于 09-28 16:46 268次阅读
    浪潮信息AS13000G7荣获<b class='flag-5'>MLPerf</b>™ AI存储基准测试五项性能全球第一

    高鸿信安与百敖软件完成产品兼容互认证

    近日,大唐高鸿信安与百敖软件开展了产品兼容适配工作,高鸿信安自主研发的可信支撑模块软件V2.0、操作系统可信增强系统V2.0、可信管理平台V2.0、可信代理软件 V2.0等多款可信计算
    的头像 发表于 09-19 15:06 461次阅读

    英伟达推出全新NVIDIA AI Foundry服务和NVIDIA NIM推理微服务

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服务和 NVIDIA NIM 推理微服务,与同样刚推出的 Llama 3.1 系列开源模型一起,为全球企业的生成式 AI
    的头像 发表于 07-25 09:48 806次阅读

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI模型部署过程,为全球的2800万英伟达开发者提供前所未有的便利。
    的头像 发表于 06-04 09:15 752次阅读

    LwIP v2.0版本更换为v2.1.2版本后接收不到数据了怎么解决?

    请教下,吧 LwIP v2.0 版本更换为 v2.1.2 版本后接收不到数据了,是怎么回事啊 ?? 之前使用 v2.0 版本测试是完全可以了,不过目前 使用 v2.1.2版本的,dhc
    发表于 04-23 08:20

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热
    的头像 发表于 04-20 09:39 843次阅读

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 650次阅读