0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA 在 MLPerf 测试中将推理带到新高度

NVIDIA英伟达 来源:未知 2023-04-08 00:30 次阅读

最新 MLPerf 基准测试中,NVIDIA H100 和 L4 GPU 将生成式 AI 和所有其他工作负载带到了新的水平,Jetson AGX Orin 则在性能和效率方面都有所提升。

作为独立的第三方基准测试,MLPerf 仍是衡量 AI 性能的权威标准。自 MLPerf 诞生以来,NVIDIA 的 AI 平台在训练和推理这两个方面一直展现出领先优势,包括最新发布的 MLPerf Inference 3.0 基准测试。

NVIDIA 创始人兼首席执行官黄仁勋表示:“三年前我们推出 A100 时,AI 世界由计算机视觉主导。如今,生成式 AI 已经到来。”

“这正是我们打造 Hopper 的原因,其通过 Transformer 引擎专为 GPT 进行了优化。最新的 MLPerf 3.0 凸显了 Hopper 的性能比 A100 高出 4 倍。”

“下一阶段的生成式 AI 需要高能效的新的 AI 基础设施来训练大型语言模型。客户正在大规模采用 Hopper,以构建由数万颗通过 NVIDIA NVLink 和 InfiniBand 连接的 Hopper GPU 组成的 AI 基础设施。”

“业界正努力推动安全、可信的生成式 AI 取得新的进展。而 Hopper 正在推动这项重要的工作。”

最新 MLPerf 结果显示,NVIDIA 将从云到边缘的 AI 推理性能和效率带到了一个新的水平。

具体而言,在 DGX H100 系统中运行的 NVIDIA H100 Tensor Core GPU 在每项 AI 推理测试(即在生产中运行神经网络)中均展现出最高的性能。得益于软件优化,该 GPU 在 9 月首次亮相时就实现了高达 54%的性能提升。

针对医疗领域,H100 GPU 在 3D-UNet(MLPerf 医学影像基准测试)中的性能相比 9 月提高了 31%。

06856d9a-d561-11ed-bfe3-dac502259ad0.jpg

在 Transformer 引擎的加持下,基于 Hopper 架构的 H100 GPU 在 BERT 上的表现十分优异。BERT 是一个基于 transformer 的大型语言模型,它为如今已经得到广泛应用的生成式 AI 奠定了基础。

生成式 AI 使用户可以快速创建文本、图像、3D 模型等。从初创公司到云服务提供商,企业都在迅速采用这一能力,以实现新的业务模式和加速现有业务。

数亿人现在正在使用 ChatGPT(同样是一个 transformer 模型)等生成式 AI 工具,以期得到即时响应。

在这个 AI 的 iPhone 时刻,推理性能至关重要。深度学习的部署几乎无处不在,这推动了从工厂车间到在线推荐系统等对推理性能的无尽需求。

L4 GPU 精彩亮相

NVIDIA L4 Tensor Core GPU 在本次 MLPerf 测试中首次亮相,其速度是上一代 T4 GPU 的 3 倍以上。这些加速器具有扁平的外形,可在几乎所有的服务器中提供高吞吐量和低延迟。

L4 GPU 运行了所有 MLPerf 工作负载。凭借对关键的 FP8 格式的支持,其在对性能要求很高的 BERT 模型上取得了非常惊人的结果。

除了出色的 AI 性能外,L4 GPU 的图像解码速度快了 10 倍,视频处理速度快了 3.2 倍,同时图形和实时渲染性能提高了 4 倍以上。

这些加速器两周前在 GTC 上发布并已通过各大系统制造商和云服务提供商提供。L4 GPU 是 NVIDIA 在 GTC 上发布的 AI 推理平台产品组合中的最新成员。

069b91ce-d561-11ed-bfe3-dac502259ad0.jpg  

软件和网络在系统测试中大放异彩

NVIDIA 的全栈式 AI 平台在一项全新 MLPerf 测试中展现了其领先优势。

被称之为 Network-division 的基准测试将数据传输至一个远程推理服务器。它反映了企业用户将数据存储在企业防火墙后面、在云上运行 AI 作业的热门场景。

在 BERT 测试中,远程 NVIDIA DGX A100 系统提供高达 96%的最大本地性能,其性能下降的原因之一是因为它们需要等待 CPU 完成部分任务。在单纯依靠 GPU 进行处理的 ResNet-50 计算机视觉测试中,它们达到了 100%的性能。

这两个结果在很大程度上要归功于 NVIDIA Quantum InfiniBand 网络、NVIDIA ConnectX SmartNIC 以及 NVIDIA GPUDirect 等软件。

Orin 在边缘的性能提升 3.2 倍

另外,相较于一年前的结果,NVIDIA Jetson AGX Orin 模块化系统的能效提高了 63%,性能提高了 81%。Jetson AGX Orin 可在需要 AI 的狭小空间内以低功率进行推理,包括在由电池供电的系统上。

专为需要更小模块、更低功耗的应用而开发的 Jetson Orin NX 16G 在本次基准测试中首次亮相便大放异彩。其性能是上一代 Jetson Xavier NX 处理器的 3.2 倍。

广泛的 NVIDIA AI 生态

MLPerf 结果显示,NVIDIA AI 得到了业内最广泛的机器学习生态系统的支持。

在这一轮测试中,有十家公司在 NVIDIA 平台上提交了结果,包括华硕、戴尔科技、技嘉、新华三、联想、宁畅、超微和超聚变等系统制造商和微软 Azure 云服务。

他们所提交的结果表明,无论是在云端还是在自己的数据中心运行的服务器中,用户都可以通过 NVIDIA AI 获得出色的性能。

NVIDIA 的众多合作伙伴也参与了 MLPerf,因为他们知道这是一个帮助客户评估 AI 平台和厂商的很有价值的工具。最新一轮结果表明,他们今天所提供的性能将随着 NVIDIA 平台的发展而不断提升。

用户需要的是“多面手”

NVIDIA AI 是唯一能够在数据中心和边缘计算中运行所有 MLPerf 推理工作负载和场景的平台。其全面的性能和效率让用户能够成为真正的赢家。

用户在实际应用中通常会采用许多不同类型的神经网络,这些网络往往需要实时提供答案。

例如,一个 AI 应用可能需要先理解用户的语音请求,对图像进行分类、提出建议,然后以人声作为语音来回答用户。每个步骤都需要用到不同类型的 AI 模型。

MLPerf 基准测试涵盖了这些以及其他流行的 AI 工作负载,所以这些测试能够确保 IT 决策者获得可靠且可以灵活部署的性能。

06b4db66-d561-11ed-bfe3-dac502259ad0.jpg

用户可以根据 MLPerf 的结果做出明智的购买决定,因为这些测试是透明的、客观的。该基准测试得到了包括 Arm、百度、Facebook AI、谷歌、哈佛大学、英特尔、微软、斯坦福大学和多伦多大学在内的广泛支持。

可以使用的软件

NVIDIA AI 平台的软件层 NVIDIA AI Enterprise 确保用户能够从他们的基础设施投资中获得最佳的性能以及在企业数据中心运行 AI 所需的企业级支持、安全性和可靠性。

这些测试所使用的所有软件都可以从 MLPerf 库中获得,因此任何人都可以获得这些领先的结果。

各项优化措施不断地被整合到 NGC(NVIDIA 的 GPU 加速软件目录)上的容器中。本轮测试中提交的每项工作均使用了该目录中的 NVIDIA TensorRT 优化 AI 推理性能。

扫描海报二维码,或点击“阅读原文”,即可观看 NVIDIA 创始人兼首席执行官黄仁勋 GTC23 主题演讲重播!


原文标题:NVIDIA 在 MLPerf 测试中将推理带到新高度

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3739

    浏览量

    90789

原文标题:NVIDIA 在 MLPerf 测试中将推理带到新高度

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    智能数显,掌控压力新高度

    行业资讯
    shchuanganqi
    发布于 :2024年11月18日 10:03:34

    BOE(京东方)全新一代发光器件赋能iQOO 13 全面引领柔性显示行业性能新高度

    画面表现、护眼舒适度及性能功耗方面均达到行业领先水准,并以“直屏超窄边”的设计为用户呈现了前所未有的视觉体验,将直板手机的产品性能推向了全新高度。此次BOE(京东方)携手vivo旗下iQOO品牌联合打造旗舰新品,既体现了以“Powered by BOE”的生态携手合作
    的头像 发表于 10-31 16:15 123次阅读

    NVIDIA助力丽蟾科技打造AI训练与推理加速解决方案

    丽蟾科技通过 Leaper 资源管理平台集成 NVIDIA AI Enterprise,为企业和科研机构提供了一套高效、灵活的 AI 训练与推理加速解决方案。无论是复杂的 AI 开发任务中,还是
    的头像 发表于 10-27 10:03 160次阅读
    <b class='flag-5'>NVIDIA</b>助力丽蟾科技打造AI训练与<b class='flag-5'>推理</b>加速解决方案

    NVIDIA与思科合作打造企业级生成式AI基础设施

    NVIDIA 加速计算平台、NVIDIA AI Enterprise 软件和 NVIDIA NIM 推理微服务加持的思科 Nexus HyperFabric AI 集群解决方案
    的头像 发表于 10-10 09:35 279次阅读

    浪潮信息AS13000G7荣获MLPerf™ AI存储基准测试五项性能全球第一

    众,3D-UNet和CosmoFlow两个模型共计八项测试中,斩获五项冠军。 MLPerf™ Storage v1.0 AI存储基准测试成绩 ML
    的头像 发表于 09-28 16:46 185次阅读
    浪潮信息AS13000G7荣获<b class='flag-5'>MLPerf</b>™ AI存储基准<b class='flag-5'>测试</b>五项性能全球第一

    英伟达推出全新NVIDIA AI Foundry服务和NVIDIA NIM推理微服务

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服务和 NVIDIA NIM 推理微服务,与同样刚推出的 Llama 3.1 系列开源模型一起,为全球企业的生成式 AI
    的头像 发表于 07-25 09:48 662次阅读

    激光雷达-定义未来感知的新高度

    保护装置
    jf_18500570
    发布于 :2024年06月22日 10:21:14

    安全新高度-折弯机保护装置与你同行

    保护装置
    jf_18500570
    发布于 :2024年06月07日 11:13:04

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI模型部署过程,为全球的2800万英伟达开发者提供前所未有的便利。
    的头像 发表于 06-04 09:15 636次阅读

    ZR执行器:智能制造的得力干将,提升生产新高度

    ZR执行器:智能制造的得力干将,提升生产新高度 ZR执行器以其精准的控制能力和高效的执行效率,智能制造领域发挥了重要作用。传统的执行器往往存在控制不精确、反应速度慢等问题,难以满足现代生产对于高效
    的头像 发表于 05-10 11:15 506次阅读

    解锁LLM新高度—OpenVINO™ 2024.1赋能生成式AI高效运行

    LLM 的发展仍保持着惊人的速度。尽管现有的 LLM 已经具备强大的功能,但通过 OpenVINO™ 的优化和推理加速,可以对这些复杂模型的执行进行精炼,实现更快、更高效的处理,减少计算开销并最大限度发挥硬件潜力,这将直接导致 LLM 实现更高的吞吐量和更低的延迟。
    的头像 发表于 05-10 10:36 483次阅读

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热
    的头像 发表于 04-20 09:39 633次阅读

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 542次阅读

    eVTOL市场动力需求“抬头” 电池企业集中加码

    高比能、高倍率、高安全等方面性能上,eVTOL的“既要又要”上了新高度
    的头像 发表于 02-20 09:32 809次阅读

    AMS推出超低噪声模拟前端(AFE)传感器—AS7058

    新高度集成、超低功耗的AS7058,支持精密PPG应用、心电图和皮肤电活动测量;
    的头像 发表于 12-01 09:41 806次阅读