0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Nvidia扩大了在MLPerf Benchmark上进行AI推理的领先优势

倩倩 来源:文财网 作者:文财网 2020-10-24 09:17 次阅读

Nvidia表示,已通过今年早些时候推出的A100 GPU芯片,扩大了在MLPerf Benchmark上进行AI推理的领先优势。Nvidia在第二版MLPerf Inference中赢得了针对数据中心和边缘计算系统的六个应用程序测试中的每一个。这些测试是对最初的两个计算机视觉基准测试的扩展-AI测试现在包括推荐系统,自然语言理解,语音识别医学成像

行业观察家Moor Insights&Strategy的HPC和机器学习高级分析师Karl Freund评论说,与Nvidia的展示一样令人印象深刻,还应该注意,某些原本有望参加MLPerf竞赛的公司却没有参加。。

弗洛伊德说:“英伟达在竞争激烈的竞争者中表现出色。” 与(Nvidia)V100(GPU)相比,他们的A100效果惊人,证明了其增强的Tensor核心架构的价值。我赞扬MLPerf添加了新的基准,这些基准越来越代表快速增长的推理机会,例如推荐引擎。

Freund说:“话说回来,竞争要么是因为客户项目太忙,要么是他们的芯片还没有准备好。” “例如,SambaNova(人工智能系统平台)宣布与LLNL建立新的合作伙伴关系,而英特尔Habana(可编程深度学习加速器)仍在酝酿中。如果我仍在芯片创业公司,我将等待运行MLPerf(一个昂贵的项目),直到我已经获得了一些灯塔客户。

英伟达在其结果公告中表示,其A100的AI推理速度比CPU快237倍。

Nvidia加速计算部总经理兼副总裁Ian Buck表示:“每个行业都在寻求更好的方式来应用AI提供新服务和发展业务,这是我们的转折点。” “我们为在MLPerf上实现这些结果而进行的工作使公司的AI性能达到了新的水平,从而改善了我们的日常生活。”

Nvidia表示,该公司及其合作伙伴使用Nvidia的加速平台(包括Nvidia数据中心GPU,Edge AI加速器和Nvidia优化的软件)提交了MLPerf 0.7结果。Nvidia A100于今年早些时候推出,具有第三代Tensor内核和多实例GPU技术,在ResNet-50测试中的领先优势得到了提高,比上一轮的CPU高出30倍,是6倍。该公司补充说,它的GPU在公共云中的AI推理能力首次超过了CPU,并表示Nvidia GPU上的云AI推理总能力每两年增长约10倍。

责任编辑:lq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4999

    浏览量

    103227
  • 机器学习
    +关注

    关注

    66

    文章

    8423

    浏览量

    132752
  • GPU芯片
    +关注

    关注

    1

    文章

    303

    浏览量

    5845
  • MLPerf
    +关注

    关注

    0

    文章

    35

    浏览量

    646
收藏 人收藏

    评论

    相关推荐

    NVIDIA助力Amdocs打造生成式AI智能体

    正在使用NVIDIA DGX Cloud 与 NVIDIA AI Enterprise软件开发和交付基于商用大语言模型(LLM)和领域适配模型的解决方案。该公司还在使用NVIDIA
    的头像 发表于 11-19 14:48 362次阅读

    日本企业借助NVIDIA产品加速AI创新

    日本领先企业和大学正在使用 NVIDIA NeMo、NIM 微服务和 NVIDIA Isaac 加速 AI 创新。
    的头像 发表于 11-19 14:34 329次阅读

    FPGA和ASIC大模型推理加速中的应用

    随着现在AI的快速发展,使用FPGA和ASIC进行推理加速的研究也越来越多,从目前的市场来说,有些公司已经有专门做推理的ASIC,像Gro
    的头像 发表于 10-29 14:12 520次阅读
    FPGA和ASIC<b class='flag-5'>在</b>大模型<b class='flag-5'>推理</b>加速中的应用

    NVIDIA助力丽蟾科技打造AI训练与推理加速解决方案

    丽蟾科技通过 Leaper 资源管理平台集成 NVIDIA AI Enterprise,为企业和科研机构提供一套高效、灵活的 AI 训练与推理
    的头像 发表于 10-27 10:03 233次阅读
    <b class='flag-5'>NVIDIA</b>助力丽蟾科技打造<b class='flag-5'>AI</b>训练与<b class='flag-5'>推理</b>加速解决方案

    NVIDIA与思科合作打造企业级生成式AI基础设施

    NVIDIA 加速计算平台、NVIDIA AI Enterprise 软件和 NVIDIA NIM 推理微服务加持的思科 Nexus H
    的头像 发表于 10-10 09:35 371次阅读

    NVIDIA助力提供多样、灵活的模型选择

    本案例中,Dify 以模型中立以及开源生态的优势,为广大 AI 创新者提供丰富的模型选择。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton
    的头像 发表于 09-09 09:19 483次阅读

    NVIDIA携手Meta推出AI服务,为企业提供生成式AI服务

    NVIDIA近日宣布一项重大举措,正式推出NVIDIA AI Foundry服务与NVIDIA NIM(
    的头像 发表于 07-25 16:57 553次阅读

    英伟达推出全新NVIDIA AI Foundry服务和NVIDIA NIM推理微服务

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服务和 NVIDIA NIM 推理微服务,与同样刚推出的 Llama 3.1
    的头像 发表于 07-25 09:48 720次阅读

    NVIDIA推出用于支持全新GeForce RTX AI笔记本电脑上运行的AI助手及数字人

    NVIDIA 宣布推出全新 NVIDIA RTX 技术,用于支持全新 GeForce RTX AI 笔记本电脑上运行的 AI 助手及数字人
    的头像 发表于 06-04 10:19 806次阅读

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI模型部署过程,为全球的2800万英伟达开发者提供前所未有的便利。
    的头像 发表于 06-04 09:15 687次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    成为处理万亿参数生成式AI模型的理想选择。 NVL72 机架级系统支持万亿参数 LLM 训练和实时推理 GB200 NVL72 的机架级设计,通过单个 NVIDIA NVLink 域
    发表于 05-13 17:16

    研华与英伟达深化合作, 成为NVIDIA AI Enterprise软件全球分销商

    )的软件平台。近日发布的NVIDIA AI Enterprise 5.0将为用户提供一系列微服务,其中包括NVIDIA NIM。这是一套用于对二十多种流行的AI模型
    发表于 05-07 11:21 379次阅读
    研华与英伟达深化合作, 成为<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise软件全球分销商

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将
    的头像 发表于 04-20 09:39 754次阅读

    开发者手机 AI - 目标识别 demo

    。 NNRt host 实现NNRt HDI接口功能,通过对接底层AI芯片接口为上层应用提供NPU硬件推理的能力。 功能实现 JS从相机数据流获取一张图片,调用Native的接口进行
    发表于 04-11 16:14

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 594次阅读