0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MLPerf首次GPT大模型推理放榜 墨芯连续三届登顶

墨芯人工智能 来源:墨芯人工智能 2023-09-14 14:15 次阅读

随着ChatGPT等AIGC应用掀起大模型浪潮,算力层作为基础设施,成为最先受益的产业。

然而,算力需求大、费用昂贵等问题,已成为企业落地大模型的普通痛点,更可能制约AI向前发展:大模型参数日益增长,而算力供给瓶颈迫在眉睫,二者形成巨大矛盾。

如何探索更好的大模型算力方案,是业界共同关注的焦点。

近日,全球权威测评MLPerf 公布最新推理测评结果,这是MLPerf首度引入GPT大模型推理测试,参与热度再创纪录,收到了来自英伟达英特尔、谷歌、高通等企业提交的13500 多项性能结果。

4aa1d2b4-52bd-11ee-a25d-92fbcf53809c.png

在MLPerf Inference 3.1中,墨芯人工智能(Moffet AI)S30计算卡在大模型GPT-J(60亿参数)上,单卡、4卡、8卡的算力均获得第一。

这是墨芯在MLPerf上连续第三次卫冕。此前墨芯曾在MLPerf Inference 2.0与2.1上,连续两届获得第一。

墨芯的成绩,为大模型算力方案带来了可行的创新方向。

事实证明:结合AI模型与计算平台的软硬协同创新,能够释放更大的算力潜力。这也再度印证:以稀疏计算为代表的创新技术,将是大模型时代算力发展的关键。

墨芯参加的是MLPerf开放分区,据主办方MLCommons介绍,该分区旨在鼓励创新。因此参赛者可以通过软硬协同等方式,探索对算力的提升。在MLPerf中的GPT-J大模型上,与4nm制程的H100纯硬件加速方案相比,12nm制程的墨芯S30计算卡通过“原创的双稀疏算法+硬件协同”方式,取得了高达1.8倍的优势。

本次测评的GPT-J模型是生成式AI模型,墨芯S30计算卡在8卡、4卡、单卡模式下,性能分别为170.59,91.57,23.28 (Sample/s),达到英伟达H100性能的1.6倍、1.8倍、1.8倍,展现出墨芯产品在AIGC类任务上的能力。

4b02a418-52bd-11ee-a25d-92fbcf53809c.png

三度夺冠,大模型算力率先“交卷”,软硬协同持续创新——墨芯的产品实力数次经过MLPerf的严格检验,也探索出大模型算力发展的新路径。

1

稀疏计算——大模型“潜力股”

获得市场认可

墨芯接连的优异成绩,主要得益于基于稀疏化算法的软硬协同设计。

在大模型时代,稀疏计算的重要性不言而喻:AI模型大小与其稀疏化潜力成正比。

也就是说,当模型越大,算法上有更大稀疏的可能性,稀疏计算可加速的幅度也越高。对于一般大型语言模型,稀疏计算可带来数十倍加速。

墨芯独创的双稀疏算法,结合软硬协同设计,使墨芯Antoum芯片成为全球首款高稀疏倍率AI芯片,支持高达32倍稀疏——这也正是墨芯在本次MLPerf中创新纪录的关键。

模型越大,稀疏计算的优势越明显——尤其是在GPT等大模型参数动辄上百亿、千亿的现状下,这使得墨芯的护城河更为稳固。

墨芯的产品实力与稀疏计算的大势所趋,也获得了市场的认可:墨芯商业化进程接连取得重要突破,助力企业加速AI应用。

就在近日,墨芯成为支持Byte MLPerf的供应商之一

4b33ae5a-52bd-11ee-a25d-92fbcf53809c.png

来源:Byte MLPerf网站

当前,墨芯AI计算平台已能够支持不同参数级别的大模型,包括 BLOOM, OPT, GPT-J,LLaMA,StableDiffusion等。同时具有高吞吐、低延时、低功耗等特点,缓解算力之困,真正为企业带来“好用”、“用得起”的大模型算力方案。

2

带来根本性的算力变革

稀疏计算助力大模型发展

墨芯的稀疏计算方案不仅能够缓解当前的算力难题,也为AI的持续发展打开新的空间。

稀疏计算减少了AI模型的计算量,这意味着能让大模型既在参数量上跃升若干个数量级的同时,又不产生过大的计算量,大模型参数增长与算力瓶颈的矛盾有望从根本上得到解决。

同时,由于计算量的减少,大模型的高算力需求、高功耗、高费用等痛点,也一并得到解决,实现“多赢”效果。

墨芯Antoum芯片:全球首款高稀疏倍率AI芯片,支持高达32倍稀疏

连续三届MLPerf的优异成绩,不仅是对墨芯产品实力的证明,也为业界带来新启示:在稀疏计算等技术的助力下,大模型的发展与应用有望迎来更广阔的施展空间,加速AIGC等应用在各行各业遍地开花。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • GPT
    GPT
    +关注

    关注

    0

    文章

    333

    浏览量

    15101
  • AI芯片
    +关注

    关注

    17

    文章

    1750

    浏览量

    34531
  • ChatGPT
    +关注

    关注

    28

    文章

    1493

    浏览量

    5858

原文标题:MLPerf首次GPT大模型推理放榜,墨芯连续三届登顶

文章出处:【微信号:墨芯人工智能,微信公众号:墨芯人工智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    三届中国电磁频谱学术大会圆满落幕,知语科技闪耀西安!

    ?西安盛事!第三届中国电磁频谱学术大会圆满落幕,知语云智能科技闪耀全场 西安,这座承载着千年历史文化的古都,在2024年6月21日至22日再次成为科技领域的焦点。第三届中国电磁频谱学术大会的圆满收
    发表于 06-24 11:05

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    用于文本生成,根据提示或上下文生成连贯、富有创造性的文本,为故事创作等提供无限可能。大语言模型也面临挑战。一方面,其计算资源需求巨大,训练和推理耗时;另一方面,模型高度依赖数据,需要大规模训练数据才能
    发表于 05-04 23:55

    商汤科技推出6000亿参数大模型,全力对标GPT-4 Turbo 

    稍晚些时候,商汤科技发布公告称,4月23日在上海临港AIDC举办技术交流日活动,推出了6000亿参数大模型(日日新5.0),其知识、数学、推理和代码能力均有显著提升,综合性能可媲美GPT-4Turbo。
    的头像 发表于 04-25 10:11 206次阅读

    GPT EVAL_BDPS_DRIVER可以使用GPT12 IP或GTM IP来实现连续定时器和单次定时器吗?

    GPT EVAL_BDPS_DRIVER可以使用GPT12 IP或GTM IP来实现连续定时器和单次定时器? 是吗?
    发表于 01-22 08:16

    首个无需依赖SAM的高效像素级推理模型PixelLM问世

    进一步,为了支持这一研究领域的模型训练和评估,研究团队在LVIS数据集的基础之上,借助GPT-4V构建了一个面向多目标推理分割场景的数据集MUSE,它包含20万个以上的问题-答案对,涉及90万个以上的实例分割掩码。
    发表于 01-04 15:08 352次阅读
    首个无需依赖SAM的高效像素级<b class='flag-5'>推理</b>大<b class='flag-5'>模型</b>PixelLM问世

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41

    使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释

    使用rk3588多npu推理模型模型推理时间还增加了,这怎么解释
    发表于 11-05 18:22

    NVIDIA Grace Hopper超级芯片横扫MLPerf推理基准测试

    Hopper超级芯片首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大了NVIDIA H100 Tensor Core GPU的领先优势。   总体测试结果表明,NVIDIA AI
    发表于 09-13 09:45 210次阅读
    NVIDIA Grace Hopper超级芯片横扫<b class='flag-5'>MLPerf</b><b class='flag-5'>推理</b>基准测试

    NVIDIA Grace Hopper 超级芯片横扫 MLPerf 推理基准测试

    超级芯片 首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大了 NVIDIA H100 Tensor Core GPU 的领先优势。 总体测试结果表明,NVIDIA AI
    的头像 发表于 09-12 20:40 314次阅读

    最新MLPerf v3.1测试结果认证,Gaudi2在GPT-J模型推理性能惊人

    英特尔产品在全新MLCommons AI推理性能测试中尽显优势 今日,MLCommons公布针对 60 亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的
    的头像 发表于 09-12 17:54 300次阅读
    最新<b class='flag-5'>MLPerf</b> v3.1测试结果认证,Gaudi2在<b class='flag-5'>GPT</b>-J<b class='flag-5'>模型</b>上<b class='flag-5'>推理</b>性能惊人

    盘古大模型GPT3有哪些不同

    盘古大模型GPT3有哪些不同 盘古大模型GPT-3都是人工智能领域迈出的重要一步,它们的发展对于人工智能领域的发展都起到了重要的推动作用。但是,盘古大
    的头像 发表于 08-30 18:28 1596次阅读

    华为盘古大模型GPT的区别

    华为盘古大模型GPT的区别  随着人工智能技术的不断进步,机器学习领域的研究也越来越深入。在这其中,以自然语言处理技术为主要研究方向的人工智能算法受到了广泛关注。在这个领域中,华为盘古大模型
    的头像 发表于 08-30 17:38 3899次阅读

    AscendCL快速入门——模型推理篇(上)

    步。 把经过ATC转化过的模型.om文件加载到内存。 为模型准备输入输出。 让模型在设备端执行推理。 二、
    发表于 08-24 11:04

    GPT-4没有推理能力吗?

    今年三月,OpenAI 重磅发布了 GPT-4 大模型,带来了比 ChatGPT 背后 GPT-3.5 更强的推理、计算、逻辑能力,也引发了全民使用的热潮。在各行各领域研究人员、开发者
    的头像 发表于 08-11 14:20 717次阅读
    <b class='flag-5'>GPT</b>-4没有<b class='flag-5'>推理</b>能力吗?

    新的 MLPerf 推理网络部分展现 NVIDIA InfiniBand 网络和 GPUDirect RDMA 的强大能力

    MLPerf Inference v3.0 中,NVIDIA 首次将网络纳入了 MLPerf 的评测项目,成为了 MLPerf 推理数据
    的头像 发表于 07-19 19:10 755次阅读
    新的 <b class='flag-5'>MLPerf</b> <b class='flag-5'>推理</b>网络部分展现 NVIDIA InfiniBand 网络和 GPUDirect RDMA 的强大能力