0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AMD两大高性能 AI 芯片正式出货,剑指英伟达 H100

E4Life 来源:电子发烧友网 作者:周凯扬 2023-12-08 00:26 次阅读

电子发烧友网报道(文/周凯扬)近日 AMD 举办了Advancing AI大会,除了发布全新的锐龙 8040系列 AI PC 芯片以外,也终于宣布了 MI300X GPU以及 MI300A APU这两大 AI 计算重磅新品的出货。

顶级 AI 计算 GPU MI300X

作为全新 CDNA3架构打造的 AI 加速器,MI300X 的配置可谓豪华,8 组 XCD 共 304 个 CDNA 单元,加上带宽高达 5.3TB/s 的 192GB显存。相对上一代 MI250X 而言,计算单元多了接近 40%,内存容量增至 1.5 倍,理论带宽更是提升至 1.7 倍,同时引入了对 FP8和稀疏计算的支持。

AMD 也在实际用例上与英伟达的 H100 进行了对比,在运行 1760亿参数的 BLOOM 大语言模型推理时,其吞吐量可达后者的 1.6 倍。且单块 MI300X就能运行像 Llama2 这样 700 亿参数的大模型,简化了企业级 LLM 部署的同时,提供了极致的 TCO 性价比。

首个数据中心 APU 出炉

随着英伟达开始针对数据中心推出 Grace Hopper Superchip 这样的 CPU+GPU 打包方案,AMD 这个早在消费级产品上这么干的公司自然也察觉到了个中机遇。于是在本次大会上,AMD 终于宣布首个数据中心 APU,MI300A开始出货。

在 3D 封装技术和 AMD Infinity 架构的支持下,MI300A将 CDNA 3架构的 GPU 核心、Zen 4 架构的 CPU 核心以及 128GB 的 HBM3 内存集成在一起。同样是与 MI250X相比,其在HPC和 AI 负载的 FP32计算上,能耗比近乎翻倍。

得益于统一的内存和缓存,CPU、GPU 与 HBM 之间的数据传输延迟大大降低,且均可享受超大的带宽,无论是在极限性能还是在功耗分配上,都能提供好于独立方案的表现。

软件同样迎来大幅升级

而此次 Advancing AI大会上,AMD不仅对硬件进行了更新,也对其软件进行了更新,RoCm 这一并行计算框架迎来了第六版,这一版本主要对 AMD 的 Instinct 系列 GPU在生成式 AI 的大语言模型上进行了优化。

作为 AMD 对英伟达的 CUDA 做出的对策方案,ROCm这几年来已经逐步完善,甚至可以说在开发支持程度上毫不逊色于 CUDA。此次更新不仅增加对新数据类型的支持,还引入了高级图形和内核优化、库优化以及最先进的注意力机制算法。以文本生成这一任务为例,与在 MI250 上运行的 ROCm 5 相比,性能提升显著,总体延迟改善了 8 倍左右。

更重要的是,这次 OpenAI 也来掺了一脚,OpenAI 宣布他们会在 Triton 3.0 上加入对 AMD Instinct 的支持。Triton是一个类Python 的开源编程语言,允许开发者在没有 CUDA 开发经验的情况下也能写出高效的 GPU 代码,可以视为 CUDA 的精简版。而在最新的Triton 3.0,可以说 AMD 的Instinct硬件平台获得了开箱即用的支持。

其实这次合作早有预示,几个月前Triton就开始合并 ROCm 的代码,此前也宣布过增加AMD Instinct以及英特尔XPU 的支持。不过目前 Instinct平台的ROCm 还是以 Linux 开发为重点,Radeon 平台的ROCm 则主要集中在对 Windows 的支持上。

写在最后

这次Advancing AI大会象征了 AMD 对 明年 AI 市场的野心,也难怪 AMD 会将今年数据中心 AI 芯片的市场规模从 6 月份的 300 亿美元提高至 450 亿美元。未来的MI300X很有可能成为英伟达 H100 最强劲的对手,也有可能成为云服务厂商竞相追逐的新计算卡。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • amd
    amd
    +关注

    关注

    25

    文章

    5475

    浏览量

    134282
  • AI
    AI
    +关注

    关注

    87

    文章

    31099

    浏览量

    269435
收藏 人收藏

    评论

    相关推荐

    AMD最强AI芯片性能强过英伟H200,但市场仍不买账,生态是最大短板?

    显示,该芯片多项性能优于英伟H200。   不过,对于AMD一系列的产品发布,市场方面似乎并不
    的头像 发表于 10-14 01:32 3484次阅读
    <b class='flag-5'>AMD</b>最强<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>,<b class='flag-5'>性能</b>强过<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>H</b>200,但市场仍不买账,生态是最大短板?

    英伟H100芯片市场降温

    随着英伟新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落
    的头像 发表于 10-28 15:42 631次阅读

    韩国AI芯片巨头合并,英伟龙头地位

    韩国两大AI芯片领域的初创企业——SK电信旗下的Sapeon Korea与KT投资的Rebellions,近日宣布了一项重大合并计划,预计将于2024年底正式完成这一战略整合。此次合并预计将为新成立
    的头像 发表于 08-21 16:29 651次阅读

    英伟带领芯片股飙升 英伟大涨4.76%

    1.08%,道指涨0.32%。 AI浪潮之下,业界预期正不断加强,在AI算力需求的边际拉动下、叠加消费电子复苏,新一轮终端AI上新,相关行业正迎来具备较强持续性的上行周期;英伟
    的头像 发表于 07-23 16:26 342次阅读

    英伟AI芯片市场还能领先多久?

    7月22日,国际媒体传来消息,英伟在近年来兴起的生成式人工智能浪潮中脱颖而出,其高性能计算芯片H100等广受业界青睐,推动了公司营收与利
    的头像 发表于 07-22 16:18 598次阅读

    只能跑Transformer的AI芯片,却号称全球最快?

    电子发烧友网报道(文/周凯扬)近日,一家由哈佛辍学生成立的初创公司Etched,宣布了他们在打造的一款“专用”AI芯片Sohu。据其声称该芯片的速度将是英伟
    的头像 发表于 07-01 09:03 1428次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    ,通过英伟高带宽接口(NV-HBI)将个最大可制造芯片合并为一个图形处理器单元,支持10TB/s带宽,形成高效的通信通道,提升整体性能
    发表于 05-13 17:16

    英特尔的最强AI芯片要来了,声称性能完胜英伟H100

    增加了近1.5倍。 与竞争对手的正面对标也不落下风。英特尔声称Gaudi3已全面超越英伟去年发布的H100芯片:运行
    的头像 发表于 04-11 23:36 486次阅读

    英伟H200带宽狂飙

    英伟H200带宽的显著提升主要得益于其强大的硬件配置和先进的技术创新。H200配备了高达141GB的HBM3e显存,与前代产品H100相比
    的头像 发表于 03-07 16:44 971次阅读

    英伟H200和A100的区别

    英伟H200和A100芯片性能、架构、内存以
    的头像 发表于 03-07 16:23 3688次阅读

    英伟H200显卡价格

    英伟H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新
    的头像 发表于 03-07 16:09 5223次阅读

    英伟H200和H100的比较

    英伟H200和H100款不同的AI芯片,它们各
    的头像 发表于 03-07 15:53 4734次阅读

    美光科技启动高带宽存储芯片生产 为英伟最新AI芯片提供支持

    英伟下一代H200图形处理器将采用美光HBM3E芯片,预计于今年第2季交付,有望超越现有的H100芯片
    的头像 发表于 02-27 09:33 715次阅读

    英伟:预计下一代AI芯片B100短缺,计划扩产并采用新架构

    近期热门的 H100 芯片运期短缩数天后,英伟新型 AI 旗舰芯片 B
    的头像 发表于 02-25 09:29 949次阅读

    英伟AMD发布适用于台式电脑的新型AI芯片

    英伟AMD家GPU巨头近日宣布,他们将发布适用于台式电脑的新型AI芯片
    的头像 发表于 01-10 13:59 943次阅读