0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

硬件世界 来源:硬件世界 2023-11-15 16:28 次阅读

NVIDIA GPU已经在AI、HPC领域遥遥领先,但没有最强,只有更强。

现在,NVIDIA又发布了全新的HGX H200加速器,可处理AIGC、HPC工作负载的海量数据。

NVIDIA H200的一大特点就是首发新一代HBM3e高带宽内存(疑似来自SK海力士),单颗容量就多达141GB(原始容量144GB但为提高良率屏蔽了一点点),同时带宽多达4.8TB/s。

对比H100,容量增加了76%,带宽增加了43%,而对比上代A100,更是容量几乎翻番,带宽增加2.4倍。

得益于NVLink、NVSwitch高速互连技术,H200还可以四路、八路并联,因此单系统的HBM3e内存容量能做到最多1128GB,也就是1.1TB。

只是相比于AMD Instinct MI300X还差点意思,后者搭载了192GB HBM3,带宽高达5.2TB/s。

ac6b00c0-830e-11ee-939d-92fbcf53809c.jpg

性能方面,H200再一次实现了飞跃,700亿参数的Llama2大语言模型推理性能比H100提高了多达90%,1750亿参数的GTP-3模型推理性能也提高了60%,而对比前代A100 HPC模拟性能直接翻番。

八路H200系统下,FP8深度学习计算性能可以超过32PFlops,也就是每秒3.2亿亿次浮点计算,堪比一台大型超级计算机。

随着未来软件的持续升级,H200还有望继续释放潜力,实现更大的性能优势。

此外,H200还可以与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU处理器搭配使用,就组成了GH200 Grace Hopper超级芯片,专为大型HPC、AI应用而设计的计算模块。

NVIDIA H200将从2024年第二季度开始通过全球系统制造商、云服务提供商提供。

ac759440-830e-11ee-939d-92fbcf53809c.png

另外,NVIDIA第一次披露了下一代AI/HPC加速器的情况,架构代号Blackwell,核心编号GB200,加速器型号B100。

NVIDIA第一次公开确认,B100将在2024年发布,但未出更具体的时间表。

此前曝料称,B100原计划2024年第四季度推出,但因为AI需求太火爆,已经提前到第二季度,现已进入供应链认证阶段。

NVIDIA表示,B100加速器可以轻松搞定1730亿参数的大语言模型,是现在H200的两倍甚至更多。

虽然这不代表原始计算性能,但也足以令人望而生畏。

ac878bb4-830e-11ee-939d-92fbcf53809c.jpg

同时,B100还将带来更高级的HBM高带宽内存规格

回顾历史,Pascal P100、Ampere A100、Hopper H100、H200分别首发应用HBM2、HBM2e、HBM3、HBM3e。

接下来的B100肯定赶不上HBM4(规范还没定呢),但必然会在堆叠容量、带宽上继续突破,大大超越现在的4.8TB/s。

ac91c32c-830e-11ee-939d-92fbcf53809c.jpg

Blackwell架构同时也会用于图形工作站和桌面游戏,传闻有GB202、GB203、GB205、GB206、GB207等不同核心,但是对于RTX 50系列,NVIDIA始终三缄其口,几乎肯定到2025年才会发布。

2024年就将是RTX 40 SUPER系列的天下了,明年初的CES 2025首发三款型号RTX 4080 SUPER、RTX 4070 Ti SUPER、RTX 4070 SUPER。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4843

    浏览量

    102697
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4667

    浏览量

    128548
  • 堆叠
    +关注

    关注

    0

    文章

    33

    浏览量

    16566
  • AI
    AI
    +关注

    关注

    87

    文章

    29665

    浏览量

    268001
  • HBM3
    +关注

    关注

    0

    文章

    74

    浏览量

    138
  • HBM3E
    +关注

    关注

    0

    文章

    77

    浏览量

    222

原文标题:1.1TB HBM3e内存!NVIDIA奉上全球第一GPU:可惜无缘中国

文章出处:【微信号:hdworld16,微信公众号:硬件世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    美光12层堆叠HBM3E 36GB内存启动交付

    美光科技近期宣布,其“生产可用”的12层堆叠HBM3E 36GB内存已成功启动交付,标志着AI计算领域的大飞跃。这款先进内存正陆续送达主要行业合作伙伴手中,以全面融入并验证其在整个A
    的头像 发表于 09-09 17:42 708次阅读

    三星电子HBM3E内存获英伟达认证,加速AI GPU市场布局

    近日,知名市场研究机构TrendForce在最新发布的报告中宣布了项重要进展:三星电子的HBM3E内存产品已成功通过英伟达验证,并正式开启出货流程。具体而言,三星的HBM3E 8Hi
    的头像 发表于 09-05 17:15 611次阅读

    SK海力士9月底将量产12层HBM3E高性能内存

    HBM市场全球最高市占率的地位,也标志着HBM3E技术再次引领行业潮流,特别是在满足日益增长的人工智能服务器对高性能内存需求的背景下。
    的头像 发表于 09-05 16:31 625次阅读

    中国AI芯片和HBM市场的未来

     然而,全球HBM产能几乎被SK海力士、三星和美光垄断,其中SK海力士占据AI GPU市场80%份额,是Nvidia HBM3
    的头像 发表于 05-28 09:40 778次阅读

    NVIDIA预定购三星独家供应的大量12层HBM3E内存

    据悉,HBM3E 12H内存具备高达1280GB/s的宽带速率以及36GB的超大存储容量,较8层堆叠的HBM3 8H,分别提升了50%以上的带宽及容量。
    的头像 发表于 03-25 15:36 383次阅读

    什么是HBM3E内存?Rambus HBM3E/3内存控制器内核

    Rambus HBM3E/3 内存控制器内核针对高带宽和低延迟进行了优化,以紧凑的外形和高能效的封装为人工智能训练提供了最大的性能和灵活性。
    发表于 03-20 14:12 2154次阅读
    什么是<b class='flag-5'>HBM3E</b><b class='flag-5'>内存</b>?Rambus <b class='flag-5'>HBM3E</b>/<b class='flag-5'>3</b><b class='flag-5'>内存</b>控制器内核

    SK海力士HBM3E内存正式量产,AI性能提升30倍,成本能耗降低96%

    同日,SK海力士宣布启动 HBM3E 内存的量产工作,并在本月下旬开始供货。自去年宣布研发仅过了七个月。据称,该公司成为全球首家量产出货HBM3E 的厂商,每秒钟能处理高达 1.18
    的头像 发表于 03-19 09:57 915次阅读

    美光量产行业领先的HBM3E解决方案,加速人工智能发展

    内存解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。美光通过这
    的头像 发表于 03-04 18:51 1140次阅读
    美光量产行业领先的<b class='flag-5'>HBM3E</b>解决方案,加速人工智能发展

    美光开始量产行业领先的 HBM3E 解决方案,加速人工智能发展

    HBM3E 高带宽内存 解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存
    的头像 发表于 03-04 14:51 812次阅读
    美光开始量产行业领先的 <b class='flag-5'>HBM3E</b> 解决方案,加速人工智能发展

    美光新款高频宽记忆体HBM3E将被用于英伟达H200

    美国记忆体制造巨头美光(Micron)于26日宣布,其最新的高频宽记忆体HBM3E已正式量产。此项技术将被用于今年第2季度的英伟达(NVIDIA)H200 Tensor Core GPU,标志着美
    的头像 发表于 02-28 14:17 448次阅读

    三星发布首款12层堆叠HBM3E DRAM

    近日,三星电子宣布,已成功发布其首款12层堆叠的高带宽内存HBM3E)产品——HBM3E 12H,再次巩固了其在半导体技术领域的领先地位。据了解,HBM3E 12H不仅是三星迄今为止
    的头像 发表于 02-27 14:28 969次阅读

    三星电子成功发布其首款12层堆叠HBM3E DRAM—HBM3E 12H

    2024年2月27日 - 三星电子今日宣布,公司成功发布其首款12层堆叠HBM3E DRAM——HBM3E 12H,这是三星目前为止容量最大的HBM产品。
    的头像 发表于 02-27 11:07 721次阅读

    AMD发布HBM3e AI加速器升级版,2025年推新款Instinct MI

    目前,只有英伟达的Hopper GH200芯片配备了HBM3e内存。与现有的HBM3相比,HBM3e的速度提升了50%,单个平台可以达到10TB
    的头像 发表于 02-25 11:22 535次阅读

    英伟达斥资预购HBM3内存,为H200及超级芯片储备产能

    据最新传闻,英伟达正在筹划发布两款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH200超级芯片,这也进步说
    的头像 发表于 01-02 09:27 688次阅读

    英伟达大量订购HBM3E内存,抢占市场先机

    英伟达(NVIDIA)近日宣布,已向SK海力士、美光等公司订购大量HBM3E内存,为其AI领域的下代产品做准备。也预示着内存市场将新
    的头像 发表于 12-29 16:32 986次阅读