3 月 19 日,英伟达推出名为 Blackwell GB200 的最新一代 AI 计算加速卡。该卡使用台积电 4NP 制程,搭载 192 HBM3E 内存及2080 亿个晶体管。相较于上代 H100,它的推理大语言模型性能得到提高 30 倍。成本及能耗亦下降近 96%。
同日,SK 海力士宣布启动 HBM3E 内存的量产工作,并在本月下旬开始供货。自去年宣布研发仅过了七个月。据称,该公司成为全球首家量产出货HBM3E 的厂商,每秒钟能处理高达 1.18TB 的数据。此项数据处理能力足以支持在一小时内处理多达约 33,800 部全高清电影。
在面对 AI 对内存速度要求提高的同时,SK 海力士的 HBM3E 着重体现了出色的散热性能。该款产品采用了先进的 MR-MUF 技术,散热性能比上代产品显著提升 10%,整体表现处于世界最高水平。
据悉,MR-MUF 是一种将半导体芯片堆叠后,注入液态保护性材料并进行固化的技艺,对比传统的每堆叠一个芯片铺设薄膜材料的工艺方法具有更好的效率,且更为高效地解决散热问题。
SK 海力士的 HBM 业务负责人柳成洙表示,该项目的商业化生产将进一步增强公司在AI领域存储器产品的领导地位。他强调,公司将以 HBM 业务的成功经验作为基石,深化与客户的联系,稳固其在“全方位人工智能存储器供应商”的地位。
除 SK 海力士外,三星电子和美光也在向 NVIDIA 提供 HBM3E 样品,但尚需通过最后的质量认证测试以保证产品符合出货标准。然而,SK 海力士已提前预设时间至少两个月开始量产。
目前,NVIDIA 在AI GPU 市场占据超过 90%的份额;在存储领域,SK 海力士已经主导全球一半以上的 HBM 市场份额,且彻底垄断了 128GB DDR5 这一大型 DRAM 产品市场。
-
存储器
+关注
关注
38文章
7447浏览量
163579 -
SK海力士
+关注
关注
0文章
948浏览量
38419 -
HBM3
+关注
关注
0文章
74浏览量
143 -
HBM3E
+关注
关注
0文章
78浏览量
227
发布评论请先 登录
相关推荐
评论