0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI训练不可或缺的存储,HBM3 DRAM再升级

花茶晶晶 来源:电子发烧友网 作者:黄晶晶 2023-04-23 00:01 次阅读

电子发烧友网报道(文/黄晶晶) SK海力士近日发布全球首次实现垂直堆叠12个单品DRAM芯片,成功开发出最高容量24GB的HBM3 DRAM新产品。


图源:SK海力士


目前已向数多全球客户公司提供了24GB HBM3 DRAM样品正在进行性能验证,预计从今年下半年起将其推向市场。而现有HBM3 DRAM的最大容量是垂直堆叠8个单品DRAM芯片的16GB。无论是堆叠数量还是容量上,此次发布的新品都有显著提升。

HBM(高带宽存储器)是高价值、高性能存储器,垂直互连多个DRAM芯片。目前SK海力士在HBM市场处于领先地位,约有60%-70%的份额。


图源:SK海力士


SK海力士于2013年首次开发HBM DRAM(第一代)产品,随后以HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)的顺序开发。早在去年6月,SK海力士宣布其HBM3将与NVIDIA H100Tensor CoreGPU结合用于加速计算,SK hynix于2022年第三季度开始发货。今年年初随着ChatGPT的火爆,HBM订单激增。那么SK海力士有哪些技术来提升HBM的性能呢,以下结合SK海力士多位技术专家的分享进行一些解读。

训练计算需匹配高性能存储

训练GPT-3、Megatron-Turing NLG 530B等超大语言模型所要求的算力提升速度呈数倍到数百倍的增长。尤其是ChatGPT的训练,ChatGPT人工智能语言模型的背后就是Transformer架构。这个架构突破了传统的循环神经网络(RNN)和长短时记忆网络(LSTM)的局限性,能够在大规模数据集上进行高效训练。为了实现高效训练计算,就需要有与之匹配的高性能存储。


图源:SK海力士


SK海力士于2021年10月推出全球首款HBM3,并在2022年6月实现量产。据介绍,该款HBM3每个引脚传输速率达6.4Gbps,1024位宽接口,最高带宽可达819GB/s,较HBM2E(460GB/s)高约78%。16Gb内核密度、尖端的TSV垂直堆叠技术,满足了系统对更高密度的要求,该技术可实现12层堆叠内存立方体,从而实现最大24GB封装密度。HBM3配备On-die ECC(纠错码)可靠性功能,可自我检测和纠正数据错误,从而在SoC和DRAM之间实时传输海量数据。


图源:SK海力士

先进的封装技术

此次新产品采用了先进(Advanced)MR-MUF和TSV技术。SK海力士表示,通过先进MR-MUF技术加强了工艺效率和产品性能的稳定性,又利用TSV技术将12个比现有芯片薄40%的单品DRAM芯片垂直堆叠,实现了与16GB产品相同的高度。这两项技术也是SK海力士先进封装技术的重要组成。

首先来看先进MR-MUF技术。根据SK海力士的官方资料,MR-MUF(Mass Reflow Molded Underfill, 批量回流模制底部填充)将半导体芯片贴附在电路上,并在堆叠芯片时使用“EMC (Epoxy Molding Compound, 液态环氧树脂模塑料”填充芯片之间或芯片与凸块之间间隙的工艺。这种新的工艺主要是比之前的NCF技术工艺有了很大提升。此前的NCF技术是在芯片之间使用薄膜进行堆叠。与NCF相比,MR-MUF导热率高出两倍左右,工艺速度和良率都有提升。

图源:SK海力士

另一个是TSV(Through Silicon Via, 硅通孔技术)。TSV技术是在DRAM芯片打上数千个细微的孔,并通过垂直贯通的电极连接上下芯片的先进封装技术。这种技术已经成为一种提升DRAM性能和密度的重要手段,可以应用于3D-TSV DRAM和HBM。

图源:SK海力士

HBM主要用于弥补SoC高带宽需求与主存储器最大带宽供应能力之间的带宽缺口。SK海力士专家表示,特别是在AI应用中,每个SoC的带宽需求可能都会超过几TB/s,这是常规主存储器无法满足的。例如具有3200Mbps DDR4 DIMM的单个主存储器通道只能提供25.6GB/s的带宽。即使是具有8个存储器通道的CPU平台,其速度也只能达到204.8GB/s。而围绕单个SoC的4个HBM2堆叠可提供大于1TB/s的带宽。根据不同的应用程序,HBM既可以单独用作缓存,也可以用作两层存储中的第一层。

图源:SK海力士

实际上除了GPU搭载了HBM之外,CPU也实现了封装HBM。去年底,英特尔就正式推出了全球首款配备 HBM 内存的 x86 CPU——Intel Xeon Max 系列。根据下图介绍,它具有64 GB的HBM2e 内存,分为4个16 GB的集群,总内存带宽为1 TB / s,每个内核的HBM都超过1 GB。


图源:Intel

当前HBM的技术方向主要是在速度、密度、功耗、占板空间等方面的提升。SK海力士通过提高引脚数据速率、I/O总线位宽等方式提升速率;通过扩展Die堆叠层数和物理堆叠高度,以及增加核心Die密度以优化堆叠密度。通过评估内存结构和操作方案,最大限度地降低每带宽扩展的绝对功耗;为了实现总内存Die尺寸最小化,则是通过在不扩大现有物理尺寸的情况下增加存储单元数量和功能。

小结

显然,人工智能、数据中心的应用还将拉动HBM的需求,但从成本来看,HBM的平均售价至少是DRAM的三倍,前不久受ChatGPT的拉动,HBM的价格更是水涨船高,消息人士称,与性能最高的DRAM相比HBM3的价格上涨了五倍。不过,这一市场前景也正是DRAM存储厂商投入技术和产品的动力。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 块存储
    +关注

    关注

    0

    文章

    6

    浏览量

    2308
  • HBM3
    +关注

    关注

    0

    文章

    74

    浏览量

    143
收藏 人收藏

    评论

    相关推荐

    HBM4到来前夕,HBM热出现两极分化

    电子发烧友网报道(文/黄晶晶)高带宽存储HBM由于生成式AI的到来而异军突起,成为AI训练不可或缺
    的头像 发表于 09-23 12:00 2527次阅读

    HBM格局生变!传三星HBM3量产供货英伟达,国内厂商积极布局

    电子发烧友网报道(文/吴子鹏)根据韩媒sedaily 的最新报道,三星华城17号产线已开始量产并向英伟达供应HBM3内存。同时,美光已经为英伟达供应HBM3E。至此,高端HBM内存的供应由SK海力士
    的头像 发表于 07-23 00:04 3634次阅读

    AI时代核心存力HBM(上)

      一、HBM 是什么? 1、HBMAI 时代的必需品作为行业主流存储产品的动态随机存取存储D
    的头像 发表于 11-16 10:30 292次阅读
    <b class='flag-5'>AI</b>时代核心存力<b class='flag-5'>HBM</b>(上)

    为什么ai模型训练要用gpu

    GPU凭借其强大的并行处理能力和高效的内存系统,已成为AI模型训练不可或缺的重要工具。
    的头像 发表于 10-24 09:39 190次阅读

    DRAM存储器的基本单元

    DRAM(Dynamic Random Access Memory),即动态随机存取存储器,是现代计算机系统中不可或缺的内存组件。其基本单元的设计简洁而高效,主要由一个晶体管(MOSFET)和一个电容组成,这一组合使得
    的头像 发表于 09-10 14:42 667次阅读

    3D DRAM内嵌AI芯片,AI计算性能暴增

    电子发烧友网报道(文/黄晶晶)尽管当前AI训练主要采用GPU+HBM的方案,不过一些新的技术仍然希望进一步打破存储数据传输带来的瓶颈问题。最近,NEO半导体宣布开发其
    的头像 发表于 08-16 00:08 3109次阅读
    <b class='flag-5'>3</b>D <b class='flag-5'>DRAM</b>内嵌<b class='flag-5'>AI</b>芯片,<b class='flag-5'>AI</b>计算性能暴增

    中国AI芯片和HBM市场的未来

     然而,全球HBM产能几乎被SK海力士、三星和美光垄断,其中SK海力士占据AI GPU市场80%份额,是Nvidia HBM3内存独家供应商,且已于今年3月启动
    的头像 发表于 05-28 09:40 828次阅读

    SK海力士成功量产超高性能AI存储HBM3E

    HBM3E的推出,标志着SK海力士在高性能存储器领域取得了重大突破,将现有DRAM技术推向了新的高度。
    的头像 发表于 03-20 15:23 1014次阅读

    SK海力士HBM3E正式量产,巩固AI存储领域的领先地位

    SK海力士作为HBM3E的首发玩家,预计这款最新产品的大批量投产及其作为业内首家供应HBM3制造商所累积的经验,将进一步强化公司在AI存储器市场的领导者地位。
    的头像 发表于 03-19 15:18 957次阅读

    HBMHBM2、HBM3HBM3e技术对比

    AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。
    发表于 03-01 11:02 1181次阅读
    <b class='flag-5'>HBM</b>、<b class='flag-5'>HBM</b>2、<b class='flag-5'>HBM3</b>和<b class='flag-5'>HBM3</b>e技术对比

    AMD发布HBM3e AI加速器升级版,2025年推新款Instinct MI

    目前,只有英伟达的Hopper GH200芯片配备了HBM3e内存。与现有的HBM3相比,HBM3e的速度提升了50%,单个平台可以达到10TB/s的带宽,单颗芯片能够实现5TB/s的传输速率,内存容量高达141GB。
    的头像 发表于 02-25 11:22 569次阅读

    SK海力士第四季转亏为盈 HBM3营收增长5倍

    韩国存储芯片巨头SK海力士在2023年12月31日公布的第四季度财报中,展现出强大的增长势头。数据显示,公司的主力产品DDR5 DRAMHBM3的营收较2022年分别增长了4倍和5倍以上,成为推动公司营收增长的主要力量。
    的头像 发表于 01-26 16:32 1163次阅读

    AI大模型不断拉高上限,内存控制器IP提早部署,力拱HBM3E的到来

    数据量、复杂度在增加,HBM内存被彻底带火。这种高带宽高速的内存十分适合于AI训练场景。最近,内存芯片厂商已经不约而同地切入HBM3E竞争当中。内存控制器IP厂商Rambus也率先发布
    的头像 发表于 12-13 15:33 1406次阅读
    <b class='flag-5'>AI</b>大模型不断拉高上限,内存控制器IP提早部署,力拱<b class='flag-5'>HBM3</b>E的到来

    Rambus通过9.6 Gbps HBM3内存控制器IP大幅提升AI性能

    Gbps 的性能,可支持 HBM3 标准的持续演进。相比 HBM3 Gen1 6.4 Gbps 的数据速率,Rambus HBM3 内存控制器的数据速率提高了 50%,总内存吞吐量超过 1.2 TB/s,适用于推荐系统的
    的头像 发表于 12-07 14:16 716次阅读

    Rambus通过9.6 Gbps HBM3内存控制器IP大幅提升AI性能

    为增强AI/ML及其他高级数据中心工作负载打造的 Rambus 高性能内存 IP产品组合 高达9.6 Gbps的数据速率,支持HBM3内存标准的未来演进 实现业界领先的1.2 TB/s以上内存吞吐量
    发表于 12-07 11:01 243次阅读
     Rambus通过9.6 Gbps <b class='flag-5'>HBM3</b>内存控制器IP大幅提升<b class='flag-5'>AI</b>性能