0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

疯抢!HBM成为AI新瓶颈!

传感器技术 来源:半导体风向标 2023-07-12 14:34 次阅读

英伟达之后,全球科技巨头实际上正在通过向 SK 海力士索取第五代高带宽内存 (HBM) HBM3E 样品来进行预订。

半导体业内人士7月3日报道称,全球各大科技巨头已陆续向SK海力士索取HBM3E样品。该名单包括 AMD、微软和亚马逊

样品请求是下订单之前的强制性流程,旨在证明其 GPU、其他半导体芯片或云系统以及内存半导体之间的兼容性。这表明产品的良率足够稳定,可以进行量产,标志着交付前的最后阶段。HBM3E是当前顶级第四代HBM3的下一代产品。SK海力士是目前全球唯一一家量产HBM3芯片的公司

SK海力士正忙于处理来自客户的大量HBM3E样品请求。英伟达首先要求提供样品,这次的出货量几乎是千钧一发。这些索取样品的客户公司可能会在今年年底收到样品。全球领先的GPU公司Nvidia此前曾向SK海力士供应HBM3,并已索取HBM3E样品。各大科技公司都在热切地等待 SK 海力士的样品。

随着HBM3E需求的爆炸性增长,产量显着增加。SK 海力士决定使用最新的尖端 10 纳米级第五代 (1b) 技术大幅提高明年的产量。大部分增量将由 HBM3E 填充。这表明SK海力士正在以HBM为首要业务战略,全力克服半导体低迷。据悉,SK海力士约40%的营业利润来自HBM。

所有向 SK 海力士索取 HBM3E 样品的公司都是人工智能行业的主要参与者。AMD 与 Nvidia 一起引领 GPU 市场。GPU 对于处理大量数据至关重要,是 ChatGPT 等生成型人工智能的大脑。为此,诸如 HBM 之类的高性能、大容量存储器至关重要。瓜分GPU市场的Nvidia和AMD都已向SK海力士伸出了援手。

AMD最近发布了其下一代GPU MI300X,并表示将从SK海力士和三星电子获得HBM3供应。此次,似乎是向SK海力士索取了HBM3E样品,以确定第五代HBM的供应商。MI300X配备的HBM是Nvidia去年底推出的最新旗舰GPU H100的2.4倍。

亚马逊和微软是云服务领域的两大巨头。他们的市场份额加起来超过了50%。作为生存策略,云服务公司优先引入生成式AI技术,并大幅增加投资。亚马逊旗下运营的全球第一云服务提供商(CSP)亚马逊网络服务近期投资1亿美元建立人工智能创新中心。与此同时,微软的Azure云服务正在扩大与ChatGPT开发商OpenAI的合作关系。

市场研究公司TrendForce表示:“亚马逊网络服务和谷歌等主要云服务公司正在开发自己的专用集成电路ASIC)和配备Nvidia GPU的AI服务器,是当前HBM激增的推动力要求。”

DRAM 4月的指标性产品DDR4 8Gb为例,批发价为每个1.48美元左右,环比下跌1%;4Gb产品价格为每个1.1美元左右,环比下跌8%。

在DRAM的整体颓势之中,HBM(高带宽内存,High Bandwidth Memory)却在逆势增长。身为DRAM的一种,与大部队背道而驰,价格一路水涨船高。据媒体报道,2023年开年后三星、SK海力士两家存储大厂HBM订单快速增加,HBM3规格DRAM价格上涨5倍。HBM3原本价格大约30美元每GB,现在的价格怕是更加惊人。

一边是总体DRAM跌到成本价,一边是“尖子生”HBM价格涨5倍。

6 月 18 日据 businesskorea 以及 etnews 报道,SK 海力士将扩展其 HBM3 后道工艺生产线,并已收到英伟达要求其送测 HBM3E 样品的请求

据称,考虑到对人工智能 (AI) 半导体的需求增加,S 海力士正在考虑将 HBM 的产能翻倍的计划。

业内消息称 SK 海力士于 6 月 14 日收到了 NVIDIA 对 HBM3E 样品的请求,并正在准备发货。HBM3E 是当前可用的最高规格 DRAM HBM3 的下一代,被誉为是第五代半导体产品。

SK 海力士目前正致力于开发该产品,目标是在明年上半年实现量产。SK 海力士副总裁朴明秀在今年 4 月的第一季度收益公告电话会议上透露:“我们正在为今年下半年准备 8Gbps HBM3E 产品样品,并计划在明年上半年实现量产。”

半导体产业联盟查询发现,目前 SK 海力士在 HBM 市场已经领先于三星电子。据市场研究公司 TrendForce 称,截至去年,SK 海力士在全球 HBM 市场上占据 50% 的市场份额,而三星电子则保持在 40% 左右。

去年 6 月,SK 海力士成为世界上第一个大规模生产高性能 HBM3 的公司,从而一举奠定其市场领导地位。在通过 HBM3 样品的严格性能评估后,成功满足了高端客户的需求,目前已经在为 NVIDIA H100 供应。

如果他们成功交付第五代 HBM 产品,将进一步巩固他们在超快速 AI 半导体市场上的领先地位。

HBM的优势

直接地说,HBM将会让服务器的计算能力得到提升。由于短时间内处理大量数据,AI服务器对带宽提出了更高的要求。HBM的作用类似于数据的“中转站”,就是将使用的每一帧、每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸,能够让AI服务器在数据处理量和传输速率有大幅提升。

56911fa4-2067-11ee-962d-dac502259ad0.png

来源:rambus

可以看到HBM在带宽方面有着“碾压”级的优势。如果 HBM2E 在 1024 位宽接口上以 3.6Gbps 的速度运行,那么就可以得到每秒 3.7Tb 的带宽,这是 LPDDR5 或 DDR4 带宽的 18 倍以上。

除了带宽优势,HBM可以节省面积,进而在系统中安装更多GPU。HBM 内存由与 GPU 位于同一物理封装上的内存堆栈组成。

56ac8c94-2067-11ee-962d-dac502259ad0.png

这样的架构意味着与传统的 GDDR5/6 内存设计相比,可节省大量功耗和面积,从而允许系统中安装更多 GPU。随着 HPC、AI 和数据分析数据集的规模不断增长,计算问题变得越来越复杂,GPU 内存容量和带宽也越来越大是一种必需品。H100 SXM5 GPU 通过支持 80 GB(五个堆栈)快速 HBM3 内存,提供超过 3 TB/秒的内存带宽,是 A100 内存带宽的 2 倍。

过去对于HBM来说,价格是一个限制因素。但现在大模型市场上正处于百家争鸣时期,对于布局大模型的巨头们来说时间就是金钱,因此“贵有贵的道理”的HBM成为了大模型巨头的新宠。随着高端GPU需求的逐步提升,HBM开始成为AI服务器的标配。

目前英伟达的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。

AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。

预期Google将于2023年下半年积极扩大与Broadcom合作开发AISC AI加速芯片TPU也计划搭载HBM存储器,以扩建AI基础设施。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    452

    文章

    50179

    浏览量

    420662
  • DRAM
    +关注

    关注

    40

    文章

    2298

    浏览量

    183195
  • SK海力士
    +关注

    关注

    0

    文章

    942

    浏览量

    38393

原文标题:疯抢!HBM成为AI新瓶颈!

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    HBM4到来前夕,HBM热出现两极分化

    电子发烧友网报道(文/黄晶晶)高带宽存储器HBM由于生成式AI的到来而异军突起,成为AI训练不可或缺的存储产品。三大HBM厂商SK海力士、三
    的头像 发表于 09-23 12:00 2497次阅读

    HBM3E量产后,第六代HBM4要来了!

    有消息说提前到2025年。其他两家三星电子和美光科技的HBM4的量产时间在2026年。英伟达、AMD等处理器大厂都规划了HBM4与自家GPU结合的产品,HBM4将成为未来
    的头像 发表于 07-28 00:58 4743次阅读
    <b class='flag-5'>HBM</b>3E量产后,第六代<b class='flag-5'>HBM</b>4要来了!

    使用环球仪器FuzionSC半导体贴片机高速组装HBM内存

    随着当前AI应用,云机算成为各大科技巨头必争之地,带火了硬件行业,HBM因而水涨船高。
    的头像 发表于 09-14 11:48 415次阅读

    被称为“小号HBM”,华邦电子CUBE进阶边缘AI存储

    电子发烧友网报道(文/黄晶晶)与AI训练以GPU搭配HBM不同,边缘AI采用何种内存方式,DDR、GDDR、LPDDR等适用于不同的场景。日前,华邦电子产品总监朱迪接受包括电子发烧友网在内的媒体采访
    的头像 发表于 07-01 16:21 2844次阅读

    中国AI芯片和HBM市场的未来

     然而,全球HBM产能几乎被SK海力士、三星和美光垄断,其中SK海力士占据AI GPU市场80%份额,是Nvidia HBM3内存独家供应商,且已于今年3月启动HBM3E量产。
    的头像 发表于 05-28 09:40 780次阅读

    美光调整2024年资本支出预测,加强AI产业HBM投资力度

    美光,这家位于美国爱达荷州波伊西(Boise)的企业,是HBM芯片的三大供应商之一,也是AI服务器所需硬件的关键部件。他们生产的最新一代高频宽存储器3E(HBM3E)被AI芯片巨头英伟
    的头像 发表于 05-22 10:08 333次阅读

    HBM:突破AI算力内存瓶颈,技术迭代引领高性能存储新纪元

    HBM制造集成前道工艺与先进封装,TSV、EMC、键合工艺是关键。HBM制造的关键在于TSV DRAM,以及每层TSV DRAM之间的连接方式。
    发表于 03-14 09:58 1056次阅读
    <b class='flag-5'>HBM</b>:突破<b class='flag-5'>AI</b>算力内存<b class='flag-5'>瓶颈</b>,技术迭代引领高性能存储新纪元

    从两会看AI产业飞跃,HBM需求预示存储芯片新机遇

    高端AI服务器GPU搭载HBM芯片已成为主流趋势。这表明,HBM芯片的需求在未来一段时间内继续保持旺盛,也将为相关企业提供了重要的机遇。
    的头像 发表于 03-12 13:59 656次阅读
    从两会看<b class='flag-5'>AI</b>产业飞跃,<b class='flag-5'>HBM</b>需求预示存储芯片新机遇

    工业油污清洗的香饽饽:超声波清洗机遭市场

    在当前工业化的浪潮中,油污清洗成为了一个至关重要的环节。随着环保意识的提升和科技的发展,传统的清洗方式已经无法满足高效、环保的需求,而超声波清洗机则以其独特的优势,成为了工业油污清洗领域的香饽饽,受到了广大企业的
    的头像 发表于 03-03 17:32 1055次阅读
    工业油污清洗的香饽饽:超声波清洗机遭市场<b class='flag-5'>疯</b><b class='flag-5'>抢</b>!

    HBMHBM2、HBM3和HBM3e技术对比

    AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。
    发表于 03-01 11:02 1127次阅读
    <b class='flag-5'>HBM</b>、<b class='flag-5'>HBM</b>2、<b class='flag-5'>HBM</b>3和<b class='flag-5'>HBM</b>3e技术对比

    AI算力驱动:HBM成为行业新宠

    HBM(High Bandwidth Memory,高频宽存储器)是一种基于3D堆栈工艺的高性能DRAM,通俗来讲,就是先将很多DDR芯片堆叠在一起后,再与GPU封装在一块。
    发表于 01-17 10:34 649次阅读
    <b class='flag-5'>AI</b>算力驱动:<b class='flag-5'>HBM</b><b class='flag-5'>成为</b>行业新宠

    深度解析HBM内存技术

    HBM作为基于3D堆栈工艺的高性能DRAM,打破内存带宽及功耗瓶颈HBM(High Bandwidth Memory)即高带宽存储器,通过使用先进封装(如TSV硅通孔、微凸块)将多个DRAM芯片进行堆叠,并与GPU一同进行封装
    的头像 发表于 01-02 09:59 4766次阅读
    深度解析<b class='flag-5'>HBM</b>内存技术

    HBM单大战,才刚刚拉开帷幕

    市场非常吃香的 HBM 内存。   AI 芯片带来的 HBM 热潮   在 AI 芯片的设计中,除了需要先进工艺和先进封装在有限的面积下提供足够的算力和扩展性外,被提及最多的一个问题
    的头像 发表于 12-13 01:27 1556次阅读
    <b class='flag-5'>HBM</b><b class='flag-5'>抢</b>单大战,才刚刚拉开帷幕

    大模型时代必备存储之HBM进入汽车领域

    大模型时代AI芯片必备HBM内存已是业内共识,存储带宽也成为AI芯片仅次于算力的第二关健指标,甚至某些场合超越算力,是最关键的性能指标,而汽车行业也开始出现
    发表于 12-12 10:38 729次阅读
    大模型时代必备存储之<b class='flag-5'>HBM</b>进入汽车领域

    HBM4为何备受存储行业关注?

    当前,生成式人工智能已经成为推动DRAM市场增长的关键因素,与处理器一起处理数据的HBM的需求也必将增长。未来,随着AI技术不断演进,HBM成为
    发表于 12-02 16:30 420次阅读
    <b class='flag-5'>HBM</b>4为何备受存储行业关注?