0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型市场,不止带火HBM

半导体产业纵横 来源:半导体产业纵横 2023-07-11 18:25 次阅读

近日,HBM成为芯片行业的火热话题。据TrendForce预测,2023年高带宽内存(HBM)比特量预计将达到2.9亿GB,同比增长约60%,2024年预计将进一步增长30%。2008年被AMD提出的HBM内存概念,在2013年被SK海力士通过TSV技术得以实现,问世10年后HBM似乎真的来到了大规模商业化的时代。

HBM的概念的起飞与AIGC的火爆有直接关系。AI服务器对带宽提出了更高的要求,与 DDR SDRAM 相比,HBM 具有更高的带宽和更低的能耗。超高的带宽让HBM成为了高性能GPU的核心组件,HBM基本是AI服务器的标配。目前,HBM成本在AI服务器成本中占比排名第三,约占9%,单机平均售价高达18,000美元。

自从去年ChatGPT出现以来,大模型市场就开始了高速增长,国内市场方面,百度、阿里、科大讯飞、商汤、华为等科技巨头接连宣布将训练自己的AI大模型。TrendForce预测,2025年将有5个相当于ChatGPT的大型AIGC、25个Midjourney的中型AIGC产品、80个小型AIGC产品,即使是全球所需的最小计算能力资源也可能需要 145,600 至 233,700 个英伟达A100 GPU。这些都是HBM的潜在增长空间。

2023年开年以来,三星、SK海力士HBM订单就快速增加,HBM的价格也水涨船高,近期HBM3规格DRAM价格上涨了5倍。三星已收到AMD与英伟达的订单,以增加HBM供应。SK海力士已着手扩建HBM产线,目标将HBM产能翻倍。韩媒报道,三星计划投资约7.6亿美元扩产HBM,目标明年底之前将HBM产能提高一倍,公司已下达主要设备订单。

01 HBM在AIGC中的优势

直接地说,HBM将会让服务器的计算能力得到提升。由于短时间内处理大量数据,AI服务器对带宽提出了更高的要求。HBM的作用类似于数据的“中转站”,就是将使用的每一帧、每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。与传统内存技术相比,HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸,能够让AI服务器在数据处理量和传输速率有大幅提升。

f248ff98-1fd1-11ee-962d-dac502259ad0.png

来源:rambus

可以看到HBM在带宽方面有着“碾压”级的优势。如果 HBM2E 在 1024 位宽接口上以 3.6Gbps 的速度运行,那么就可以得到每秒 3.7Tb 的带宽,这是 LPDDR5 或 DDR4 带宽的 18 倍以上。

除了带宽优势,HBM可以节省面积,进而在系统中安装更多GPU。HBM 内存由与 GPU 位于同一物理封装上的内存堆栈组成。

这样的架构意味着与传统的 GDDR5/6 内存设计相比,可节省大量功耗和面积,从而允许系统中安装更多 GPU。随着 HPC、AI 和数据分析数据集的规模不断增长,计算问题变得越来越复杂,GPU 内存容量和带宽也越来越大是一种必需品。H100 SXM5 GPU 通过支持 80 GB(五个堆栈)快速 HBM3 内存,提供超过 3 TB/秒的内存带宽,是 A100 内存带宽的 2 倍。

过去对于HBM来说,价格是一个限制因素。但现在大模型市场上正处于百家争鸣时期,对于布局大模型的巨头们来说时间就是金钱,因此“贵有贵的道理”的HBM成为了大模型巨头的新宠。随着高端GPU需求的逐步提升,HBM开始成为AI服务器的标配。

目前英伟达的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。

AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。

预期Google将于2023年下半年积极扩大与Broadcom合作开发AISC AI加速芯片TPU也计划搭载HBM存储器,以扩建AI基础设施。

02 存储厂商加速布局

这样的“钱景”让存储巨头们加速对HBM内存的布局。目前,全球前三大存储芯片制造商正将更多产能转移至生产HBM,但由于调整产能需要时间,很难迅速增加HBM产量,预计未来两年HBM供应仍将紧张。

HBM的市场主要还是被三大DRAM巨头把握。不过不同于DRAM市场被三星领先,SK海力士在HBM市场上发展的更好。如开头所说,SK海力士开发了第一个HBM产品。2023年4月,SK 海力士宣布开发出首个24GB HBM3 DRAM产品,该产品用TSV技术将12个比现有芯片薄40%的单品DRAM芯片垂直堆叠,实现了与16GB产品相同的高度。同时,SK海力士计划在2023年下半年准备具备8Gbps数据传输性能的HBM3E样品,并将于2024年投入量产。

国内半导体公司对HBM的布局大多围绕着封装及接口领域。

国芯科技目前正在研究规划合封多HBM内存的2.5D的芯片封装技术,积极推进Chiplet技术的研发和应用。

通富微电公司2.5D/3D生产线建成后,将实现国内在HBM高性能封装技术领域的突破。

佰维存储已推出高性能内存芯片和内存模组,将保持对HBM技术的持续关注。

澜起科技PCIe 5.0/CXL 2.0 Retimer芯片实现量产,该芯片是澜起科技PCIe 4.0 Retimer产品的关键升级,可为业界提供稳定可靠的高带宽、低延迟PCIe5.0/ CXL 2.0互连解决方案。

HBM虽好但仍需冷静,HBM现在依旧处于相对早期的阶段,其未来还有很长的一段路要走。而可预见的是,随着越来越多的厂商在AI和机器学习等领域不断发力,内存产品设计的复杂性正在快速上升,并对带宽提出了更高的要求,不断上升的宽带需求将持续驱动HBM发展。

HBM火热反映了AIGC的带动能力。那么除了HBM和GPU,是否还有别的产品在这波新风潮中能够顺势发展?

03 谈谈其他被带火的芯片

FPGA的优势开始显现

FPGA(Field Programmable Gate Array,现场可编程门阵列)是一种集成电路,具有可编程的逻辑元件、存储器和互连资源。不同于ASIC(专用集成电路),FPGA具备灵活性、可定制性、并行处理能力、易于升级等优势。

通过编程,用户可以随时改变FPGA的应用场景,FPGA可以模拟CPU、GPU等硬件的各种并行运算。因此,在业内也被称为“万能芯片”。

FPGA对底层模型频繁变化的人工智能推理需求很有意义。FPGA 的可编程性超过了 FPGA 使用的典型经济性。需要明确的是,FPGA 不会成为使用数千个 GPU 的大规模人工智能系统的有力竞争对手,但随着人工智能进一步渗透到电子领域,FPGA 的应用范围将会扩大。

FPGA相比GPU的优势在于更低的功耗和时延。GPU无法很好地利用片上内存,需要频繁读取片外的DRAM,因此功耗非常高。FPGA可以灵活运用片上存储,因此功耗远低于GPU。

6月27日,AMD宣布推出AMD Versal Premium VP1902自适应片上系统(SoC),是基于FPGA的自适应SoC。这是一款仿真级、基于小芯片的设备,能够简化日益复杂的半导体设计的验证。据悉,AMD VP1902将成为全球最大的FPGA,对比上一代产品(Xilinx VU19P),新的VP1902增加了Versal功能,并采用了小芯片设计,使FPGA的关键性能增加了一倍以上。

东兴证券研报认为,FPGA凭借其架构带来的时延和功耗优势,在AI推理中具有非常大的优势。浙商证券此前研报亦指出,除了GPU以外,CPU+FPGA的方案也能够满足AI庞大的算力需求。

不同于HBM被海外公司垄断,国内公司FPGA芯片已经有所积累。

安路科技主营业务为FPGA芯片和专用EDA软件的研发、设计和销售,产品已广泛应用于工业控制网络通信消费电子等领域。紫光国微子公司紫光同创是专业的FPGA公司,设计和销售通用FPGA芯片。紫光国微曾在业绩说明会上表示,公司的FPGA芯片可以用于AI领域。东土科技主要开展FPGA芯片的产业化工作,公司参股公司中科亿海微团队自主开发了支撑其FPGA产品应用开发的EDA软件。

国产替代新思路:存算一体+Chiplet

能否利用我们现在可用的工艺和技术来开发在性能上可以跟英伟达对标的 AI 芯片呢?一些“新思路”出现了,例如存算一体+Chiplet。

存算分离会导致算力瓶颈。AI技术的快速发展,使得算力需求呈爆炸式增长。在后摩尔时代,存储带宽制约了计算系统的有效带宽,系统算力增长步履维艰。例如,8块1080TI 从头训练BERT模型需99天。存算一体架构没有深度多层级存储的概念,所有的计算都放在存储器内实现,从而消除了因为存算异构带来的存储墙及相应的额外开销;存储墙的消除可大量减少数据搬运,不但提升了数据传输和处理速度,而且能效比得以数倍提升。

一方面,存算一体架构与传统架构处理器处理同等算力所需的功耗会降低;另一方面,存算一体的数据状态都是编译器可以感知的,因此编译效率很高,可以绕开传统架构的编译墙。

美国亚利桑那州立大学的学者于 2021 年发布了一种基于 Chiplet 的 IMC 架构基准测试仿真器 SIAM, 用于评估这种新型架构在 AI 大模型训练上的潜力。SIAM 集成了器件、电路、架构、片上网络 (NoC)、封装网络 (NoP) 和 DRAM 访问模型,以实现一种端到端的高性能计算系统。SIAM 在支持深度神经网络 (DNN) 方面具有可扩展性,可针对各种网络结构和配置进行定制。其研究团队通过使用 CIFAR-10、CIFAR-100 和 ImageNet 数据集对不同的先进 DNN 进行基准测试来展示 SIAM 的灵活性、可扩展性和仿真速度。据称,相对于英伟达 V100 和 T4 GPU, 通过 SIAM 获得的chiplet +IMC 架构显示 ResNet-50 在ImageNet 数据集上的能效分别提高了 130 和 72。

这意味着,存算一体 AI 芯片有希望借助Chiplet技术和 2.5D / 3D 堆叠封装技术实现异构集成,从而形成大型计算系统。存算一体 + Chiplet 组合似乎是一种可行的实现方式,据称亿铸科技正在这条路上探索,其第一代存算一体 AI 大算力商用芯片可实现单卡算力 500T 以上,功耗在 75W 以内。也许这将开启 AI 算力第二增长曲线的序幕。

04 结语

世界人工智能大会上,AMD CEO苏姿丰表示,未来十年一定会出现一个大型计算超级周期,因此,目前正是一个成为技术供应商的好时机,同时也是与一些将会利用这些技术开发不同应用的客户合作的好时机。

没有人想要一个只有一个主导者的行业。大模型市场能否让芯片行业拥有新的市场格局,能否让新玩家出现?

“大模型市场对芯片行业带来了新的市场格局和机会。通过推动AI芯片的发展、促进云计算和数据中心市场的增长以及引发竞争格局变化,大模型的兴起为芯片行业带来了新的发展方向。

需要注意的是,芯片行业是一个高度竞争和技术密集的行业。进入该行业需要庞大的资金和技术资源,以满足复杂的制造和研发要求。尽管大模型市场为新玩家提供了机会,但他们需要克服技术、资金和市场等方面的挑战,才能在竞争激烈的芯片行业中获得成功。”Chatgpt如是回应。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 存储器
    +关注

    关注

    38

    文章

    7528

    浏览量

    164252
  • DDR4
    +关注

    关注

    12

    文章

    322

    浏览量

    40923
  • SDRAM控制器
    +关注

    关注

    0

    文章

    28

    浏览量

    8182
  • HBM
    HBM
    +关注

    关注

    0

    文章

    386

    浏览量

    14824

原文标题:大模型市场,不止带火HBM

文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    HBM4到来前夕,HBM热出现两极分化

    ,这样的热潮能持续多久,目前业界出现了不同的声音。   机构预警产能过剩   最近,外资摩根士丹利最新报告表示,预计随着市场分散化以及AI领域投资达到高峰,明年HBM市场可能供过于求。原因是目前每家内存厂都在根据
    的头像 发表于 09-23 12:00 2652次阅读

    AI兴起推动HBM需求激增,DRAM市场面临重塑

    HBM的出货量将实现同比70%的显著增长。这一增长主要归因于数据中心和AI处理器对HBM的依赖程度日益加深。为了处理低延迟的大量数据,这些高性能计算平台越来越倾向于采用HBM作为首选存储器。
    的头像 发表于 12-26 15:07 258次阅读

    芯片静电测试之HBM与CDM详解

    在芯片制造与使用的领域中,静电是一个不容小觑的威胁。芯片对于静电极为敏感,而HBM(人体模型)测试和CDM(充放电模型)测试是评估芯片静电敏感度的重要手段。
    的头像 发表于 12-16 18:07 1498次阅读
    芯片静电测试之<b class='flag-5'>HBM</b>与CDM详解

    HBM明年售价预计上涨18%,营收年增156%

    市场调研机构集邦科技对HBM(高带宽存储器)的长期发展持乐观态度。据其预测,明年HBM3e将占据整体HBM市场的近九成份额,这将推动
    的头像 发表于 10-22 17:23 453次阅读

    预计第四季度DRAM市场HBM价格上涨

    市场研究公司TrendForce预测,2024年第四季度DRAM市场将呈现出一丝暖意,但仅限于高带宽存储器(HBM)领域。预计HBM价格将实现环比上涨,而通用DRAM的价格则将停滞不
    的头像 发表于 10-14 16:34 437次阅读

    2025年英伟达HBM市场采购比重将超70%

    据TrendForce集邦咨询最新发布的HBM市场报告,随着AI芯片技术的不断迭代升级,单一芯片所能搭载的HBM(高带宽内存)容量正显著增长。作为当前HBM
    的头像 发表于 08-09 17:45 782次阅读

    运算放大器:4 kV HBM ESD TOLERANCE是什么意思

    放电的模型。4 kV HBM ESD容差意味着该器件在模拟人体模型静电放电测试中能够承受最高4千伏的静电放电,而不会损坏或失效。 具体解释 HBM(Human Body Model):
    的头像 发表于 07-10 11:30 1.1w次阅读
    运算放大器:4 kV <b class='flag-5'>HBM</b> ESD TOLERANCE是什么意思

    美光志在HBM市场:计划未来两年大幅提升市占率

    在全球高带宽内存(HBM市场竞争日益激烈的背景下,美光(Micron)近日宣布了其雄心勃勃的市场拓展计划。该公司预计,在2024会计年度,将抢下HBM
    的头像 发表于 06-07 09:58 655次阅读

    中国AI芯片和HBM市场的未来

     然而,全球HBM产能几乎被SK海力士、三星和美光垄断,其中SK海力士占据AI GPU市场80%份额,是Nvidia HBM3内存独家供应商,且已于今年3月启动HBM3E量产。
    的头像 发表于 05-28 09:40 1006次阅读

    三星电子组建HBM4独立团队,力争夺回HBM市场领导地位

    具体而言,现有的DRAM设计团队将负责HBM3E内存的进一步研发,而三月份新成立的HBM产能质量提升团队则专注于开发下一代HBM内存——HBM4。
    的头像 发表于 05-10 14:44 617次阅读

    HBM内存市场旺盛,2025年产能与市场份额将攀升

    该报告显示,2023 年 HBM市场中的占比仅为 2%,但预计今年将增至 5%,明年则有望突破 10%;而在市场份额上,从去年的 8%上升至今年的 21%,且到明年有望进一步激增至超过三分之一。
    的头像 发表于 05-06 14:31 693次阅读

    高盛谈HBM四年十倍市场 人工智能驱动HBM市场腾飞

    市场竞争方面,高盛认为,由于HBM市场供不应求的情况将持续存在,业内主要玩家如SK海力士、三星和美光等将从中受益。
    的头像 发表于 03-29 15:21 1859次阅读

    高盛谈HBM四年十倍市场 受益于AI服务器持续增长

    230亿美元;算下来这4年的复合年增长率高达77%。SK海力士、三星和美光这些存储巨头将受益;其中SK海力士有望抢占到超50%的市场份额。 而且现在SK海力士是英伟达AI GPU—H100 HBM存储系统的供应商,搭乘英伟达快车的SK海力士是一大赢家。SK海力士预计在24
    的头像 发表于 03-28 14:41 1139次阅读

    HBMHBM2、HBM3和HBM3e技术对比

    AI服务器出货量增长催化HBM需求爆发,且伴随服务器平均HBM容量增加,经测算,预期25年市场规模约150亿美元,增速超过50%。
    发表于 03-01 11:02 1830次阅读
    <b class='flag-5'>HBM</b>、<b class='flag-5'>HBM</b>2、<b class='flag-5'>HBM</b>3和<b class='flag-5'>HBM</b>3e技术对比

    美光抢滩市场HBM3E量产掀起技术浪潮

    除了GPU,另一个受益匪浅的市场就是HBM了。HBM是一种高性能的内存技术,能够提供比传统DRAM更高的带宽和更低的延迟,这使得其在需要大量数据传输和处理的人工智能应用中具有显著优势。
    发表于 02-29 09:43 439次阅读