0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

HBM3首发GPU,又要进军自动驾驶

E4Life 来源:电子发烧友网 作者:周凯扬 2022-03-29 07:35 次阅读

人工智能的蓬勃发展促使产业对AI基础设施提出了更高的性能要求,先进计算处理单元,尤其是ASICGPU,为了在机器学习、HPC提供稳定的算力表现,传统的内存系统已经不太能满足日益增加的带宽了。与此同时,在我们报道的不少AI芯片、HPC系统中,HBM或类似的高带宽内存越来越普遍,为数据密集型应用提供了支持。

提及HBM,不少人都会想到成本高、良率低等缺陷,然而这并没有影响业内对HBM的青睐,诸如AMD的RadeonPro5600M、英伟达的A100等消费级/企业级GPU,或是思科的路由ASIC芯片SiliconOneQ100、英特尔与AMD-Xilinx的FPGA,都用到了HBM内存。就在今年1月底,JEDEC终于正式发布了HBM的第四代HBM3的标准。

HBM3性能未来可期

HBM2/2E与HBM3的架构对比 / SK海力士


HBM3带来的性能提升大家应该都比较清楚了,传输速率是HBM2的两倍,达到了6.4Gb/s,使得每个堆栈最高可达819GB/s的带宽。可用的独立通道也从HBM2的8个扩充至16个,加上每个通道两个伪通道的设计,HBM3可以说支持到32通道了,提供更优秀的时序来提升系统性能。

HBM3 8Hi和12Hi的机械结构对比/ SK海力士


HBM3的TSV堆叠层数支持4-high、8-high和12-high,这倒是和HBM2e没有什么差别。从SK海力士提供的机械结构图来看,无论是8Hi还是12Hi,其封装大小和高度都是一样的,只不过是减小了中间堆叠的裸片高度。这仅仅是第一代HBM3,未来HBM3会扩展至16-high的TSV堆栈,单设备的内存密度范围也将达到4GB至64GB,不过第一代HBM3设备的话,目前用到的依然是16GB的内存层。

此外,在散热上,通过增加dummybump、增加HBM3裸片大小并降低间隙高度,HBM3成功将温度降低了25%,实现了更好的散热性能。在7位ADC的支持下,HBM3的温度传感器也能以1℃的分辨率输出0到127℃的温度信息。

首个用上HBM3的平台

以在GTC22上亮相的H100 GPU为例,这是全球首个支持PCIe5.0并利用HBM3的GPU,其内存容量达到了80GB。这个容量与上一代A100一致,但带宽却有了质的飞跃,与采用HBM2的A100相比,H100的内存带宽提升了两倍,达到了3TB/s。

英伟达各个系列GPU加速卡的内存带宽 / 英伟达


你可能会感到疑惑,既然HBM3可以提供每个堆栈16GB以上的内存,从H100的芯片图上看来有6个HBM3,为何只有80GB呢?是不是英伟达为了成本有所阉割?

H100 GPU / 英伟达


其实原因很简单,6个HBM3的其中一个为DummyDie,所以真正可用的HBM3内存只有5x16也就是80GB,所以英伟达在H100的白皮书也明确提到了这80GB是由5Stacks的HBM3内存组成。如此做的原因很可能是出于良率的考量,毕竟我们已经提到了HBM良率低的包袱,而且上一代80GB HBM2e的A100也是如此设计的。

HBM找到了新的市场

根据SK海力士给出的市场预期,HBM市场正在以40%的年复合增长率席卷HPC、AI和CPU等应用,如今这其中还多出来一个特殊的应用,那就是ADAS和自动驾驶。如今的自动驾驶芯片上几乎看不到HBM的存在,即便是英伟达的JetsonAGX Orin,用的也只是256位的LPDDR5内存,带宽最高只有204.8GB/s。

HBM3内存 / SK海力士


这种情况再正常不过了,谁叫如今的ADAS或自动驾驶方案还用不到HBM的大带宽。花钱去设计HBM,还不如在芯片的计算性能上多下功夫。然而到了L4或L5的自动驾驶中,又是另外一幅光景了。低延迟和准确的数据处理对于激光雷达、摄像头等传感器来说,可谓至关重要,这两大自动驾驶等级下的带宽至少也要1TB/s。

据研究机构的预测,到了2030年,L4以上的自动驾驶系统将占据20%的市场,到了2035年,这一比例将上升至45%。为了不在突破L3时遇到带宽的瓶颈,引入HBM可以说是越早越好,甚至从L3就可以开始考虑了,毕竟现在不少自动驾驶芯片已经标榜着L3乃至L4以上的能力。

比如L3级别的自动驾驶,带宽要求在600GB/s到1TB/s之间,单车可以使用两个HBM2e或者一个HBM3;而L4到L5级别的自动驾驶,带宽要求在1TB/s到1.5TB之间,单车可用3个HBM2e或两个HBM3。

结语

虽然HBM3标准已经发布,芯片设计公司(英伟达、AMD、英特尔)、IP公司(新思、CadenceRambus)、晶圆代工厂的封装技术(台积电Cowos-S、三星H-Cube、英特尔EMIB)以及存储厂商(三星、SK海力士)都开始了相关的部署,但HBM3的普及仍然需要时间。

预计2023年到2024年,我们可以见到第一代HBM3内存在HPC上的普及,2025年到2026年第二代才会开始放量,届时我们也能看到下一代HBM4的性能前瞻。至于HBM上自动驾驶芯片倒是不必急求,汽车产品的上市周期一向很长,从HBM3的推进速度来看,估计L4和L5才能充分利用HBM3乃至HBM4的全部优势。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4740

    浏览量

    128948
  • AI
    AI
    +关注

    关注

    87

    文章

    30895

    浏览量

    269086
  • HBM
    HBM
    +关注

    关注

    0

    文章

    380

    浏览量

    14758
  • HBM3
    +关注

    关注

    0

    文章

    74

    浏览量

    154
收藏 人收藏

    评论

    相关推荐

    HBM格局生变!传三星HBM3量产供货英伟达,国内厂商积极布局

    电子发烧友网报道(文/吴子鹏)根据韩媒sedaily 的最新报道,三星华城17号产线已开始量产并向英伟达供应HBM3内存。同时,美光已经为英伟达供应HBM3E。至此,高端HBM内存的供应由SK海力士
    的头像 发表于 07-23 00:04 3783次阅读

    特斯拉欲将HBM4用于自动驾驶,内存大厂加速HBM4进程

    Dojo的性能。Dojo超级电脑是特斯拉用于自动驾驶技术开发和训练的重要工具,需要高存储器带宽来处理大量数据和复杂计算任务。据称,目前特斯拉汽车主要配备了HBM2E芯片。   而今年10月有消息表示,SK海力士在汽车内存领域取得了显著进展,已向谷歌母公司
    的头像 发表于 11-28 00:22 2033次阅读

    自动驾驶汽车安全吗?

    随着未来汽车变得更加互联,汽车逐渐变得更加依赖技术,并且逐渐变得更加自动化——最终实现自动驾驶,了解自动驾驶汽车的安全问题变得非常重要,这样你才能回答“自动驾驶汽车安全吗”和“
    的头像 发表于 10-29 13:42 519次阅读
    <b class='flag-5'>自动驾驶</b>汽车安全吗?

    自动驾驶HiL测试方案案例分析--ADS HiL测试系统#ADAS #自动驾驶 #VTHiL

    自动驾驶
    北汇信息POLELINK
    发布于 :2024年10月22日 15:20:19

    自动驾驶HiL测试方案 ——场景仿真3D演示#ADAS #自动驾驶 #VTHiL

    自动驾驶
    北汇信息POLELINK
    发布于 :2024年10月16日 10:55:35

    自动驾驶HiL测试方案介绍#ADAS #自动驾驶 #VTHiL

    自动驾驶
    北汇信息POLELINK
    发布于 :2024年10月12日 18:02:07

    HBM上车?HBM2E被用于自动驾驶汽车

    电子发烧友网报道(文/黄晶晶)日前,韩媒报道SK海力士副总裁Kang Wook-sung透露,SK海力士HBM2E正用于Waymo自动驾驶汽车,并强调SK海力士是Waymo自动驾驶汽车这项先进内存
    的头像 发表于 08-23 00:10 6661次阅读

    FPGA在自动驾驶领域有哪些优势?

    FPGA(Field-Programmable Gate Array,现场可编程门阵列)在自动驾驶领域具有显著的优势,这些优势使得FPGA成为自动驾驶技术中不可或缺的一部分。以下是FPGA在自动驾驶
    发表于 07-29 17:11

    FPGA在自动驾驶领域有哪些应用?

    FPGA(Field-Programmable Gate Array,现场可编程门阵列)在自动驾驶领域具有广泛的应用,其高性能、可配置性、低功耗和低延迟等特点为自动驾驶的实现提供了强有力的支持。以下
    发表于 07-29 17:09

    中国AI芯片和HBM市场的未来

     然而,全球HBM产能几乎被SK海力士、三星和美光垄断,其中SK海力士占据AI GPU市场80%份额,是Nvidia HBM3内存独家供应商,且已于今年3月启动
    的头像 发表于 05-28 09:40 930次阅读

    如何提高自动驾驶汽车感知模型的训练效率和GPU利用率

    由于采用了多摄像头输入和深度卷积骨干网络,用于训练自动驾驶感知模型的 GPU 内存占用很大。当前减少内存占用的方法往往会导致额外的计算开销或工作负载的失衡。
    的头像 发表于 04-29 09:12 905次阅读
    如何提高<b class='flag-5'>自动驾驶</b>汽车感知模型的训练效率和<b class='flag-5'>GPU</b>利用率

    未来已来,多传感器融合感知是自动驾驶破局的关键

    方面表示,这是L4级自动驾驶公司和车企为了打造Robotaxi量产车,在国内成立的首个合资公司。款车型已完成产品定义,正在进行设计造型的联合评审,计划明年实现量产。未来已来,2024年是全球L3
    发表于 04-11 10:26

    HBM3E起飞,冲锋战鼓已然擂响

    HBM3自2022年1月诞生,便凭借其独特的2.5D/3D内存架构,迅速成为高性能计算领域的翘楚。HBM3不仅继承了前代产品的优秀特性,更在技术上取得了显著的突破。它采用了高达1024位的数据路径,并以惊人的6.4 Gb/s的速
    的头像 发表于 03-30 14:34 2192次阅读
    <b class='flag-5'>HBM3</b>E起飞,冲锋战鼓已然擂响

    SK海力士HBM3E正式量产,巩固AI存储领域的领先地位

    SK海力士作为HBM3E的首发玩家,预计这款最新产品的大批量投产及其作为业内首家供应HBM3制造商所累积的经验,将进一步强化公司在AI存储器市场的领导者地位。
    的头像 发表于 03-19 15:18 1025次阅读

    英伟达斥资预购HBM3内存,为H200及超级芯片储备产能

    据最新传闻,英伟达正在筹划发布两款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH200超级芯片,这也进一步说明了对于HBM内存的大量需求。
    的头像 发表于 01-02 09:27 783次阅读