0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

新一代AI/ML加速器新型内存解决方案——HBM2E内存接口

454398 来源:电子技术设计 作者:邵乐峰 2020-10-23 15:20 次阅读

近年来,随着内存带宽逐渐成为影响人工智能持续增长的关键焦点领域之一,以高带宽内存(HBM、HBM2、HBM2E)和GDDR开始逐渐显露头角,成为搭配新一代AI/ML加速器和专用芯片的新型内存解决方案。

人工智能/机器学习(AI/ML)在全球范围内的迅速兴起,正推动着制造业、交通、医疗、教育和金融等各个领域的惊人发展。从2012年到2019年,人工智能训练能力增长了30万倍,平均每3.43个月翻一番,就是最有力的证明。支持这一发展速度需要的远不止摩尔定律,人工智能计算机硬件和软件的各个方面都需要不断的快速改进。

2012-2019年,人工智能训练能力增长30万倍(图片来源:openai.com)

而中国作为全球人工智能发展最快的国家之一,正备受瞩目。根据德勤最新发布的统计预测数据显示,2020年全球人工智能市场规模将达到6800亿元人民币,复合增长率(CAGR)达26%。而中国人工智能市场的表现尤为突出,2019年末已经达到了510亿元人民币的市场规模,人工智能企业超过2600家。预计到2020年,中国AI市场规模将达到710亿元人民币,五年间(2015-2020)的复合增长率高达44.5%。

近年来,中国正在积极推动人工智能与实体经济的融合,从而实现产业的优化升级。2017年7月,国务院印发了《新一代人工智能发展规划》,这一规划与2015年5月发布的《中国制造2025》共同构成了中国人工智能战略的核心。这份具有里程碑意义的规划,对人工智能发展进行了战略性部署,力争到2030年把中国建设成为世界主要人工智能创新中心。此外,2020年还是中国的新基建元年,而人工智能作为一大重点板块,势必成为新基建的核心支撑。

内存带宽将是影响AI发展的关键因素

“内存带宽将成为人工智能持续增长的关键焦点领域之一。”Rambus IP核产品营销高级总监 Frank Ferro日前在接受《电子工程专辑》采访时表示,以先进的驾驶员辅助系统(ADAS)为例,L3级及更高级别系统的复杂数据处理需要超过200GB/s的内存带宽。这些高带宽是复杂AI/ML算法的基本需求,自驾过程中需要这些算法快速执行大量计算并安全地执行实时决策。而在L5级,如果车辆要能够独立地对交通标志和信号的动态环境做出反应,以便准确地预测汽车、卡车、自行车和行人的移动,将需要超过500GB/s的内存带宽。

不同ADAS级别对存储带宽的要求(图片来源:anandtech.com)

鉴于此,高带宽内存(HBM、HBM2、HBM2E)和GDDR开始逐渐显露头角,成为搭配新一代AI/ML加速器和专用芯片的新型内存解决方案。他说过去几年内,HBM、HMC、PAM4等标准在市场上展开了激烈的竞争,但从目前的发展态势来看,还是HBM占据了更多的市场份额。不过他同时也坦承,由于汽车安全等级要求很高,考虑到HBM本身采用的是复杂的2.5D架构,再结合DRAM设备,所以目前为止在汽车市场上并没有得到突破性的应用,相比之下,GDDR反而会是比较好的解决方案。

高带宽内存(HBM)于2013年推出,是一种高性能3D堆栈SDRAM构架。与前一代产品一样,HBM2为每个堆栈包含最多8个内存芯片,同时将管脚传输速率翻倍,达到2Gbps。HBM2实现每个封装256GB/s的内存带宽(DRAM堆栈),采用HBM2规格,每个封装支持高达8GB的容量。

2018年末,JEDEC宣布推出HBM2E规范,以支持增加的带宽和容量。当传输速率上升到每管脚3.6Gbps时,HBM2E可以实现每堆栈461GB/s的内存带宽。此外,HBM2E支持12个DRAM的堆栈,内存容量高达每堆栈24GB。

单一DRAM堆栈的HBM2E内存系统(图片来源:Rambus)

HBM2E提供了达成巨大内存带宽的能力。连接到一个处理器的四块HBM2E内存堆栈将提供超过1.8TB/s的带宽。通过3D堆叠内存,可以以极小的空间实现高带宽和高容量需求。进一步,通过保持相对较低的数据传输速率,并使内存靠近处理器,总体系统功率得以维持在较低水位。

坦率的说,采用HBM的设计的代价是增加复杂性和成本,因此Frank Ferro并不建议在人工智能推理应用中使用HBM技术。然而,对于人工智能训练应用,HBM2E的优点使其成为一个更好的选择。它的性能非常出色,所增加的采用和制造成本可以透过节省的电路板空间和电力相互的缓解。在物理空间日益受限的数据中心环境中,HBM2E紧凑的体系结构提供了切实的好处。它的低功率意味着它的热负荷较低,在这种环境中,冷却成本通常是几个最大的运营成本之一。官方数据显示,Rambus IP系统以及IP产品在实验室经过了非常严苛的环境测试,确保从零下50到125摄氏度范围内均能够正常运行。

同时,Frank Ferro也不认为在芯片上采取分布式内存的方法会给HBM2E和GDDR长期的发展带来影响。原因在于尽管SRAM的速度和延迟性都高于DRAM,但在固定的芯片面积上能安装的SRAM数量却非常少,很多情况下为了满足人工智能训练的需求,一部分SRAM设备不得不装在芯片之外,这就是问题所在。但总体来说,这两种方案属于从不同角度出发解决同一个问题,两者之间是互补而非相互阻碍。

创纪录的性能

针对高带宽和低延迟进行了优化,Rambus HBM2E内存接口解决方案实现了创纪录的4Gbps性能。该解决方案由完全集成且经过验证的PHY和内存控制器IP组成,搭配SK Hynix 3.6Gbps运行速度的HBM2E DRAM,在物理层面实现了完整的集成互联,可以从单个HBM2E设备提供460GB/s的带宽,这也被Frank Ferro视作其HBM2E 产品的核心差异化优势之一。这意味着,除了提供完整的内存子系统、硬核PHY和时序收敛外,用户额外需要的系统级支持、工具套件和技术服务也都包含在内,集成难度和设计时间得以大幅度下降。

Rambus HBM2E 4Gbps发送端眼图(图片来源:Rambus)

从2017年正式投产HBM解决方案以来,Rambus目前已经拥有第三代PHY和第二代内存控制器IP,全球范围内的成功案例项目超过50个。除了4Gbps HBM2E外,Rambus在其他不同工艺节点的产品还包括采用Global Foundries 12nm/14nm工艺的HBM2,速度为2.0 Gbps/s;采用Global Foundries 12LP+和三星14nm/11nm工艺的HBM2E产品。

不可否认,4.0Gbps是一个全新的行业标杆。在这一过程中,Rambus与SK hynix和Alchip展开了合作,采用台积电N7工艺和CoWoS®先进封装技术,实现了HBM2E 2.5D系统在硅中验证Rambus HBM2E PHY和内存控制器IP。Alchip与Rambus的工程团队共同设计,负责中介层和封装基板的设计。

“在我们提供的完整参考设计框架中,最重要的一点就是如何更好地对中介层进行完整的设计和表征化处理,以确保信号完整性。此外,我们还协助用户对每个信号通道进行仿真分析,通过Lab Station工具对内存子系统进行最优化设计,并提供在SI高速信号完整性和电源完整性方面的经验等等。”Frank Ferro说Rambus的初衷,不仅仅只是扮演IP供应商的角色,更是希望在系统层面降低用户设计难度。

信号完整性之所以如此重要,是因为HBM作为高速内存接口,在与中介层互联的过程中包括至少上千条不同的数据链路,必须要确保所有链路的物理空间得到良好的控制,整个信号的完整性也必须得到验证。因此,Rambus的做法如果从表征化层面来讲,不但需要对整个中介层的材料做出非常精细的选择,还要考虑渐进层的厚度以及整个电磁反射相关的物理参数,并在此基础上进行完整的分析和仿真,以实现信号一致性的处理。

HBM2E内存接口子系统示例

燧原科技是Frank Ferro在发布会上提及的中国合作伙伴。在此次合作中,燧原科技为自己下一代人工智能训练芯片选择了Rambus HBM2 PHY和内存控制器IP,可实现2Tb/s的性能。而在今年4月和5月,长鑫存储、兆易创新两家公司还分别和Rambus签署了DRAM(动态随机存取存储)与RRAM(电阻式随机存取存储器,也可写作ReRAM)技术专利授权。

Rambus大中华区总经理 Raymond Su表示,通过对IP控制器公司Northwest Logic和Verimatrix安全IP业务部门的收购,Rambus实现了在内存IP层面提供一站式采购和“turn key”服务的目标。接下来,在中国市场,公司将紧密地与云厂商、OEM和ODM合作,推动整个内存产业生态系统的建设。

编辑:hfy

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • DRAM
    +关注

    关注

    40

    文章

    2305

    浏览量

    183362
  • 信号完整性
    +关注

    关注

    68

    文章

    1399

    浏览量

    95406
  • AI
    AI
    +关注

    关注

    87

    文章

    30348

    浏览量

    268600
  • 人工智能
    +关注

    关注

    1791

    文章

    46952

    浏览量

    237810
  • adas
    +关注

    关注

    309

    文章

    2173

    浏览量

    208547
收藏 人收藏

    评论

    相关推荐

    英伟达加速认证三星AI内存芯片

    近日,英伟达公司正在积极推进对三星AI内存芯片的认证工作。据英伟达CEO透露,他们正在不遗余力地加速进程,旨在尽快将三星的内存
    的头像 发表于 11-25 14:34 202次阅读

    三星电子HBM3E内存获英伟达认证,加速AI GPU市场布局

    为英伟达H200系列AI GPU的首选内存解决方案,同时,针对英伟达Blackwell系列的验证工作也在紧锣密鼓地进行中,预示着双方合作的进步深化。
    的头像 发表于 09-05 17:15 668次阅读

    HBM上车?HBM2E被用于自动驾驶汽车

    电子发烧友网报道(文/黄晶晶)日前,韩媒报道SK海力士副总裁Kang Wook-sung透露,SK海力士HBM2E正用于Waymo自动驾驶汽车,并强调SK海力士是Waymo自动驾驶汽车这项先进内存
    的头像 发表于 08-23 00:10 6568次阅读

    SK海力士携手Waymo提供第三高带宽存储(HBM2E)技术

    据最新消息,SK海力士正携手Waymo,为其标志性的自动驾驶汽车项目“谷歌汽车”提供前沿的第三高带宽存储HBM2E)技术。这合作预示着随着自动驾驶技术的日益普及,
    的头像 发表于 08-15 14:54 1127次阅读

    一代高功能新一代AI加速器(DRP-AI3):10x在高级AI系统高级AI中更快的嵌入处理

    电子发烧友网站提供《下一代高功能新一代AI加速器(DRP-AI3):10x在高级AI系统高级
    发表于 08-15 11:06 0次下载
    下<b class='flag-5'>一代</b>高功能<b class='flag-5'>新一代</b><b class='flag-5'>AI</b><b class='flag-5'>加速器</b>(DRP-<b class='flag-5'>AI</b>3):10x在高级<b class='flag-5'>AI</b>系统高级<b class='flag-5'>AI</b>中更快的嵌入处理

    集成32GB HBM2e内存,AMD Alveo V80加速卡助力传感处理、存储压缩等

    电子发烧友网报道(文/黄晶晶)日前,AMD推出Alveo V80加速卡,Versal FPGA自适应SoC搭配HBM,可处理计算以及内存密集型的工作负载,用于高性能计算、数据分析、金融科技、存储压缩
    的头像 发表于 06-05 16:16 2100次阅读
    集成32GB <b class='flag-5'>HBM2e</b><b class='flag-5'>内存</b>,AMD Alveo V80<b class='flag-5'>加速</b>卡助力传感<b class='flag-5'>器</b>处理、存储压缩等

    美光HBM3E解决方案,高带宽内存助力AI未来发展

    美光近期发布的内存和存储产品组合创新备受瞩目,这些成就加速AI 的发展。美光 8 层堆叠和 12 层堆叠 HBM3E 解决方案提供业界前
    的头像 发表于 05-28 14:08 634次阅读

    Arm发布新一代Ethos-U AI加速器 Arm旨在瞄准国产CPU市场

    Arm发布的新一代Ethos-U AI加速器确实在业界引起了广泛关注。
    的头像 发表于 04-18 15:59 727次阅读

    什么是HBM3E内存?Rambus HBM3E/3内存控制内核

    Rambus HBM3E/3 内存控制内核针对高带宽和低延迟进行了优化,以紧凑的外形和高能效的封装为人工智能训练提供了最大的性能和灵活性。
    发表于 03-20 14:12 2399次阅读
    什么是<b class='flag-5'>HBM3E</b><b class='flag-5'>内存</b>?Rambus <b class='flag-5'>HBM3E</b>/3<b class='flag-5'>内存</b>控制<b class='flag-5'>器</b>内核

    美光科技开始量产HBM3E高带宽内存解决方案

    美光科技股份有限公司(Micron Technology, Inc.)是全球内存与存储解决方案的领先供应商,近日宣布已经开始量产其HBM3E高带宽内存
    的头像 发表于 03-05 09:16 845次阅读

    美光量产行业领先的HBM3E解决方案加速人工智能发展

    内存解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。美光通过这
    的头像 发表于 03-04 18:51 1173次阅读
    美光量产行业领先的<b class='flag-5'>HBM3E</b><b class='flag-5'>解决方案</b>,<b class='flag-5'>加速</b>人工智能发展

    美光开始量产行业领先的 HBM3E 解决方案加速人工智能发展

    HBM3E 高带宽内存 解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存
    的头像 发表于 03-04 14:51 847次阅读
    美光开始量产行业领先的 <b class='flag-5'>HBM3E</b> <b class='flag-5'>解决方案</b>,<b class='flag-5'>加速</b>人工智能发展

    AMD MI300加速器将支持HBM3E内存

    据手机资讯网站IT之家了解,MI300加速器配备了HBM3内存模块,并面向HBM3E进行了重新设计。另外,该公司在供应链交付合作方面颇为深入,不仅与主要的存储
    的头像 发表于 02-27 15:45 629次阅读

    AI大模型不断拉高上限,内存控制IP提早部署,力拱HBM3E的到来

    数据量、复杂度在增加,HBM内存被彻底带火。这种高带宽高速的内存十分适合于AI训练场景。最近,内存芯片厂商已经不约而同地切入
    的头像 发表于 12-13 15:33 1426次阅读
    <b class='flag-5'>AI</b>大模型不断拉高上限,<b class='flag-5'>内存</b>控制<b class='flag-5'>器</b>IP提早部署,力拱<b class='flag-5'>HBM3E</b>的到来

    Rambus通过9.6 Gbps HBM3内存控制IP大幅提升AI性能

    为增强AI/ML及其他高级数据中心工作负载打造的 Rambus 高性能内存 IP产品组合 高达9.6 Gbps的数据速率,支持HBM3内存
    发表于 12-07 11:01 246次阅读
     Rambus通过9.6 Gbps <b class='flag-5'>HBM</b>3<b class='flag-5'>内存</b>控制<b class='flag-5'>器</b>IP大幅提升<b class='flag-5'>AI</b>性能