0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达江郎才尽,下一代芯片架构变化只是封装

佐思汽车研究 来源:佐思汽车研究 2023-09-28 15:55 次阅读

2023年8月23日,英伟达宣布下一代汽车芯片Thor量产时间略有推迟,正式量产在2026财年,英伟达的财政年度与自然年相差11个月,也就是说正式量产最迟可能是2026年1月。

FY2019-FY2024H1英伟达自动驾驶AI座舱业绩情况

66a75e76-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

英伟达通常两年升级一次芯片架构。在2022年英伟达透露即将在2024年推出Blackwell架构,而Thor也会采用Blackwell架构。

Blackwell是致敬美国统计学家,加利福尼亚大学伯克利分校统计学名誉教授,拉奥-布莱克韦尔定理的提出者之一David Harold Blackwell。

英伟达Blackwell架构

Blackwell架构将采用COPA-GPU设计。很多人认为COPA-GPU就是Chiplet,不过COPA-GPU不是严格意义上的Chiplet,众所周知,英伟达一直对Chiplet缺乏兴趣。在2017年英伟达曾提出非常近似Chiplet的MCM设计,但在2021年12月,英伟达发表了一篇名为《GPU Domain Specialization via Composable On-Package Architecture》的论文,应该就是Blackwell架构的论文,这篇论文则否定了Chiplet设计。

2017年6月英伟达发表论文《MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability》提出了MCM设计。

MCM-GPU设计

671c1d56-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

MCM-GPU设计基本就是现在比较火爆的Chiplet设计,但英伟达一直未将MCM付诸实际设计中。英伟达一直坚持Monolithic单一光刻设计,这是因为die与die之间通讯带宽永远无法和monolithic内部的通讯带宽相比,换句话说Chiplet不适合高AI算力场合,在纯CPU领域是Chiplet的最佳应用领域。

MCM-GPU架构

672f363e-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

英伟达2017年论文提及的MCM-GPU架构如上图。英伟达在MCM-GPU架构里主要引入了L1.5缓存,它介于L1缓存和L2缓存之间,XBAR是Crossbar,英伟达的解释是The Crossbar (XBAR) is responsible for carrying packets from a given source unit to a specific destination unit,有点像交换或路由。GPM就是GPU模块。

不同容量L1.5缓存下各种应用的速度对比

6747d770-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

上图是英伟达2017年论文仿真不同容量L1.5缓存下各种应用的速度对比,不过彼时各种应用还是各种浮点数学运算和存储密集型算子,而非深度学习

Transformer时代相对CNN时代,存储密集型算子所占比例大幅增加。

67507312-5db1-11ee-939d-92fbcf53809c.png

676828b8-5db1-11ee-939d-92fbcf53809c.png

以上是Transformer的计算过程,在此计算过程中,矩阵乘法是典型的计算密集型算子,也叫GEMM(通用矩阵乘法)。存储密集型算子分两种,一种是矢量或张量的神经激活,多非线性运算,也叫GEMV (通用矩阵矢量乘法)。另一种是逐点元素型element-wise,典型的如矩阵反转,实际没有任何运算,只是存储行列对调。

三星对GPT大模型workload分析

678f1b12-5db1-11ee-939d-92fbcf53809c.png

图片来源:三星

上图中,在运算操作数量上,GEMV所占比例高达86.53%,在大模型运算延迟分析上,82.27%的延迟都来自GEMV;GEMM占比只有2.12%;非线性运算也就是神经元激活部分占的比例也远高于GEMM。

三星对GPU利用率的分析

6799a14a-5db1-11ee-939d-92fbcf53809c.png

图片来源:三星

上图可以看出在GEMV算子时,GPU的利用率很低,一般不超过20%,换句话说80%的时间GPU都是在等待存储数据的搬运。GPU的灵活性还是比较高的,如果换做灵活性比较差的AI专用加速器,如谷歌的TPU,那么GEMV的利用率会更低,不到10%甚至5%。

三星的GPT瓶颈分析

67b0019c-5db1-11ee-939d-92fbcf53809c.png

图片来源:三星

Roof-line访存与算力模型

67cb4966-5db1-11ee-939d-92fbcf53809c.png

图片来源:互联网

上图是鼎鼎大名的roof-line访存与算力模型。

COPA-GPU架构

67d48008-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

上图是2021年12月英伟达论文提出的COPA-GPU架构,实际就是把一个特别大容量的L2缓存die分离出来。因为如果还是monolithic设计,那么整个die的面积会超过1000平方毫米,不过***决定了芯片的最大die size不超过880平方毫米,所以必须将L2分离。

67ef0162-5db1-11ee-939d-92fbcf53809c.png

注:GPU-N就是英伟达的COPA-GPU。

图片来源:英伟达

不同容量L2缓存对应的延迟

6805ca46-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

上图是不同容量L2缓存对应的延迟情况,显然L2缓存越高,延迟越低,不过在small-batch时不明显。

几种COPA-GPU的封装分析

6814f318-5db1-11ee-939d-92fbcf53809c.png

图片来源:英伟达

从英伟达的论文里我们看不到架构方面的丝毫改进,只有封装领域的改变。这篇论文实际应该由台积电来写,因为英伟达完全无法掌控芯片的封测工艺,CoWoS就是为英伟达这种设计而设计的,而CoWoS诞生在10年以前。

大模型不断消耗更多的算力和存储,这显然违背了自然界效率至上的原则,或许人类正在错误的道路上狂奔。

免责说明:本文观点和数据仅供参考,和实际情况可能存在偏差。本文不构成投资建议,文中所有观点、数据仅代表笔者立场,不具有任何指导、投资和决策意见。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128673
  • 芯片架构
    +关注

    关注

    1

    文章

    30

    浏览量

    14549
  • 英伟达
    +关注

    关注

    22

    文章

    3739

    浏览量

    90789

原文标题:英伟达江郎才尽,下一代芯片架构变化只是封装

文章出处:【微信号:zuosiqiche,微信公众号:佐思汽车研究】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟达加速Rubin平台AI芯片推出,SK海力士提前交付HBM4存储器

    日,英伟达(NVIDIA)的主要高带宽存储器(HBM)供应商南韩SK集团会长崔泰源透露,英伟达执行长黄仁勋已要求SK海力士提前六个月交付用于英伟下一代AI
    的头像 发表于 11-05 14:22 312次阅读

    通过下一代引线式逻辑IC封装实现小型加固型应用

    电子发烧友网站提供《通过下一代引线式逻辑IC封装实现小型加固型应用.pdf》资料免费下载
    发表于 08-29 11:05 0次下载
    通过<b class='flag-5'>下一代</b>引线式逻辑IC<b class='flag-5'>封装</b>实现小型加固型应用

    IaaS+on+DPU(IoD)+下一代高性能算力底座技术白皮书

    大规模生产环境落地应用的条件。某种程度上,IoD 技术已成为下一代高性能算力底座的核心技术与最佳实践。 白皮书下载:*附件:IaaS+on+DPU(IoD)+下一代高性能算力底座+技术白皮书(1).pdf
    发表于 07-24 15:32

    24芯M16插头在下一代技术中的潜力

      德索工程师说道随着科技的飞速发展,下一代技术正逐渐展现出其独特的魅力和潜力。在这背景下,24芯M16插头作为种高性能、多功能的连接器,将在下一代技术中发挥至关重要的作用。以下是
    的头像 发表于 06-15 18:03 294次阅读
    24芯M16插头在<b class='flag-5'>下一代</b>技术中的潜力

    英伟达加速AI芯片迭代,推出Rubin架构计划

    在近日举办的COMPUTEX 2024展会上,英伟达CEO黄仁勋再次展现了公司在人工智能(AI)芯片领域的雄心壮志。他公布了下一代AI芯片架构
    的头像 发表于 06-03 11:36 775次阅读

    英伟达业绩强劲,Blackwell AI芯片助推下一波增长 

     在与分析师的电话会议上,英伟达首席执行官黄仁勋透露,公司即将推出的Blackwell AI芯片将于本季度发货,下季度产量将有所提升,“随着下一代Blackwell架构
    的头像 发表于 05-23 15:55 458次阅读

    丰田、日产和本田将合作开发下一代汽车的AI和芯片

    丰田、日产和本田等日本主要汽车制造商确实计划联手开发下一代汽车的软件,包括在生成式人工智能(AI)和半导体(芯片)等领域进行合作。
    的头像 发表于 05-20 10:25 935次阅读

    步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    2024年3月19日,[英伟达]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级
    发表于 05-13 17:16

    使用NVIDIA Holoscan for Media构建下一代直播媒体应用

    NVIDIA Holoscan for Media 现已向所有希望在完全可重复使用的集群上构建下一代直播媒体应用的开发者开放。
    的头像 发表于 04-16 14:04 594次阅读

    英伟达携手台积电、新思科技,力推下一代半导体芯片制造技术

    英伟达与台积电、 Synopsys 已做出决策,将在其软件环境、制造工艺以及系统上整合英伟达的 cuLitho 计算光刻平台。此举旨在大幅提升芯片制造速率,并为英伟达即将推出的 Bla
    的头像 发表于 03-19 11:41 624次阅读

    英伟达的下一代AI芯片

    根据英伟达(Nvidia)的路线图,它将推出其下一代black well架构很快。该公司总是先推出个新的架构与数据中心产品,然后在几个月后
    的头像 发表于 03-08 10:28 846次阅读
    <b class='flag-5'>英伟</b>达的<b class='flag-5'>下一代</b>AI<b class='flag-5'>芯片</b>

    英伟达:预计下一代AI芯片B100短缺,计划扩产并采用新架构

    近期热门的 H100 芯片运期短缩数天后,英伟达新型 AI 旗舰芯片 B100搭载全新的 Blackwell,有望使 AI 计算性能提升至 2~3 倍。鉴于 AI 芯片市场需求旺盛,外
    的头像 发表于 02-25 09:29 863次阅读

    下一代掌机芯片,深度学习、光线追踪还有与VR/AR联动?

    英伟达、AMD 和高通等。然而,对于下一代掌机芯片,我们还有什么可以期待的突破呢?   深度学习+光线追踪   要说卖得最好的掌机芯片,那无疑是任天堂Switch掌机所搭载的
    的头像 发表于 01-09 00:04 1580次阅读

    英伟达智能驾驶的核心芯片——Thor

    英伟达原定于 2024 年推出 Atlan,现在雷神(Thor)现已取代Atlan,带来了显著的性能提升,Thor 带来了两杯的性能,推动下一代 GPU 以及新的 Grace Neoverse V2 驱动的核心,进入下一代自动驾
    发表于 01-03 14:33 3256次阅读
    <b class='flag-5'>英伟</b>达智能驾驶的核心<b class='flag-5'>芯片</b>——Thor

    适用于下一代大功率应用的XHP™2封装

    适用于下一代大功率应用的XHP™2封装
    的头像 发表于 11-29 17:04 946次阅读
    适用于<b class='flag-5'>下一代</b>大功率应用的XHP™2<b class='flag-5'>封装</b>