0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一文详解基于以太网的GPU Scale-UP网络

SDNLAB 来源:zartbot 2024-04-22 17:22 次阅读

最近Intel Gaudi-3的发布,基于RoCE的Scale-UP互联,再加上Jim Keller也在谈用以太网替代NVLink。而Jim所在的Tenstorrent就是很巧妙地用Ethernet实现了片上网络之间的互联。所以今天有必要来讲讲这个问题。

实现以太网替代NVLink需要什么手段,不只是一个传输协议的问题,还涉及到GPU架构的一系列修改,本质上这个问题等价于如何把HBM挂在以太网上,并实现Scale-Out和满足计算需求的一系列通信优化,例如SHARP这类In-Network-Computing等, 全球来看能同时搞定这个问题的人也就那么几个,至少明确的说UltraEthernet压根就没想明白。

有必要回答以下几个问题,或者说博通要搞个NVLink一样的东西出来,必须解决如下几个问题:

1.Latency Boundary是多少?高吞吐高速Serdes FEC和超过万卡规模的互联带来的链路延迟都是不可抗的,这些并不是说改一个包协议,弄一个HPC-Ethernet就能搞定的。

2.传输的语义是什么?做网络的这群人大概只懂个SEND/RECV。举个例子,UEC定义的Reliable Unordered Delivery for Idempotent operations(RUDI)其实就是一个典型的技术上的错误,一方面它满足了交换律和幂等律,但是针对一些算子,例如Reduction的加法如何实现幂等?显然这群人也没做过,还有针对NVLink上那种细颗粒度的访存,基于结合律的优化也是不支持的。更一般来说,它必须演进到Semi-Lattice的语义才行。

3.更大内存在NVLINK上池化的问题? 解决计算问题中Compute Bound算子的部分时间/空间折中,例如KV Cache等。

4.动态路由和拥塞控制能力1:1无收敛的Lossless组网对于万卡集群通过一些hardcode的调优没什么太大的问题,而对于十万卡和百万卡规模集群来看,甚至需要RDMA进行长传,这些问题目前来看没有一个商业厂商能解决的。

考虑到超大规模模型训练的一系列需求,把HBM直接挂载在以太网上并实现了一系列集合通信卸载的,放眼全球现在也就只有少数几个团队干过,前三个问题我是在四年前做NetDAM项目时就已经完全解决干净了,第四个去年也在某个云的团队一起解决干净了。

下面我们将介绍一些Gaudi3/Maia100/TPU等多个厂商的互联,然后再分析一下NVLink的演进,最后再来谈谈如何能够真正地解决这些问题 at Scale, 再强调(Diss)一下at Scale这事没做好就别瞎叫。

1. 当前ScaleUP互联方案概述

1.1 Intel Gaudi3

从Gaudi3 whitepaper[1]来看,Gaudi的Die如下图所示:

bfbf48fe-0089-11ef-a297-92fbcf53809c.png

内置了24个RoCE 200Gbps的链路,其中21个用于内部FullMesh,三个用于外部链接。

bfd12448-0089-11ef-a297-92fbcf53809c.png

超大规模组网的拓扑,计算了一下Leaf交换机的带宽是一片25.6T的交换机。

c01538e0-0089-11ef-a297-92fbcf53809c.png

但是Intel WhitePaper有一系列的问题值得去仔细爬一下。

1.1.1 拥塞控制

Intel的白皮书阐述的是没有使用PFC,而是采用了Selective ACK机制。同时采用了SWIFT来做CC算法避免使用ECN,基本上明眼人一看,这就是复用了Google Falcon在Intel IPU上做的Reliable Transport Engine。

1.1.2 多路径和In-Network Reduction

Intel宣称支持Packet Spraying,但是交换机用的哪家的呢,一定不是自己家的Tofino。那么只能是博通了。另外In-Network Reduction支持了FP8/BF16等, Operator只支持Sum/Min/Max,再加上UEC有一些关于In-Network-Computing(INC)的工作组,应该基本上就清楚了。

1.2 Microsoft Maia100

没有太多的信息,只有4800Gbps单芯片的带宽,然后单个服务器机框4张Maia100,整个机柜8个服务器构成一个32卡的集群。

放大交换机和互联的线缆来看,有三个交换机,每个服务器有24个400Gbps网络接口,网口间有回环的连接线(图中黑色),以及对外互联线(紫色)。

c08f6fd4-0089-11ef-a297-92fbcf53809c.png

也就是说很有可能构成如下的拓扑:

c0a32de4-0089-11ef-a297-92fbcf53809c.png

即在主板内部构成一个口字形的互联,然后在X方向构成一个环,而在Y方向则是分别构成三个平面连接到三个交换机。

交换机上行进行机柜间的Scale-Out连接,每个机柜每个平面总共有32个400G接口, 再加上1:1收敛,上行交换机链路算在一起正好一个25.6T的交换机,这样搭几层扩展理论应该可行,算是一个Scale-Up和Scale-Out两张网络合并的代表。至于协议对于Torus Ring来看,简单的点到点RoCE应该问题不大,互联到Scale-Out交换机时就需要多路径的能力了。

缺点是延迟可能有点大,不过这类自定义的芯片如果不是和CUDA那样走SIMT,而是走脉动阵列的方式,延迟也不是太大的问题。另外Torus整个组就4块,集合通信延迟影响也不大。但是个人觉得这东西可能还是用于做推理为主的,一般CSP都会先做一块推理用的芯片,再做训练的。另外两家CSP也有明确的训练推理区分AWS Trainium/Inferentia, Google也是V5p/V5e。

1.3 Google TPU

TPU互联大家已经很清楚了,Torus Ring的拓扑结构和光交换机来做链路切换。

c0c142f2-0089-11ef-a297-92fbcf53809c.pngc0cec8fa-0089-11ef-a297-92fbcf53809c.png

OCS有两个目的,一个是按照售卖的规模进行动态切分,例如TPUv5p 单芯片支持4800Gbps的ICI(Inter-Chip Interconnect)连接,拓扑为3D-Torus,整个集群8960块TPUv5p 最大售卖规模为6144块构成一个3D-Torus。

c0ec9e2a-0089-11ef-a297-92fbcf53809c.png

通过OCS可以切分这些接口进行不同尺度的售卖, 另一个是针对MoE这些AlltoAll的通信做扩展bisection 带宽的优化。

c0fce4ce-0089-11ef-a297-92fbcf53809c.png

还有一个是容错,这是3D Torus拓扑必须要考虑的一个问题,有一些更新是这周NSDI‘24 讲到一个《Resiliency at Scale: Managing Google’s TPUv4 Machine Learning Supercomputer》[2] 后面我们将专门介绍。 另一方面Google还支持通过数据中心网络扩展两个Pod构建Multislice的训练,Pod间做DP并行。

c10355fc-0089-11ef-a297-92fbcf53809c.pngc125986a-0089-11ef-a297-92fbcf53809c.png

1.4 AWS Trainium

Trainium架构如下

c145c374-0089-11ef-a297-92fbcf53809c.png

16片构成一个小的Cluster,片间互联如下:

c14a98fe-0089-11ef-a297-92fbcf53809c.png

也是一个2D Torus Ring的结构。

1.5 Tesla Dojo

它搞了一个自己的Tesla Transport Protocol,统一Wafer/NOC和外部以太网扩展。

c169ae74-0089-11ef-a297-92fbcf53809c.png

它通过台积电的System-on-Wafer将25个D1计算单元封装在一个晶圆上, 并采用5x5的方式构建2D Mesh网络互联所有的计算单元, 单个晶圆构成一个Tile.每个Tile有40个I/O Die。

c1859b48-0089-11ef-a297-92fbcf53809c.png

Tile之间采用9TB/s互联。

c19f52ae-0089-11ef-a297-92fbcf53809c.png

可以通过片上网络路由绕开失效的D1核或者Tile。

c1d06a06-0089-11ef-a297-92fbcf53809c.png

对外Scale-Out的以太网有一块DIP,每个D1计算引擎有自己的SRAM, 而其它内存放置在带HBM的Dojo接口卡(DIP)上。

c1f08066-0089-11ef-a297-92fbcf53809c.png

每个网卡通过顶部的900GB/s特殊总线TTP(Tesla Transport Protocol)连接到Dojo的I/O Die上, 正好对应800GB HBM的带宽, 每个I/O Die可以连接5个Dojo接口卡(DIP)。

c20a37d6-0089-11ef-a297-92fbcf53809c.png

由于内部通信为一个2D Mesh网络, 长距离通信代价很大, 针对片上路由做了一些特殊的设计。

c229f620-0089-11ef-a297-92fbcf53809c.png

路由在片上提供多路径,并且不保序, 同时针对大范围长路径的通信, 它很巧妙的利用Dojo接口卡构建了一个400Gbps的以太网TTPoE总线来做shortcut。

c2450f82-0089-11ef-a297-92fbcf53809c.png

Dojo通过System-on-wafer的方式构建了基于晶圆尺度的高密度的片上网络, 同时通过私有的片间高速短距离总线构建了9TB/s的wafer间的通信网络. 然后将I/O和内存整合在DIP卡上,提供每卡900GB/s连接到晶圆片上网络的能力,构建了一个超大规模的2D Mesh网络, 但是考虑到片上网络通信距离过长带来的拥塞控制, 又设计了基于DIP卡的400Gbps逃生通道,通过片外的以太网交换机送到目的晶圆上。

1.6 Tenstorrent

Jim keller在Tenstorrent的片上网络设计就是使用的以太网,结构很简单, Tensor+控制头构成一个以太网报文并可以触发条件执行等能力,如下所示:

c25041a4-0089-11ef-a297-92fbcf53809c.png

片间互联全以太网:

c26f0f9e-0089-11ef-a297-92fbcf53809c.png

并且支持多种功能通信源语。

c279f972-0089-11ef-a297-92fbcf53809c.png

然后就是图的划分,主观觉得每个stage的指令数是可以估计的,算子进出的带宽是可以估计的。

c2851866-0089-11ef-a297-92fbcf53809c.png

那么最后mapping到核上的约束也似乎好做:

c2a998ee-0089-11ef-a297-92fbcf53809c.png

也是很简单的一个2D Mesh结构:

c2d29820-0089-11ef-a297-92fbcf53809c.png

可以扩展到40960个core的大规模互联。

c2d91d6c-0089-11ef-a297-92fbcf53809c.png

2. Scale-UP的技术需求

2.1 拓扑选择

我们可以注意到在ScaleUp网络选择中,Nvidia当前是1:1收敛的FatTree构建,而其它几家基本上都是Torus Ring或者2D Mesh,而Nvidia后续会演进到DragonFly。

c30428b8-0089-11ef-a297-92fbcf53809c.png

背后的逻辑我们可以在hammingMesh的论文中看到的选择如下:

c31c8bec-0089-11ef-a297-92fbcf53809c.png

可以看到对于Allreduce带宽来看,Torus是最便宜的,性能也能够基本跑到峰值。但是针对MoE这类模型的AlltoAll就要考察bisection带宽了,而DragonFly无论是在布线复杂度还是GlobBW以及网络直径上都还不错,所以明白了Bill Dally的选择了吧?

2.2 动态路由和可靠传输

虽然所有的人都在扯RoCE有缺陷,BF3+Spectrum-4有Adaptive Routing,博通有DLB/GLB来演进Packet Spraying还有和思科一样的VoQ的技术,当然还有Meta的多轨道静态路由做流量工程,或者管控平面去调度亲和性。但简单来说,这些都是在万卡规模可以解决一部分问题的,而at Scale这个难题现在要到十万卡以上规模,怎么做?

从算法上解决Burst是一件很难的事情,而更难的是所有的人不去想Burst怎么造成的,天天屎上雕花的去测交换机buffer来压burst,据说还有人搞确定性网络和傅立叶分析来搞?想啥呢?

这是一个非常难的问题,就看工业界其它几个厂什么时候能想明白吧?另一方面是系统失效和弹性售卖,Google在NSDI24的文章里面提到会产生碎片的原因:

c33aa0c8-0089-11ef-a297-92fbcf53809c.png

如果不考虑这些问题会导致调度难题。ICI内部的路由表实现配合OCS交换机是一个不错的选择。

c36bcf22-0089-11ef-a297-92fbcf53809c.pngc38e4a70-0089-11ef-a297-92fbcf53809c.png

这篇论文详细地公开了ICI的物理层/可靠传输层/路由层和事务层,后面会详细讲解一下这篇论文。

为什么这个事情对以太网支持ScaleUP很重要呢?因为以太网一定需要在这里实现一个路由层支撑DragonFly和失效链路切换的能力。

3. Scale UP延迟重要么? 其实回答这个问题本质是GPU如何做Latency Hidding,以及Latency上NVLink和RDMA之间的差异。需要注意的是本来GPU就是一个Throughput Optimized处理器,又极致的追求低延迟那么一定是实现上有问题。而本质上的问题是NVLink是内存语义,而RDMA是消息语义,另一方面是RDMA在异构计算实现的问题。

3.1 RDMA实现的缺陷

RDMA相对于NVLink延迟大的关键因素在CPU

c3aed858-0089-11ef-a297-92fbcf53809c.png

英伟达在通过GDA-KI来解决:

c3d13902-0089-11ef-a297-92fbcf53809c.png

这样来看实际上很多访存延迟都更容易隐藏了。

3.2 细粒度的内存访问

另一个问题是NVLink基于内存语义,有大量细粒度的Load/Store访问,因此对传输效率和延迟非常重要,但如果用以太网RDMA替换该怎么做呢?一来肯定就要说这个事情,包太长了,需要HPC Ethernet。

c3f73166-0089-11ef-a297-92fbcf53809c.png

其实这就是我在NetDAM里面一直阐述的一个问题,对于RDMA的消息,需要实现对内的Semi-Lattice语义。

交换律可以保证数据可以用UnOrder方式提交。

幂等保证了丢包重传的二意性问题,但是需要注意的是对于Reduce这样的加法操作有副作用时,需要基于事务或者数据的幂等处理,当然我在做NetDAM的时候也解决了。

结合律针对细粒度的内存访问,通过结合律编排,提升传输效率。

对于访存的需求,在主机内的协议如下:

c402c422-0089-11ef-a297-92fbcf53809c.png

通常是一个FLIT的大小,而在这个基础上要支持超大规模的ScaleUP互联和支撑可靠性又要加一些路由头,还有以太网头,还有如果超大规模集群要多租户隔离还有VPC头,这些其实支持起来都没有太大问题的,因为当你考虑到了 结合律即可。但是UEC似乎完全没理解到,提供了RUDI的支持交换律和幂等律支持了,结合律忘了,真是一个失误。 而英伟达针对这个问题怎么解的呢?结合律编码:

c41d09c2-0089-11ef-a297-92fbcf53809c.pngc42792d4-0089-11ef-a297-92fbcf53809c.png

最终细颗粒度访存的问题解决了。

c434f7da-0089-11ef-a297-92fbcf53809c.png

下一代的NVLink一定会走到这条路里面来Infiniband和NVLink这两张ScaleOut和ScaleUP网络一定会融合。

3.2 ScaleUP的内存池化

现在很多大模型的问题都在于HBM容量不够,当然英伟达通过拉个Grace和NVLink C2C扩展,本质上是ScaleUP网络需要池化内存。

c458edde-0089-11ef-a297-92fbcf53809c.png

是否还有别的方式呢?英伟达其实已经在干了,附送一篇论文的截图,后面详细会讲。

c47e43ae-0089-11ef-a297-92fbcf53809c.pngc48910ae-0089-11ef-a297-92fbcf53809c.png

3. 结论 任何一家公司如果想做Ethernet的Scale UP,需要考虑以下大量的问题:

延迟并不是那么重要,配合GPU做一些访存的修改FinePack成Message语义,然后再Cache上处理一下隐藏延迟即可;

ScaleUP网络的动态路由和租户隔离能力非常关键,要想办法做好路由,特别是资源受到链路失效产生的碎片问题;

RDMA语义不完善,而简单的抄SHARP也有一大堆坑,需要实现Semi-Lattice语义,并且支撑一系列有副作用的操作实现幂等;

Fabric的多路径转发和拥塞控制,提升整个Fabric利用率;

大规模内存池化。

当然我再劝你们好好读读NetDAM的论文,基于以太网ScaleUP直连HBM的实践,消息编码和Jim Keller做的几乎一致,而且都是在同一时期不同出发点的工作,另一方面大规模池化天然就支持。还有就是原生的In-Network-Computing/Programming加速。

c4b515b4-0089-11ef-a297-92fbcf53809c.png

当然拥塞控制和多路径转发是最近一年多和几个团队一起搞的新的工作,至此基本上拼图已经补全了。


审核编辑:刘清
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 以太网
    +关注

    关注

    40

    文章

    5419

    浏览量

    171596
  • 单芯片
    +关注

    关注

    3

    文章

    419

    浏览量

    34572
  • 交换机
    +关注

    关注

    21

    文章

    2637

    浏览量

    99528
  • Mesh网络
    +关注

    关注

    0

    文章

    44

    浏览量

    14174
  • HBM
    HBM
    +关注

    关注

    0

    文章

    379

    浏览量

    14744

原文标题:谈谈基于以太网的GPU Scale-UP网络

文章出处:【微信号:SDNLAB,微信公众号:SDNLAB】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    详解车载以太网

    以太网技术在生活中的应用随处可见,日常电脑上网,或者手机上网都与以太网密不可分。现在汽车中的5G车联网、V2X,以及后面汽车的智能化应用这些都跟以太网技术密不可分。
    发表于 08-07 17:01 6254次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>详解</b>车载<b class='flag-5'>以太网</b>

    EtherCAT实时以太网分析仪功能详解#以太网

    以太网ethercat
    ZLG致远电子
    发布于 :2022年12月12日 10:04:00

    以太网是什么鬼?以太网基础知识详解

    以太网
    电子学习
    发布于 :2023年02月07日 21:05:57

    车载以太网基础培训——车载以太网的链路层#车载以太网

    车载以太网
    北汇信息POLELINK
    发布于 :2023年09月19日 16:25:21

    车载以太网基础培训——网络层#车载以太网

    车载以太网
    北汇信息POLELINK
    发布于 :2023年09月20日 08:51:32

    以太网和工业以太网的不同

    以太网媒体访问控制的物理层和数据链路层。这些标准也说明子配置以太网网络的规则,以及各种网络元件如何彼此协作。以太网支持多台计算机通过
    发表于 10-23 14:20

    详解工业以太网

    通过卓越的能效比和更加高效的设备节省更多开支。以太网还能单挑重任,作为唯的组网技术,把车间的自动化系统连接到用于控制车间的企业IT系统——在提升性能的同时简化网络的整体设计。
    发表于 07-18 07:40

    以太网的分类及静态以太网交换和动态以太网交换、介绍

    以太网交换技术具有许多类型,各自宣传其具有不同的优点;通过简单的鼠标即可增加、移动和改变往来落的结构;比网桥和路由器更为有效地进行网络分段;为高性能工作站或服务器提供高宽带。网络管理者渴望采用这些
    的头像 发表于 10-07 10:06 6456次阅读

    详解什么是实时以太网

    工业以太网——实时以太网——在过去几年中经历了巨大的增长。虽然经典的现场总线仍大量存在,但它们已经过了巅峰期。流行的实时以太网协议扩展了以太网标准,可以满足实时功能的要求。现在,TSN
    发表于 08-04 09:49 1.3w次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>详解</b>什么是实时<b class='flag-5'>以太网</b>

    工业以太网与传统以太网络的比较

    工业以太网是指技术上与商用以太网兼容,但在产品设计上,在实时性、可靠性、环境适应性等方面满足工业现场的需要,是继现场总线之后发展起来,最被认同也最具发展前景的种工业通信网络
    发表于 12-05 09:34 4394次阅读

    读懂以太网与CANoe的配置

    以太网在视频数据传输、宽带骨干网络、IP诊断(DoIP)以及电动汽车与充电站之间的通信等领域特别有用。Ethernet.Option扩展 CANoe 以包括对以太网网络的支持,允许使用接口硬件,例如
    的头像 发表于 12-26 16:08 8738次阅读

    以太网接口的类型及参数

    以太网接口是种用于局域组网的接口,包括:以太网电接口、以太网光接口。 为了适应网络需求
    的头像 发表于 02-14 09:34 3218次阅读
    <b class='flag-5'>以太网</b>接口的类型及参数

    详解车载以太网PHY芯片

    以太网物理层(PHY)芯片系以太网传输的物理接口收发器。应用于通信、汽车电子、消费电子、工控等众多领域。
    发表于 06-19 17:15 6272次阅读

    了解工业以太网交换机

    随着以太网技术的迅速进步和在商用领域的广泛应用,越来越多的产业控制设备也逐渐采用以太网并采用TCP/IP协议作为主要的通讯标准。尽管在产业控制领域应用的以太网标准与商用以太网相同,但是
    的头像 发表于 12-20 10:41 1381次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b>了解工业<b class='flag-5'>以太网</b>交换机

    什么是以太网,以太网有什么用

    演进和发展,成为当今最为常用的网络技术之以太网的发展始于1973年,由美国Xerox公司的研究者发明。最初,以太网的目标是为了解决Xerox Alto办公自动化系统之间的通信问题
    的头像 发表于 01-22 10:59 3963次阅读