0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

RDMA(远程直接内存访问)传输协议概述和应用案例

SDNLAB 来源:SDNLAB 2023-10-25 10:19 次阅读

人工智能 (AI) 的兴起极大地提高了对强大、高效和可扩展的网络传输协议的需求。本文深入探讨了 RDMA(远程直接内存访问)传输协议,并重点讨论 ROCEv2 协议,目前基于 ROCEv2 的 RDMA已经在一些超大规模数据中心中取代了 TCP。

在最近的NDSI-23-Talk中,微软强调,70% 的 Azure 云网络流量(主要是存储网络流量)在基于以太网的 ROCEv2 RDMA 上运行,只有一小部分依赖基于 TCP/IP 的网络,这一转变在 Oracle、阿里巴巴和 Meta 等其他超大规模提供商中也很明显。这一趋势表明,随着云计算、人工智能/机器学习工作负载的持续增长,整个行业正朝着采用RDMA技术来优化网络性能的方向发展。

01RDMA概述

RDMA 通过直接将“内存映射”数据传输到远程内存位置来运行,具有两个关键优势:

CPU 效率:与消耗多个 CPU 核心的 TCP/IP 不同,RDMA在内存注册后将数据传输委托给 RDMA 网络适配器来执行,这样的方式释放了CPU资源,对于云服务提供商来说,这可以更有效地利用这些新可用的CPU核心,实现更高的资源利用率。

低延迟和内存效率:RDMA 绕过 Linux 内核,直接将数据传输到应用程序缓冲区,这一功能称为零复制。这消除了在发送和接收端点节点处进行内存复制的需要。内核旁路和零拷贝功能可最大限度地减少延迟和抖动。

RoCEv2 RDMA 起源于高性能计算 (HPC),并结合了 IB 传输协议。

wKgZomU4ezGABDb4AAS52UQx168962.png

| InfiniBand 和 ROCEv2 协议栈

RoCEv2 保留了 InfiniBand 语义及其传输和网络协议,并将InfiniBand链路层和物理层替换为以太网。

因此,ROCEv2 RDMA 已成为数据中心后端网络的标准,可提供高吞吐量、微秒范围的低延迟和完整的 CPU 卸载。

注意:前端网络通常运行 TCP/IP 或 QUIC 等其他协议。RDMA、InfiniBand 等协议作为后端网络,通常被称为东西向流量,占现代数据中心流量的 70-80%。

02以太网 ROCEv2 挑战

InfiniBand架构

InfiniBand架构是无损网络,重点关注服务质量 (QoS) 和传输层端到端信用。IB 协议栈非常适合 HPC 和 AI/ML 网络。然而,InfiniBand 网络通常比以太网更昂贵,可扩展性也更差。

注意:无损意味着底层网络被配置为避免因网络拥塞而导致数据包的丢失。尽管如此,偶尔仍可能会由于错误情况导致数据包损坏或丢失。在这种情况下,传输协议包括一种端到端的交付机制,其中内置了数据包重传逻辑,通常由硬件实现,以此在不需要软件干预的情况下触发,以恢复丢失的数据包。这确保了在网络出现问题时可以自动纠正数据包的丢失,无需人工介入。

ROCEv2架构

RoCEv2 在以太网链路上通过 UDP/IP 上运行。UDP 是一种不可靠的数据报服务,而以太网的架构并非无损。由于 ROCEv2 期望底层网络是无损的,因此在将以太网配置为无损网络时面临着多项挑战,如下所述。

wKgaomU4ezGAehs7AAICAr6ewYc091.png

| ROCEv2 数据包格式

队头 (HOL) 阻塞:由于优先流量控制 (PFC),不同流中的数据包可能会被拥塞流阻塞,跨更大的网络、跨多个交换机进行扩展成为一个挑战。

拥塞管理:通常由软件以带外方式处理。现有技术缓慢且复杂,一些供应商借用了 InfiniBand 的硬件技术,但这些是定制的,不是以太网标准的一部分。

减少有效吞吐量:以太网不是一个无损网络。由于拥塞下降,可能会发生数据包丢失,这种数据包丢失会导致整个数据包窗口的重传(称为 Go-back-to-N),从而降低网络“goodput”。

尽管存在这些挑战,大型 ROCEv2 网络已经成功部署,但要求对其进行精细调优和持续监控。大多数超大规模企业都采用自定义、非标准的 ROCEv2 解决方案,并在针对不同工作负载微调RDMA堆栈方面投入了大量资金。

在某些情况下,组织甚至为 AI/ML 或存储等特定应用程序建立了单独的基于 ROCEv2 RDMA 的数据中心,但这也导致了运营成本的显著增加。

接下来,我们将深入研究三个不同的案例,以便更全面地理解这一情况。

03大厂案例

微软

十多年来,微软一直在大型数据中心部署 RoCEv2,并发表了一篇见解深刻的Microsoft-RDMA-Challenges研究论文。微软的部署面临 PFC 死锁挑战、RDMA 传输活锁挑战以及其他网卡相关问题。

微软认为,单靠协议理论不足以满足现实世界的部署,严格的大规模测试、分阶段部署和网卡供应商协作对于发现协议最初设计时隐藏的漏洞至关重要。微软已经为ROCEv2开发了自定义协议扩展,例如基于 DSCP 的 PFC,一些网卡/交换机供应商已经支持该协议。此外,微软还实施了用于健康跟踪和故障排除的遥测系统,这对于识别这些隐藏的复杂性问题至关重要。

Oracle

OCI(Oracle Cloud Infrastructure,Oracle 云基础设施)是一个公有云,可在同一 RDMA 网络上运行 AI、HPC、数据库和存储等多种不同应用程序。

wKgZomU4ezGAKvUaAASHIKseax8561.png

| Oracle RDMA 网络结构

Oracle 通过多种方法应对 ROCEv2 挑战:

限制优先级流控制 (PFC):仅限于 3 层 Clos 网络中的网络边缘。

网络局部性提示:Oracle 根据网络关联性放置工作负载,以将大部分流量保持在本地,称为网络局部性提示。

微调拥塞控制:利用显式拥塞通知 (ECN) 和 DC-QCN,每个都针对特定 RDMA 工作负载进行微调,以平衡延迟和吞吐量。

Meta

Meta 专注于针对 AI/ML 工作负载的 ROCEv2 RDMA 部署,正如Meta @Scale 2023活动视频中所讨论的那样,主要工作负载包括推荐引擎、内容理解和大语言模型(LLM),这些集群的规模从数百个 GPU 到数万个 GPU不等。

有趣的是,Meta 并没有面临与微软相同的挑战。例如,由于骨干交换机中的深度缓冲区,PFC HOL 阻塞不再是问题。Meta 还成功地使用 DC-QCN 进行拥塞控制,并且由于现代 NIC 具有更大的 NIC 缓存,因此没有面临扩展问题。总的来说,由于具有先进功能的新硬件以及拓扑、工作负载和软件策略的差异等多种原因,Meta 没有遇到相同的问题。

Meta的关键挑战主要围绕负载均衡,这通过依靠 SDN 控制器对路由进行编程来解决。在网络事件发生之前,这些路由不会更新。ECMP 哈希方案仅在网络事件发生后生效。跨多个队列对 (QP) 的元多路复用流和定制的 ECMP 哈希方案以增加熵。

Meta 使用 PCIe 点对点 (P2P) DMA 技术,通过支持跨 GPU 的直接数据传输来提高应用程序性能。

Meta 还超额订阅了主干层,因为 AI/ML 流量模式不需要完整的非阻塞主干连接。这降低了数据中心成本。

与许多其他公司一样,Meta 正在探索数据包喷射、基于分解 VOQ 的交换机以及可以容忍乱序交付的自定义传输协议。

一篇MIT + Meta 研究论文《针对 LLM 的优化网络架构》提出了一种针对 LLM 流量模式的新网络架构,可以将网络成本削减 37% - 75%。该架构为具有高通信需求的 GPU 定义了高带宽或 HB 域。在 HB 内,GPU 通过任意对任意互连进行互连。在Meta部署中,跨HB网络流量稀疏,可以消除跨HB域的连接和交换机,从而降低网络成本。

04RDMA 的未来

超大规模厂商和供应商都以自定义的方式解决了 ROCEv2 的潜在问题。ROCEv2 网络仍然需要针对每个工作负载进行定制和微调。

1RMA 扩展框架

具有多个租户的公共云需要大规模扩展,达到数百万个节点和数十亿个流。由于 ROCEv2 面向连接的特性,工作队列条目 (WQE) 通常在硬件中实现,这限制了流量扩展。跨多个租户的安全性和线速加密给 RoCEv2 带来了额外的挑战。

wKgZomU4ezGAUpz8AAD6xN4px18470.png

| 消费者排队模型

云数据中心的一个替代方案是1RMA 论文中记录的 1-Shot 远程内存访问 (1RMA) 方法,该方法建议以软件为中心的重新架构。由于片上系统 (SoC)处理器内核现在可在基于 DPU/IPU 的网络适配器上运行软件,因此这种以软件为中心的方法变得更加可行。主要思想是:

软件重点:将一些传统的网卡硬件数据结构(例如排队、数据包排序、数据包调步和拥塞控制)转移到软件中。

硬件重点:将网卡硬件重点放在主数据路径、DMA 传输、incast 边界、身份验证和加密上。硬件无需连接,并向软件提供细粒度的延迟测量和故障通知。

1RMA 方法主张将连接和大部分状态转移到软件中,以获得更好的可扩展性。这简化了硬件并支持公共云所需的大规模扩展。

请注意,采用 1RMA 方法可能需要从头开始重新架构,涉及新协议和 NIC 硬件。此外,1RMA 的研究重点是云数据中心的需求;AI/ML 和 HPC 网络可能需要不同的权衡。

UEC联盟

UEC联盟提议用基于UDP/IP的新开放协议取代ROCEv2。UEC 的重点是 AI/ML 和 HPC 网络。

# ROCEv2 替代协议的关键属性

多路径和数据包喷射

灵活的交付顺序和选择性重传

响应式拥塞控制机制

规模更大、稳定可靠

堆栈的所有层可能都需要进行更改。

UEC联盟白皮书中的一些主题确实与1RMA Paper和EDQS Paper(由Correct Networks撰写,被Broadcom收购)产生了共鸣。

在10 月 17 日的OCP峰会上,OCP与 UEC 达成合作,利用两家组织的专业技能来提高AI工作负载的以太网性能。已确定初步探索潜在合作的领域包括 OCP交换机抽象接口(SAI)、OCP Caliptra Workstream、OCP网络项目、OCP网卡Workstream、OCP Time Appliance项目和OCP未来技术倡议。

未来的开放标准

到目前为止,还没有 ROCEv3 标准。针对这些挑战的可扩展、通用和开放的解决方案仍然难以实现。

AI/ML、HPC 和云数据中心工作负载的需求可能差异很大,以至于我们需要多种解决方案。例如,

# UEC联盟

UltraEthernet 联盟仅专注于大规模人工智能和高性能计算。

# 工作负载特征

HPC 要求超低延迟,而 AI/ML 训练优先考虑高吞吐量和低尾延迟。

# 多种拓扑

公共云通常使用 2 层或 3 层 Clos 网络,而 AI/HPC 网络可能采用蜻蜓、3D 环面或超立方体拓扑,这些仍在不断发展。

# 不断变化的需求

AI/ML 算法不断发展,云数据中心工作负载也在不断发展,这可能会导致未来进一步分化。

# 开放与封闭

云数据中心可以继续使用定制解决方案或在 OCP 等论坛中协作来定义开放标准。

如果出现多种开放解决方案,协作可以帮助建立统一的基础架构。这将防止解决方案出现分歧以及相关的成本问题。虽然具有挑战性,但重要性不言而喻。

新标准需要时间才能成熟。定义后,硬件开发可能需要长达两年的时间,然后是规模测试和错误修复,这让时间线又增加了几年。短期内,预计主要参与者将继续进行定制创新。

05结 论

虽然有多种定制和复杂的方法可以解决 ROCEv2 的挑战,但业界正在积极探索基于开放标准的 ROCEv2 RDMA 替代方案。未来的 RDMA 协议必须发展成为适用于广泛工作负载的“即插即用”解决方案,就像今天的 TCP 一样。

最后,DPU/IPU与内置SOC正在彻底改变我们对网络的看法,它们使我们能够重新定义硬件-软件边界,直接在网络硬件上运行关键软件,使我们的系统变得灵活且面向未来。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30348

    浏览量

    268602
  • TCP
    TCP
    +关注

    关注

    8

    文章

    1352

    浏览量

    79010
  • 人工智能
    +关注

    关注

    1791

    文章

    46952

    浏览量

    237810
  • 传输协议
    +关注

    关注

    0

    文章

    78

    浏览量

    11439
  • RDMA
    +关注

    关注

    0

    文章

    76

    浏览量

    8938

原文标题:ROCEv2 RDMA:TCP的变革者还是取而代之者?

文章出处:【微信号:SDNLAB,微信公众号:SDNLAB】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于CXL的直接访问高性能内存分解框架

    鉴于KAIST的HPC根源,将DirectCXL原型放在一起的研究人员专注于使用远程直接内存访问RDMA
    发表于 09-23 10:50 1338次阅读

    RDMA RNIC虚拟化方案

    远程直接内存访问(Remote Direct Memory Access,RDMA)技术允许应用程序绕过操作系统内核,以零拷贝的方式和
    的头像 发表于 01-23 17:23 1857次阅读
    <b class='flag-5'>RDMA</b> RNIC虚拟化方案

    CW32L052 DMA直接内存访问

    CW32L052支持DMA(Direct Memory Access),即直接内存访问,无需CPU干预,实现高速数据传输。数据的传输可以发生
    的头像 发表于 02-28 16:48 901次阅读
    CW32L052 DMA<b class='flag-5'>直接</b><b class='flag-5'>内存</b><b class='flag-5'>访问</b>

    DirectCXL内存分解原型设计实现

    鉴于KAIST的HPC根源,将DirectCXL原型放在一起的研究人员专注于使用远程直接内存访问RDMA
    发表于 11-15 11:14

    远程访问服务器的标准内存容量

    远程访问服务器的标准内存容量              标准内存容量是指
    发表于 01-08 14:25 721次阅读

    远程访问服务器的最大内存容量

    远程访问服务器的最大内存容量              最大内存容量是指
    发表于 01-08 14:26 766次阅读

    远程访问服务器的网络协议

    远程访问服务器的网络协议              网络协议是网络上所有设备(网络服
    发表于 01-08 14:27 1490次阅读

    PMC与Mellanox联合展示 NVMe over RDMA 以及P2P的高速传输

    的NVM访问。第二部分的演示则将Mellanox的RDMA对端发起操作与PMC的Flashtec NVRAM加速卡集成在一起,将内存映射的I/O(MMIO)作为一个RDMA目标,以实现
    发表于 04-19 16:43 3089次阅读
    PMC与Mellanox联合展示 NVMe over <b class='flag-5'>RDMA</b> 以及P2P的高速<b class='flag-5'>传输</b>

    RDMA技术有助于实现网络和设备的性能提升

    RDMA作为一种远程直接内存访问技术,可以使数据通过应用程序绕过CPU直达网卡,实现低延迟、低负载、高效率的数据
    发表于 03-28 15:03 599次阅读

    InfiniBand和远程直接访问是什么,如何进行配置

    本文简单描述了InfiniBand 和远程直接访问(RDMA)是什么,以及在实践中如何配置InfiniBand网络硬件。另外,本文档解释了如何配置与 InfiniBand 相关的服务。
    的头像 发表于 11-25 14:26 1646次阅读

    RDMA技术简介 RDMA的控制通路和数据通路方案

    RDMA 技术基于传统以太网的网络概念,但与以太网网络中的同类技术存在差异。关键区 别在于,RDMA 提供了一种消息服务,应用程序可以使用该服务直接访问远程计算机上的虚拟
    发表于 04-10 09:59 1774次阅读

    RDMA技术简介

    RDMA 指的是一种远程直接存储器访问技术。具体到协议层面,它主要包含 InfiniBand、RoCE 和 iWARP 三种
    的头像 发表于 04-13 10:48 3598次阅读

    什么是RoCE?如何实现RoCE?

    RDMA(Remote Direct Memory Access),全称远程内存直接访问技术,是一种数据传输技术。
    的头像 发表于 05-30 14:26 3.2w次阅读
    什么是RoCE?如何实现RoCE?

    数据中心以太网和RDMA:超大规模环境下的问题

    远程直接内存访问RDMA,Remote Direct Memory Access)功能引入现有以太网的一种尝试。
    的头像 发表于 07-14 16:41 4359次阅读
    数据中心以太网和<b class='flag-5'>RDMA</b>:超大规模环境下的问题

    HPC和数据中心融合网络面临的技术挑战

    随着大型DC采用具有更高带宽需求的高性能加速器,数据中心网络通过支持远程直接内存访问RDMA)、RDM
    发表于 09-15 09:56 827次阅读
    HPC和数据中心融合网络面临的技术挑战