随着云计算技术的进步,数据中心的架构内存安排发生了重大变化。为了增强计算能力和广泛的数据处理,需要集成擅长处理特定工作负载的加速器。虽然这些设备已经通过PCI Express连接,但计算快速链路可以进一步改善优化,因为它允许对各种系统组件进行异构处理。
PCI Express是用于将主机处理器连接到加速器设备的最常见技术。它是一种高性能、行业标准的串行 I/O 接口,专为在企业、桌面和嵌入式应用中使用而开发。
同时,PCIe在具有大型共享内存池和大量需要高带宽的设备的系统中存在局限性。由于每个 PCIe 层次结构都使用单个 64 位地址空间,因此 PCIe 未提供支持一致性的技术,并且无法充分维护单独的内存池。此外,PCIe 链路具有太多的延迟,无法有效地管理系统中多个设备之间的共享内存。
因此,计算密集型工作负载需要与更快的数据流连接,以有效地扩展数据中心中的异构计算。计算高速链路 (CXL) 通过利用 PCI 高速 5.0 的物理和电气接口来挑战一些限制。这项新技术提高了内存容量和带宽,并降低了延迟。它是高速通信的接口,因为加速器越来越多地用于补充CPU以支持新兴应用。
什么是断续器?
计算高速链路 (CXL) 是一种开放的行业标准内存互连。它旨在为当今数据中心中使用的许多类型的内存提供高性能连接,例如CPU,TPU,GPU和其他处理器类型。
CXL 利用 PCIe 5.0 的物理层基础架构在主机和所有设备之间创建公共内存空间。缓存一致性标准可确保主机处理器和 CXL 设备在访问数据时看到相同的数据。CPU 主机主要负责一致性管理,允许 CPU 和设备共享资源以获得更高的性能并降低软件堆栈的复杂性,从而降低设备总成本。
除了原始性能外,CXL还有其他优势。该技术是开源的,不像美光的3D Xpoint,这是迄今为止最接近高性能内存互连的方法。美光和英特尔现在正在对冲他们对CXL的赌注,而不是专有技术。NVIDIA 和 AMD 的硬件系统还使用 CXL 来互连内存和外部处理单元,以优化性能。NVIDIA的GPU与CXL设计相结合,进行了如此广泛的计算,并在内存设计中进行了一些更改。
这种转变的最重要结果将是CXL消除专有内存互连。它是必不可少的,因为有几种类型的企业存储,每个处理器都通过专有连接访问它们。这可能会使企业存储基础架构变得复杂,并且无法预测其性能。
现在,由于CXL,每个处理器都将能够访问所有类型的内存。这将允许单独的处理器共享相同的内存池。它不仅对于数据中心至关重要,而且对于开发通常使用CPU,GPU和TPU的AI神经网络和深度机器学习系统等技术也至关重要。
CXL 事务层协议
凭借与 PCIe 5.0 相似的带宽,CXL 使用三种动态多路复用的事务层协议:CXL.io、CXL.缓存和 CXL.内存,以在 PCIe 上获得优势。
CXL.io 协议几乎与 PCIe 5.0 相同。它用于设备发现、配置、寄存器访问、中断、虚拟化和批量 DMA。
CXL.cache 是一种可选协议,用于定义主机和设备之间的交互。这允许连接的 CXL 设备使用请求和响应方法以极低的延迟高效缓存主机内存。
CXL.memory 是一种可选协议,它使用加载和存储命令为主机处理器提供对加速器连接的内存的直接访问。加速器连接的内存被 CPU、GPU 或 TPU 视为额外的地址空间,从而提高效率并降低延迟。
CXL 对存储的影响
CXL依赖于存储,并将对其产生影响。它将允许存储系统使用更大的内存池进行缓存。该技术有利于使用内存作为缓存的存储应用程序或系统。这一点至关重要,因为虽然许多ISP定期限制带宽,但临时数据存储正在成为数据中心性能的关键方面。
商用存储系统中目前可用的最大 DRAM 缓存为 3 TB。尽管使用 MemVerge 或福尔穆卢斯黑色,但特定的软件定义存储可以使用英特尔傲腾 PMem 将该缓存扩展到 4.5 TB。但是,这对除最富有的组织之外的所有组织的缓存内存施加了硬性限制。幸运的是,CXL 通过允许存储软件跨多个存储介质缓存数据来解决此问题。
审核编辑:郭婷
-
处理器
+关注
关注
68文章
19170浏览量
229179 -
云计算
+关注
关注
39文章
7742浏览量
137208 -
数据中心
+关注
关注
16文章
4695浏览量
71963
发布评论请先 登录
相关推荐
评论