0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

CXL对数据中心的意义

sakobpqhz6 来源:IC学习 作者:IC学习 2022-12-05 15:43 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

CXL(Compute Express Link)将成为一种变革性技术,将重新定义数据中心的架构和构建方式。这是因为 CXL 为跨芯片的缓存一致性、内存扩展和内存池提供了标准化协议。在本文中,我们将重点介绍微软正在做的事情,以帮助大家了解CXL对数据中心的意义。

数据中心是一件非常昂贵的事情。微软表示,他们高达50% 的服务器成本仅来自 DRAM。所需的资本支出是巨大的,但您构建的服务器并不是同质的。工作负载不是静态的。它们在不断地成长和进化。计算资源、DRAM、NAND 和网络类型的组合将根据工作负载而变化。

一刀切的模式是行不通的,这就是为什么您会看到云提供商拥有数十种甚至数百种不同的实例类型。这些正在尝试针对不同的工作负载优化硬件产品。即便如此,许多用户最终还是为他们真正不需要的东西付费。

实例选择并不完美,这些实例与硬件的匹配也不完美。随之而来的是平台级内存搁浅问题。服务器配置为不合适的实例类型场景。

3e4df38a-73ac-11ed-8abf-dac502259ad0.png

这个问题的解决方案是内存池。多个服务器可以共享一部分内存,并且可以动态地将其分配给不同的服务器。与其过度地配置服务器,不如将它们配置为更接近平均 DRAM 与内核的比率,并且可以通过内存池来解决客户的过多 DRAM 需求。此内存池将通过 CXL 协议进行通信。未来,随着对 CXL 协议的修订,服务器甚至可以共享相同的内存来处理相同的工作负载,这将进一步减少 DRAM 需求。

拥有大规模应用程序的复杂运营商可以通过向其开发人员提供具有不同带宽和延迟的多层内存来解决这个问题。这对于亚马逊、谷歌、微软和其他公司运营的公共云环境来说是站不住脚的。

Microsoft 概述了与公共云环境中的内存池有关的 3 个主要功能挑战。无法修改客户工作负载,包括guest操作系统。内存池系统还必须与虚拟化加速技术兼容,例如直接将 I/O 设备分配给 VM 和 SR-IOV。池化还必须可用于商用硬件。

在过去他们也试过内存池,但它需要自定义硬件设计、更改 VM guest并依赖页面错误。这种组合使其无法部署在云中。这就是 CXL 的用武之地。英特尔AMD 和多个 Arm 合作伙伴已经加入了该标准。带有 CXL 的 CPU 将于今年晚些时候开始问世。此外,三星、美光和 SKHynix 三大 DRAM 制造商也都承诺支持该标准。

即使有硬件供应商的广泛支持,仍有很多问题需要回答。在硬件方面:应该如何构建内存池以及如何平衡池大小与较大池的较高延迟?在软件方面:如何管理这些池并将池暴露给guest操作系统,云工作负载可以容忍多少额外的内存延迟?

在分布层:提供者应如何在具有 CXL 内存的机器上调度 VM,内存中的哪些项目应存储在池中与直接连接的内存中,它们能否预测内存行为和延迟敏感性有助于产生更好的性能,如果是,准确度如何这些是预测吗?

微软提出了这些问题,并试图回答这些问题。我们将在这里概述他们的发现。他们的第一代的解决方案架构取得了令人印象深刻的成果。

随着未来 CXL 版本的推出和延迟降低,这些收益可能会进一步扩大。

首先是硬件层。Microsoft 使用直接连接到 8 到 32 个插槽 CPU 的多端口外部存储器对此进行了测试。内存扩展是通过连接 CXL 的外部内存控制器 (EMC) 完成的,该控制器具有四个 80 位 ECC DDR5 池 DRAM 通道和多个 CXL 链路,以允许多个 CPU 插槽访问内存。此 EMC 管理请求并跟踪分配给各个主机的各个内存区域的所有权。

3e7248fc-73ac-11ed-8abf-dac502259ad0.png

CXL x8 通道的带宽约为 DDR5 内存通道的带宽。每个 CPU 都有自己更快的本地内存,但它也可以访问具有更高延迟的 CXL 池化内存,相当于单个 NUMA 跃点。跨 CXL 控制器和 PHY、可选重定时器、传播延迟和外部存储器控制器的延迟增加了 67ns 到 87ns。

下图显示了当前本地 DRAM 的固定百分比(10%、30% 和 50%)切换到池化资源。池化内存与本地内存的百分比越大,节省的 DRAM 就越多。就 DRAM 节省而言,增加Socket数量会很快消失。

3e99762a-73ac-11ed-8abf-dac502259ad0.png

虽然更大的池大小和更多的socket看起来是最好的选择,但这里有更多的性能和延迟影响。如果池大小降为 4 到 8 个 CPU 插槽,则不需要重定时器。这将延迟从 87ns 降低到 67ns。此外,在这些较小的插槽数中,EMC 可以直接连接到所有 CPU 插槽。

更大的 32 个插槽池将 EMC 连接到不同的 CPU 子集。这将允许在更多数量的 CPU 插槽之间共享,同时保持 CPU 端口的 EMC 设备数量固定。这里需要重定时器,这导致每个方向的延迟为 10ns。

3ecb2012-73ac-11ed-8abf-dac502259ad0.png

在软件方面,解决方案相当巧妙。

Microsoft 经常部署多插槽系统。在大多数情况下,VM 足够小,它们完全适合单个 NUMA 节点、内核和内存。Azure 的管理程序尝试将所有核心和内存放在单个 NUMA 节点上,但在极少数情况下(2% 的时间),VM 有一部分资源跨越socket。这不会暴露给用户。

内存池在功能上的工作方式相同。内存设备将作为零核虚拟 zNUMA 节点公开,没有内核,只有内存。内存偏离这个 zNUMA 内存节点,但允许溢出。粒度(granularity)是每片内存 1GB 。

分布式系统软件层依赖于对 VM 的内存延迟敏感度的预测。未触及的存储被称为“frigid memory”。Azure 估计第 50 个百分位的 VM 具有 50% 的冷(frigid)内存。这个数字似乎很圆。预计对内存延迟不敏感的 VM 完全支持池 DRAM。为内存敏感的 VM 配置了一个 zNUMA 节点,仅用于它们的冷内存。预测是在虚拟机部署时完成的,但它是异步管理的,并在检测到预测不正确时更改虚拟机放置。

这些算法的准确性对于节省基础设施成本至关重要。如果操作不当,性能影响可能会很大。

3f01ce6e-73ac-11ed-8abf-dac502259ad0.png

考虑到潜在的性能影响可能是巨大的,将云居民(cloud resident)的内存移动到 67ns 到 87ns 的池中是非常糟糕的。

因此,Microsoft 在两种情况下对 158 个工作负载进行了基准测试。一种是只有本地 DRAM 的控制。另一个是模拟 CXL 内存。应该强调的是,尽管英特尔早前声称其支持 Sapphire Rapids CXL 的平台将于 2021 年底推出。或者声称 Sapphire Rapids 将于 2022 年初推出。因此,微软必须模拟延迟影响。Microsoft 使用了 2 路 24C Skylake SP 系统。

3f4d6dd8-73ac-11ed-8abf-dac502259ad0.png

当带宽超过 80GB/s 时,内存访问延迟为 78ns。当一个 CPU 跨 NUMA 边界访问另一个 CPU 的内存时,会导致额外的 64ns 内存延迟。这非常接近外部存储设备 (EMC) 在低插槽数系统中的 67ns 额外延迟。

20% 的工作负载没有性能影响。另有 23% 的工作负载出现了不到 5% 的减速。25% 的工作负载严重减速,性能下降超过 20%,其中 12% 的工作负载甚至出现超过 30% 的性能下降。根据工作负载的本地与池内存量,该数字会发生相当大的变化。

3f8cdcfc-73ac-11ed-8abf-dac502259ad0.png

这进一步强调了预测模型的重要性。Microsoft 的基于随机森林(random forest) ML 的预测模型更准确,并且产生的误报减速更少。随着更多的内存被池化,越多变得越重要。

随着 CXL 规范的改进、延迟的降低和预测模型的改进,内存池节省的可能性可能会增长到云服务器成本的两位数百分比

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    463

    文章

    54463

    浏览量

    469619
  • NAND
    +关注

    关注

    16

    文章

    1766

    浏览量

    141311
  • 数据中心
    +关注

    关注

    18

    文章

    5780

    浏览量

    75212

原文标题:为什么看好CXL?一文看懂!

文章出处:【微信号:IC学习,微信公众号:IC学习】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    高密度布线在数据中心建设中的挑战与应对策略

    数据中心作为信息时代的核心基础设施,承担着数据存储、处理和传输的重要任务。随着云计算、大数据、人工智能等技术的快速发展,数据中心数据量呈现
    的头像 发表于 04-16 09:51 420次阅读

    AOC光纤跳线在数据中心的应用与发展趋势

    数据中心作为信息时代的核心基础设施,承担着数据的存储、处理和传输等重要任务。随着云计算、大数据、人工智能等技术的快速发展,数据中心数据量呈
    的头像 发表于 02-25 09:57 245次阅读

    1分钟带你了解数据中心供电架构 #电子元器件 #数据中心 #供电架构

    数据中心
    沛城芯动力
    发布于 :2026年02月03日 15:39:04

    数据中心UPS并机方案:公用电池组的优缺点深度分析

    数据中心
    上海优比施电子科技有限公司
    发布于 :2026年01月31日 09:32:34

    数据中心发展的三大驱动力

    “新基建”的大背景下,数据中心行业发展迅猛。数据中心是数字经济时代的数字银行和数据资源库,新兴产业的未来发展,数据中心是核心基础设施平台,所有的互联网和大
    的头像 发表于 12-26 10:34 537次阅读

    CPU 一脚油门电压猛跌?叠层超低ESR电容把“过山车”拉平 #数据中心#网关

    数据中心
    上海永铭电子股份有限公司
    发布于 :2025年12月22日 14:59:05

    新思科技ZeBu助力富士通数据中心创新

    全球企业和政府正积极寻求解决方案,应对数据中心能耗迅速增长问题,开发下一代“绿色”数据中心——既具备高性能,又兼具高能效的设施。全球科技巨头富士通在先进处理器开发领域已领先 60 年,致力于开发更节能、更可持续的数据中心
    的头像 发表于 12-17 10:26 882次阅读

    人工智能数据中心的光纤布线策略

    随着人工智能(AI)技术的飞速发展,数据中心的光纤布线策略正面临前所未有的挑战和机遇。AI的高带宽需求、低延迟要求以及大规模并行计算的特点,对数据中心的光纤布线提出了更高的要求。本文将从多个方面探讨
    的头像 发表于 11-21 10:21 629次阅读

    物联网数据中心是什么?有什么功能?

    物联网数据中心是集成和管理物联网设备数据的核心平台,具备数据采集、处理、存储、分析、可视化及安全管控等功能,其本质是通过技术融合实现物理世界与数字世界的双向交互与智能决策。以下从定义、功能、技术特点
    的头像 发表于 09-22 17:14 1311次阅读

    澜起科技推出CXL® 3.1内存扩展控制器,助力下一代数据中心基础设施性能升级

    下一代数据中心服务器提供更高带宽、更低延迟的内存扩展和池化解决方案。 澜起科技CXL 3.1内存扩展控制器采用PCIe® 6.2物理层接口,支持最高64 GT/s的传输速率(x8通道),并具备多速率
    的头像 发表于 09-01 10:56 1007次阅读

    中型数据中心中的差分晶体振荡器应用与匹配方案

    中型数据中心的定义与特点 中型数据中心通常服务于中大型企业、科研机构或地方行业节点,具备50至200个机柜,部署多台服务器、交换设备、存储系统与光通信链路等,强调高带宽、低延迟与高可用性。关键设备
    发表于 07-01 16:33

    小型数据中心晶振选型关键参数全解

    小型数据中心的定义与应用 小型数据中心通常是为中小型企业、边缘计算、物联网(IoT)设备及其他特定业务需求提供计算、存储和网络服务的设施。与大型数据中心相比,小型数据中心的物理空间较小
    发表于 06-11 13:37

    曙光数创SLiquid智能运维系统解决数据中心运维难题

    对数字时代的海量需求,传统数据中心正遭遇系统性挑战:告警风暴引发的故障定位迟滞、能效困局导致的PUE优化瓶颈、资产迷雾造成的资源错配、容量盲区引发的规划失焦。这些问题严重阻碍了数据中心从成本
    的头像 发表于 06-03 10:21 1141次阅读

    数据中心都在用的差分晶振,看完你就懂了

    数据中心
    FCom富士晶振
    发布于 :2025年05月30日 13:12:30

    数据中心液冷技术和风冷技术的比较

    近年来,随着数字经济的蓬勃发展,数据中心建设规模不断扩大,导致机房单位面积功耗居高不下,对数据中心散热制冷技术提出了更高的要求。同时,根据国家对数据中心的节能要求,全国范围内新建数据中心
    的头像 发表于 05-09 09:41 4711次阅读
    <b class='flag-5'>数据中心</b>液冷技术和风冷技术的比较