0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVMe-oF的优势及未来

SSDFans 来源:ssdfans 作者:ssdfans 2021-01-05 17:42 次阅读

NVMe over Fabric(又名NVMe- oF)是一种新兴技术,它支持对数据中心的计算和存储进行分解。美光科技正通过与Marvell、Foxconn-Ingrasys和英伟达(NVIDIA)等关键技术合作伙伴的合作,共同解锁NVMe-oF技术可以带来的优势。我们还在开发创新技术,如异构存储器存储引擎(HSE),这将有助于使用NVMe-oF优化对闪存的大规模访问。

NVMe-oF是什么?

NVMe- oF从字面上来看是网络上的NVMe协议的扩展,其扩展范围远远超出了目前搭载SSD的服务器。NVMe早在2011年就出现了,而fabrics扩展则在2016年首次标准化。NVMe-oF继承了NVMe的所有优点,包括轻量级和高效的命令集、多核感知和协议并行性。NVMe-oF是真正的网络无关的,因为它支持所有常见的fabrics,包括光纤通道、InfiniBand和以太网。图1比较了NVMe和NVMe- of模型,并标注出了用户可用的各种网络和网络传输选项。

33d85f06-4f39-11eb-8b86-12bb97331649.png

图1 NVMe和NVMe-oF模型对比

从图1可以看出,有两种以太网传输选项,RoCE v2和NVMe-TCP,每一种都各有优缺点。RoCE v2延迟较低,但需要专用的支持RDMA的NIC (RNIC);NVMe-TCP不需要专用的RNIC,但是其传输延迟和CPU使用率都更高,它使用的是标准NIC。相比之下,RoCE v2目前在市场上更为流行。

NVMe over Fabrics的优势是什么?

使用NVMe就意味着只能使用基于PCIe交换机的服务器机架。虽然这是一种完全有效的存储扩展方法,但它的范围是非常有限的。NVMe-oF则允许在数据中心范围内连接无数的存储空间。

如今,NVMe-oF已经很成熟了,许多用户接受了将全闪存阵列(AFA)连接到服务器的技术。然而,NVMe-oF的优势只有在计算和存储完全分开时才能完全发挥出来。也就是说,通过网络将一个NVMe SSD池提供给一个服务器池,这种方式允许按需提供计算和存储。计算和存储的分解提升了存储的可伸缩性和可共享性,并支持可组合性,如图2所示。

34193f1c-4f39-11eb-8b86-12bb97331649.jpg

图2 计算和存储分解图

分类存储的另一个维度是存储服务(即数据保护、复制、压缩等)。存储服务可以由服务器(onload模型)管理,也可以卸载到接近实际存储的数据处理单元(DPU)。onload模型需要消耗额外的CPU周期和网络带宽,可以实现成本最小化,而卸载模型的成本较高,并且根据供应情况,可能产生瓶颈。由于onload模型的TCO(总成本)优势,大规模追求低成本存储使其附加了存储策略。

什么是EBOF、JBOF和JBOD ?

全闪存阵列有两种接入方式: 通过网络接入(EBOF)和直接连接 (JBOF)。不要混淆JBOF和JBOD(只是一堆磁盘)。JBOD通常用于在PCIe上使用NVMe扩展机架中的存储。EBOF或JBOF可以使用NVMe-oF在数据中心之间扩展存储。如图3所示,JBOF使用PCIe交换机向SSD扩展,而EBOF使用以太网交换机向SSD扩展。JBOF和EBOF都使用NVMe-oF连接回服务器。

348b85a4-4f39-11eb-8b86-12bb97331649.png

图3 EBOF 和 JBOF对比图

除了以太网和PCIe交换之外,这两种方法的主要区别在于从NVMe到NVMe-oF的转换发生在哪里。在JBOF上,转换或桥接是在外围使用一个或多个DPU (x DPU到y SSD, x:y比率)。在EBOF上,桥接在SSD载体完成(x桥接到x SSD, 1:1的比例)。虽然JBOF有使用DPU的处理能力来运行存储服务的优势,但它确实存在一个潜在的瓶颈,并且和EBOF模型相比,带来了额外的成本,具有一些新功能。当桥与固态硬盘的比例不是1:1时,成本权衡和瓶颈问题就开始显现出来了。

使用Marvell 88SN2400和Foxconn-Ingrasys EBOF测试系统

通过与Marvell和Foxconn-Ingrasys的合作,我们一直在NVMe- oF环境中测试Micron 7300主流NVMe SSD,并在各种不同的应用程序和工作负载下进行测试。

在介绍测试结果之前,让我们先看一下Foxconn-Ingrasys EBOF和Marvell的88SN2400转换器控制器和PresteraCX 8500交换机。

Marvell的88SN2400是一款用于云和企业数据中心的SSD转换器的NVMe控制器。这与Marvell交换机相结合,本质上允许用户在NVMe和NVMe- oF之间进行转换或“桥接”。88SN2400转换器控制器是Foxconn-Ingrasys EBOF的一个关键组件,与Micron 7300 SSD一起,使高性能2U存储器达到高达73.1 GB/s的带宽和高达2000万IOPs。图4显示了Foxconn-Ingrasys EBOF,在2U机箱中有24 U.2插槽。

Foxconn-Ingrasys U.2 Carrier采用标准的U.2 SSD格式。U.2载波支持双以太网端口,以解决需要路径冗余的应用程序,它在驱动器侧有一个PCIe Gen3 x4用于NVMe SSD。

Marvell的88SN2400转换器控制器支持RoCE v2和NVMe-TCP传输。然而,在我们的测试中,我们关注的是RoCE v2。

如何使用NVIDIAGPUDirect存储(GDS)进行扩展?

我们一直在使用NVIDIAGPUDirect存储(GDS)在人工智能机器学习工作负载方面进行大量工作。我们想通过将Foxconn-Ingrasys EBOF与Marvell的88SN2400转换器控制器连接到NVIDIA DGXA100系统,来了解在fabrics环境中事物是如何伸缩的。这是一个简单的gdsio (GPUDirect Storage I/O)工具测试,可以比较在NVMe-oF环境中使用和不使用GDS的带宽和延迟。

3552fc9c-4f39-11eb-8b86-12bb97331649.png

图6 DGX A100 with EBOF

在图6中,有一个装载了Micron 7300 SSD的EBOF,它使用8个计算网络端口中的6个直接连接到NVIDIA DGXA100,提供600gb /s的可用网络带宽。GDS可以让数据在对等点之间直接传输,跳过了在GDS未启用时使用的高延迟反弹缓冲区。在这个测试中,我们将SSD的全部能力(约61 GB/s)用于工作负载。未来的测试将添加一个以太网交换机,并进一步扩大EBOF的数量。

NVMe-oF如何与HSE形成规模?

Micron一直在研究一些惊人的技术,其中之一是异构内存存储引擎(HSE)。HSE是一个闪存感知的存储引擎,它提高了存储类内存(SCM)和SSD的性能。它还通过减少写放大增加了SSD的有效寿命,所有这些都在大规模部署的情况下进行。NVMe-oF是进一步扩大HSE规模的理想途径。为了验证HSE在Fabric附加存储环境下的有效性,我们使用MongoDB和YCSB (Yahoo!云服务基准)。在图7中,我们比较了使用本地Micron 7300 SSD的默认内置MongoDB存储引擎(WiredTiger)和使用Micron 7300 SSD的Micron HSE在EBOF中的性能。

3599fd5e-4f39-11eb-8b86-12bb97331649.png

图7 WiredTiger和HSE对比图

与MongoDB中使用的带有本地SSD的传统WiredTiger存储引擎相比,HSE在fabric环境中的有效性是非常显著的。可以实现每秒5倍的YCSB操作改进,降低42%的延迟,同时增加了存储的可伸缩性。

NVMe-oF的未来是什么?

NVMe-oF是一种创新技术,它最终将使数据中心完全分解,在这些中心中,可以组合应用程序,然后以一种经济有效的方式动态地提供适量的计算和存储。

如今,人们使用低成本桥接器或基于处理器的平台来连接NVMe SSD,并将其桥接到EBOF或JBOF。在未来,我们可能会看到SSD的本地NVMe进一步降低TCO并提高性能。

美光科技正在设计下一代数据中心SSD,其功能和特性针对NVMe应用进行了优化。

责任编辑:xj

原文标题:再见,Intel!GPU直连NVMe SSD!

文章出处:【微信公众号:ssdfans】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4733

    浏览量

    128911
  • intel
    +关注

    关注

    19

    文章

    3482

    浏览量

    185949
  • SSD
    SSD
    +关注

    关注

    21

    文章

    2859

    浏览量

    117382
  • nvme
    +关注

    关注

    0

    文章

    221

    浏览量

    22629

原文标题:再见,Intel!GPU直连NVMe SSD!

文章出处:【微信号:SSDFans,微信公众号:SSDFans】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    三个月开发NVMe IP 不是梦

    开发NMVe IP 难在哪?时间不等人,有什么简洁方式?NVMe协议相对复杂,过程调试不尽如意,采用开发板上机调试,耗时太长,不清楚如何排查问题,种种原因导致目前开发NVMe IP成为难点。 现在
    的头像 发表于 12-06 16:21 144次阅读
    三个月开发<b class='flag-5'>NVMe</b> IP 不是梦

    存储技术未来演进:NVMe over Fabrics (NVMeoF)

    众所周知,NVMe 是一个逻辑设备接口规范,NVM代表非易失性存储器(Non-Volatile Memory)的首字母缩略字,是固态硬盘(SSD)的常见的闪存形式。SSD 通常分为两类接口:SATA
    的头像 发表于 11-16 10:44 637次阅读
    存储技术<b class='flag-5'>未来</b>演进:<b class='flag-5'>NVMe</b> over Fabrics (NVMeoF)

    一文详解 ALINX NVMe IP 特性

    - ALINX NVMe IP - 在当下数据驱动的时代,企业对高性能存储解决方案的需求不断增加。NVMe AXI IP 凭借其支持大数据量、高速传输、低延迟等存储性能优势,成为众多开发者和企业
    的头像 发表于 11-14 13:59 232次阅读
    一文详解 ALINX <b class='flag-5'>NVMe</b> IP 特性

    浅谈ALINX NVMe IP产品特性

    在当下数据驱动的时代,企业对高性能存储解决方案的需求不断增加。NVMe AXI IP 凭借其支持大数据量、高速传输、低延迟等存储性能优势,成为众多开发者和企业的理想选择。
    的头像 发表于 11-14 11:27 235次阅读
    浅谈ALINX <b class='flag-5'>NVMe</b> IP产品特性

    Synology如何使用Nvme固态做存储空间

    Synology 如何使用Nvme固态做存储空间
    发表于 10-09 10:55 0次下载

    得瑞领新亮相2024云栖大会,展现企业级NVMe SSD创新实力

    在2024云栖大会上,得瑞领新展示了企业级NVMe SSD解决方案在云计算、大数据和金融等领域的优势,提升数据处理效率的同时优化了能耗管理,为企业数字化转型提供了强有力支持,吸引了众多参会者关注。
    的头像 发表于 09-24 15:23 334次阅读
    得瑞领新亮相2024云栖大会,展现企业级<b class='flag-5'>NVMe</b> SSD创新实力

    基于RDMA技术的Mayastor解决方案

    : 基于NVMe-oF: Mayastor利用NVMe-oF协议,这是一种基于网络的NVMe访问方法,允许NVMe设备通过以太网或其他网络结构进行远
    的头像 发表于 08-20 18:47 1251次阅读
    基于RDMA技术的Mayastor解决方案

    m2接口sata和nvme怎么区分

    M.2接口是一种常见的固态硬盘接口,它支持SATA和NVMe两种不同的协议。这两种协议在性能、功耗、价格等方面存在一定的差异,因此在选择固态硬盘时,了解它们的区别是非常重要的。本文将详细介绍M.2
    的头像 发表于 07-10 10:19 5054次阅读

    高性能NVMe主机控制器,Xilinx FPGA PCIe 3

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 04-20 14:41

    高性能NVMe主机控制器,Xilinx FPGA NVMe Host Accelerator IP

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 04-10 22:55

    Xilinx FPGA高性能NVMe SSD主机控制器,NVMe Host Controller IP

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 03-27 17:23

    Xilinx FPGA NVMe主机控制器IP,高性能版本介绍应用

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 03-09 13:56

    NVMe Host Controller IP实现高性能存储解决方案

    电子发烧友网站提供《NVMe Host Controller IP实现高性能存储解决方案.pdf》资料免费下载
    发表于 02-21 14:28 2次下载

    Xilinx FPGA NVMe Host Controller IP,NVMe主机控制器

    NVMe Host Controller IP1介绍NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备
    发表于 02-21 10:16

    Xilinx FPGA NVMe控制器,NVMe Host Controller IP

    NVMe Host Controller IP可以连接高速存储PCIe SSD,无需CPU和外部存储器,自动加速处理所有的NVMe协议命令,具备独立的数据写入AXI4-Stream/FIFO接口和数
    的头像 发表于 02-18 11:27 894次阅读
    Xilinx FPGA <b class='flag-5'>NVMe</b>控制器,<b class='flag-5'>NVMe</b> Host Controller IP