为何要进行数据中心聚合?
围绕数据中心聚合的宣传,以及选择FCoE还是iSCSI之间的斗争会使人忽略核心的问题:最终所有的存储都将通过生产环境的Ethernet网络传输,而工程师必须为这个转变做好准备。
听供应商的介绍会让人心烦意乱,因为他们讲的每件事都是从自己的角度出发看问题。Cisco Systems和Brocade是FCoE的主要推动者。而同时,Dell告诉它的客户在Ethernet上使用iSCSI是聚合发展方向。诸如Intel这样的芯片供应商和诸如QLogic和Emulex这样的网络适配器供应商则都积极准备,以支持企业选择的任意一种技术。
企业必须忽视供应商的宣传,相反要考虑他们现有的基础架构投入,以便决定选择哪种技术。他们也必须理解网络聚合可能是小规模地增长,不可能在短期内超过机架级的增长。
“一般当客户来找我们时,他们已经选择了一种聚合类型,而我们必须让他们了解到实际上还有很多不同的选择,并且它们不是互相排斥的,”大型系统集成商的数据中心实践技术解决方案架构师Joe Onisick说道。
为什么需要数据中心网络聚合?
随着10Gigabit Ethernet (GbE)、服务器虚拟化和其它技术的广泛应用,企业必须认真处理网络聚合,以便控制资金和运营花费,并降低复杂性。
“如果您在一个机架上部署了很多服务器,特别是VMware机架,那么您可能需要为每台服务器配备10条Gigabit Ethernet铜线连接和2条Fibre Channel连接,”位于田纳西州的连锁医院Wellmont Health System的技术总监Darren Ramsey说道。“假如您的机架上有10台服务器,那就需要120条电缆。这要耗费大量的人力,是非常不灵活的布线,并且会产生大量的热量。同时,交换机端口也不便宜。”
在他的数据中心中,Ramsey最近通过使用Cisco的Nexus线在8个虚拟化Dell服务器机架中引进了网络聚合。他将每台服务器上的10个NICS和2个主线适配器(HBA)合并为2个QLogic聚合网络适配器(CAN),从而为冗余的顶级机架Nexus 2232 Fabric Extenders提供2条10 GbE FCoE连接。全部共8对Nexus 2232 Fabric Extenders将上行流连接到2台冗余的Nexus 5020交换机上。存储和数据流量通过FCoE聚合到Nexus 5020上。这样,存储流量就可以返回到本地Fibre Channel,然后连接到存储区网络(SAN)中的一对Cisco MDS 9506 Director交换机上。生产数据流量会继续连接上行到Catalyst 6509交换机。
“FCoE优化并减少了我们所需的Fibre Channel端口数,因为所有的主机现在都直接在Nexus上运行,”Ramsey说道。“我们不再需要从服务器直接连接到MDS上。同时它还减少了每个机架的复杂性。当我们在每台服务器上使用2条10 Gigabit连接时,我们就能够在该设备上运行更多的虚拟机。”
非常好我支持^.^
(1) 100%
不好我反对
(0) 0%
相关阅读:
- [电子说] IBM Security可落地经验助企业构筑现代化安全屏障 2023-10-24
- [电子说] Andes旗下高性能多核矢量处理器IP的AX45MPV正式上市 2023-10-24
- [电子说] Marvell高速芯片互连采用台积电最新3nm工艺,传输速率每秒240Tbps 2023-10-23
- [电子说] 用芯连接,渠道共创 | 2023英特尔中国区数据中心渠道客户会高能集锦 2023-10-21
- [处理器/DSP] 深入探讨Granite Rapids和Sierra Forest处理器架构技术 2023-10-20
- [通信网络] 智算中心网络架构设计及组网实践案例 2023-10-20
- [电子说] 高带宽低延时远程flash访问架构解析 2023-10-20
- [电子说] 数据中心短缺:人工智能未来的致命阻碍? 2023-10-20
( 发表人:叶子 )