0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

风冷GPU服务器和水冷GPU服务器的综合分析

GPU视觉识别 来源:GPU视觉识别 作者:GPU视觉识别 2022-02-17 10:37 次阅读

导语

随着互联网、大数据、云计算、高性能计算的快速发展,数据中心面临着严峻的挑战。主要归结于GPU驱动应用程序推动,使得业务和IT增长需协调一致。随着数据中心内部温度升高,运营商正争先恐后地寻找可行、更节能的散热解决方案。在此我们将讨论其中最可行和最实用的冷却方法,并对比分析风冷冷却和液体冷却。

1 冷却技术运作原理

风冷冷却

传统的风冷数据中心通过空气处理机上的进气口将外部空气带入。空气被计算机房空调(CRAC)单元冷却,然后在高架地板带动下进入服务器机架"冷过道"。冷空气通过并冷却服务器,然后离开"热通道",通过充气室排放返回空气处理器

图片

液体冷却

液体冷却的工作原理是:液体相较于空气是更好的热导体。

服务器垂直安装在水平定向的介质(电非导电)流体冷却液槽中。

冷却液通过与服务器组件的直接接触传递热量。

加热的冷却液从机架顶部流出,并在机架和连接到温水回路的冷却分配单元(CDU)之间循环。另一侧包含冷却塔或干式冷却器作为散热最终形式。

冷却的液体从热交换器返回到机架。

图片

2 复杂性和前期成本

图片  

风冷冷却

看似简单的服务器机架系统实际上有很多活动部件:高架地板,通道遏制策略,冷却器,空气处理器,湿度控制,过滤系统和增压室的某种组合。为了支持上述功能,风冷数据中心还必须运行相对较大的辅助基础设施(特别是备用发电机、UPS和电池)。

这些必要的复杂性等同于相对较大资本支出(CAPEX)。

液体冷却

自 2009 年开创该技术以来,一直在挖掘液体冷却的最大价值(简单性)。

考虑只需三个活动部件:冷却液泵,水泵和冷却塔,干式冷却风扇,并且不需要高架地板,也不需要通过通道封闭浪费空间。液体冷却可以将数据中心的资本支出降低50%甚至更低。

由于机架可以紧密地间隔在一起,液体冷却不需要对气流进行CFD分析,甚至可放置在裸露的混凝土地板上。电气支持系统缩小尺寸。

在假设简单性会影响性能之前,补充一点说明GRC ICEraQ™系统可以轻松冷却100 kW /机架(甚至更高),远远超过最好的风冷操作能力。

3 效率和运营费用

图片

风冷冷却

显而易见空气是比液体更有效的热导体(效率低1200倍) 。不仅使风冷数据中心本质上效率降低,而且会产生连锁反应,对运营费用产生严重影响。

风扇占服务器功耗的20%。为提高空气有效性,需冷却器和空气处理器等消耗能源的制冷组件。这些反过来又会影响电力基础设施规模。

鉴于上述情况,风冷冷却需要数据中心技术中极高的运营费用,同时大约产出1.35至1.69的PUE。

液体冷却

用三个移动部件(GRC移除风扇以优化服务器浸入式),零制冷组件,大大降低基础设施要求,液体冷却使冷却能量减少90%,数据中心总能耗降低50%。因此,可以实现<1.03的PUE。

从电力角度来看,风冷冷却基础设施不仅增加成本,而且还可能附带高昂的维护费用。液体冷却则没有这些问题。

4 冷却能力和高密度性能

风冷冷却

确实,一些风冷数据中心能够冷却30-35 kW机架。但实际上,风冷数据中心在15 kW 机架以上非常低效。

行业趋势使形势变得更为严峻。耗电 GPU 正在进军,以应对物联网AI 等 HPC 应用。用一个例子说明,英特尔®的新Skylake版本消耗高达250 W的能量。将其中两个放在1U服务器上,为其他电子设备添加200 W以上,乘以40服务器,基于CPU的系统则有28 kW。添加处理器和加速器,将远远超出风冷冷却的限制。

为满足以上需求,数据中心运营商倾向于创建混合密度的机架。就风冷而言,不可避免地会导致热点,从而导致硬件故障。

值得一提的是,硬件演变将为风冷数据中心的运营商(下一次硬件更新)带来真正的清算时刻。

图片

液体冷却

GRC ICEraQ™和 ICEtank™系统通过精心设计突破热障,将数据中心计算带入下一次演进,甚至更进一步。任何一种解决方案都可以轻松冷却每个机架高达100 kW的功率,理论上与冷却液一起使用时可以冷却高达200 kW的功率。

4 可靠性和位置灵活性

风冷冷却

任何风冷冷却技术都注定要面临硬件可靠性问题。究其原因在于IT资产暴露于潜在有害的空气污染物以及空气本身的不利影响(主要指腐蚀和氧化)。

风险取决于空气质量和无调节空气本身的自然湿度水平。显然,湿度高、空气污染或风吹颗粒物的地方都可能会对数据中心造成严重破坏。随着对远程边缘部署的需求增加,这些问题也会凸显出来。

说到位置灵活性,风冷冷却固有的复杂性和巨大的基础设施要求为数据中心的放置带来重大障碍。

综上所述,即便采用最佳的通道布置方法,传统的风冷冷却也会产生导致硬件故障的热点。

液体冷却

三个主要因素使液体冷却在此类别中得分最高:

市场上最简单实用冷却形式。出错的更少:没有冷却器,空气处理器,湿度控制等;并且没有服务器风扇来产生可以增加MTBF(平均故障间隔时间)的振动。

沉浸式处理,使IT资产与外部空气完全隔离,从而消除环境问题。

数据中心中没有热点。事实上,ICEraQ或ICEtank系统中的任何两个点都在两个温度范围内工作。

5 蓝海大脑水冷GPU服务器

Water Cool (JD).png

基于蓝海大脑超融合平台的水冷GPU服务器及水冷GPU工作站采用 Gluster 分布式架构设计提供大存储量,拥有开放融合的特性和超能运算的能力。支持多块GPU显卡,提供出色的静音效果和完美的温控系统。借助 NVIDIA GPU计算卡可加快神经网络的训练和推理速度,更快地创作精准的光照渲染效果,提供高速视频、图像、声音等处理能力,加速AI 并带来更流畅的交互体验。

6 总结

综上所述,随着数据中心的规模越来越大,部署的机架越来越密集,对服务器负载的要求越加苛刻,传统的风冷冷却技术不再满足数据中心的制冷要求。为解决这个问题,很多企业在其数据中心开始采用液体冷却技术。

审核编辑:符乾江

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    12

    文章

    8954

    浏览量

    85069
  • 数据中心
    +关注

    关注

    16

    文章

    4630

    浏览量

    71882
收藏 人收藏

    评论

    相关推荐

    GPU服务器和传统的服务器有什么区别

    GPU服务器与传统的服务器在多个方面存在显著差异,主机推荐小编为您整理发布GPU服务器和传统的服务器
    的头像 发表于 11-07 11:05 74次阅读

    GPU服务器AI网络架构设计

    众所周知,在大型模型训练中,通常采用每台服务器配备多个GPU的集群架构。在上一篇文章《高性能GPU服务器AI网络架构(上篇)》中,我们对GPU
    的头像 发表于 11-05 16:20 113次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>服务器</b>AI网络架构设计

    GPU高性能服务器配置

    GPU高性能服务器作为提升计算速度和效率的关键设备,在各大应用场景中发挥着越来越重要的作用。在此,petacloud.ai小编为你介绍GPU高性能服务器的配置要点。
    的头像 发表于 10-21 10:42 131次阅读

    GPU服务器用途

    GPU服务器凭借其强大的并行计算能力和高效的数据处理能力,在人工智能、科学计算、金融分析、医疗健康、媒体娱乐等多个领域展现出巨大的应用潜力和价值。
    的头像 发表于 10-18 10:17 86次阅读

    GPU服务器在AI训练中的优势具体体现在哪些方面?

    GPU服务器在AI训练中的优势主要体现在以下几个方面: 1、并行处理能力:GPU服务器拥有大量的并行处理核心,这使得它们能够同时处理成千上万个计算任务,极大地加速了AI模型的训练过程。
    的头像 发表于 09-11 13:24 293次阅读

    GPU服务器架构解析及应用优势

    GPU服务器作为一种高性能计算资源,近年来在人工智能、大数据分析、图形渲染等领域得到了广泛应用。它结合了云计算的灵活性与GPU的强大计算能力,为企业和个人用户提供了一种高效、便捷的计
    的头像 发表于 08-14 09:43 297次阅读

    gpu服务器与cpu服务器的区别对比,终于知道怎么选了!

    gpu服务器与cpu服务器的区别主要体现在架构设计、性能特点、能耗效率、应用场景、市场定位等方面,在以上几个方面均存在显著差异。CPU服务器更适合数据库管理和企业应用,而
    的头像 发表于 08-01 11:41 412次阅读

    算力服务器为什么选择GPU

    随着人工智能技术的快速普及,算力需求日益增长。智算中心的服务器作为支撑大规模数据处理和计算的核心设备,其性能优化显得尤为关键。而GPU服务器也进入了大众的视野,成为高性能计算的首选。那么,为什么算力
    的头像 发表于 07-25 08:28 463次阅读
    算力<b class='flag-5'>服务器</b>为什么选择<b class='flag-5'>GPU</b>

    ai服务器是什么架构类型

    架构的AI服务器通常具有较高的通用性,可以运行各种人工智能算法。但是,CPU架构的AI服务器在处理大规模并行计算时,性能可能不如GPU架构的AI服务器
    的头像 发表于 07-02 09:51 868次阅读

    新手小白怎么学GPU服务器跑深度学习?

    新手小白想用GPU服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU服务器深度学习?
    发表于 06-11 17:09

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别有哪些

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别 GPU
    的头像 发表于 01-30 15:31 786次阅读

    超微gpu服务器评测

    随着科技的不断发展和进步,GPU服务器在大数据分析、深度学习、人工智能等领域正变得越来越重要。而超微GPU服务器因其出色的性能和高度定制化的
    的头像 发表于 01-10 10:37 1208次阅读

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别

     相比于传统的CPU服务器GPU服务器支持同时计算大量相似的计算操作,可以实现更强的并行计算性能。GPU服务器通常配备多个高性能的
    的头像 发表于 12-02 17:20 1834次阅读

    M53水冷服务器

    服务器
    Rykj365
    发布于 :2023年11月29日 15:08:38

    大模型算驱动AI服务器行业报告

    AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);AI服务器的成本主要来自CPU、
    发表于 11-28 09:18 224次阅读
    大模型算驱动AI<b class='flag-5'>服务器</b>行业报告