先让我们走进恢宏壮观而神秘的数据中心。
一排排机柜整齐排列,服务器和网络设备层层堆叠,设备不停的运转,无数个风扇发出嗡嗡作响声。
突然,有机柜发出了更响亮的嗡嗡声,这是服务器的风扇正在全速运转。
随后,传来了告警声,这是服务器没有得到足够的制冷而发出的求救信号。
不一会,最糟糕的事情发生了,服务器过热保护,自动关闭运行,这或将导致大量的用户无法访问服务器。
与家用空调不同,机房设备更需高效、可靠的呵护。一个数据中心动辄数千台服务器,大量的设备所消耗的电能几乎都会变成废热,为了让每台设备保持在恒定的温度下正常运转,数据中心配置了如冷水机组、冷却塔、末端空调等设备的大型的制冷系统来吸入热空气、排出冷空气。
可你知道吗?为了排放废热,这些制冷系统是数据中心的耗电大户,降低数据中心的能耗(降低PUE值)一直是业界关注的焦点。
一个大型数据中心的电费占据了约70%的运营成本,全球数据中心每年电力消耗相当于8个三峡水电站的发电量。例如PUE为2的数据中心,在总能耗中,IT设备能耗占了一半,制冷系统能耗占约30%,这就是PUE居高不下的原因。
近年来,随着移动互联网、云计算技术的蓬勃发展,数据中心已成为现代信息生活不可或缺的ICT基础设施。面向5G万物互联时代,数据流量急剧增长,数据中心必将进一步向大型化和高密化发展。
但海量数据处理产生的热量随之增加,为保障设备稳定运行,制冷系统能耗也将持续走高。
如何让数据中心更节能、更高效?业界为此绞尽了脑汁…
比如,Facebook在瑞典北部,靠近北极圈的地方建数据中心,以利用自然低温为数据中心散热,降低能耗。
微软在苏格兰奥克尼群岛海岸附近建“水下数据中心”,利用寒冷的海水散热。
Facebook和微软将数据中心建在北极和海下,目的是通过“免费”获取冷源的自然冷却技术来降低能耗。
但是, Facebook和微软采用的自然环境冷却方式受地域限制,你不可能把所有数据中心都搬到遥远的北极或沉到海底,未来5G时代的低时延应用更需就近部署。
所以,我们还得把目光转回来,看看如何降低制冷系统本身的能耗。总的来讲,当下制冷系统向高效化和智能化趋势发展,方法可谓是“软硬兼施”,以获得更低的PUE。
大型数据中心一般采用冷冻水制冷系统。制冷系统主要由冷水机组、冷却塔、水泵和末端空调等组成,通常冷水机组、末端及水系统组件是能耗关注的重点。
过去以来,为了提升制冷系统能效,在冷源侧,从风冷向水冷、自然冷却发展;在空调末端侧,从房间级制冷发展到行级制冷、顶置制冷和机柜级制冷,以更加靠近热源,减少冷媒输送能耗,提升冷却效率。
随后,由于数据中心内设备众多,设备发热量动态变化,智能化的制冷系统开始应用于数据中心,使能根据变化随时随地的提供动态调节制冷方案,比如变频空调、变容量压缩机、风量智能调节技术等。
但是,由于传统制冷系统中精密空调、水泵、冷水机组、冷却塔来源不同厂家,各自独立运行,少有对整个制冷系统进行系统性的效率优化。
要系统性的提升制冷效率,需要实现从冷冻站、空调末端到IT负载的端到端协同管理和精细控制来智能化降低制冷系统的功耗。
最近在HUAWEI CONNECT 2018上,华为发布了基于AI的iCooling解决方案,正是这种智能化方向的代表。
基于AI的iCooling数据中心能效优化解决方案,针对数据中心制冷效率提升瓶颈,通过机器深度学习,对大量的历史数据进行业务分析,探索影响能耗的关键因素,获取PUE的预测模型。基于PUE的预测模型,获取与PUE敏感的特征值,利用特征值,进行业务训练,输出业务的预测模型。最后利用系统可调整的参数作为输入,将PUE预测模型、业务预测模型作为约束,利用寻优算法,获取调优参数组,下发到控制系统,实现制冷系统的控制。最终通过规范化的实践引导和目标导向评测,不断调整优化,获取均衡PUE。
在华为廊坊数据中心,实测环境为1500柜,单柜密度4kW/柜,43%IT负载率,2N供电系统,N+1冷冻水系统,采用iCooling智能温控技术后,冷冻站总能耗降低325.6kW,冷冻站COP提升8.2,全年PUE由1.42降为1.304,每年可节省电费372万元,实现了从“制冷”向“智冷”转变,为未来降低数据中心能耗奠定了新方向。
其实,试图用AI优化制冷的并不只有华为,Google已宣布通过旗下DeepMind公司的AI技术来降低数据中心能耗,其原理与iCooling类似,在制冷系统中安装数千个传感器收集并发送数据到深度神经网络,再作出最优决策建议。
不过,Google开发的技术目前只针对自己的数据中心,未对外,不具有普适性。而华为iCooling作为对外发布的解决方案,为各家数据中心提供了最优解决方案。
基于软件化的AI解决方案是趋势,同样,在硬件效率的提升上业界也一直不遗余力。
各厂家在硬件上常选用更节能的压缩机和风机来提升空调末端效率,并有持续的投入,使得在这两部分上技术和性能都差异不大。但加湿系统的能耗往往容易被忽视。
通信机房要求湿度必须控制在50%±5%。以北方数据中心为例,空调系统全年耗电约有2%~3%的比例消耗在加湿系统上;如果数据中心制冷系统年耗电在1000万kwh,那么10年生命周期将有200~300万kwh的电费消耗在加湿系统上。
因此,数据中心除了在不间断使用的的制冷系统上进行节能减排措施外,也需要在加湿等温湿度及环境控制辅助耗电单元上进行优化设计,进一步降低日趋膨胀的数据中心能源消耗。
目前常用的内置式加湿有:红外加湿、电极加湿、湿膜加湿。
湿膜加湿的大致原理是,通过循环水泵将水箱中的水送到湿膜顶部布水器,水向下渗透,均匀地湿润湿膜表面,通过水蒸发增加空气的湿度。整个过程不需要耗费额外功率。
与红外加湿和电极加湿相比,湿膜加湿不必将热量转化为水蒸气,在改变空气湿度的同时还能降低温度,可大幅降低功耗,且维护方便,无需额外水处理设备。
湿膜加湿可以多节能?让我们来看一组统计数据。
这同样是来自华为的数据,在目前内置式加湿中,华为采用独有湿模式加湿技术,相比传统的加湿方式节能95%。
以上提到了2个华为的案例,也许有点出乎你的意料,都说华为的电信设备和手机做得好,在数据中心制冷系统领域,难道华为也是佼佼者?
答案是:Yes.
华为于2008年成立网络能源产品线,开始数据中心温控产品研发。十年来,华为温控产品线每年将销售收入的15%投入研发,已在全球设立三大空调研发中心,分别位于中国西安、深圳以及德国纽伦堡,现有温控研发工程师超过150人,提供全系列的自研数据中心温控解决方案。
根据ICTresearch的研报, 2016年和2017年华为行级温控在中国市场份额蝉联第一。
数据来源:ICTresearch 2018
不久前,中国移动2018年山西等五省新型空调末端系统集成补充采购项目结果揭晓,华为以33.32%的份额中标。
不断研发投入和技术创新以降低数据中心能耗,是华为的坚持,也是行业一致的追求。一直以来,业界都在不懈努力使得PUE值尽可能接近1。随着数据流量爆发,数据中心需求持续增长,提升能耗效率越来重要,相信行业将会带来更多的惊喜。
-
服务器
+关注
关注
12文章
9016浏览量
85171 -
数据中心
+关注
关注
16文章
4675浏览量
71948
原文标题:走进数据中心,揭秘你所不知道的能耗节省大法
文章出处:【微信号:hr_opt,微信公众号:网优雇佣军】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论