数据中心冷冻水制冷系统的节能分析

(整期优先)网络出版时间:2023-09-05
/ 2

数据中心冷冻水制冷系统的节能分析

李  清

(江西建工第二建筑有限公司 南昌 330029)

摘 要:在数据中心节能降碳节水的大背景下,梳理了数据中心传统冷冻水系统的原理,冷水供、回水温度从15/21℃调整为18/24℃时,提升了冷水机组性能系数、延长了冷水系统自然冷却的时间,对降低制冷系统的PUE值有明显效果。最后简要介绍了液冷和氟泵技术,未来有望代替冷冻水系统,实现更低的PUE值。

关键词:数据中心  冷冻水系统  PUE  液冷 氟泵

0概述

数据中心是典型的耗能大户,随着“双碳”战略目标的推进,各地纷纷加强了对数据中心能耗的监管,表现在PUE(Power Usage Effectiveness,电能利用效率)数值上,对PUE值的要求越来越低。数据中心冷却系统运行带来的非生产能耗占数据中心总能耗的40%,降低这部分能耗是提高数据中心能效的重要研究方向。数据中心内服务器耗电产生大量的热,在水冷系统架构中,散热终端冷却塔利用水蒸发吸热将冷却水中储存的热量释放到大气中。

笔者通过对数据中心冷冻水系统架构的总结梳理,分析了潜在的提高制冷系统能效,降低系统PUE[2]的措施。

1冷冻水系统架构原理

如图1所示,数据中心冷冻水系统架构原理图,末端精密空调冷水盘管和机房内回风换热,通过水流将热量带到冷水机组,经制冷压缩后散热到冷却水中,最后在冷却塔蒸发散热到大气环境中。为了充分利用自然冷源,常用板式换热器串联冷水机组的架构,根据室外湿球温度的变化,制冷系统可运行在免费冷、预冷及机械制冷模式。

图1冷冻水系统原理图

笔者从事的项目多采用中温冷冻水温度15/21℃,冷却水温度33/38℃。以华北项目为例,冬季冷塔选型湿球温度为8℃,冷塔出水温度13.5℃,考虑板换换热温差1.5℃,可满足二次侧冷水温度15/21℃的要求。湿球温度为14℃时,冷却水出水温度约19℃,考虑板换的换热温差,二次侧冷水的出水温度约21℃,将不能对冷冻水回水进行预冷却。因此当湿球温度低于8℃时,制冷系统运行在免费冷模式,冷却水系统通过板式换热器制取满足要求的二次侧冷冻水。当湿球温度高于14℃时,制冷系统运行在机械制冷模式,通过冷水机组制取15/21℃的冷水。当湿球温度高于8℃低于14℃时,制冷系统运行在预冷模式,通过板式换热器和冷水机组共同制取15/21℃的冷水。根据实际项目统计,免费冷、预冷、机械制冷模式时间占比如图2所示。

图2冷冻水系统(15/21℃)三种制冷模式时间比例

2 冷冻水系统节能分析

2.1提高冷水温度对PUE的影响

ASHRAE在2015年出版的《数据中心热环境指南》(第四版)[4]明确规定,数据中心模块机房冷通道的温度推荐值为18~27℃,这一范围和国家标准《数据中心设计规范》(GB50174-2017)中的规定一致。此外国标还给出了冷水供水温度的推荐值7~21℃。从安全和节能两方面考虑,目前冷通道温度一般设定为22~25℃。国家标准《工业建筑供暖通风与空气调节设计规范》(GB50019-2015)中规定“冷媒的进口温度应低于空气的出口干球温度至少3.5℃,冷媒的温升宜采用 5~10℃”。因此存在将冷冻水供水温度温度从目前常用的15℃提高的可能性。

如采用冷水供回水温度18/24℃,冷通道温度设定22±2℃。研究表明,冷却塔出水温度和湿球温度间存在接近线性的关系[1]。如图3所示,免费冷模式下,冷塔出水温度18℃时,湿球温度约12℃。同理,湿球温度小于等于12℃时,制冷系统运行免费冷模式;湿球温度大于20℃时,制冷系统运行机械制冷模式;湿球温度大于12℃小于等于20℃时,制冷系统运行预冷模式。三种制冷模式时间占比如图4所示。

图3 冷塔出水温度随室外温度的变化图表

图4 冷冻水系统(18/24℃)三种制冷模式时间比例

对比图4和图2可知,自然冷的利用时间增加明显,纯机械制冷时间从全年时间的36%减少到18%。同时,冷水机组冷水供水温度从15℃提高到18℃时,冷水机组能效系数升高约8%,冷水机组电耗降低。以2万外电项目为例,进一步对制冷系统PUE计算得到,冷冻水供回水温度15/21℃IT满载场景下,计算年均PUE值为1.301;冷冻水供回水温度18/24℃场景下,计算年均PUE值为1.285。后者制冷系统全年减少电能消耗1976000kWh,减少碳排放1550吨,按1元/kWh电价计算,全年可节约运行电费约197万元。

2.2提高冷水温度对末端精密空调的影响

如图5所示,数据中心常用水冷精密空调示意图,其组成主要包括回风过滤器、冷水盘管、EC风机等。冷水温度提高后,供水温度tw,i和送风温度tA,o的温差减小,导致冷水盘管的换热面积增大,精密空调尺寸增大。在冷通道进风温度不变的场景下,精密空调尺寸约增加30~40%。盘管面积的增加,带来精密空调自身风阻的减少,降低了EC风机的耗功。

图5 水冷精密空调示意图

[1]

2.3加大供回水温差对PUE的影响

空调系统换热量一定的情况下,水循环流量和温差成反比,换热温差越大,水流量越小,进而水泵的耗功越小。笔者基于实际项目对比,以2万外电项目,IT产出14100kW为例,当冷却水温度33/38℃,单套冷却水泵功率110kW;冷却水温度调整为33/39℃时,单套冷却水泵功率为90kW。考虑冷却水温度升到对冷机性能系数的折减,冷冻水温度18/24℃、冷却水温度33/39℃时,IT满载时年均PUE计算值为1.281,对PUE值的影响明显,如表1所示。

表1 冷水机组不同负荷下的COP及配电功率对比(1300RT)

对比项目

100%负载

90%负载

80%负载

70%负载

60%负载

50%负载

40%负载

30%负载

20%负载

10%负载

年均PUE

18/24℃-33/38冷机功率(kw)

532.7

448.4

376.7

314.7

260.6

222.5

186.4

158.8

148

150

1.285

18/24℃-33/38℃的COP

8.582

9.177

9.71

10.17

10.53

10.27

9.813

8.636

6.177

3.048

18/24℃-33/39冷机功率(kw)

549.2

462.2

388.3

324.4

268.6

229.5

192.1

163.7

152.6

154.6

1.281

18/24℃-33/39℃的COP

8.32

8.90

9.42

9.86

10.21

9.96

9.52

8.38

5.99

2.96

3其他节能架构简介

3.1液冷技术

液体的比热容为空气的1 000~3 500倍,导热性能是空气的15~25倍,所以对于更高热密度的散热,热容量更大、热传导更快的液冷就成了不二选择。随着国家及地方政策层面的推动,液冷技术在数据中心的应用也将取得长足的发展[3]。目前常用液冷架构为冷板式液冷和浸没式液冷。

(1)冷板液冷系统组成:冷板液冷系统分为一次侧和二次侧两部分,一次侧室外冷源由液冷冷却塔,液冷水泵,一次侧管路等组成,二次侧由水氟换热单元(CDU),二次侧管路,机柜级分液单元,冷板等构成;一次侧运行工质采用循环水,二次侧运行工质采用纯水;通常冷板液冷可带走服务器60%的散热量,另外40%服务器散热量由风冷空调末端带走。

(2)浸没液冷系统组成:单相浸没液冷系统分为一次侧和二次侧两部分,一次侧室外冷源由液冷冷却塔,液冷水泵,一次侧管路等组成,二次侧由换热单元(CDU),二次侧管路,tank柜等构成;一次侧运行工质采用循坏水,二次侧运行工质采用电子氟化物。

IT设备满负荷时,冷板液冷和浸没液冷的PUE值一般可做到1.15以下。

3.2氟泵技术

氟泵技术在数据中心的应用逐渐增多。磁悬浮相变自然冷却系统作为空调冷源,利用高效磁悬浮压缩机夏季制冷,过渡季及冬季利用氟泵系统无需开启压缩机进行自然冷却,以降低空调系统能耗。采用制冷剂直接输送冷量,比冷冻水输送冷量的能力大8倍以上,显著降低冷媒输送流量,大幅降低输送功率,通常氟泵输送功率不到水泵功率的五分之一。蒸发温度提高,设备制冷能力显著提高,效率显著提高。无水消耗,环保,更适应缺水或无水地区。

采用氟泵技术的数据中心制冷系统,在我国大部分北方地区可实现PUE值低于1.20;全国大部分地区可实现PUE值低于1.25。

4结语

结合实际数据,笔者对数据中心冷冻水系统架构进行了梳理分析,提出了降低PUE值的措施,得到如下结论:

(1)冷冻水系统冷水温度由15/21℃调整为18/24℃,自然冷却的利用时间明显延长,纯机械制冷时间从全年时间的36%减少到18%;冷水机组能效系数升高约8%,冷水机组电耗降低。IT满载时计算年均PUE值从1.301下降为1.285。

(2)冷水温度18/24℃基础上,冷却水温度供回水温差由5℃调整为6℃时,水泵功耗降低,IT满载时计算年均PUE值从1.285下降为1.281。

(3)简要介绍了数据中心使用日益增多的液冷和氟泵技术,作为数据中心冷却技术的重要补充,未来有望代替冷冻水系统,实现更低的PUE值,为绿色数据中心的建设做出贡献。

参考文献

[1]乐海林.基于全球典型城市全年气象参数的数据中心空调系统节能性[J].暖通空调,

2022,52(2):63-68.

[2] 张忠斌,邵小桐,宋平,等.数据中心能效影响因素及评价指标[J].暖通空调,2022,

52(3):148-156,99.

[3 ] 肖新文.数据中心液冷技术应用研究进展[J].暖通空调,2022,52(1):52-65.

[4] Ashrae 第4版(2015)数据中心热环境导则