作者:记者 唐琳 丁涛 来源: 发布时间:2019-11-12 23:29:55
创新方案助力绿色数据中心

 
当下,节能减排已经成为全球备受关注的几个热点词汇之一。88csh.cn_【官方首页】-财神会然而比起饱受诟病的钢铁与水泥等行业,信息技术领域的能耗问题却往往被人们所忽视。
 
有研究指出,目前信息技术行业的碳排放已经成为全世界所有碳排放的主要来源之一。预计到2020年,信息技术领域的碳排放总量将达到15.4亿吨。
 
88csh.cn_【官方首页】-财神会就信息技术行业内部而言,数据中心无疑是能耗“贡献度”最大的部分。数据显示,2015年,数据中心耗电量已经逼近1000亿度,约占全社会总电耗的1.6%。加之数据中心正朝着高运算速度、高热流密度的方向发展,今后单个机柜的发热量甚至可能达到10千瓦甚至更高,这就给空调系统带来了更大的挑战。
 
于是,一场关乎整个信息技术行业未来发展的节能大战就此打响。这一次,一支来自于清华大学的科研团队挺身而出,扛鼎科技创新的大旗,走在了建设绿色、环保、节能、高效数据中心队伍的前列。
 
节能,刻不容缓
 
数据中心是一类特殊建筑,主要用来集中放置和管理各类IT设备(如服务器、交换机、高性能计算机、工作站等)及其配套设备(电源、照明、空调等),以实现对大量数据的存储、运算、通信、网络服务等功能,为不同需求的用户提供实时、高效的信息处理服务。
 
88csh.cn_【官方首页】-财神会在数据中心的总能耗中,有大约40%是IT设备的功耗,即服务器高速运算所消耗的电量;约40%是空调设备的功耗,包括精密空调、冷水机组以及湿度控制设备等。
 
88csh.cn_【官方首页】-财神会为什么传统的机房空调系统能耗如此之高?“主要有两个原因:第一是机房气流组织非常不合理,第二是自然冷源利用的时间太短、效率太低。88csh.cn_【官方首页】-财神会”清华大学教授李震告诉《科学新闻》。
 
在机房气流组织方面,目前常见的数据中心通常采用架空地板下送风技术,机柜在机房中采用背对背、面对面的方式摆放,形成冷热通道。但这种技术的弊端在于,一旦冷热通道的气流发生混合,就会产生不必要的掺混温差,使数据中心总传热温差增大,进而导致冷机系统负荷上升。
 
“虽然目前不少数据中心均采用了冷热通道封闭技术,但实际上这很难从根本上杜绝冷热气流掺混问题。”李震坦言。
 
88csh.cn_【官方首页】-财神会此外,精密空调系统的冷冻水往往需要通过冷机制取,这就意味着即便是在冬天,仍需要开启冷机。但实际上,我国北方城市的冬季大多数时间气温都低于冷水温度,自然冷源便可直接制取冷水,此时再开启冷机,就显得格外浪费。
 
当然,国内外也不乏一些能耗相对较低的数据中心,这些数据中心大多具有几个共同特点。
 
“首先就是严格选址,数据中心选址会首先考虑寒冷地区或者靠近海水、湖水的地区,这样就可以充分利用冷空气或冷水等自然冷源。其次是通过技术手段减少数据中心的总换热温差,提高冷源温度,进而提高自然冷源使用时间。”李震介绍。
 
创新,迫在眉睫
 
长期以来,李震课题组一直致力于分离式热管换热原理、数据中心冷却系统节能以及基于溶液除湿的工业余热回收等研究。实验室拥有焓差试验台、模拟数据中心、分离式热管流动可视化实验装置、沸腾换热系数测量装置等大型试验台,可以针对热管系统的流动换热性能、数据中心不同级别的冷却系统冷却效果以及空调系统性能等问题进行实验研究。
 
这一次,针对现阶段数据中心机房空调系统存在的两大顽疾,李震课题组立足实现国家目标,从全局出发,创新思路,攻坚克难,最终提出了针对信息技术行业的新的节能解决方案。
 
88csh.cn_【官方首页】-财神会首先,课题组选择采用机柜和服务器级别的冷却技术来替代机房级别的冷却技术,即采用热管技术代替传统的精密空调。
 
“热管可以是以‘热管背板’的方式直接放置在机柜的前后柜门中,就近带走热量。88csh.cn_【官方首页】-财神会这是一种机柜级别的冷却模式,好处是机柜的进出风基本相等且等于机房内部温度,从而可以大大减少气流掺混。”李震课题组博士何智光介绍。
 
另外,热管技术也可以以“服务器液体冷却”的方式呈现。这种冷却技术是将热管蒸发器冷板放置在服务器电功率发热元件如中央处理器的上方,直接带走热量。这是一种服务器级别的冷却模式,可以大大缩短传热路径,减少传热环节和传热温差,保证40℃甚至更高温度的冷源就可以冷却中央处理器,不仅可以从根本上消除气流掺混,还可以保证充分使用自然冷源。
 
课题组的另一个设计思路则是在“热管背板”的基础上,采用复合冷却模式来制冷。
 
具体来说,就是夏天时开启冷机压缩制冷模式制取热管系统的冷源,冬季直接采用冷空气作为热管系统的冷源,春秋过渡季节采用压缩制冷和自然冷源共用的双启模式制冷。“由于冬季采用自然冷源,只有风机运行,因此相比开压缩机的情况,能耗会大大降低。所以说,这种模式下的总能耗会非常低。”何智光解释。
 
示范,不负众望
 
俗话说,“是骡子是马,拉出来遛遛”。一个创新解决方案是否可行、有效,只有在实践中才能得到最终验证。
 
2016年10月30日,“数据中心节能关键技术研发与示范”国家重点研发计划项目在清华大学正式启动。项目由清华大学牵头,强强联合中科院理化技术研究所、北京工业大学、大连理工大学、兰州理工大学、中国石油、上海市建筑科学研究院、国家发改委能源研究所等10余家单位,共同向数据中心节能示范研发发起挑战。
 
这一项目包含四个子课题,分别为数据中心新型冷却技术研发与示范、高功率密度电源高效液体冷却技术研发与示范、数据中心高效供电与分布式储能技术研发与示范以及数据中心能效标准与评价指标研究。
 
经过近3年的实施,项目取得了一系列阶段性成果,研发了机械制冷和自然冷却相结合的高效冷却技术,研究了服务器级高效冷却技术和新型功率变换器等关键技术及设备,同时搭建起了关于数据中心新型冷却技术的实验和理论研究与示范工程。
 
李震介绍,该示范工程位于吉林省吉林市,于2017年6月开始建设,当年11月建成,历时6个月。示范工程采用了机房级、机柜级和服务器级三种冷却级别,示范了数据中心新型冷却模式、高效不间断电源以及自然冷源和机械制冷配合的负荷制冷模式。更为可贵的是,这些示范项目均是基于项目组的最新研究结果所进行的。
 
宝剑锋从磨砺出,梅花香自苦寒来。对于李震团队来说,长期以来的技术积累与3年的辛苦付出没有白费。
 
“根据测试结果,保守估计该数据中心示范工程的PUE (数据中心总设备能耗/IT设备能耗)全年为1.19,达到了先进的节能水平。此外,测试结果还表明,机柜级别的冷却相比机房级别冷却模式平均节能52%以上,服务器级别冷却相比于机柜级别冷却进一步节能44%以上。”谈及现阶段取得的成绩,李震难掩欣喜。
 
科研有目标,创新无止境。下一步,李震将率领团队向以数据中心冷却系统为背景的气流组织优化方法、热管系统的换热原理和功能优化以及数据中心制冷系统和输配系统的匹配关系等业内难题发起攻关,凝心聚力,为建造真正绿色、环保、节能、高效的数据中心提供创新的整体解决方案。■
 
《科学新闻》 (科学新闻2019年10月刊 教育)
发E-mail给:      
| 打印 | 评论 |

页面底部区域 foot.htm