您现在的位置是:首页 > 数字化转型 >

英维克王铁旺:数据中心的高效制冷与自然冷却的平衡设计

2014-04-14 09:00:00作者:来源:

摘要由中国计算机报主办的“2014年中国数据中心大会”于4月10日在北京新世纪饭店隆重举行,本次大会的主题是“能效为先 管理为重”。以下是深圳市英维克科技股份有限公司副总经理王铁旺发表的题目为《数据中心的高效制冷与自然冷却的平衡设计》的主题演讲。...

  由中国计算机报主办的“2014年中国数据中心大会”于4月10日在北京新世纪饭店隆重举行,本次大会的主题是“能效为先 管理为重”。以下是深圳市英维克科技股份有限公司副总经理王铁旺发表的题目为《数据中心的高效制冷与自然冷却的平衡设计》的主题演讲。

  王铁旺:各位专家上午好!我这个话题跟前面的存储计算不一样,今天也是应合我们数据中心的话题,能效为先。在一个数据中心里面除了主设备,除了CPU这些等等,最大的能耗就是来自于空调系统。各位在设计数据中心的时候,一定会有很多的平衡的问题需要去把握,所以跟各位做一个简报。

  首先我们来看数据中心,包括上午刘总编也讲过需要有很多的平衡,这里的平衡我们看就无外乎是三个方面的平衡和两个方面的规划。这三个就是指可靠性,可用性和总成本和效率的关系。上午讲了很多数据中心用的不多,他的计算量很少,所以效率很低,这个时候我们要如何的去迎合近期的需求和远期的乳化。所以我们现在有很多模块化的想法,无论是UPS系统还是空调系统,还是这种虚拟的运算,都是想迎合它当前的计算量。所以这里面跟各位分享一下,高效制冷和自然冷却之间如何去平衡,我们先看第一个问题,自然冷却,大家可能对一个词耳熟能详叫PUE,现在是衡量我们数据中心能效的非常重要的指标,他可以看到一个数据中心的耗电量和主设备的耗电量是什么样的关系,我们看现在的传统的数据中心,我们看我们现在国内大量的PUE还很高,2.0到3.0,我们要提高到1.5到2需要高效制冷技术和冷热封闭,再提高到1.2到1.5需要用自然冷源,如果达到1.2在国外雅虎、谷歌等等甚至追求到1.13,靠新风的冷却等等,这样要用直接的自然冷却,我们看到很多新风引进来给数据中心制冷,包括雅虎的数据中心,像一个鸡舍一样,直接把新分引进来排出去都是有这样一个目的,目的就是一个,自然冷却。

  我们看在最新的空调的国家标准里面,会强调一个词叫AEER,这是一台空调全年的能效比,这不是看夏天,我们还要看秋天,要看冬天。所以在这些定义里面是以北京的天气为例子,定义的一个AEER。这里我们看AEER,来看室外温度有几个点,零下五度,到零上三十五度,在室外35度只有2.5,我们看在零下五度的时候高达25%以上,也就是说这一台空调全年可以节省75%,这就是现在我们数据中心应用空调的一个方向,第一点是高效制冷,第二点是高效冷却,自然冷却。这张PPT非常简单,就说了三个词,数据中心环境追求三点,温度、湿度,千万不能用了自然冷却而影响,不能因为自己冷却把数据中心温度提高了,达不到我们的要求是不可以的。湿度,拿北京为例,今天湿度都很低,这没有匹配合适加湿系统也达不到要求。洁净度包括北京的雾霾很严重,如果没有直接过滤这个隐患是非常大的,所以这里我们讲的是在我们做自然冷却的时候要考虑可靠性。

  还有一个观点,现在大家可能一见数据中心第一个想到用冷冻水,感觉很时尚,但是真正不一定,不一定真的节能,而且不一定真的会达到一个平衡,我们需要一个最合适的匹配才可以。我们看这张图我们在现在数据中心大量应用的几种方式,但是我们从空调专业来讲,它就是分直接膨胀式和冷冻水的方式,包括这里面有风冷,有水冷和冷冻水。我们经过很多年的计算之后,我们看到在中小型的数据中心,如果采用冷冻水的话,就很难达到下边的这两个平衡。这是在制冷规划里面不是一个大数据中心,你前面建了冷冻水,后面运行的时候反而会导致制冷系统的效率非常低,而且你的维护工作量也非常大。这个时候针对中小数据中心,我们要达到平衡的时候,我们经过多年的总结,还是认为风冷加上相应的自然冷却的方法是最合理的。

  比如说我们来看一个数据中心,我们走到一个中小型数据中心大家有概念,进入这个数据中心的时候,假如说这个数据中心一个月电费是十万块,其中有3.5万是被压缩机耗掉了,一个数据中心有25-35%的能耗被压缩机耗掉,我们在中小型数据中心,冬天不要压缩机运行,我通过制冷机泵,这个泵的功耗只有压缩机4%,通过泵把制冷剂泵起来,这在我们这叫双循环。我们可以通过这种方式又实现自然冷却,又实现高效制冷。

  对于大型数据中心有一个很大的问题,需要非常非常多的,如果你用风冷可能是一个行为艺术,在一个巨大的平台上有无数太冷冻器,这是不太现实的,这需要集中管理的办法,最好的办法就是冷冻水加上冷冻水的自然冷却,这在很多超大型数据中心应用。这里面又出来一个问题,PUE和WUE平衡。什么叫WUE呢,这是数据中心的耗水量与IT设备总的耗电量的比值。我们不要光看耗电,我们还要看耗水,前两天美国国防部公布一个数字,他不公布他的耗水量,这在美国要披露的,我们只要知道国防部耗水量我们就能推出来用电量和运行能力,这个在美国是保密的,WUE这在美国是经常用的数值,这也是衡量数据中心是否真的节能环保很重要的数字,我们不能把电节下来耗很多,美国一个非常节能的IDC耗水量是多少,这是15万千瓦的IDC,每两耗水量是36万加仑,折合成一年就是50万吨,这相当于我们颐和园、昆明湖储量量四分之一,这是很节能的,如果不节能可能一年把昆明湖干掉,这个耗水量非常惊人的。我们用的电,只要是火电发出来的,每一千瓦的耗电量里面就要蒸发掉2.78升水,这里面就有一个很重要的问题,我们设计一个数据中心制冷的时候还要考虑用电和用水。

  我们现在还有一种技术直接蒸发冷却,把水蒸发掉把热量带走,这里面又面临一个问题,水是不是足够。后面又面临着一个问题,我们UPS经常讲双走线,如果数据中心靠水的话也要双走线,这要求城市管网有两路供水,如果依赖这种冷冻水,一定要求用水是持续的,否则数据中心就会停止。

  我们看一下其他的综合平衡,跟各位做一个简单的展示,我们要规划最合理的送风方式,我们要上送风下走线,这个在一些行业标准里面写的很清楚,所有地板下不得铺设与空调和消防无关的线缆。

  我们看冷热通道规划,我们在五年之内,我们看到推行还是很快的,这是一个联通的常规机房,不是高热密度的,已经把冷热通道进行封闭,这样效率更高。包括在规划形成之前,提前做好仿真,会对我们设备摆放,制冷效率有一个很大的改善。

  地板是送风月的就有高度要求,我们在通信行业里面有,我们很多机房是一类不能低于500,我们看美国某一个咨询公司,这里面的数据,假如说一个机柜是五千瓦,我们看这里面要求的是不得低于40英寸,现在我们规划数据中心的时候层高为什么一定要提前规划,就是要规划地板的高度和走线架的高度。

  还有一个非常非常重要的变化,就是各位会看到越来越多的数据中心提高回温温度,我们一个传统的还是24度,我们现在进入到腾讯机房,阿里的机房,很可能进去的时候是37度,这是非常有可能的,它的冷空调里面是20几度,但是热通道可能是30-35度,这就是提高系统的效率,前提是保证主设备是正常的运行。这有什么好处呢?夏天的时候很多商场不允许低于27度,因为我们把回风温度每提高一度节省可以节省2-3%,我们看如果更高提高节能效率会更高,这里面我们看到提高回风温度带来的好处,制冷量提高,现热比提高,能效比提高。

  怎么提高呢?我前面讲到一句话叫送风冷热通道,现在还有一个更加靠前的方法,也就是叫微模块,包括集装箱、数据中心。这里面给大家看一下什么是微模块,我以腾讯微模块举例给大家展示,我们原来建一个数据中心我们是机架,我们现在建一个数据中心,颗粒度变成微模块,在座各位是一个企业的CEO,原来要上500个机柜,现在可能要上两个微模块,过去可能要上一千台服务器,慢慢颗粒度变大,我现在可能要上十个或者二十个微模块,这集成了一个数据中心的功能,这里面有供电系统,有监控,有消防,有空调,然后服务器,机柜。我们看这种新型数据中心的话,腾讯怎么做的呢?原来我们看在数据中心的时候一层楼,然后我们看到机驾、空调放在哪里,现在腾讯是泊位,建立的时候留好,然后建码头,然后在码头上可以放微模块。这个地方就开始建有微模块,这就是微模块的一个外观,这上面是走线槽,下面是服务器,包括高压直流等等,通道是封闭的,这里面是冷风。这就是一个建好的可以放九个微模块的码头,这是一个很大的数据中心,现在腾讯全部用微模块的方案。这是前面冷风侧,我们看每一个机柜上面会有回风和送风的温度传感器。

  英维克做所有制冷产品和制冷方案的时候,就是要围绕高效制冷和自然冷却来做的产品,在这种情况下我看我们有针对不同维度的产品和方案。传统的机房我们的空调全部标配EC风机,各位清楚包括家里的空调也是这样,压缩机会停,风机不会停,大家可以观察一下自己家里空调,空调打开风机不停,可能压缩机会停,风机是最好能的元件之一,仅次于压缩机。

  第二,集成不同的自然冷源的方法,包括直流和交流,这里面我们看左边这一侧就是直接的自然冷却,右边是间接,这可以用制冷剂泵循环。这是我们在电信用的集成新风的自然冷却,他有一个高效的加湿和强效的过滤,这是我们在辽宁吉林和黑龙江,包括河北、天津用的一个制冷剂泵双循环系统,这是刚才跟各位汇报冬天工作在泵上而不是压缩机。这是在中国联通信息化大厦,我们用的62套乙二醇制冷。

  从夜间空调方案来讲,前面跟各位回顾过腾讯的微模块,这里面我们也会看到我们在中石化的物勘院,这不光解决节能问题,我们看这个物探院小型机或者说刀片服务器,热密度是一个机柜30千瓦,这个常规制冷方案没有办法解决,所以用了夜间空调方案来解决。这是四川财政局高密度中心,这是中国移动很多数据中心有热点,就是局部区域发热量非常大,可以用这种方法来解决。

  还有一种案例是集装箱数据中心,这是天津生态城,这是我们在重庆联通,他们用这样一个集装箱解决了中性数据中心的功能,他可以放在户外。包括我们现在在很多石油行业要拖动跑到外面去勘探的时候,原来是把数据传回来算,现在很多可以在现场算,这样一个集装箱开过去效率非常高。

  我们在这种集装箱要实现自然冷却,我给重庆联通在室外温度八度压缩机全部停止。我们还有很多中小企业,我们今天会思考一个问题,有没有必要用一个房间来建一个小型的数据中心,如果我们不愿意要这个房间怎么办。所以今天在外面展示了我们XY,也希望各位专家中午有时间的时候可以到我们展位看一下。这个XY五是用一个小型的机柜来解决数据中心的问题,这样的话可以解决没有场地的问题,比如说解决24小时值守的问题等等,他的效率也非常的高,要远远比一个重小型机房效率高,他采用靠近热源式冷却,这里面留有相应的位置放服务器。我们有多种组合方案,我们在外面展示是1+1方案,我们还有1+2,3+6,这完全可以在企业走道里面实现一个数据中心。

  这个就是济南华电的大型的机柜,这里面放的服务器,我们看就放在一个走到里,不需要一个专用的机房。这是一个效果图,这是一个2+7的方案,这个配置里面,中间有三套夜间空调,这边可以放主设备,可以放蓄电池和UPS,这边可以放其他的服务器,这样形成一个完整的功能,这个制冷的效率就达到了一个非常高的值。

  如果再极限,我们在室内没有场地,我们还有一个户外性,我们甚至把一个服务器机柜放到户外,放在草坪上,这里面也集成了全部的供电监控等等。我们现在看数据中心发展趋势,包括上午惠普讲到OCC方案,这个目的就是制冷越来越靠近热源,也就是讲原来是室内的散热,现在变成机柜散热,慢慢变成服务器散热。英维克也是国家高新企业,05年成立,我们在全球18个国家有办事机构,也非常荣幸我们在第六届第七届数据中心大会上都获得中国首选的高效制冷的推荐品牌奖,这是我们的发展历程,我们07年进入欧洲,然后08年进入中国移动,2010年国家高新企业,2011年是高为中兴的战略合作伙伴供应商,后面也进入了美国的市场等等,现在我们也是国内大型IDC空调的厂商的首选品牌之一,这是我们国家级的实验室,这是我们在深圳和苏州的生产线,这是我们全系列的方案和产品,包括了机房温控,实验室温控,机房节能户外柜等等。

  专业价值信赖也是我们的一个愿景,今天非常荣幸跟各位做这个简报,也希望跟各位有更多的机会探讨,谢谢各位。


(本文不涉密)
责任编辑:

站点信息

  • 运营主体:中国信息化周报
  • 商务合作:赵瑞华 010-88559646
  • 微信公众号:扫描二维码,关注我们