您现在的位置是:首页 > 数字化转型 >

惠普周晓伟:数据中心新一代高效节能制冷技术

2015-04-16 17:58:00作者:来源:

摘要2015年4月15日,由中国计算机报主办,中国计算机行业协会、中国计算机用户协会、中国信息化推进联盟数据中心专业委员会协办的“2015年第八届中国数据中心大会”在京召开。以下内容是中国惠普有限公司企业集团技术服务事业部关键设施服务设计服务经理周晓伟发表的题目为《数据中心新一代高效节能制冷技术》的主题演讲。...

  2015年4月15日,由中国计算机报主办,中国计算机行业协会、中国计算机用户协会、中国信息化推进联盟数据中心专业委员会协办的“2015年第八届中国数据中心大会”在京召开。以下内容是中国惠普有限公司企业集团技术服务事业部关键设施服务设计服务经理周晓伟发表的题目为《数据中心新一代高效节能制冷技术》的主题演讲。

  周晓伟:大家好我是惠普公司的周晓伟,我的主题是数据中心新一代的高效节能制冷技术。预设节能对数据中心是非常重要的课题,它是贯穿于数据中心整个的周期的。在这个建设阶段我们就应该重视起来。采用先进高效节能的技术可以降低数据中心PUE,那么对数据中心建设绿色的数据中心奠定监视的基础。我今天给大家介绍一下惠普的最佳实践顶置冷却技术。我们常用是房间级的空调。这是我们通常用的精密空调和风樯和空调机种的模式。这个空调的模式有一个特色,这些末端的制冷设备都是远离的机柜,它在相应的空调间,它设置相应的风扇,所以它需要消耗风扇的阻力。我们还有一个空调技术,我们腌制的机架式空调,这个模式也可以带风扇,这个相对于风扇就会少一些。我们现在推动的是机子式的空调。这种模式它本身是不带风扇,但是它需要利用服务器的风扇来进行送回风的制冷模式。那么我们今天推出的是顶置对流技术,它采用也是机架式空调,而且是利用空气热动力学的原理,不需要消耗服务器的风扇。

  这个模式发展趋势,我们可以看到,数据中心的末端制冷设备是越来越靠近发热体就是服务器。我们介绍惠普的这个实践数据中心顶置对流制冷技术。它是放在机架上面。这个技术是颠覆了全组的数据中心的制冷理念。在亚热带地区在新加坡我们有采用专项案例的专利技术。在北京地区采用顶置对流冷置以后PUE值可以达到3左右。美国雅虎公司正常运行了九年的时间,在瑞士在新加坡在美国的纽约都有用这个技术。惠普是当雅虎做的第一个专利的设计者。

  下面我介绍顶置对流冷置的这个形式。这个技术是冷却是放置在服务器机架的底部。它整个的设备的运行,这个末端制冷设备是无风机动力型。那么是利用空气的热动力学原理,也不需要消耗服务器的风机功能,这个整个过程中还是采用通道的模式。我们是采用模块化的设计,这样的话可以在图片上可以一个模块一个模块的上。我们没有接入外部的风。在这种末端制冷设备上,我们可以看到我们采用末端的盘管的模式,对于整个我们的冷冻水泵可以大大降低冷冻水泵的扬尘,我们采用的空调是七八力和九力。

  那么末端的采用顶置对流冷冻技术。针对高端服务器,比如说35度或者是40度,我们OCC使用冷冻水大约到28度到40度,在北京或者更北的地区,可以做到不开冷气或者是少开冷气的状态。我们可以更好的实现对高机柜服务器的制冷模式,对15千瓦到30千瓦对末端的顶置对流的实现。这个我们可以实现N的模式配制。那么这种不同的模式的配置方式,我们就可以实现不同T的级别。

  在整个采用顶置对流的话,我们可以取消架空地板,我们将木地板的出头也会减少,在服务器的搬运过程中我们就会很方便。我们BAT的互联网公司都是推,我们没有架空地板就可以推服务器就为,大机柜差不多在一个左右。这样可以快速上下。采用顶置对流冷置技术的话,可以把以前的空调的位置空余出来来放置机柜。这个是一个我们常用的顶置对流冷却技术,从这个上面我们可以看出我们的技术可以在工业化的大空间进行安装,我们的图片的状况是在高节奏的厂房了。所以我们是可以用这种模式去做,而且也不需要采用吊顶。

  下面这个图片我们可以看出这个顶置对流的技术可以采用模块化设置,我们可以把模块放上去,那么这样的话等到服务器要部署的时候可以直接就位,这样的话可以把它直接上线。这两个图片上可以看出第一代的OCC技术是采用冷通道的关闭的模式去做。它采用热气流自然上升的模式,冷空气自由下降的模式。随着服务器的温度的提高,我们会规定到27度30度,那么这个就是热通道的技术,这里面的热通道会达到39度,42度或者是更高的温度。

  我们下面看一下这个系统的分析和理想。我们以一兆瓦的IT机房为基准,和我们的常用的空调技术进行的比较,针对这个比较的前提条件,是我们的服务器的最终温度,冷冻水是过多的温度是采用15到21度,没有架空地板的模式。我们对于顶置对流冷置技术,还有行间空调等这几种模式,我们从建设成本,运行费用,模块化,可靠星和操作性这六个方面进行了一个比较。从机房上的五种模式我们进行了一个比较。从这个比较下来来看,我们的对流冷却是最少的,那么它相对于空调机组,行间制冷的模式,大约降低7%到90%的模式。那么顶置对流冷却单元差不多是。行间制冷大约在1.35左右,水冷在1.31左右,空调机组大约在1.31左右,那么这么看来我们OCC也是最节能的模式。

  这个片子可以看到机房成本的差。可以看很好的优势,那么从空调这边的PUE来看,对流冷置,那么我们比精密空调,空调机组,航天制冷都会少到0.01到0.08的模式。在北京的话,刚才我们条件的话,空调的PUE应该在0.19左右,最低是在0.15左右。如果电的方面再做一些节能改造,比如说高压直流的模式,那这样的话它可以从整个PUE大概可以做到1.2到1.25来去做。

  以OCC为基数的话,大约每年的可以比采用精密空调省电大约在76万度电。顶置对流冷却在制造安装方面,这个技术无论是从生产的厂家还有安装技术都没有问题,我们惠普也做了一个微模块,大家有空可以去看一下。从可操作性,顶置对流冷却技术,盘管可以以N+1的模式,这个可以实现T1T2T3T4这样的模式。这个对风扇没有要求,风力的阻力只有22块,它也不需要消耗末端的风扇,整个来说它是最节能的模式。

  我们总结一下顶位对流冷却单元的特点,它是更率、更高效、更高节成本。那么我们通常以前的话,就是在7到12度,现在我们做很多年下来我们到12到18度,但是随着这个高温服务器越来越多,我们可以提高的更多。现在我们帮一个客户在做的时候,它的季风服务器可以到35度的模式。但是顶置对流模式盘管的话,它冷冻水可以提高很大,跟我们的通风差别不大。

  这个风机的消耗量也就没有了。这个过多的空调的项目中,在我们整个数据中心来说其实海战蛮大一部分,这部分能量我就可以节省下来。无论是水车组系还有风测阻力,我们采用电流模式的话可以大大降低水泵的消耗的能耗。采用顶置对流冷却的技术可以显著的降低PUE。

  第二个特点是低成本。这个像采用顶置对流冷却技术可以取消架空地板。可以采用盘管的模式,盘管的造价更低。我们不需要厂房有特别的要求。顶置对流冷却单元占用的面积非常好,它可以放更多的机柜,这样的化机柜的出柜率更高。模块化可以包括冷冻水的盘管,管道还有温度控制器,温湿度传感器等模式,它可以在工厂预制化,可以快速的部署。我们一品一品的模块都做好,到工厂安装就好了。在工厂加工的时间差不多是一周的时间。

  顶置对流冷却单元它的系统的组建很少,它没有动力设备,这样的话动力设备的运行维护也会减少很多。我们就是在整个的土建好以后,我们分机房分模块进行一些顶置对流冷却单元是没有什么运维的,在雅虎用了九年的时间,没有什么需要清晰。

  它利用了空气的动力学原理,在整个的运行过程中,我们没有盘路的空气。我在地板上送风,有一部分是冷风道。那么,这个单元跟室外没有交流。对可维护方面也是很有特性的。在整个系统在运行过程中,因为我们每个模块都有备用的模式。那么操作也方便,那么维护成本也很小的模式。它有一个特点。那么在盘活的表面是没有冷凝水的出现,也不会有漏水的情况发生。

  对于这个盘管的模式大家都有一个疑虑,是它在设备上安装。那么我们对它有特别的要求,我们通常比压力高的这种模式。这个顶置对流冷却技术它可以连接风冷和水冷的冷冻系统,我们可以跟精密空调结合,利用现在有的模式改善现有的机房。在有或者没有地板的空间下安装这种模式。

  这个像这种顶置对流冷却技术在中国已经有设计的案例。在中国某互联网数据中心,在某航空公司的数据中心我们都设置了顶置对流冷却技术了。这个是我们的模式,红色是机柜,下面是冷却对流冷却单元,旁边是管道的模式。从结管中我们可以看到,这些管道在预制的模式,接下来就可以,就是焊接的工艺。我们可以放在一个集团的管道间。

  这是顶置对流冷却是在中国的案例,这个效果图是我们顶置对流单元的效果图,这个图片是我们采用顶置对流单元的CIDM的模块,这个气流组织,一个状况,我们可以看出这个气流组织每个都可以从盘管里面流动着。模拟的状况是我们每个模块有四个OCC的断管,那么在这个备用模式,在不用的状况下,我们另外三种盘管也可以实现这个模式的。通过CMID模拟我们也可以看到这个状况。总之来说我们这个技术就降低了PUE值,对于空调就降低了很多。我们的现在的模式对精密空调和空调机组,和航天制冷,我们的空调的PUE大约可以降到5%到40%左右。这个是一个专利设计,是我们数据中心更绿更节能的一个模式。我的分享就到这里,大家如果有什么想法,可以会后交流一下。


(本文不涉密)
责任编辑:

站点信息

  • 运营主体:中国信息化周报
  • 商务合作:赵瑞华 010-88559646
  • 微信公众号:扫描二维码,关注我们