美国劳伦斯伯克利:数据中心能效评价技术研究与实践应用行业资讯

2012-09-26    来源:IDCUN    编辑:IDCUN
     

  我是来自美国劳伦斯伯克利国际实验室,我的专业在能效方面。在这些消耗能源的楼宇里面,有写字楼,有实验室,有数据中心的措施,大家可以看到数据中心所消耗的能源比其他的设施消耗的能源要高很多倍。在这个数据中心行业,现在每个机柜的功耗可以达到25千瓦或者以上这样一个水平,存储能量的需求也是非常大。典型的数据中心是2兆瓦,但是大型的可能会达到20兆瓦以上。在美国数据中心占全国所有能耗的比重达到1.5%,在未来的五年之内可能这个数据会翻番。在现有的数据中心内这种增长会给供电、制冷和基础设施容量制造一些麻烦。而且还会对室电接入的容量造成比较大的压力。但是,也不全都是负面的。IT能效的改善也增长非常快,但是,我们对IT的能耗需求增长可能更快。这样我们最后得到的是我们总的能耗增长非常快。每一千美元所能采购的服务器这样的IT设备好的能量是以前的4倍。在数据中心的全生命周期之内,它能耗所产生的成本要比购买服务器产生的成本要高。


  美国劳伦斯伯克利国家工程实验室建筑科学技术应用项目组负责人Dale Sartor

  很遗憾的是,在这个数据中心里面交电费的人和做决定的人不是同一个人。劳伦斯伯克利实验室感觉到能耗的问题,这张图显示的是在劳伦斯伯克利事实上我一些自用的数据中心的能耗情况。在刚刚跨入21世纪的时候,十年前我们事实上的能耗大概只是在2千瓦,我们预测在未来能耗增长可能会超过35兆瓦。我们整个事实上园区大概有100多栋建筑,除了数据中心以外所消耗的能耗大概13兆瓦左右。我们数据中心的建筑所消耗的能耗可能会是其他所有建筑好能耗的3倍,对我们预算的压力也非常大。美国一个华裔的能源部长认为数据中心不应该消耗这么多的能耗,他坚持要把这个事实上的能耗控制在17兆瓦。相对原来数据中心需要的35兆瓦可能减半了。但是,跟我们现在所用的13兆瓦相比,再加上17兆瓦能耗还是翻倍。这张图是显示在发电端如果有100个能量在矿物燃料,最后在IDC数据中心被IT所使用的可能只有15%。在发电厂发电的时候,矿物燃料燃烧的时候可能2/3被损耗掉,在输电和配电阶段可能还会损失2个单位的能量。到了数据中心以后,超过一半的能量消耗在制冷和UPS损耗。那么,劳伦斯伯克利研究发现在刚才这个图显示的每一步上我们都可以用一些方法来节能。在发电端我们的想法是可以把发电的设备放在离数据中心比较近的地方,发电的时候还可以用一些可再生能源还有新能源。还可以采用一些热回收的技术,比如热电联产这样的技术来回收热量。在配电环节,可以用一些比较高的电压,或者是用一些直流的,这样就可以让很多UPS系统非常的节能。

  在IT设备这个环节,我的推荐是可以选用一些节能的IT设备,通过虚拟化的技术可以让IT的设备使用率提高,还可以要求服务器厂商提供更高效的服务器电源。还可以用负载平衡,或者负载管理这样的技术让IT跟踪它自己所消耗的能耗。这个技术简单来说就比较像笔记本上用的休眠技术。

  在制冷环节我们也有很多机会可以实现节能。第一个是我们可以改善接入管理,可以用水冷服务器代替风冷,可以优化水冷机,或者使用自然冷却技术让压缩机,或者冷机在寒冷的天气停用,最后还可以通过提高混合水的问题实现热回收。

  比较典型的节能技术应用可以达到20%-40%的节能效果,但是,用一些更积极的措施我们可以节省到50%以上。这样做还有另外一个好处就是可以延长数据中心的容量。

  我们怎么判断数据中心的好坏?我们可以用一些性能参数测量和衡量数据中心,这样可以通过这些参数比较自用的数据中心和别的数据中心。通过跟踪这些参数,我们可以持续的对数据中心进行优化和改善。劳伦斯伯克利在超过30个数据中心进行了这样的实验,发现性能的变化很大。通过这样的研究可以让我们很好的推广数据中心资源省电。

  这张图显示的是两个比较典型的数据中心,如果这两个数据中心的参数确实是一样,在偏上一点的那个数据中心它的能效是比下面的要好一点。这是因为所有这些数据中心的电能有更大的比例被IT使用,而不是被基础设施使用了,很少的能量消耗在基础设施。

  这是给大家讲的PUE衡量数据中心能效非常重要的参数,大家非常熟悉PUE是用总的能耗比上IT所消耗的能耗。这个柱状图现实就是我们所测量的25个数据中心的PUE的能耗情况。黄绿色的部分是被IT所消耗的能量,蓝色的就是被基础设施所消耗的能量。这个蓝色柱状比较短的数据中心就比其他那些蓝色柱状长的数据中心可能效益要好很多。这张图列出来的就是我们推荐高效数据中心的最佳实践的例子,第一个是可以通过IT上面的优化实现降低PUE提高能效的目的。第二个是可以使用改善环境的手段。问大家一个问题,哪些人曾经进过一个非常冷的数据中心?一个人。数据中心机房内环境温度越冷,其实提高能效的机会越大,服务器所能承受的温度要比我们人体能承受的温度要高很多。现在通过服务器厂商的交流,我得出的结论是现在很多服务器已经可以设计成采用45度的静风温度的技术。

  气温管理是另外一个手段,就是采用了一个通道的布局,其次可以在理想状态下把冷嘲热讽热风完全分隔开。适度规划也是另外一个手段,因为我们现在看到的很多数据中心基础设施的容量远远大于它IT所需要的容量。选用集中的供电数据中心可能能效会更好一点。有以下三个原因:第一、使用比较大的设备可以通过一些手段提高风机,或者水泵的效率。让冷水越接近风机负载,热交换能就会越好。第二、除了这个以外还有自然冷却的技术。湿度的控制也是数据中心面临的比较大的一个问题。如果有很多的加热器或者除湿器,他们互相之间其实是在打架的。第三、可以推动优化整个供电的手段,从高压开始,或者我们采用直流的技术。最后比较重要的一个就是我们需要重新考量一下到底我们需要多高的冗余度,云计算和虚拟化所带来的在IT层面的弹性可以使我们对硬件冗余度的依赖减少。如果可能在数据中心的现场发电可以提高很高的可靠性和能效。非常跟写大家的时间!

1
3