电力企业用户数据中心规划的新理念与技术行业资讯

2011-01-10    来源:万方数据    
数据信息时代的来临,使得电力企业对各种自动化及IT设备的依赖度越来越明显,而作为电力系统数据核心的三大系统

数据信息时代的来临,使得电力企业对各种自动化及IT设备的依赖度越来越明显,而作为电力系统数据核心的三大系统:CIS(客户信息系统)、PMS(生产管理系统)ERP应用系统,更是掌握着电力企业的命脉,长期以来,电力企业用户对数据中心的规划,一直把焦点简单的聚集在电力电子层面,即IT设备的容量和处理能力是否满足企业本身要求,场地和UPS电力供应的精度和延时是否能满足IT设备的容量要求,却甚少真正的从系统全面的角度去考虑建设一个高可用性数据中心需要注意的全部问题。

在国外,最先把数据中心各个环节作为一个整体来研究的研究机构,是美国可用性研究中心,作为一个专门从事IT系统物理设施研究、设计、咨询的机构,他们把自己的研究工作内容概括为“NCPI”(Network Critical Physical Infrastructure),NCPI包括与物理中心基础物理设施的全部内容,诸如UPS不间电源系统、机房空调制冷系统、IT机架设备内环境、机房环境监控、机房建设等方面,他们的很多设计理念和研究成果,其实已经超出了传统概念的机房和UPS应具备功能的范畴,笔者就此与电力企业数据中心建设规划相关的理念和新技术,稍作阐述。

1 数据中心的供电方案及UPS选择

随着科学技术的发展,广大企业用户,对机房供电系统的要求,不应再只局限于通过UPS提供稳定的不间断电力给负载,以及是否能并机冗余运行,是否能提供长时间的延时供电;而是对整个机房,甚至精确到IT设备微环境(每个机架)的供电质量、电力传输中各个环节各种设备的匹配、UPS的可扩展性作出了全面的考虑。

1.1 UPS的供电模式

图1是典型的传统UPS并机集中供电方案。从图1可以看出,3台UPS通过并机方式,向后面的配电单元(PDU)及负载供电,并机冗余的方案看起来似乎可靠性很好,但是实践证明,这种方式给数据中心供电,有两个缺点:

\

 

图1传统的UPS并机集中供电方案

(1)是空载运行的UPS投资巨大;

(2)是UPS并机的过程相当复杂,存在故障单点,即一旦并机环节出现故障,后面的负载将会全部失电,给数据中心带来灾难性的后果。

事实上,随着IT技术的不断发展,很多IT设备(服务器、路由、交换机)的生产厂商已经意识到了这一点,所以近年来新出的IT设备,多是双电源供电的设备。于是,传统的UPS并机模式渐渐被以下的供电模式所取代,如图2所示。

\

 

图2新的供电模式

由图2可以看出,对于双电源的IT设备,两路不同的UPS电源,直接供到IT设备的机柜上,无单点故障,大大提高了电力供应的可靠性,而对于单电源的设备(如图中的服务器),则采用切换时间低于服务器断电宕机时间的ATS(自动切换)装置同时由两路电源冗余供电,把故障可能性降到最低。

1.2 UPS的延时问题

很多企业用户,在配置UPS的时候,往往会认为UPS的延时时间是越长越好,其实这是一个误解。因为UPS作为应急电源设备,其真正的作用,是保证其后面供应的数据IT设备,能够在市电故障时正常运行,不发生数据中断或丢失。如果需要长时间的延时,则需要大批量的电池作后备,而大批量的后备电池,同样需要长时间的充电,并占用大量的场地空间,无论是从经济角度还是环保角度去考虑,都是不科学的,数据中心合理的电池方案配置,应该以0.5—1h的延时时间为宜,停电后,在15—30 min内,启动企业的应急发电机,由发电机通过UPS对数据中心的负载进行供电,这才是正确的做法。

1.3 UPS可扩展性问题

数据中心的管理者,在规划建设一个数据中心时,初衷都是希望数据中心的规划,是合理且具备高可拓性的。然而,在数据业务需求高速发展的今天,3~5年数据中心内的设备功率增加,往往是很难预测的。IT设备和机柜的标准化,解决了IT设备占用场地空间可拓展性和可预测性的问题,但是UPS扩容所需的空间和可拓展性问题,又有没有办法解决呢?答案是肯定的。事实上,几年前已经有国外厂商研制出了外形跟标准IT设备机柜大小一样的UPS,同时把UPS的功率容量像阵列式IT磁盘机一样,采用分割模块式设计。这样一来,UPS就可以像IT机柜一样布置在数据中心之内,而功率模块的可分拆,使得UPS在维修或扩容时,仅需更换或者添加相应的模块即可,既缩减了UPS的维修时间,同时也使得在UPS在扩容时不再需要占用新的场地空间,完美实现了UPS电源可拓展性。

\

 

图3 APC英飞系列模块化UPS系统

2 数据中心的冷却

2.1 电力数据机房对散热的要求

传统的企业机房,一般采用机房专用精密空调、架空地板由下往上送风的方式,对机房内的设备进行散热冷却。事实上,由于精密空调的价格昂贵,很多电力企业的老机房甚至是用普通空调来代替机房专用空调,对机房设备作散热的。咋看也没有什么不妥,机房的温度好像也满足要求,设备也运行得很好。事实上在早期的电力机房的所有设备中,远动设备份额最大,同时机房内单位屏柜(机架)的IT设备比较少。一般来说,每个屏柜上的负载功率不会超过2 kw,每个机房的屏柜也不会超过10个。在这种情况下,用普通空调对机房散热当然影响不大。但是随着电力信息技术的发展,企业的数据机房越来越大,数据机房里面的设备越来越多,以一个省级的电网企业为例,用于综合数据网及调度数据网上的IT设备硬件,已经取代以往的远动设备,成为了数据中心功率负载的核心主力,而随着IT设备硬件技术的发展,单台功率高于4 kW的阵列式服务器、交换机和其他通信设备,已经屡见不鲜。这样一来,单台数据机柜的功率往往可以达到6~20 kw,在这种情况下,别说用普通空调,就是用传统的精密空调下送风方式,来对数据中心里面的重要IT设备进行冷却,都是有巨大风险的。高功率密度的IT设备,往往承载的都是一个企业电力最核心和重要的数据,一旦因为设备过热,造成宕机的情况出现,对企业的打击可以说致命的。

2.2机房冷却应注意的问题

所以,在数据中心的冷却问题上。必须注意到以下数点:

(1)出于提高IT设备及机柜本身的通风散热能力的目的考虑,必须放弃以往的玻璃门闭合机柜,采用带大面积散热孔或是全开放式的机柜来承载IT设备。

(2)机房的环境温度足够低,并不等同于单个机柜内的设备环境很低,只要设备所处的IT微环境温在度存在热点,IT设备就有宕机的风险存在,用家用的舒适性空调,代替机房专用空调使用,是一种错误的做法。

(3)由于服务器、交换机等主要IT设备的自身冷却,都是采用前进风、后出风的方式来冷却的。同时热的空气由于密度小,总是会漂浮于冷空气的上方,所以在机房冷却系统设计时,必须遵循以下原则:

·不同一排的IT机柜,必须采用面对面、背靠背的方式摆放,因为机柜内的设备总是前进冷风,后出热风,如果不同排的IT机柜采用同一朝向的方式摆放,前面一排的机柜设备排出的热风,将会被后面一排的机柜吸入,大大影响了后排机柜的散热效果。

·机房专用空调的设计。应采用下送风(前送风)、上回风(后回风)的方式,对机房设备进行冷却散热,只有这样,才能做到真正的节能和高效。典型的机房系统活动地板冷却送风图如图4所示(摘自APC公司公开网站)。

\

 

图4典型的机房系统活动地板冷却送风图

(4)当单个机柜的功率负载大于10 kW时,按照传统的机房精密空调,通过架空地板下送风的方式对数据机房进行整体供冷的方式散热,可能已相当吃力,这时可以考虑采用单独的机房专用空调,有针对性地对某些重要设备单独或分区供冷,以保证IT设备的正常运行。

3 结束语

作为数据中心IT设备基础设施核心的UPS及空调冷却系统,与数据中心的其他环节构成了一个复杂的系统,只有把数据中心的各个环节综合起来考虑,才可以打造一个安全、可靠、节能、高效的企业数据中心,使得企业真正做到安枕无忧。

1
3