解析:集装箱式数据中心的四大疑问绿色数据中心

2011-08-15    来源:网界网    
2006年10月,原SUN公司提出一个颇具想象力的黑盒子计划(Blackbox),构想是将数据中心的主要组件,包括计算机硬件、供电和冷却设备等全部放到一个标准集装箱中,即我们今天所说的集装

  2006年10月,原SUN公司提出一个颇具想象力的“黑盒子计划(Blackbox)”,构想是将数据中心的主要组件,包括计算机硬件、供电和冷却设备等全部放到一个标准集装箱中,即我们今天所说的集装箱式数据中心。而且,SUN真的造出了这么个集装箱式数据中心,并拉着它前往世界各地进行巡展,还登上了我国的长城,在业界一时风头无二。

  SUN的创意迅速得到IBM、惠普、戴尔、SGI等国外厂商的积极响应,这些厂商先后推出了相关的产品。尤其是最近半年,一些国内厂商,例如浪潮、云立方、世纪互联等,也纷纷高调推出自己的集装箱式数据中心产品,让一度略显沉寂的集装箱式数据中心再次吸引了业界的注意力。


SUN集装箱式数据中心Blackbox

 
Blackbox登上长城

  不过,时至今日,人们对集装箱式数据中心基本概念已经比较熟悉,他们关心更为实际的问题,尤其是以下四大问题:

  1.今天的集装箱式数据中心有哪些新的改进?

  2.相对传统的数据中心,集装箱式数据中心有何利弊?

  3.谁在真正使用集装箱式数据中心?

  4.集装箱式数据中心的市场前景如何?

  为此,《网络世界》记者采访了一些与集装箱式数据中心相关的厂商及用户,力求给读者一个较为全面的视角,来详细了解这种比较特殊的数据中心。

  问题1:有哪些新改进?

  应该说,如今的集装箱式数据中心整体设计还是遵循当初SUN的设计方案,即一个集装箱就是一个小型的、 “五脏俱全”的数据中心,用户所需要做的就是接一根电力线和一个Internet接入,另外加上一根供水管和一个外部冷却器。不过,毕竟在过去五年里各厂 商都在根据具体实践来不断调整、完善自己产品,因此,今天的集装箱数据中心在性能、容量、绿色节能等方面大有改进,简言之,具有更高的产品成熟度。

 
惠普EcoPOD

  以节能为例,惠普今年推出了新一代集装箱式数据中心HP POD 240a(又称EcoPOD),并形容其为“全球最高效”的数据中心。因为在EcoPOD之前,全球数据中心PUE值(PUE=数据中心总设备能耗/IT 设备能耗,最理想的数值是1)最高记录保持者是Facebook的数据中心,为1.07,而EcoPOD刷新了这一记录,达到1.05。

 
惠普亚太及日本地区企业业务集团工业标准服务器产品部产品经理 沈仲杰

  客观地说,由于集装箱式数据中心由于容易实现冷热通道隔离,其PUE值一般都会比传统的数据中心低上很 多,所以自集装箱数据中心诞生之日起,节能就是一大卖点,但低到1.05却也不是件容易的事。那么惠普是如何做到的呢?惠普亚太及日本地区企业业务集团工 业标准服务器产品部产品经理沈仲杰表示主要有以下三个原因。

  一是冷热通道隔离完全隔离。EcoPOD已经不再是标准的集装箱外形。它包括两个部分:上半部是制冷 室,下半部就是数据中心的设备室。在设备室里,两排机柜背对背地摆放(每排最多22个42U机柜),中间留出一个8英尺的散热通道,所以其实是热通道跟热 通道叠加在一起,共享这个散热通道。冷空气从机柜的两侧压进设备室,滤热后,再从中间的散热通道吸回上层的制冷室,从而完成一个循环。

  二是风压非常大,平均每个机柜可以带走44KW的热量。而且其风压系统分三区,风扇转速分五档,可以根据负载情况调节风扇转速。

  三是采用了惠普独创的自适应冷却技术(Adaptive Cooling),可根据IT负载、气候以及政策自动调整冷却方法。沈仲杰表示,只要环境温度允许,EcoPOD就会自动关闭制冷设备,进行自然空气冷却,从而大量节约能源。

  不仅是惠普,国内厂商世纪互联也表示,该公司所研发的40英尺标准集装箱式数据中心的PUE值也达到了 1.07。从世纪互联官方公布的资料来看,该公司产品之所以获得较为理想的PUE值,一方面靠的是冷热通道完全隔离,另一方面是因为将空调安装于服务器机 架之间,缩短了送风距离,也就减少了送风过程中的冷量损失。

  值得一提的是,在集装箱式数据中PUE值越来越低的情况下,其密度越做越高。例如,一个惠普 EcoPOD最多可容纳4400台物理服务器(EcoPOD属于40英尺集装箱),这意味着,EcoPOD将本需占地10000平方英尺的数据中心精简到 仅占原面积十分之一的模块中。又例如,微软芝加哥数据中心所实际使用的一种双层的集装箱式数据中心也可塞进2500台刀片服务器。

 
微软芝加哥数据中心

  不过,需要指出的是,EcoPOD和微软的这种双层的集装箱式数据中心之所以达到这么高的密度,也跟整 个设计不再拘泥于传统集装箱外形有关。例如,微软的这种双层的集装箱式数据中心,就像两个集装箱堆叠在一起,下面一层放的是服务器,上面一层放电源、网络 等设备模块。惠普EcoPOD的外形改变更大,上半部是制冷室,下部分是设备室。不难看出,这两种设计都是增大了服务器、存储等设备所实际可使用的空间, 从而能达到更高的密度。

  当然,市场上绝大部分集装箱式数据中心的箱体采用的还是标准的集装箱规格。其中,20英尺集装箱式数据中心一般可容纳500~750台服务器,40英尺集装箱式数据中心一般可容纳1000~1500台服务器。这种密度也很可观了。

  另一个更大较大的改进则来自于施耐德电气。集装箱式数据中心虽然属于模块化数据中心的一种,但在有些集装箱内部,电源、制冷模块往往是与箱体紧密“耦合”在一起的,而施耐德电气将其变得更加“模块化”。据施耐德电气IT事业部数据中心解决方案业务拓展经理 金东介绍,该公司在其美国圣路易斯技术中心安装了一套集装箱式数据中心。此数据中心由三个箱体有机地组合而成,分别是电源,制冷及数据模块。更有意思的 是,其电源、制冷模块又可以直接“抽”出来,直接用于传统的数据中心。很明显,这种高度模块化的结构增加了使用、维修的便利性,也最大程度地保护了用户资 产。

  此外,在一些细节设计上,现在的集装箱式数据中心也做得更好。例如,SUN当年推出的集装箱数据中心 “Blackbox”,就真的如其名字一样是个黑色的集装箱,而现在的集装箱式数据中心箱体基本上都是白色,并涂上特殊的反射隔热涂料,采用的也是更加保 温隔热防噪声的材料,以确保冬季不结露、夏季冷量不外泄。又例如,集装箱的自重就不轻,装进服务器后重量会更大,微软为集装箱配备了滑轮,因此只需要4个 工人便可移动一个集装箱式数据中心。

  问题2:有何利弊?

  集装箱式数据中心优点很明显:部署速度快、成本低、可移动、易扩展、更高密度、更加节能。IDC企业系统与软件研究组研究经理刘旭涛表示,在这些优点中,有三点让集装箱式数据中心尤其具有吸引力。

  一是部署速度快。通常情况下,传统数据中心从规划到完工要经历数十个环节,耗时18个月甚至更长的时间,一次性投入非常高。而集装箱式数据中心从向厂商预订到真正投入使用一般不超过三个月时间。

  二是可移动。该特性比较受石油勘探、矿山、军工等特殊用户的青睐,或者,一些赛事、展会的主办方也适合临时租用集装箱式数据中心来支持业务需求。

  三是易于扩展。这其实是一些非特殊行业所最为看重的优点。因为,随着业务发展,很多数据中心都遇到场地、用电及制冷的限制,而传统数据中心的扩展性又较差,因此即插即用、按需扩展的集装箱式数据中心还是很能吸引有扩容需求的用户。

  相比之下,集装箱式数据中心的缺点似乎没那么明显,主要是以下几点:

  一是耐用性差。集装箱数据中心的设计寿命一般是十年,它能在多大程度上经受时间、天气,以及运输过程中路途颠簸的考验还是个未知数。不过,就抗震性而言,厂商们给出的数据基本上都是抗6~7级地震,但市场上还鲜有用户对这一数据进行证实。

  二是工作空间较为狭窄。因为集装箱数据中心本来就用来容纳设备,而不是容纳人。

  三是安全性差。放置在室外的、孤立的集装箱数据比普通大楼更容易被闯入或捣毁,不过,集装箱式数据中心若是放在建筑物里,该缺点似乎就不存在了。

  问题3:有谁在用?

  谁在真正使用集装箱式数据中心应该是企业用户特别关心的问题。目前看来,尽管集装箱式数据中心还算是新 生事物,但国外企业用户对它的接受度比较高。微软高级架构顾问崔宏禹告诉记者,微软位于美国芝加哥的数据中心分两层,一层是传统模式数据中心,另一层则摆 放了56个集装箱式数据中心,是目前使用集装箱式数据中心最多的数据中心。其中,每个集装箱容纳了1800~2500台刀片服务器,整个数据中心2/3的 服务器都装在这56台集装箱里。如今,微软芝加哥数据中心的总能耗是30MW,PUE值却只有1.22。

  此外,国外媒体有报道,美国普渡大学、美国宇航局都早已使用了集装箱式数据中心,来作为现有数据中心的扩容。而思科公共部门高级副总裁Bruce Klein则于今年六月透露,美国军方一口气向思科预订了150台集装箱数据中心。

  然而,集装箱数据中心在国内的应用也并非一片空白。例如,国内某知名旅游比价网站采用了世纪互联的集装箱数据中心托管服务。北京“云基地”的天地云箱公司所研发的集装箱式数据中心也已经为云基地里十几家企业提供数据中心服务。

  质疑  

  如果说以上两家公司的集装箱式数据中心有那么一点点“自产自用”的味道,那么位于成都的川庆地球物理勘 探公司(以下简称“川庆物探”)则是真正意义上的集装式数据中心用户。据该公司计算机所副所长汤成兵介绍,川庆物探已经购买了一台IBM集装箱式数据中心,用做“靠前处理中心”(即建立在勘探项目所在地的数据中心,可对收集来的数据进行现场处理)。

  汤成兵告诉记者,之所以选择集装箱式数据中心,主要有两个原因:一是,该公司承担的勘探项目主要以山地勘探为主,山高坡陡,移动性很大;二是近几年,对于某些大项目,甲方要求建立靠前处理中心,来进行资料处理,为工区内的数据采集提供技术支撑。

  “前几年,我们都花大力气在现场租用场地建立靠前处理中心,成本很高,现在我们使用的集装箱数据中心既能移动,又可重复使用,有效降低了成本。”汤成兵说。

  中国石油东方地球物理公司研究院处理中心总工程师赖能和表示,该公司以前的做法是搬几台机器到项目所在地的宾馆去做处理。“如果性价比合适,从环保、节能和安全等方面来看,集装箱式数据中心也是个不错的选择。” 赖能和说。

  不过,在采访过程中,记者听到了一些用户对集装箱式数据中心的质疑。例如,有人总感觉集装箱式数据中心 安全性差,太具有临时意味;有人认为一个20英尺集装箱数据中心只能放一排机柜,利用率并不高;又有人担心集装箱里的高密度环境会导致散热不良,从而影响 服务器的正常运行;还有人担心集装箱数据中心容易造成厂商锁定,等等。

  应该说用户的这些质疑还是有道理的。集装箱式数据中心的安全性其实已经得到一些集装箱式数据中心厂商的 重视。例如,天地云箱公司CEO徐红忠表示,他们也发现用户对这一点很看重,甚至左右了用户对集装箱式数据中心的最终采购,所以,天地云箱下一步将着重加 强集装箱式数据中心软硬件安全的建设。

  在利用率方面,沈仲杰表示,如果集装箱式数据中心不是高密度环境,那么集装箱式数据中低PUE的优点就 没有那么显著了。所以集装箱式数据中心一般都是做成高密度环境,而高密环境下,冷却系统设计尤其考验集装箱式数据中心厂商的研发能力,以及对制冷系统的理 解和应用能力,同时,这确实也是用户在甄选集装箱数据中心时最该注意的问题。例如,施耐德电气IT事业部数据中心解决方案业务拓展经理金东告诉记者,国内 某厂商曾给国外用户定制过几个集装箱式数据中心,在实际使用中却发现箱内温度忽冷忽热,达不到稳定的温控。因此该厂商现在正在寻求和施耐德合作。实际上施 耐德早就将其数据中心物理基础设计构架移植在了集装箱式数据中心里,并一直与许多知名IT厂商进行着相关合作。

  至于厂商锁定嫌疑,汤成兵的回答是:“不存在锁定。”其实当前的集装箱式数据中心基本上都是开发式架构,支持任何标准机架安装的IT设备。如果用户同时用来自不同厂商的集装箱数据中心也没有问题,只不过数据中心管理员可能要熟悉不同的集装箱式数据中心的管理软件。

  问题4:市场前景如何?

  关于集装箱式数据中心的前景,市场上仍有多方争论。

  一方面,我们看到,越来越多的国内外厂商正在切入这个市场,以实际行动传达着对集装箱式数据中心未来前景的看好。而且,有观点认为当前炙手可热的“云计算”将有助于促进集装箱式数据中心的广泛应用。

  另一方面,不得不承认,目前用户的观望态度还是很明显,而且,也有戴尔这种早在2008年就推出集装箱式数据中心,但是现在已经全面转向模块化数据中心的“异类”。

  戴尔中国大陆及香港地区大型企业事业部解决方案部总监陈伟业解释说:“其实戴尔的集装箱式数据中心在国内外都有实际用户案例,但我们后来发现,当客户需要有一些变化时,就会在调整电源、制冷、冗余,以及调整箱子内部各构件时遇到不便。而模块化数据中心具有 更多优点,适用范围也更广泛。”据悉,戴尔为澳大利亚Tier5公司搭建的模块化数据中心的PUE值达到1.18,使之每年节省了8百万澳元的能源开支。

  “未来,集装箱式数据中心还是具有相当的市场的,我们认为,它是对现有数据中心的一个很好的补充,但短期内还不会成为主流。” 刘旭涛说。

1
3