IAAS云底层架构之绿色数据中心

                                                                                   2011-11-2210:30                                    中国信息产业网官方微博

腾讯科技网络管理部助理总经理 谭杰夫

现在是一个风起“云”涌的时代,IT人士及各类相关行业人员开口即“云”,无云不成题。目前公认的三个云计算服务层次是IaaS(Infrastructure as a Service)、PaaS(Platform as a Service)和SaaS(Software as a Service),那数据中心在这里面是承担什么样的角色呢?这里我们首先看一下数据中心发展的几个阶段。

数据中心发展的几个阶段:

第一阶段:从60年代到80年代,机房一般为大型机、小型机量身定制;并无统一建设标准和规范;供电方式由稳压器供电逐步演变到UPS供电;普通空调逐步演变到精密空调。

第二阶段:90年代到2000年,开放式机架开始普及,国家出台了相关机房规划、设计和建设标准;供电和空调系统的逐步走向专业化;一些从事洁净厂房的公司慢慢转型到专业机房工程公司。

第三个阶段:2001年到2007年,服务器的兴起及金融系统的高可用性的要求、业务对IT系统依赖,带来机房可用性级别以及子系统设计的多样化;机房监控系统的完善;机房持续稳定性得到大幅度提升。

第四个阶段:从2007年开始至今,随着Google、Yahoo、Microsoft 和Facebook等国外大型互联网数据中心的建立,很多以前用在工业领域的技术已逐步应用到数据中心领域,模块化及工业化趋势显现,服务器集成度更高,性能更强,定制化产品出现;机架密度提高;节能新技术的广泛应用;运营管理走向全面自动化。

未来,随着服务器性能和对环境冗余度的提升,数据中心已不再是一个神秘和单纯高可用性的场所,而是转向更关注节能(降低PUE)、如何提升运营能力和效率(自动化运营)、通过业务和网络的容错来降低数据中心的容错(大规模、低成本)等等,将是新一代绿色数据中心的发展方向。在云时代,数据中心的定义也发生了变化,它已不再是一个独立运转的个体了。它被当作一个大的服务提供节点,提供的是用户所需的计算能力和存储能力;通过网络和动态调度系统,多个数据中心的计算和存储资源可以被所有用户共同使用并能及时的调度和释放。因此,在云时代,单个数据中心节点的服务质量对整体服务提供已不形成一个致命的影响,数据中心“云服务”是一个可以动态伸缩、自动调度的柔性服务,这就要求数据中心完成向智能化、标准化和模块化的转变。

数据中心的效率测量指标:

长期以来,规划和建设成的数据中心无法准确界定和衡量其真正的运行效率,因此数据中心需要一些定量的指标来进行标识;作为一个绿色数据中心,衡量的标准尤为重要。

PUE——2007年绿色网格组织推出的电力使用效率标准(PUE),目前PUE几乎变成了数据中心的效率和绿色节能减排的的重要衡量指标和代名词,无论是最终客户、行业专家、架构师、设计者、运维者都把降低PUE指标做成了头等大事。

http://img1.51cto.com/attachment/200911/200911111257902388937.jpg

但PUE也只代表了数据中心基础架构的运行效率,他是一个被动的数值。从数据中心整体来看,服务器的能耗决定了数据中心的总体耗能。衡量一个绿色数据中心总体效率还需要考虑服务器的静态和动态效率。由于服务器的种类繁多,业务应用形式及监测手段各异,如何更准确地反映数据中心的总体运行效率,是一个需要不断实践和探索的课题。

数据中心能效的计算方式发展

TPUE = PUE * SPUE

SPUE= 服务器输入功耗/有效计算功耗(CPU+MEN+DISK+IO)

绿色数据中心的几种技术实现方式

数据中心的能耗来源除了服务器之外,就是供电环节和制冷环节,如何降低这两个环节的能耗对数据中心的节能至关重要,以下从几个方面分别阐述一些技术实现方法:

建设:从工程化走向工业化。

传统的大型数据中心建设,从选址、地勘、规划、建筑设计、机房设计,到基础建设、机房建设、设备测试、系统测试、验收并交付运营,整个过程中参与单位众多,基础建设与IT建设耦合度高,配合界面复杂;同时还带来投资巨大、周期冗长这两个最大的问题。即使建筑条件已经具备,单单机房的建设通常仍然需要6-12个月才能完成。

绿色数据中心需要从各个环节减少损耗,快速、标准的完成以上过程,这就需要将工程化的工作尽量工业化,即通过标准化、模块化等手段,将尽可能多的工程环节工作放到工厂完成标准化的预制,从而大幅度缩短建设和部署的周期(由1-2年缩短到3-6个月),快速响应业务需求;同时,基础建设和IT建设分离后,数据中心大楼的建设可以形成固定的模版,降低工程复杂度。

供电系统:全面摆脱UPS困扰,采用高压直流供电模式。

传统UPS系统尽管已有多年的成熟应用经验,但在成本和效率上都不具备优势。如冗余部分空载运行、并机复杂、相位\频率\幅度维护问题、大功率UPS有炸机着火风险等等。而采用270V/380V高压直流系统,由于其具有负载率高;轻载下系统效率高(节能休眠等能效管理);拓扑简单;可在机柜内按需在线扩容、并机扩容;无电源幅度、相位和频率的同步要求;维护简易;另外在运营成本和总体投入上也具有优势:opex提升10%以上,capex降低20%以上。

制冷系统:暖通节能技术的全面应用。

制冷系统是降低PUE的主要贡献者,目前无论是国外还是国内,都对大规模数据中心的制冷系统给予了充分地重视。近年来也涌现出很多产生实际效益的节能技术:封闭冷通道或热通道;结合自由冷却技术(free-cooling)的水冷空调系统设计;Air side economizer(风侧自然冷却技术);采用风扇墙方式替代机房内精密空调和储冷罐;提高水系统供回水温度……等等。通过这些技术,可望将PUE大幅度降低到1.3以下,最优值达到1.1-1.2之间。

总之,中国的绿色数据中心之路才刚刚起步,前途还有很多障碍需要去跨越,还有很长的路要走。新的节能技术的使用需要一个验证和接受的过程,同时也需要产业链的支持;往往在新技术引入初期不会有太多厂商跟进,这也需要整个行业共同努力,培养并带动整个数据中心产业链的发展。

作者简介:

谭杰夫

高级工程师,毕业于西安交通大学,硕士研究生;曾在平安集团信息管理部,目前就职于:腾讯科技,网络管理部助理总经理;主要负责IDC的整体规划运营工作。

(来源:中国信息产业网    作者:谭杰夫)

相关文章

更多>> 论坛精华                                                                                            通信公社官方微博

更多>> 精彩博文

信息化趋势

产业圈动态

运营业要闻