技术
首页  >  大数据  >  大数据专题

2015开放数据中心峰会模块数据中心分论坛讨论集萃

2015-11-06  来源:中国信息产业网  作者:

李孝众:我想说这些影响数据中心的技术来说,百度做了这么一些尝试,在电气方面用了高压直流供电,这个效率已经提升到了极致。我们想在变压器,在配电线路上的损耗,我们已经几乎没有办法把他再做提升。在暖通的角度,我们做了顶置空调,没有风扇,这块的损耗也把它消除掉。这个基础上我们想整个机电系统的控制部分,还是有文章可做。比如说是整个可协调的之,包括冷水机组和各种泵、阀门联合的控制。在控制的角度,在明年可能会有一些竞争。

第二个层面就是刚才提到的运营的层面,因为现在很多的数据中心建成之后,进入大规模的运营阶段。运营阶段也有很多事情可做,比如说在运营商的租用数据中心,一个机柜是10安培,我们跑到5安培、6安培已经很不错的。在BAT自建的数据中心负荷率更高一些,到70、80%也是很不错的。

我们想实际上还有20、30%的容量是沉淀在系统之中,刚才奚总提到容量管理,我们看到20、30%的时候我们还可以通过一些手段,比如说IT跟机电的一个协同等等,这样一些控制的机制实际上相当于我们不花钱的情况下又把数据中心再多出20、30%的容量来。之前这个容量没有人敢用,都是担心以后会怎么样。

我们感觉在运营层面还有一些控制和优化等等策略可以去做。

主持人朱华:OK,五位嘉宾都分享了自己的观点。我在这里汇总一下,整个未来得技术从我们的角度来看 ,整个节能技术依然会大行其事。人资源的利用和能量管理,包括能源的高效利用甚至清洁能源技术的突破,这是一个方面。还有一个就是我们的控制层面,比如说整个数据中心运营未来挑战是什么?精细化运营,精细化运营过程中需要很多技术,包括自动化运营的技术,控制技术,这些会有一些突破,这边也会有很多的市场。

最后行业一直在做,电力模块、制冷模块都是在自己稳步推进。最终我们讲的随着高效的一个东西,影响最深远还是云计算的上层的应用的技术。云计算的资源的高度整合和高度的灵活调配。我总结五位嘉宾想法。

我今天把提问的环节放到最后,我们在座各位有一些什么问题?嘉宾分享过程当中想问嘉宾的问题大家可以提问。提问者提问之前报一下自己的身份,同时他想提问谁,什么问题,三步。

提问:先简单自我介绍一下,我姓何,来自于上海多睿克(音)。我们一直在做机柜系统,现在叫微模块的东西,坚持了12年,也许我们以后有合作,我就是另外一个超级工程师就是设计到产品级的微模块。

我有两个问题,第一个问题想问一下陈先生,今天看到了很多机柜级的跟微模块级的预制化的方案。我想了解一下现在集装箱级的末端的机柜系统,国外现在是做到什么水准?

陈炎昌:我回答一下你这个问题,05年的时候谷歌在推他自己的集装箱,里面是带IT,把所有东西都弄清楚。微软也推了,但我最近近两年分析下来情况,这个并不合适。因为结构耦合太多,这么大的箱子你想想要运到不同地方的时候,物流成本,还有整个东西你把服务器一个机架可能有几十到一百万,十几个翁机架放到一个箱子里面发过去,风险成本还有保险,供应链上面很难解决。现在Facebook、谷歌等等公司做的情况是只搭个框,整个机架服务器推进去。他们最后在往大做的时候,不是因为他们有收益,而是因为他们风险成本太高,算不回来,而且他整个架构三年之后一换的时候,他把整套东西都换掉,这是成本的问题,不是说他没有收益。他做的东西是有快速部署的收益,但主要是更换的成本太高,算不回来。

提问:如果里面是没有IT设备层,只是机柜、桥架,布线,这个运输应该用成熟的集装箱运输的体系应该是没有问题的。

陈炎昌:现在包括我们看上去还有Facebook等等几家公司,你会发现他们现在做的只有一个东西就是把这个通道密闭和机架解耦,谁家的机架长什么样子,多宽多高都能放进去,都能密闭好,那就可以了。因为你这个机架的变化是一直在改变,但你这些结构的东西你可能要用很久,这就是为什么他们愿意去做把空调拉到外面去做大冷墙,不知道你有多高的密度,他就是这种想法,这是一种石化的概念,你们可以参考一下。

提问:我想补充问一下,国外有没有出现一种集装箱的方案就用传统制冷方式,有没有出现?

陈炎昌:有,我给你几个案例,你可以看最新的模块化数据中心,这是第一个。第二看英国的一个企业也是混合制冷,集装箱拼起来的,这些案例可以上网搜到。你看到之后会有很多自己的想法,我相信。

关键词:模块数据中心 ODCC 2015开放数据中心峰会 服务器 idc