数据中心IT前沿技术
;比较数据中心,它的功耗和技术使用功耗。从图上面看到,这只是一个能耗比,最低的是3.5,最高的是1.5,我们当前是在3。目标是在2-2.5。通过评估,前期能够大致知道数据中心达到哪一个等级。
;我们自己开发的WEB工具,这是免费的工具,可以进行自我评估,评估过程根据12个问题,我们把整个数据中心分成12块,不光是数据中心,包括智能化建筑,IBM做这个事情是把数据中心和智能化建设放在一个平台上考虑的。主要分三类,对功耗相关问题,这12个问题里,快速战术手段部署,战略数据中心规划的范围。另外,针对改善领域的报告,IBM最后提出来一个服务建议,怎么样规划、设计。
;最大耗能在冷却上,IBM使用了储能方式,或者储冷方式解决一部分问题。这个方式可以改善的效率达到40%-50%,降低成本。室内机房,比如说水冷系统,外面水塔冷却好之后,主要对冷却下的,室外的冷冻水机组,然后把冷冻水直接送到室内的风机盘管,这个过程是传统的水冷系统的过程。这个过程有很多问题,我们知道水冷有一个气堵现象,会造成效率降低,甚至设备没有办法正常运行。气候不同,对效率的影响也很大。IBM水冷机组,室内冷冻,风机盘管之间加了一个巷位改变材料,是一个大的储能,像运原油的罐车,一个罐状的东西,是用巷位改变,改变以后不同的巷位温度不一样,可以储存能量。电价低的时候,我们把设备全功率开足,储存的冷量,一部分晚上给设备风机盘管使用,另外可以在白天通过风机盘管释放出来,半功率开,甚至短期开都可以,可以存储四个能量。好处是可以利用电交叉。在纬度比较高的地方,比如东北,冬天室内机也需要冷却的,我们可以让室外的低温冷却SPC的材料,然后冷却室内的风机盘管。气堵就没有了,应该是减少了,基本解决了,因为有时候还要直接开冷冻水机组,可以大大节能到40%到50%。可能很多客户不接受水冷。水冷现在已经发现慢慢又回到数据中心,十年前计算机房里大部分使用水冷系统。IBM最初进入国内的数据中心,CPU的芯片就是直接进入水冷系统。水冷系统效率非常高,被风冷高10%左右,过去施工材料、建筑材料、安装材料,还有工艺受限制,发生过漏水、冷凝水、水管爆掉等等,现在大部分数据中心会担心水的潜在危险。数据中心规模越来越大,以后没有办法避免重新使用水制冷技术,但是水制冷技术和十年前不一样,国外很多技术中心大部分都是水制冷,现在材料、安装工艺都是非常乐观的,可以减少到安全线或者承受线,当然有一些措施解决、防范漏水问题。
;另外,可扩充的模块式数据机房,主要针对小的数据中心,数据中心规模很小,建设周期要求很短,但是可能有一定数量,我们可以叫做模块化数据中心,50平方到100平方。当然可以适应大型数据中心,但是对于小的数据中心讲,要求建设速度快,这是非常好的解决方案,在30天到40天就可以交付使用。主要采用模块式的UPS方式,还有行入式,甚至于背板式机架式冷却方式。在高密度小面积的情况下达到节能环保,它可以降低初期投资,降低15%的比较不错的结果。
;在施工上采取新的施工规范,施工流程,施工方式,针对布线系统,我们采用一个最佳气流评估。很早的数据中心不太意识到光缆或者缆线对数据中心节能能耗的影响,实际上它的影响非常大,地板通风情况下,下面织了一张网,网高密度,阻碍了流通,造成效率降低。实际上这是很简单的事情,为什么大家以前没有做好?因为没有很好的规范,让一个工程队主动做成什么事情,工人做得出,他是按流程,流程上没有要求的他不想增加成本做。我们有一个新的规范,新的施工方式,可以提高效率,增加安全度。
;IBM在国外致力于建设智能化节能的建筑,专用设施,在日本千叶是一个汽车厂,IBM Nankoh数据中心,上海的远洋大厦也是采用新技术,它的收效是自动调节,智能使用自然光和新鲜空气,大厦上面自然使用太阳光和空气,充分使用资源,降低能耗30%,包括防火、安全、空调系统,提供安全、健康、舒适的环境。另外,使用灵活的开放式机架,我们属于开放式机架,适合客户的扩溶、更改。
;举一个例子,上海瑞吉红塔大酒店是智能化的建筑,它在33家五星级酒店中唯一的采用智能化建筑。酒店讲能耗比,用水、电、气的成本,中国平均是8%,它是5.1%。整个节约能耗相当可观。
;基于Web的交换场所,大家可以在一站式网站上了解数据中心评估评测的节能方式。
;IBM帮助全球很多公司建设节能型数据中心和智能化建筑,提高了能耗,降低了支出。数据中心和设施策略方面,建立了首屈一指的超级计算中心,实现了高浓度、高密度的计算环境。金融方面,我们在5家国有银行都参加建设了数据中心,主要是建设集中的数据中心。
;IT设施评估和设计、建设,IBM建设大约3000平方英尺,高架地板就是指机房面积,指的是有效面积,不算监控中心,只是直接IT的数据中心。全球范围内,为埃及电信公司和印度建立最大的客户数据中心,采用新技术。
;在亚太地区,在韩国这是比较新的,在3月31号刚刚交付的,有800*4.1,就是我们的刀片中心,这是一个密度非常高的互联网数据中心。日本Yamato CFD,这是配合水冷,这个数据中心在日本、台湾、美国,已经完全接受了水冷方式,今后是不太多的选择里面最好的选择。