谈节能降耗贞亨集团新建电子信息机房节能降耗

更新时间:2024-03-02 作者:用户投稿原创标记本站原创
摘要:随着电子信息机房IT设备高密度的集成化,解决机房源于:论文范文网www.808so.com
IT设备的散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。作为一名电子信息系统机房的管理者和使用者,在我从业者这近十年间, IT设备的有效高效的散热,机房内得节能降耗状况一直不太理想,导致我们信息部门一直是整个集团的耗能大户,呼吁更多的专业供应商和专业人士来关注信息机房的节能降耗这一日益严峻的课题。
关键词:电子信息机房;PUE;冷池;节能降耗
:A文章编号:1007-9599 (2012) 13-0000-02
一、引言
随着电子信息机房IT设备高密度的集成化解决机房IT设备的散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。作为一名电子信息机房的管理者和使用者,在我从业者这近十年间,几经中心机房的改扩建,在新办公楼内的规划、新建等工作,但是IT设备的有效高效的散热,机房内得节能降耗状况一直不太理想,导致我们信息部门一直是整个集团的耗能大户。现就借此文作为一个引子,谈一谈我的看法,以及我们目前的解决方法,呼吁更多的专业供应商和专业人士来关注信息机房的节能降耗这一日益严峻的课题。

二、电子信息机房的散热现状

电子信息机房的热量产生、散热等有很多方面,我在此就对大家都非常熟悉的三个方面展开详细的分析和论述。

(一)机房内IT设备的局部过热问题

造成机房内IT设备局部过热的原因有很多,但究其根本主要有以下三种:
1.机柜的排布
管理者为了美观和便于观察会将所的的机柜朝同一个方向摆放,如果按照这种摆放方式,机柜盲板有效阻挡冷热空气的效果将大打折扣。
2.IT设备摆放
随着服务器的小形化、高密度化以及刀片式服务器的产生,使服务器摆放的位置越来越不容IT管理者忽视。这些高功率设备的发热量比普通IT设备可能要高一倍或者更多,如果将这些高功率负载密集地摆放在一个机柜内,很人容易会出现一个高密设备群并形成一个巨大的发热群体,这种情况最容易导致数据中心出现局部热点。
3.冷热通道堵塞
一般机房多采用地板下走线(强电、弱电、侦测等),还有各种各样的保温等材料,这样难免会有各种凸起在架空地板下,阻挡冷热空气的循环,从而导致IT设备的局部过热。

(二)机房空调耗能大,普遍耗能比 PUE>2.5

PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1,表示一个数据中心的绿色化程度越高。
PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
而我国目前大多数机房的PUE值基本上都在2.5~3.0之间,能耗的浪费及其严重。
首先为了消除机房内IT设备的局部过热,保护IT设备的正常运转,从而过多开启空调的数量将导致空调机组制冷效率低,造成制冷能耗升高。
其次冷热交换不充分和不均匀,制冷系统过剩运行严重,造成空调能耗升高,同时也造成了IT设备区域问题不见得很低,而机房内其他区域问题非常低,管理人员无法正常工作的局面。
另外机房局部温度过低,导致外界对机房的热辐射增加,增加了空调的负担。

(三)机房密度过低的问题

由于机房中冷风的分配不均而出现局部过热的问题,导致用户在机架上不可能、也不敢更多的增加IT设备,很多机架的设备不足3KW,从而导致机房密度降低。

三、我集团新建机房的节能降耗建设过程

(一)设计之初的想法

过去我们设计信息机房时,一贯是根据整个机房总的的散热量和散热面积的比例来计算(KW/M2),这样子计算其实非常不合理,真正需要冷量的地方是机架上的IT设备,而非管理人员临时工作的区域。因此在我们集团2008年大楼准备搬迁的时候,我就提出要按每个机架的功率(KW/rack)来计算,例如:在一个600mm宽度的42U的高密度服务器机架上最大满负荷时需要25KW 的电力功率,相当于需要25KW的制冷量并需要大约6000至7000m3/h 的风量来满足机架上服务器的散热需要。这样再以每个机架需要的最大功率乘以机房内所有机架的数量,基本可以得出一个初步的总的用电量,然后再结合其他设备的用电量即可汇总出机房的总耗电量。

(二)付诸实施的困惑及借鉴

但同时很严峻的问题又摆在了面前,如果机架内服务器设备或者交换机等设备太过于密集的话,热量会成几何倍数的增长,对机架的散热则更加难办,因此我和部门的同事在规划阶段就邀请了APC、LINKBAISC、爱默生等众多的知名供应商,考察他们提供的冷热通道遏制系统的整体解决方案,也到英特尔亚太研发中心有限公司、上海电信、建设银行数据中心等多家沪上知名企业公司的核心机房去实地考察。
其中最为印象深刻的是英特尔的数据中心机房,在英特尔公司近500平方米的大型机房内,用工业标准机柜分割成6个单元,每个单元由两排机柜(排间距约1.3米)面对面排列并在两端用防火材质构建防火门,从而构成6组密封的单元房。单元房机柜顶部建有类似大型酒店厨房间吸烟排烟用的收口型回风装置,回风装置通过镀锌薄钢通风管路与精密空调机组的进风口相衔接,在每个单元房外部的四周铺设开孔地板,机房精密空调所产生的下送式冷风在正压作用下从开孔地板下面向上吹出,机房内冷区温度在16度左右。冷风从开孔地板下面向上吹出后,因无处释放正压,只能被单元房内机架式服务器从正面吸入,带走服务器运行中产生的热量,经服务器后部排出之风已有余热(风温约23度),被单元房内的上部吸风装置吸收并经大型风管流回精密空调进风口,构成了机房内空调的冷风升温和电子设备排热降温的循环。
英特尔公司机房的特点可以概括为:在大型机房内部引入了冷岛区和热岛区的理念,精密空调机组输送到冷岛区的冷风被服务器吸纳后流入热岛区并经动力回收风管重新回流到精密空调机组。摘自:毕业论文题目www.808so.com
各种各样的保温等材料,这样难免会有各种凸起在架空地板下,阻挡冷热空气的循环,从而导致IT设备的局部过热。(二)机房空调耗能大,普遍耗能比PUE>2.5PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PU WWw.808so.com 808论文查重

点赞:5672 浏览:15304