当前位置: 澳门新濠3559 > 服务器运维 > 正文

ILM数据中心的空调系统几乎是满负荷工作,重点

时间:2019-10-07 08:05来源:服务器运维
机柜节能 对于机房的制冷及送风系统,数据中心可以根据实际情况采取相应的技术措施及制冷理念来改善机房的制冷效果,达到节能降耗的目的,比如可以采用高能效比的节能空调设备

机柜节能

对于机房的制冷及送风系统,数据中心可以根据实际情况采取相应的技术措施及制冷理念来改善机房的制冷效果,达到节能降耗的目的,比如可以采用高能效比的节能空调设备、采用合适的制冷方式及自然制冷技术、采用动态智能制冷技术、合理设计及组织机房制冷的送回风系统、防止跑冒滴漏等几项节能措施。

•降低冷却成本30%-50%(降低PUE 0.3-0.5)

惠普副总裁兼关键基础设施服务部门总经理Peter Gross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100-200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系统有可能保证用电量达25千瓦的机柜。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统最高极限了,从事数据中心能效研究的IBM 研究员兼首席工程师Roger Schmidt说,“ILM是在挑战30千瓦的极限,这将注定是一个相当艰苦的工作。”

澳门新濠3559 1
无奈:某机房为了节能,提高空调温度,用烟筒为机柜排热

国外推崇“自然制冷”

•避免了因机房过热引起的服务器宕机隐患。

新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台BladeCenter。这家公司主要进行电脑特技设计,这些机柜组成渲染农场用以对图像进行处理。一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。

澳门新濠3559 2

须注重送回风合理设计

•科学的气流规划,实现冷热隔离,及时带走IT设备产生的热气,避免热点的产生。

“我们必须改变过去的那种错误观点,就是计算密度越高越好。”Belady说,“要知道,你的计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍。”

...

相关数据表明,这种送风方式比上送风方式提高2~3℃送回风温差,所需送风量小,可以节能15澳门新濠3559,~20%。对于下送风上回风气流组织方式还可以采取一些措施增强空调制冷系统效率,如果尽量减少地板下走线以及让走线槽道和送风方向保持一致,减少对气流的阻挡,适当控制地板下送风的距离,同时架空地板的高度至少为0.4m;地板下送风时,密封机柜底部的出线孔,阻止冷风泄漏等。

日前,工业和信息化部、国家机关事务管理局、国家能源局制定了《关于加强绿色数据中心建设的指导意见》,重点提出了要指导数据中心建立绿色运维管理体系,科学制定运维策略,建立能源资源信息化管控系统,有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的再用老旧数据中心。

ILM公司Industrial Light & Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度反而更好高了:现在每个机柜用电28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能会透过机柜散发到数据中心,最后由数据中心的空调系统带走。

数据中心现在关心的重点是节能。在目前的经济不景气,全球经济复苏遥遥无期的现实下,企业想尽办法来开源节流。数据中心的电能消费也成为很多企业的心病。数据中心耗能是非常巨大的,美国有关机构就此做的调查表明,数据中心耗电量占美国总体耗电量的比例已接近2%.而在数据中心里耗电最多的是空调制冷设备,并不是人们心目中认为的IT设备。空调耗电量在数据中心总耗电量中超过40%.在企业的数据中心,近50%左右的电能是被耗损的,如果采取散热降耗和提高设备工作效率等相关的节能措施,可有效地降低数据中心的电能损耗和运营成本。

如果要达到更好的效果,可采用冷通道全封闭送风方案,在冷风信道中,在所有机柜上方用隔板封闭起来,冷风通道的两侧用门来封闭,这样完全阻隔了冷信道与热信道交流,避免发生混风现象。

脉山龙智能气流优化解决方案是基于现有机柜的情况,通过智能气流优化系统对现有机房进行改造, 将现有热通道的热气通过该系统排至天花板,天花板通过与现有空调的回风口连接,将热气排入空调回风口。空调通过下送风的方式为IT 设备提供制冷,改造后空调可节能30%以上。

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。

在数据中心里面,企业用户往往会把目光集中在服务器、存储、网络等IT设备上,而忽视了其他设备在数据中心节能、减震等方面的作用。特别是机柜的好坏,往往在采购人员和运维人员不以为然。实际上,机柜在数据中心也有着其非常重要的作用,不同的机柜常常会带来差别很大的效果。

这三类设备消耗数据中心总电能的93%之多,它们是数据中心的能耗大户。另外,根据电能中实际消耗在IT设备上的比例,数据中心的效率仅为30%,由此可见数据中的节能潜力相当大,同时也说明数据中心的节能降耗不容忽视。

•可以成倍降低通信机房的租赁费用,充分利用现有空间。

ILM信息技术总监凯文-克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这也符合当今节能环保的大趋势。根据IDC的研究,服务器的平均价格自2004年以来已经下降了18%,而CPU成本下降了70%,达到715美元。但克拉克无法知道,这种计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的角度来说,就是难以满足需求的。”他说。

澳门新濠3559 3

在数据中心机房内,热是通过机房内的冷气流带走的,从而达到冷却的效果。不合适的机房布局和设备安装方式,或者不合理的送回风通道,都会妨碍气流的运动,降低了散热效果,消耗更多的能源。因此合理设计及组织机房制冷的送回风系统能有效实现节能。

•可提高空调送风温度5-8℃(每提升1℃,可节省空调4%的能耗)

计算密度的增加已经让一些大型数据中心的建设项目资金突破了10亿美元大关。 “很多总裁级的人听说新建数据中心要这么高的投入都吓了一跳。”施密特说。

中国某政府部门的一个数据中心调查显示,该数据中心,IT设备的耗电量之占总机房耗电量的三分之一。 而随着刀片服务器的应用,一个机柜内IT设备的密度大大增加,造成了机柜内的耗电量急剧增加。

可以看到,虽然空调机组的运行需要消耗能源,但不同的制冷方式,消耗的能源是不一样的。制冷剂以及运行模式的不同都可能产生可观的节能效果。我们可以考虑采用自然制冷技术,如位于较冷地区的机房可考虑采用自然冷空气自由冷却,机房大楼的冷冻水可充当机组制冷剂的作用,而且比机组的制冷剂更节能。

某证券公司由于业务增长需要在原有机房内增加较多的服务器,在机房无法扩大的情况下,采用了智能气流优化系统,对机房的五台服务器机柜进行高密度节能降温改造,有效地保障了该机房的服务器设备持续安全稳定运行,消除了机柜过热隐患,节省了增加空调和冷通道的施工成本。同时每年节约1台40kW空调运行成本,年节约电费11.6万元,每年可减少碳排放91吨。

现在,一些企业数据中心和一些对外提供托管服务的IDC开始对用电情况进行监测,并把它作为数据中心的依据之一,而它们在以前只是按照租用空间收费的,根本就没有考虑到底用多少电。有些IDC针对大客户采用根据用电多少决定收费多少,也就是用户先提出最高要用多少电,IDC再据此给其分配相应的空间。

制冷送风是“耗能大户”

脉山龙:国内领先IT服务提供商,成立于1997年,22年来始终专注于为客户提供IT全生命周期的解决方案,进行IT基础系统(包括IT环境、网络、数据中心、桌面)的设计咨询、建设实施与维护服务。

IDC公司在2009年曾调查了1000家数据中心的负责人,接受调查者中21%的人将电力和制冷列为数据中心当前面临的最大挑战。将近一半43%)的人说这是它们运营成本增加的最主要原因,1/3的人说他们经历过因制冷问题或者电力问题导致的服务器宕机。

典型的数据中心中消耗电能最多的是空调、送风系统等机房环境调节设备,消耗数据中心总电能的45%;其次是IT设备,消耗了数据中心总电能的30%;再次是UPS供电设备,消耗数据中心总电能的18%。

智能气流优化系统

格罗斯说,随着数据中心内单位面积上的计算密度增加,虽然整体机电成本变化不大,但由于功率密度增加而带来的运营成本却大大增加了。

在国外,借助自然界天然冷空气来为机房降温已经受到重视。如位于美国罗德岛的布莱恩特大学借助冰雪天气来降低机房的电能消耗,当天气很冷的时候,该大学的数据中心机房的制冷系统就会利用室外的冷空气给冷却剂降温,外部冷源为免费资源,加以利用,既经济又节能,据称该大学使用此方式为数据中心机房制冷,仅此一项就降低了20%~30%的数据中心电能消耗。

澳门新濠3559 4

现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。这值得数据中心经理们注意。

例如1台服务器需要18℃,但网络设备只要20℃,在未采用动态智能制冷技术时,机房为满足这台服务器的要求,必须设为18℃,这就使部分的冷量浪费掉。

增加机柜IT设备密度

Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商也有可能通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。

动态智能冷却技术为每个机柜设定不同温度,通过建置多个传感器群组的感应器来监控温度,并在每台机柜前方的地板下都埋设排风口,根据散热需求针对性地动态供应冷却气流,其风量大小可以根据需要随时调节,从而达到节能目的。据惠普新一代数据中心的体验中心的数据显示,动态智能制冷技术可能将机房的降温成本降低40%。

•可数倍增加机柜服务器密度50%-600%(10KW/20KW )

这是可持续发展?

总而言之,数据中心的节能降耗是一个长期的过程,它不仅仅局限于上述分析的节能技术与措施,还有许多其他的节能技术及措施,例如在建设数据中心时应用建筑节能技术,采用太阳能为数据中心提供部分的电能等等技术措施。

近年来,随着新一代信息技术的快速发展,数据中心作为重要基础设施其规模实现了高速增长,随之而来的是大量的能源、资源消耗。数据中心的高能耗,不仅给机构和企业带来了沉重的负担,也造成了全社会能源的巨大浪费。

Gartner公司的分析师拉克什库马尔说,从电力使用和成本的角度来说,功率密度不可能无休止地增长下去。幸运的是,大多数企业的数据中心机柜的电力消耗暂时还没有达到像ILM这样的水平。Gartner的客户中约有40%其数据中心每个机柜功率为8-9千瓦,当然有些则高达12至15千瓦,不过,功率呈明显上升趋势。

机房内不同的IT设备所需的冷却温度是不同的,甚至不同年代的同类型设备所需的冷却温度也不同,采用动态智能制冷技术就是为了区别对待数据中心机房中不同设备的冷却需要,从而达到节能降耗。

澳门新濠3559 5

他并不是唯一关注制冷问题的人。40多年来,计算机行业按照摩尔定律规定的进程快速发展,每两年计算密度增加一倍。然而,现在一些工程师和数据中心的设计师们开始怀疑这条道路的可持续性,这条路似乎已走到了尽头。现在面临的困难不只是芯片制造商是否能够克服制造更密集晶体管所面临的技术挑战,还在于现代数据中心要运行和管理如此多的高计算密度的机柜是否经济。

根据上述分析,机房的节能降耗应以机房制冷及送风为主,IT设备、UPS供电系统节能为辅的原则进行。

消除机房过热点

Light Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平...

动态制冷技术获应用

​​​​

Christian Belady是微软全球基础服务集团经验最丰富的基础设施架构师,负责设计和管理着微软最近在美国华盛顿州昆西市建立的数据中心。他说,采用高架地板形式的数据中心单位建设成本太高,微软在昆西的数据中心基础设施的建设成本占项目总成本的82%。

数据中心的主要能耗设备主要有:IT设备和机房设备两大类。其中,IT设备包括服务器、存储备份设备以及终端等;机房设备包括UPS供电、配电设备、空调新风系统、监控设备等。

•提高空间利用率,减少机房建设成本

现在的问题是接下来会发生什么?“未来用电量还要增加怎么办?完全可能因为制冷问题无法解决,导致我们不能在往数据中心中添加任何设备。今天,这个问题已经开始显现出来了。”Schmidt说。

目前,数据中心常用的机房空调系统气流组织方式主要有下送风上回风、上送风前回风(或侧回风)等方式。比较各种送、回风方式,目前业界公认效率较高的是采用下送风、上回风方式。这种方式中冷风从下部送到机柜,经过机柜后其温度升高比重变轻,自然上升,满足高温在上、低温在下的温度自然分布规律,不会与送风的冷风混合,使冷量的利用率提高,避免冷热气流混合。

澳门新濠3559 6

降低机房空调能耗

据相关机构测算,截止2017年底,我国各类在用数据中心总量已达到28.5万个,机架总规模约479万个,全年耗电量超过1200亿千瓦时,约占我国全社会用电量的2%。预计未来几年IDC规模及其能耗仍将保持30%以上的高速增长,或将超过当前全球数据中心的能耗总量。

•可提高空调回风温度,提升空调能效。

方案优势

在为众多企业用户提供机房改造及运维服务的过程中,脉山龙也深刻感受到企业方节能降耗的迫切需求。针对这一点,脉山龙推出智能气流优化解决方案,它同时具备降低机房能耗、增加机柜IT设备密度、消除机柜内过热点三大优势,十分契合当今数据中心“绿色、低碳、环保、低能耗、高效率”的发展要求。

•在空调故障时,可以利用机房外其他冷源,降低机房温度,延长救援时间。

★机房可以是弥漫式送风,可以不需要架高地板,对新建机房可以节省建筑物空间高度,同样适合于已建成机房的改造。

应用案例

编辑:服务器运维 本文来源:ILM数据中心的空调系统几乎是满负荷工作,重点

关键词: 澳门新濠3559