数据中心能耗与散热不堪重负 idc数据中心能耗

数据中心能耗与散热不堪重负 idc数据中心能耗,第1张

其实20吨的总水量只是个估算量,出入比较大的,仔细算是要根据水管的直径与长度,一点一点的算出来,若是机房在地下室,房间是风机盘管这样的典型系统,估算也可以,但是很多系统机房离使用地比较远,总水量就大点,或是离机房特别近就接了大型风柜的,总水量就少点。

最准确的去计算总水量,是要在补充水那加个水表,把水排空,再加满,才能知道总水量是多少,但这是在系统已经做好,要做水处理时才能这样做。

估算时,一般是按总制冷量,5度到3度温差,每秒3米的流速,计算出实际要使用的管道的最大直径,再按楼层高度,估算个大概的。

冷却水的流量也是这样算,先按机组的制冷量,算出大约5度温差要用多大的流量。然后再算要用多大的管径,再估计管道的长度,再加上冷却塔存水量,就可以得出大概的总水量,算冷却水比算冷冻水好算,因为冷却水管道从头到尾是一样粗的,不像冷冻水管道会越变越细,也不像冷冻水管道还有同程设计与异程设计之分。只要知道冷却塔在几楼,离机房多远,基本就不会差多少。

但每个系统管道长度不同,有冷却塔就在机房楼顶的,也有冷却塔在十多层楼上的,所以各个系统出入比较大,没有什么比例关系。

唯一有规律的,就是空调设计中,无论是冷冻水还是冷却水,进出换热器的最大温差都是5度左右,管道的经济流速是3米/秒。根据总制冷量温差,就可以算出最小水流量,根据流量及3米流速,可以算出最小管径,至于管的长度,就各个系统不一样了。

离心泵机封冷却水流量体积的计算通常涉及以下几个步骤:

确定机封的冷却方式:离心泵的机封通常需要冷却,以防止机封温度过高,减少摩擦和磨损。常见的机封冷却方式包括外部供水冷却、自循环冷却和内部循环冷却等。

确定机封冷却水流量的要求:根据离心泵的设计要求、工作条件和使用环境等因素,确定机封冷却水流量的要求。这通常是根据泵的额定功率、运行速度、泵液体温度和机封材料等参数来计算的。

计算冷却水流量体积:根据机封冷却水流量的要求,结合冷却方式的不同,采用不同的计算方法。例如:

外部供水冷却:如果采用外部供水冷却方式,通常需要根据机封冷却水流量要求和供水温度、压力等参数,计算供水管道的流量和管径。可以使用流体力学公式,如流量计算公式(Q

= A × v),其中Q为流量,A为管道截面积,v为水流速度,来计算冷却水的流量体积。

自循环冷却:如果采用自循环冷却方式,通常需要根据泵的设计特点和机封冷却水流量要求,结合泵的性能曲线和系统阻力特性等参数,通过综合考虑泵的工作点和系统流量等因素,来计算冷却水的流量体积。

内部循环冷却:如果采用内部循环冷却方式,通常需要根据泵的设计特点和机封冷却水流量要求,结合泵的内部构造和液体流动特性等参数,通过泵的设计和选择来满足机封冷却水流量的要求。

需要注意的是,离心泵的机封冷却水流量体积的计算应该在设计和 *** 作阶段由专业工程师进行,并且应遵循相关标准、规范和制造商的建议,以确保机封得到有效的冷却,从而延长泵和机封的使用寿命。

包括电力供应与散热的运营成本对企业数据中心的影响日益扩大。认为没有迁移或者重建数据中心,就不会增加附加成本的想法早已经过时。日益攀升的能源成本成为企业的巨大负担,如何有效降低能耗支出,已经成为数据中心管理者的当务之急。

大多数数据中心在建设时并没有对投入的IT设备的功耗与散热系统进行科学的评估。在追求绿色计算的时代,人们一致认为,应该尽量减少IT设备的电力消耗,而不是增加能耗。实际上,相比几年前IT系统单位计算性能的能耗与单位GB存储数据的能耗确实减少了,但是数据中心仍然需要比以前多得多的电力与散热成本,主要原因包括越来越多的计算能力被放到一个狭小的机房; 今天的机架式服务器和刀片服务器同以前传统的塔式服务器相比,每平方米的功耗大大增加; 企业对IT系统要求提高了,性能提高了等等,总电力供应与散热需求增加了。

今天的数据中心,服务器整合是必需的。数据中心因为设备的高度分布化和单一服务器运行单一应用的“竖井式”结构,造成运营费用迅速增加,并且迅速吞噬企业的利润。所以,解决的途径就是减少需要管理的计算资源的数量,从而减少昂贵的运营成本。但是,这仅仅是人们一个善良的愿望。以现在的发展速度,如果数据中心不进行系统改造,散热问题最终将会导致数据中心崩溃的灾难性后果。你可以减少需要移动设备的大小与数量,但是你不能减少需要增加的计算与存储信息设备,你需要结束的可能是在一个更小的空间里,计算与存储系统需要更多的电力消耗。

近几年,在一个相对狭小的空间里装备更多的存储与计算能力是完全可以做到的,通过减少空间的占有,增加现有设备的寿命,减少需要维护与管理的设备的数量,让IT完成更多的工作。显然,一旦在数据中心中推广这一思想,数据中心占有的空间将会更小,带来的问题是硬件变得更小,性能更高,效率更高,电力供应系统密度也更大,生产的热量更大、更集中,问题也更严重。如何散热变得越来越关键。

散热的计量

在我们思考“用户最关心的是什么”以及“为什么关注它”之前,我们先介绍一些与数据中心有关的基本知识。热量的最基本单位是英热(BTU),1英热 = 1 05505585 焦耳。每瓦电力消耗在每小时所生产的热量大约为3413 BTU。当电力消耗持续时,数据中心需要空调系统来驱散所产生的热量。1吨的冷却能力每小时能够驱除大约12000BTU热量。所以,从原理上看,要使数据中心的温度保持在一个恒定值,那么相应的电力消耗总额就需要相应数量的散热能力。显然,很多IT管理人员已经发现,散热是必不可少的。

今天,大多数数据中心的散热系统的部署都是在一个特定的假设前提之下,即假定数据中心负载不但是水平均匀分布的,而且更重要的是任何给定区域的负载并不比数据中心中与其共享一个空间的其他任何一部分大。另外,传统的散热系统是作为建筑物的一个基本部分设计与部署的。

按照美国采暖、制冷和空调工程师协会(ASHRAE,American Society of Heating, Refrigerating and Air-Conditioning Engineers)的统计,2006年,一个典型的数据中心,密集的服务器与存储设备在每平方英寸的设备空间里平均电力消耗达到5000W,而在2002年相同密度的数据中心的每平方英寸的设备空间的平均电力消耗仅为2000W。经过4年时间发展,数据中心热密度增加了两倍多。在1998年,设备的密度还不是那么大,每平方英寸的设备空间的平均电力消耗仅为800W。在大约8年后,每平方英寸电力消耗增加了600%,并且增速并没有减缓。

考虑到服务器与存储设备每3~5年更新一次的平均周期,在散热系统的平均生命周期(大约6年)内,数据中心的电力消耗与所生产的热量大概增加3~4倍,致使人们很难智能地计划与设计一套散热系统。健康企业的业务会保持一个合理的增长速度,也会需要更多的计算资源与存储空间。通常重新部署一个数据中心不仅困难,而且为了将宕机时间减少到最少花费也是非常巨大的。显然,继续依赖一个传统的没有能力满足企业发展需要的技术也不是

一个最好的选择。

一旦数据中心设备安装完毕,几个关键因素会增加热量的产生与能源的利用率。首先,能耗的增加也会增加热量的产生,而热量的生产也会增加能耗。位于美国纽约的Lawrence Berkeley国家实验室的一项研究显示,数据中心中总能耗的49%是用在非计算领域,包括照明、电力分配、UPS、发电机、风扇与散热系统本身等。另外,更大的热量密度会增加这些影响,致使今天的数据中心规划者需要做出更明智的决策,必须设想未来的电力供应与散热情况变得更严峻。

有不少方法可以解决这些问题。例如,很多公司采取了扩大机柜空间的做法,将原来放在一个机柜中的设备,分散到更多的机柜中。这样做虽然可以降低散热的需求,但是系统密度却降低了,需要更大的物理空间,每平方英尺计算密度也会降低。

解决散热难点的方法

假设今天你对自己数据中心安装的设备有足够的散热能力,那么你可以部署计算设备。如果你不能做出这样的判断,那么最好采用科学的散热设计。

采用一个交互的热通道与冷通道层设计,可以解决目前数据中心存在的很多典型问题。原理很简单,服务器与存储设备会得到冷气流,然后排出热气流。通常这些设备的前端会吸入冷空间,而把热空气从后端排出。假如企业销售的机架设备通常也具有相同的设计思想,那么用户就可以设计热通道与冷通道层。相反,同一温度的气流在通过时必须互相面对,以便热气流不是通过冷气流的侵入而被排出机架。在冷通道里,放置机架的地板要有足够的排风口,可以给设备提供足够的冷气。

当然从原理上说,热通道和冷通道是最好的,但是有时在实际应用时却达不到目的。特别时放在机架极端的系统特别容易出现问题。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是一个问题。而且,阻止机器散出的热空气同冷空气混合更是困难重重。原因包括两个方面:首先,顶端热量增加,而比较低的机柜的温度降低,从而使大量的空调系统停止制冷,进一步加剧顶端温度的上升;第二,在被驱散气流的附近,流动的气流可能引发热空气在机架的顶端形成热气球,并反过来会进入机架内部温度比较低的服务器和存储设备附近。在一些情况下,它还会引起机架过热,造成系统宕机,或者通过关闭系统来进行维护。

解决这一问题有速度控制和区域打包两种方式。前一种方式,传统的风扇被安装在数据中心的特殊部位,直接控制热气流和冷气流流向正确的地方。在大多数情况下,空气在穿过和排风孔的速度,还不能到达机架顶部,并形成足够的冷却能力,特别是地板上的通风孔的通风能力超过风扇吹动空气的能力时,情况更严重。简单的增加通风孔,而没有理解你可以将多少空气吹向地板,结果会造成系统的制冷能力大幅下降。

区域打包方式是在一个相对隔离的更广的范围内,完成热与冷通道的交互。采用这种方法,在机架顶端到房子的天花板之间设置一个完全隔离的有物理墙壁的管道。在数据中心,会形成很多这种隔离的小空间,就像数据中心的管理员才有权使用的机架上有一个或者两个可以打开的小门的房间。虽然这种设计有点激进,但是在一个小的数据中心,它可以限制热气流和冷气流的混合,并是具有成本效益的一种途径。唯一值得担心的是建造这些小空间时,可能对机架以及其上的IT设备所造成的影响,包括物理的碎片等。在大多数情况下,简单的采用热通道与冷通道设计,甚至是激进的区域打包方式等,相比下一代的计算与存储设备对能耗和散热的需求而言,都是权宜之计。

到处都存在的水冷

水是另一个可以采用的方案。水可以带走的热量是同样空气散热效果的3500倍。冷冻的水可以消除数据中心对通过地板完成散热的系统的需要。水冷并不是新事物,像汽车以及大型机使用水冷系统都已经好多年了。现在水冷正在逐渐应用到一些新的环境中,如建筑大楼里的空气调节装置。

从数据中心的散热系统看,采用冷冻的水作为一个通用的冷却系统以前时有发生,水冷也被视为散热的一种重要手段。水冷就是用许多小管道循环散热,这些管道中充满了具有散热功能的蒸馏水和非离子水。Cry、IBM等很早就采用水冷技术为大型机散热。不过,在数据中心,用户认为很难发现环绕在数据中心内的水管出现的裂纹。显然,一旦水冷成为大型数据中心最基本的冷却方法,那么就必须证明水冷对数据中心是可靠和安全的。

对于传统的单片机或者单个集成电路部件,非常容易使用水冷系统,因为这些大型的机器预留了足够的空间,可以部署水冷系统的循环管道。而对于超高密度的计算系统,则可能无法部署这些水冷系统的循环管道,所以采用水冷的另一种方式则是必然的。

在机架中采用水冷正变成一种通用的方法,机架内部可能复杂多变,部署的水冷系统也可能复杂多样,可能有不同的层次。在大多数情况下,可以在机柜中安装热交换机(heat exchangers),水可以在机柜内一个封闭的系统内循环流动,水被传统的机房空调系统(computer room air conditioning ,CRAC)冷却。 另一种方式则正好相反,热交换机安装在机柜外边,水继续在一个封闭的系统里流转,而水也被传统的CRAC冷却。这两种方式都是水冷与空气冷却两种方式的混合体,但是提供的制冷效果却超过了单纯使用空冷或者水冷的方式。另外它在没有对已有系统架构进行重大改变的前提下,可以采用各种各样的方式在数据中心部署。

水冷系统的最新进展是利用一个完整的外部制冷系统,通过一个封闭的独立供应水与接受流回水的已冷却的水流系统,降低机架内电子设备的温度。通常水冷系统一般经过了数据中心机房的地板。冷却设备与热交换机通常安装在数据中心外部,一般使用蒸馏水或者冷却水方法。在下一代数据中心中,这可能是惟一一个能够满足明天的数据中心设备正常运行的散热系统。

水冷推广的第一道防线则是人们的意识。数据中心规划者、设备工程师与服务器、存储、通信系统的工程师必须协同一致,能够预测数据中心将要部署设备的数量。来自独立的第三方的评估分析也可以帮助用户了解怎样减少今天数据中心冷却系统的负担,并为明天做好充分的准备。在数据中心,电源供应与散热将成为重点考虑的一个方面。今天为明天做好准备是必须的。(李梅编译)

以上就是关于请教大侠冷冻水、冷却水量的问题,请您赐教全部的内容,包括:请教大侠冷冻水、冷却水量的问题,请您赐教、离心泵机封冷却水流量体积如何计算、数据中心能耗与散热不堪重负 idc数据中心能耗等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/langs/8826381.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-22
下一篇2023-04-22

发表评论

登录后才能评论

评论列表(0条)

    保存