
随着国家政策对节能降耗要求的提高,节能降耗正成为国家、全社会关注的重点。而IT能耗在所有的电力使用当中所占比重的不断上升,已经使其成为社会提倡节能降耗主要领域之一。做为全球领先的IT公司和一家具有强烈社会责任感的企业,惠普公司积极倡导“绿色IT”的理念,并加大研发,推出了一系列的针对绿色IT的创新技术和产品。10月26日,惠普公司在香山饭店举办了“绿色刀片”的研讨会,介绍了惠普公司新一代数据中心以及新一代刀片系统BladeSystem c-Class在供电散热等方面的绿色创新技术以及环保节能优势,并推出了针对绿色数据中心的完整解决方案。
长期以来,更强大的数据中心处理能力一直是我们追求的目标。但在能源开销与日俱增的今天,处理能力发展的另一面是需要消耗更多的资源。而且随着服务器密度的不断增大,供电需求也在相应增加,并由此产生了更多的热量。在过去的十年中,服务器供电密度平均增长了十倍。据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。因此,随着能源价格的节节攀升,数据中心的供电和冷却问题,已经成为所有的数据中心都无法回避的问题。
惠普公司十几年来一直致力于节能降耗技术的研究,并致力于三个层面的创新:一是数据中心层面环境级的节能技术;二是针对服务器、存储等IT产品在系统层面的绿色设计;三是对关键节能部件的研发,如供电、制冷、风扇等方面的技术创新。目前,来自惠普实验室的这些创新技术正在引领业界的绿色趋势。针对数据中心环境层面,惠普推出了全新的动态智能冷却系统帮助客户构建新一代绿色数据中心或对原有数据中心进行改造;在设备层面,惠普的新一代绿色刀片服务器系统以能量智控(Thermal Logic)技术以及PARSEC体系架构等方面的创新成为未来数据中心节能的最关键基础设施;同时这些创新技术体现在一些关键节能部件上,如Active Cool(主动散热)风扇、动态功率调整技术(DPS, Dynamic Power Saver)等。惠普公司的绿色创新将帮助客户通过提高能源效率来降低运营成本。
HP DSC精确制冷 实现绿色数据中心
传统数据中心机房采用的是平均制冷设计模式,但目前随着机架式服务器以及刀片服务器的出现和普及,数据中心出现了高密度服务器与低密度混合的模式,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。造成目前数据中心的两个现状:一是目前85%以上的机房存在过度制冷问题;二在数据中心的供电中,只有1/3用在IT设备上,而制冷费用占到总供电的2/3 。因此降低制冷能耗是数据中心节能的关键所在。
针对传统数据中心机房的平均制冷弊端,惠普推出了基于动态智能制冷技术的全新解决方案——“惠普动态智能冷却系统”(DSC, Dynamic Smart Cooling)。动态智能冷却技术的目标是通过精确制冷,提高制冷效率。DSC可根据服务器运行负荷动态调控冷却系统来降低能耗,根据数据中心的大小不同,节能可达到20 %至45%。
DSC结合了惠普在电源与冷却方面的现有创新技术,如惠普刀片服务器系统 c-Class架构的重要组件HP Thermal Logic等技术,通过在服务器机架上安装了很多与数据中心相连的热能探测器,可以随时把服务器的温度变化信息传递到中央监控系统。当探测器传递一个服务器温度升高的信息时,中央监控系统就会发出指令给最近的几台冷却设备,加大功率制冷来降低那台服务器的温度。当服务器的温度下降后,中央监控系统会根据探测器传递过来的新信息,发出指令给附近的冷却设备减小功率。惠普的实验数据显示,在惠普实验室的同一数据中心不采用DSC技术,冷却需要117千瓦,而采用DSC系统只需要72千瓦。
惠普刀片系统:绿色数据中心的关键生产线
如果把数据中心看作是一个“IT工厂”,那么“IT工厂”节能降耗不仅要通过DSC等技术实现“工厂级”环境方面的节能,最重要的是其中每一条“生产线”的节能降耗,而数据中心的生产线就是服务器、存储等IT设备。目前刀片系统以节约空间、便于集中管理、易于扩展和提供不间断的服务,满足了新一代数据中心对服务器的新要求,正成为未来数据中心的重要“生产线”。因此刀片系统本身的节能环保技术是未来数据中心节能降耗的关键所在。
惠普公司新一代绿色刀片系统HP BladeSystem c-Class基于工业标准的模块化设计,它不仅仅集成了刀片服务器和刀片存储,还集成了数据中心的众多要素如网络、电源/冷却和管理等,即把计算、存储、网络、电源/冷却和管理都整合到一起。同时在创新的BladeSystem c-Class刀片系统中,还充分考虑了现代数据中心基础设施对电源、冷却、连接、冗余、安全、计算以及存储等方面的需求。
在标准化的硬件平台基础上,惠普刀片系统的三大关键技术,更令竞争对手望尘莫及。首先是惠普洞察管理技术——它通过单一的控制台实现了物理和虚拟服务器、存储、网络、电源以及冷却系统的统一和自动化管理,使管理效率提升了10倍,管理员设备配比达到了1:200。第二是能量智控技术——通过有效调节电力和冷却减少能量消耗,超强冷却风扇相对传统风扇降低了服务器空气流40%,能量消耗减少50%。最后是虚拟连接架构——大大减少了线缆数量,无需额外的交换接口管理。允许服务器额外增加、可替代、可移动,并无需管理员参与SAN和LAN的更改。
目前,惠普拥有完整的刀片服务器战略和产品线,既有支持2路或4路的ProLiant刀片服务器,也有采用安腾芯片的Integrity刀片系统,同时还有存储刀片、备份刀片等。同时,惠普BladeSystem c-Class刀片服务器系统已得到客户的广泛认可。根据IDC发布的2006年第四季度报告显示,惠普在刀片服务器的工厂营业额和出货量方面都占据了全球第一的位置。2007年第二季度,惠普刀片市场份额472%,领先竞争对手达15%,而且差距将会继续扩大。作为刀片市场的领导者,惠普BladeSystem c-Class刀片系统将成为数据中心的关键基础设施。
PARSEC体系架构和能量智控:绿色生产线的两大核心战略
作为数据中心的关键基础设施,绿色是刀片系统的重要发展趋势之一,也是数据中心节能的关键所在。HP BladeSystem c-Class刀片系统的创新设计中,绿色就是其关键创新技术之一,其独特的PARSEC体系架构和能量智控技术就是这条绿色生产线的两大关键技术。
HP PARSEC体系结构是惠普刀片系统针对绿色策略的另一创新。目前机架服务器都采用内部几个小型局部风扇布局,这样会造成成本较高、功率较大、散热能力差、消费功率和空间。HP PARSEC(Parallel Redundant Scalable Enterprise Cooling)体系结构是一种结合了局部与中心冷却特点的混合模式。机箱被分成四个区域,每个区域分别装有风扇,为该区域的刀片服务器提供直接的冷却服务,并为所有其它部件提供冷却服务。由于服务器刀片与存储刀片冷却标准不同,而冷却标准与机箱内部的基础元件相适应,甚至有时在多重冷却区内会出现不同类型的刀片。配合惠普创新的 Active Cool风扇,用户就可以轻松获得不同的冷却配置。惠普风扇设计支持热插拔,可通过添加或移除来调节气流,使之有效地通过整个系统,让冷却变得更加行之有效。
惠普的能量智控技术(Thermal Logic)是一种结合了惠普在供电、散热等方面的创新技术的系统级节能方法,该技术提供了嵌入式温度测量与控制能力,通过即时热量监控,可追踪每个机架中机箱的散热量、内外温度以及服务器耗电情况,这使用户能够及时了解并匹配系统运行需求,与此同时以手动或自动的方式设定温度阈值。或者自动开启冷却或调整冷却水平以应对并解决产生的热量,由此实现最为精确的供电及冷却控制能力。通过能量智控管理,客户可以动态地应用散热控制来优化性能、功耗和散热性能,以充分利用电源预算,确保灵活性。采用能量智控技术,同样电力可以供应的服务器数量增加一倍,与传统的机架堆叠式设备相比,效率提升30%。在每个机架插入更多服务器的同时,所耗费的供电及冷却量却保持不变或是减小,整体设计所需部件也将减少。
Active Cool风扇、DPS、电源调整仪:生产线的每个部件都要节能
惠普BladeSystem c-Class刀片系统作为一个“绿色生产线”,通过能量智控技术和PARSEC体系架构实现了“生产线”级的节能降耗,而这条生产线上各组成部件的技术创新则是绿色生产线的关键技术保障。例如,深具革新意义的Active Cool风扇,实现智能电源管理的ProLiant 电源调整仪以及动态功率调整等技术。
风扇是散热的关键部件。风扇设计是否越大越好?答案是否定的。市场上有的刀片服务器产品采用了较大型的集中散热风扇,不仅占用空间大、噪音大,冗余性较差、有漏气通道,而且存在过渡供应、需要较高的供电负荷。
惠普刀片服务器中采用了创新的Active Cool(主动散热)风扇。Active Cool风扇的设计理念源于飞行器技术,体积小巧,扇叶转速达136英里/小时,在产生强劲气流的同时比传统型风扇设计耗电量更低。同时具有高风量(CFM)、高风压、最佳噪音效果、最佳功耗等特点,仅使用100瓦电力便能够冷却16台刀片服务器。这项深具革新意义的风扇当前正在申请20项专利。Active Cool风扇配合PARSEC散热技术,可根据服务器的负载自动调节风扇的工作状态,并让最节能的气流和最有效的散热通道来冷却需要的部件,有效减少了冷却能量消耗,与传统散热风扇相比,功耗降低66%,数据中心能量消耗减少50%。
在供电方面,同传统的机架服务器独立供电的方式相比,惠普的刀片系统采用集中供电,通过创新的ProLiant 电源调整仪以及动态功率调整等技术实现了智能电源管理,根据电源状况有针对性地采取策略,大大节省了电能消耗。
ProLiant 电源调整仪(ProLiant Power Regulator)可实现服务器级、基于策略的电源管理。电源调整议可以根据CPU的应用情况为其提供电源,必要时,为CPU应用提供全功率,当不需要时则可使CPU处于节电模式,这使得服务器可以实现基于策略的电源管理。事实上可通过动态和静态两种方式来控制CPU的电源状态,即电源调整议即可以设置成连续低功耗的静态工作模式,也可以设置成根据CPU使用情况自动调整电源供应的动态模式。目前电源调整议可适用于AMD或英特尔的芯片,为方便使用,惠普可通过iLO高级接口显示处理器的使用数据并通过该窗口进行配置 *** 作。电源调整议使服务器在不损失性能的前提下节省了功率和散热成本。
惠普创新的动态功率调整技术(DPS, Dynamic Power Saver)可以实时监测机箱内的电源消耗,并根据需求自动调节电源的供应。由于电源在高负荷下运转才能发挥最大效力,通过提供与用户整体基础设施要求相匹的配电量, DPS进一步改进了耗电状况。例如,当服务器对电源的需求较少时,可以只启动一对供电模块,而使其它供电模块处于stand by状态,而不是开启所有的供电单元,但每个供电单元都以较低的效率运行。当对电源需求增加时,可及时启动STAND BY的供电模块,使之满足供电需求。这样确保了供电系统总是保持最高效的工作状态,同时确保充足的电力供应,但通过较低的供电负荷实现电力的节约。通过动态功率调整技术,每年20个功率为0075/千瓦时的机箱约节省5545美元。
结束语
传统数据中心与日俱增的能源开销备受关注,在过去十年中服务器供电费用翻番的同时,冷却系统也为数据中心的基础设施建设带来了空前的压力。为了解决节节攀升的热量与能源消耗的难题,惠普公司创新性地推出了新一代绿色刀片系统BladeSystem c-Class和基于动态智能制冷技术DSC的绿色数据中心解决方案,通过惠普创新的PARSEC体系架构、能量智控技术(Thermal Logic)以及Active Cool风扇等在供电及散热等部件方面的创新技术来降低能耗,根据数据中心的大小不同,这些技术可为数据中心节能达到20 %至45%。作为中国服务用户最多的互联网企业之一,腾讯公司对中国互联网络的飞速发展有着更直观的感受。预计至2010年,腾讯公司的服务器数量会超过10万台,而且分布在全国多个地区。届时,腾讯的IM(即时通信)同时在线用户数也将接近1亿,游戏平台在线用户数会达到千万级。
随着业务量的加速增长、数据中心服务器规模的持续扩大,巨额的运维费用相伴而生。在全球环保意识逐渐增强的同时,绿色节能理念在IT业界初露锋芒。腾讯公司管理工程部总经理别洪涛负责数据中心、网络与系统基础架构的设计、建设与运维管理,他对加强绿色节能意识、推动互联网产业实现绿色节能有着自己独到的看法。
踏上“绿色”之路
“当服务器保有量超过一定规模后,一个大型数据中心要承载大量的服务器,存储数据容量达到一定规模后,节能、敏捷、自动化管理就成为我们特别关注的焦点,我们需要用下一代数据中心的设计理念进行全新的规划和设计。”别洪涛开门见山地告诉记者,就是在规划阶段,通过对数据进行分析,腾讯意识到绿色节能将成为业界未来关注的一个重点。
据腾讯年报显示,至2006年年底,腾讯QQ用户数就已经达到5805亿人,成为全球使用人数最多的IM工具。而就是这一年,绿色节能话题在腾讯内部浮出水面。
据别洪涛介绍,腾讯随后便在数据中心、服务器等方面成立了专业团队,持续跟踪和研究业界相关技术的进展。同时,腾讯的相关实验室相继建起,对数据中心气流与散热、服务器能耗等众多项目进行实验和研究,并将研究心得同运营合作商进行沟通,逐渐提升了整体数据中心的使用效率,绿色节能初露端倪。
在IT业界,PUE(Power Usage Effectiveness)是国际上通用的衡量整个数据中心能效的一个指标,它是整个数据中心设施耗电量除以IT设备耗电量,得出的一个系数,代表了数据中心节能的效率。据别洪涛介绍,在当前国内大多数数据中心,服务器每耗一度电,就有一度多的电消耗在空调制冷、照明及一些辅助设施用电上,而真正用于IT设备上的电力效率则较低。
“根据早期数据中心的设计,PUE参数通常会超过20,好一些的可以达到18左右,目前国际领先的数据中心的PUE可以达到12左右。如果对数据中心的布局设计做一些考虑,整个数据中心的能效比就会降低很多。据我们内部测算,PUE每下降10%,大型数据中心节省的电费和耗电量将会是一个非常可观的数字。对于下一代数据中心,我们的目标是让PUE从20以上下降到15以下。”别洪涛如是说。
“绿色路”如何走
降低PUE是一个系统工程,其中数据中心基础建设至关重要。别洪涛向记者介绍,下一代数据中心会更加注重前期选址和设计规划,充分利用自然冷却的方式来降低能耗,例如选择在气候较寒冷的地区建设数据中心,通过合理的内部布局和气流设计,来提升散热效率等。腾讯公司未来还希望与运营合作商共同探讨,如何将数据中心产生的热能进行循环利用,构造真正绿色、节能、环保的数据中心。
绿色节能技术的进步令人欣喜,然而别洪涛也坦言,当前的业务架构和应用仍有上升空间。“针对这个问题,我们将通过业务应用架构和软件方面的优化、提升,来最大化服务器资源的使用效率,最终达到降低能耗的目的”。
别洪涛认为,立体节能将成为未来的趋势。“除了在数据中心基础建设上加强与运营商合作、降低PUE外,公司在服务器软、硬件优化方面也进展较快。腾讯公司有专门的团队进行服务器研究分析测试,并与英特尔等企业组建联合实验室,探索服务器节能的极限。这方面如果做得好的话,可以在能耗上节省50%。”而这其中重要的方向就是服务器“定制化”,即在服务器中去掉所有非必要的部件、选用低能耗部件,同时通过控制部件能耗等方式来综合降低服务器自身的能源消耗。
另外,互联网服务应用策略也是服务器节能的一个重要突破口。别洪涛介绍说,不同的互联网服务,其使用频度、峰值等在一天中都会不断变化,互联网存储数据的活跃度有其特点。根据这些特性来调整服务策略与应用架构,在某项服务或数据处于非活跃期间时,使服务器处于节能状态,这实际上是一种动态节能的策略。
艰巨的“绿色”任务
下一代数据中心理念在国外已经开始应用,但在国内实施起来却有一定难度,别洪涛表示:“绿色节能新理念需要对数据中心重新进行规划和设计,这样一来,对用地、用电和运营商资源的需求较大,对投资要求比较高,而当前产业环境在各个方面的配套支撑还不足够。” 在别洪涛看来,绿色数据中心是一个立体化、系统性的东西,如果产业环境能够在规划、设计、建设以及设备提供等方面相应地做一些改变,整个数据中心在绿色节能上将会有更大的提升。
根据互联网信息中心(CNNIC)今年7月发布的报告,中国互联网网民总数已经突破253亿,超过美国成为世界第一互联网大国。这固然令人欣喜,但别洪涛也表示了担忧: “美国基础设施条件较好、电力资源较为丰富,但在当今中国能源紧缺、IDC基础设施相对落后于用户服务需求的大背景下,我们更需要思考如何支撑海量服务。”
别洪涛表示,就当前整个中国用于互联网服务的IDC而言,其设计理念和方法都不是从支撑海量服务角度来设计的,因此就需要下一代数据中心理念的贯彻和执行,来推动支撑海量服务的能力。而这方面不仅仅是数据中心层面单独的事,还包括应用、系统、服务器、网络等诸多因素,需要形成一个有机整体来实现绿色节能。
纵观中国互联网企业,数据中心目前仍处于比较粗放的阶段: 小公司较多,其数据中心规模较小,能效比较低,由于散布在各地,建设水平参差不齐。别洪涛认为,与另一个互联网大国――美国相比,我国在数据中心基础架构方面相对落后,数据中心设计理念比较老旧,很多数据中心是由工业楼宇改造而来,自身存在先天不足。“因此,这就需要一些更专业的团队,在未来能够和IT企业一起推动产业环境的绿色节能。当然,产业环境也比较重要,因为绿色节能涉及到的不仅仅是数据中心,还需要电力、土地、网络等资源的配合。”别洪涛说。
对于IT企业来说,实施绿色节能措施一方面可以大大降低运营成本,提高企业的整体竞争力,另一方面也显示着一个企业的社会责任。别洪涛说: “企业社会责任是腾讯企业文化当中的一项重要内容,作为一个IT企业,我们没有直接对自然环境造成破坏,但我们也意识到庞大的耗电量会间接对环境造成影响。因此我们有意愿、也有能力通过减少电能的消耗,来减少温室气体的排放,为改善整个自然环境尽一份力量。”另外,在中国资源紧缺的情况下,IT企业必须要借助绿色节能措施,才能够在有限的资源下满足业务发展的需求。参照此表,您可以估算出服务器在繁忙时段的平均扩展系数,并且还可以为 Server_Transinfo_Range 设定合理的数值,以此得到一个比较理想的服务器可用性指标。以下内容节选自 Domino Administrator 651 帮助文档。集群中的每个服务器都定期判断自己的工作负载,判断将基于服务器最近处理请求的响应时间作出。系统用 0 到 100 之间的数字表示工作负载,其中 0 表示服务器负载过重;100 表示服务器负载很轻。这个数值称为服务器的可用性指标。随响应时间增加,服务器可用性指标减小。服务器的可用性指标约等于仍然可用的总服务器容量百分比。例如,如果服务器的可用性指标为 65,则仍然有 65% 的服务器容量可用。尽管企业中的服务器功率和资源可能不同,但每台服务器上的服务器可用性指标都代表同一件事 -- 仍然可用的服务器容量。服务器可用性指标基于扩展系数生成,用于指示服务器上的当前工作负载。扩展系数是由特定类型事件的响应时间与服务器曾经完成此类事务的最短时间之比决定的。例如,如果服务器当前执行“打开数据库”事务的平均时间为 12 毫秒,而服务器曾经执行“打开数据库”事务的最短时间为 3 毫秒,则“打开数据库”事务的扩展系数为 4(当前时间 12 毫秒除以最快时间 3 毫秒)。换言之,扩展系数决定完成当前事务所花的时间是在最佳条件下所花时间的多少倍。IBM(R) Domino(TM) 将每种事务的最短时间存储在内存和 LOADMONNCF 文件中,服务器每次启动时都会读取该时间。服务器关机时,Domino 会用最新信息更新 LOADMONNCF 文件。为确定当前的扩展系数,Domino 会在指定的时间段内跟踪最常用的几种 Domino 事务类型。缺省情况下,Domino 会在 5 个时间段内跟踪这些事务,每段时间为 15 秒。然后,Domino 就可以确定完成每种事务平均要花的时间,并用该时间除以它曾经完成每种同类事务所花的最短时间。这样就可确定每种事件的扩展系数。为确定整个服务器的扩展系数,Domino 会取所有类型事务的扩展系数的平均值,并对最常用的事务类型给予较大的加权数。当服务器繁忙时,对服务器添加更多负载会显著地影响服务器的性能和可用性。因此,向繁忙的服务器中添加负载也比向不繁忙的服务器中添加负载要更快地增大扩展系数。因为各个服务器的速度、容量和处理能力各不相同,能够处理的工作负载也不尽相同。所以,两个不同服务器的扩展系数相同并不一定意味着二者能够承担相当的工作负载。例如,对于一个在空闲状态下执行事务都需要花费很长时间的小型服务器来说,扩展系数 40 可能表示用户需要等待若干秒才能得到响应。而对于一个处理速度非常快的超大型服务器来说,扩展系数 400 可能表示用户只需等待不到一秒的时间就能得到响应。注意:下表中的值是根据扩展系数 64 生成的,该值表示服务器处于满负载状态。 扩展系数可用性指标 1<nozeros> 100<nozeros> 2<nozeros> 83<nozeros> 4<nozeros> 67<nozeros> 8<nozeros> 50<nozeros> 16<nozeros> 33<nozeros> 32<nozeros> 17<nozeros> 64<nozeros> 0<nozeros> 注意:扩展系数和可用性指标仅用于度量服务器响应时间,该时间通常只是客户机经历的响应时间的一小部分。例如,客户机和服务器之间的网络响应时间通常占客户机经历的响应时间的很大部分。更改表示服务器处于满负载状态的扩展系数值 要有效利用 Domino 工作负载平衡,必须调整扩展系数与可用性指标之间的关系,以便服务器在达到预期的故障转移工作负载时进行故障转移。通过指定表示服务器处于满负载状态的扩展系数值,可以实现此目的。Domino 中的缺省值为 64。当扩展系数达到该值时,便可将服务器视为负载已满,可用性指标降为 0(零)。如果服务器的功能特别强大,处理速度特别快,则可提高表示服务器处于满负载状态的扩展系数值。对于一些处理速度极快的服务器来说,该值可以提高到几百或更高。如果服务器的处理速度特别慢,则可降低该值。要更改表示满负载服务器的扩展系数值,请将下面的设置添加到 NOTESINI 文件,然后重新启动服务器。SERVER_TRANSINFO_RANGE= n 其中,值 n 表示服务器处于满负载状态的扩展系数值等于 2 的 n 次幂。 n 的缺省值为 6,这说明扩展系数值为 64,因为 2 的 6 次幂为 64;如果将 SERVER_TRANSINFO_RANGE 设为 7,则满负载时的扩展系数值为 128;如果将 SERVER_TRANSINFO_RANGE 设为 8,则该值为 256。要确定 SERVER_TRANSINFO_RANGE 的最优值,请执行下列 *** 作:1 在服务器负载过重的期间内,监控服务器的扩展系数。可以使用控制台命令“show stat serverexpansionfactor”来执行此任务。另外,还可以在这些期间内监控性能统计信息。记录有关此类期间的足够多的扩展系数值,以便确定使用哪个扩展系数值来表示服务器处于满负载状态。 2 为 SERVER_TRANSINFO_RANGE 确定一个值,以 2 为底数, 该值为指数计算而得的值,即为在步骤 1 中选择的扩展系数值。 如果更改了表示服务器处于满负载状态的扩展系数值,扩展系数与可用性指标之间的关系就会发生变化。下表列出了当 SERVER_TRANSINFO_RANGE 值为 8 时的一些扩展系数以及由之转换而来的可用性指标。因为 2 的 8 次幂为 256,所以本例中的最大扩展系数为 256。扩展系数可用性指标1<nozeros>100<nozeros>2<nozeros>88<nozeros>4<nozeros>75<nozeros>8<nozeros>63<nozeros>16<nozeros>50<nozeros>32<nozeros>38<nozeros>64<nozeros>25<nozeros>128<nozeros>13<nozeros>256<nozeros>0<nozeros>更改用于计算扩展系数的数据量 尽管不是必需的 *** 作,但还是可以使用下列 NOTESINI 设置来更改 Domino 收集用以配置扩展系数的数据量。 要更改 Domino 使用的数据收集时间段数,请使用 NOTESINI 的 Server_Transinfo_Max=x 设置,其中 x 是您希望 Domino 使用的收集时段数量。 要更改每个数据收集时间段的时间长度,请使用 NOTESINI 的 Server_Transinfo_Update_Interval=x 设置,其中 x 是每个时间段的长度(秒)。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)