信息化管理平台
首页>探索与创造

充满智 慧的绿色数据中心


绿色数 据中心随着节能、减排这 个世纪性的话题,在逐渐升温。环境的 可持续性发展正在成为IT行业日 益优先关心的问题,信息技 术的发展不能离开"绿色",而且还要受"绿色"的约束和有利于"绿色"的实现,同时绿 色数据中心概念的提出和完善,离不开 信息技术的发展与支撑。一场数 据中心绿化乃至整个IT架构的 绿化工程正在全面展开。


能量消 耗和空间利用是数据中心最大的成本所在,也是限 制数据中心扩展的主要因素,新一代 绿色数据中心可以帮助企业节约成本,提高服务效率、快速响应业务需求、与业务目标更加匹配,承担节能、环保等社会责任。


"绿色"的含义 主要指两方面的内容,一是数 据中心机房的基础建设,限制有 害建筑材料的使用,机房设计要隔热、保温、节能、防止辐射和静音等。另一点,IT设备本 身要限制有害材料使用,降低功耗、减少体积、节省能源、静音等。我们把 限制使用有害物质、降低能耗、节省空间、提高设备效能、静音等 措施的综合采用和实施作为绿色数据中心建设的基本内涵。或者说,绿色数 据中心就是指照明、机房设备、电力与IT系统都 遵循最大能源节约及最低环境影响、同时在 提高各个设备的利用率的前提下有较好的投资回报的标准设计。


在绿色 数据中心建设中,不使用 有害物质比较容易做到,这在建筑设计、计算机、服务器 架构设计时加以注意和选择无毒无害物质和材料。通过屏 蔽和隔音也能做到静音。问题在 于对服务器能力需求的不断增加,服务器数量的增加,占用空间的扩大,数据中 心电能的消耗是在猛增,所以说,降低能 耗就成为目前绿色数据中心建设中的关键问题。


根据IDC全球研究,目前整 个服务器的装机量是3500万台左右,每年服 务器所消耗的电力费用是每年所购买服务器费用的50%左右,大概为290亿美元;能源消 耗所带来的成本已经成为IT业行业 所消耗运营成本的30%到50%。我国IT产品的总耗电预计为300亿--500亿千瓦时,几乎相 当于三峡电站一年的发电总量! 而且数 据中心电力消耗仍在以每年15%~20%的速度增长。惊人的数据告诉我们,IT节能刻不容缓!


大型数 据中心为了完成企业的数据处理与分析任务,设置摆放着几十台、上百台、甚至上千台的服务器,以及供 服务器存放数据的大量的磁盘阵列等,为了协同工作,这些设 备还要通过网络把它们级联起来,并且还 有用协同工作软件和设备把它们管理起来,这就造成设备众多、效率低下、占地空间很大,机房的供电、静音、空调、散热等 问题都一一显示出来。面临着 诸多要解决的问题,主要就是提高IT设备(服务器、存储、网络设备等)的电能利用率,尽量降 低电能的热损耗,此外,在提高 计算密度的同时,通过新 的散热技术和数据中心的整体设计来解决散热问题。


数据中 心的支撑系统和运行环境涉及的专业领域非常广泛,涵盖了电力、电子、计算机、机械、化工、热能等方面,绿色数 据中心建设绝对是一项系统工程,我们将 尽量系统地阐述解决这些问题的方方面面。


设计整 体目标和全面规划,提出整体解决方案

首先要 了解和分析数据中心应用的具体情况,针对这 些问题提出一个整体解决方案,根据公 司的发展做好规划,最好能 对机房进行全面的规划,然后根 据业务发展的需要分步实施。只有这 样才能实现提高数据中心效能和降低电力损耗以及减少占地空间的整体目标。


今天,当数据 中心的主动建设越来越清晰地成为我们IT建设任务时,我们需 要静下心来好好分析一下数据中心建设的各种需求,并描绘 出数据中心的发展蓝图,从而为 我们未来的工作制定方向。要保持 清晰的发展战略和方向,按照建设蓝图发展,全新的、高生产力的、具备前瞻性的、高度灵 活扩展的新数据中心,将为在 日益激烈的市场竞争环境下企业的发展保驾护航。


因此,我们需 要为数据中心的建设建模。在这里 需要考虑的是复杂任务的数据中心建设,为了保 证数据中心的简约性,我们就 需要为此对任务进行抽象,并进行普适化的处理。对不同 的数据类型在不同的存储架构下实现不同的数据管理功能进行详尽的分析比较,并充分 考虑业务流程的要求,以达到“管理简便、安全可靠、灵活扩展、经济实惠”的建设目的,一个现 代化的数据中心将是一个“自动化 的绿色数据中心。



数据中 心建筑自身绿化


在建筑本身节能方面:为了减 少数据中心机房与外界的热交换,节约能耗,同时也 为了提高安全性,所有机 房区的建筑物外墙均不设外窗,以减少 太阳辐射热进入机房,减少房间的热损耗;建筑外 墙结构采用高水平保温隔热设计,以减少 数据中心机房冷量损失;建筑内墙、楼面采 用保温隔热设计。


数据中 心机房平面布局合理注重功能

机房各 个系统的建设要依托于建筑环境中,也受到机房建筑结构、平面布 局这些因素的制约,如建筑层高、形状、面积等。数据中 心机房主体建筑平面布局注重功能性设计,建筑造 型设计以简单实用为目标,由数据 中心机房的基本构建模块、其它辅助房间、消防楼梯、通道、货运电 梯等区域从里往外组合而成。


数据中 心机房楼层高度应充分满足数据中心内地面空调送风和天花顶面回风和相关管道(空调水管、新风管道、消防排烟管道、气体灭火管道)的铺设。



高密度 区域设计与高性能计算技术

数据中 心在机房区内部可单独设置高用电容量机柜区域,以满足 未来高密度设备的发展需求。提高单 位空间计算能力,整合计算节点,一机多用,减少存储空间需求。除了系统布局外,相关的配套系统(如配电开关、线缆等)都进行相应的设计,以保证 系统设计的完整与匹配。高密度 设备的制冷问题是重点考虑的问题。高制冷 需求对精密空调系统的设计与布局是很大的挑战,对地板下高度、空调送风距离、空调冷量设计、回风气流设计、机柜设 计等都进行了全方位考虑,在保证 总体冷量足够的前提下对功能平面做充分优化。


高密度 与高性能计算技术是IT设备发展的必然趋势。


高密度 区域的设计解决了高密度设备电源和散热问题,有效解 决了数据中心局部热点的困境。


高效的 气流组织结构设计

高效的 气流组织设计将使整个机房制冷效果达到最佳,并最大 限度地降低空调系统能耗。大中型 数据中心机房的电子设备密集布放,总冷负荷比较大,每平方米大约在300~600W,有的甚至更高,其中设备冷负荷占到80%以上。针对于 机房的余热量大、发热源集中的特点,就需要 有合理的气流组织的分配和分布,有效地 将机房内的余热消除,保证电 子设备对环境温湿度、洁净度、送风速 度以及人员对舒适度的需要。机房的 气流组织形式有下送上回、上送侧回或下回、弥散式送风方式,气流组 织形式的确定要认真考虑,要依据设备冷却方式、安装方式,考虑冷量的高效利用,使散热 设备在冷空气的射流范围内。


据中心 要建设专用的送风通道。数据中 心的设备由于能耗大,发热量也大,下送风方式效果最好,因此必 须在机房设置地板,建立专 用的下送风通道。


高可靠,高可用 的智能供电系统设计

对于数据中心而言,供电系统的“绿色”程度也显得至关重要。
在配电 系统节能方面可采用高压发电机组、高压直接到楼层设计。可以建 立起根本无需将负载转换到市电的最高可用性UPS供电系统,UPS出尽量靠近最终负载,减少了线路电力损耗,科学治理和抑制谐波,降低变 压器和发电机损耗,采用高效率、谐波低的UPS设备,例如APC的英飞(InfraStruXure)解决方 案采用模块智能UPS,其模块化设计保证了N+1冗余及拓展能力,品质卓越的UPS设备具 备稳压和浪涌保护功能。


采用高 效新型气体光源作为户外照明、室内采用节能灯具,采用自动化计量技术,精密智能配电设计,机架级别的配电监控,监控到 每一个支路的电压、电流和容量,并可通 过网络实现远程控制,达到电 力资源的按需分配、按需提供。多使用直流电供电,因为直 流系统的效率高于交流系统20%,国产华 为的全系列电信设备、存储设备、安全设备、服务器 设备以及网络设备都是支持直流供电的。



高性能冷却系统

过去40年左右 冷却技术一直在发展,但却未能跟上IT设备的技术革新。传统数 据中心冷却技术面临给现代高密度数据中心冷却的挑战时,似乎有点力不从心了,热气可 能会和冷空气混合,系统无 法识别热点问题,造成在 某些区域的热点。具有IT设备的 现代的数据中心的功率密度极有可能在每个机架达到15千瓦,应该考 虑非传统技术的冷却。一种动 态智能冷却概念值得推荐,这个概 念是指创造一种环境,使冷却 系统设备从环境中得到不断的反馈,并动态地调整自己,以适应 环境参数的改变,这些参数是被监测的。这种类 型的系统最适合当今的数据中心,并有助 于降低电能消耗,这无疑 是数据中心的一个福音。另一种 概念是自然冷却,如果您 的数据中心设在地理上适宜的位置,并且气候允许,最好的 方法是利用在该地区能够提供的自然冷却。这一点 可以通过使用节约装置来完成,节约装 置通过室外现有的自然冷却,来补充 数据中心的主要冷却。这些节 约装置可以运行空气或液体,因为节省了电能,非常值得。在一些 地区每年只要日平均温度低于10度,数据中 心空调主机就不需要开动,利用外 界的自然冷空气来冷却整个机房的环境。如果您 的数据中心正在从头设计,一个最 佳的选择是提供高架的冷却,而不是 传统的抬高地板下的压力系统,这种安 排可能节约能源开支高达30%。


在空调系统节能方面,数据中 心机房可以采用集中冷水供冷设计,选用高 能效比冷水主机设备,采用一 次泵变流量系统设计,采用节 能空调系统设计,冷却水 泵冗余设计提高系统可靠性,采用高 效冷热预处理新风系统,数据中 心机房采用集中加湿,取消精 密空调加湿功能,降低能耗。采用水冷冷却法,相同容 量的水能够携带的热量是相同容量空气的3500倍。另外一 种水冷的方法采用了一套复杂的外置冷却系统,通过机 架内一个闭合回路水冷系统对电子元件进行冷却,供水和 排水管道布满整个数据中心。这种紧 凑型的系统能够减少空气流过的路径,从而减 少了风扇的能耗。这种紧 凑型散热方法最大程度上降低甚至是完全消除了冷热空气的混合。


APC基于机架级的InRow制冷技术,相对于 传统房间级制冷,能够很 好的确保核心交换机和刀片服务器针对热负荷转移而进行高效精确制冷,在降低 了能耗的同时还达到了更高层次的制冷效果。刀片服 务器架构的出现虽然大大提高了服务器的能力,但由于 密集整合又带来了要解决的通风、散热问题,采用导 入式的制冷方式,可以成 功地解决刀片机架构的散热问题。


另外,应该加 强对精密空调的整体监控,随环境 和湿度变化随时调节运行。


IT微环境

相对于机房环境,IT微环境是IT设备真正的运行环境。IT微环境 指的每个机架中的IT设备运 行所依赖的环境,包含电力、空调、监控等关键元素。创新设计的机柜,充分考虑IT设备的配电、配风、承重、布线需求,满足IT系统可靠运行。


IT微环境 是创建高可用性的必由之路,要提高整体IT系统的 可用性必须从提高IT微环境的可用性入手。在IT微环境 所涉及的诸多关键元素中,电力供 应保护子系统已经被大多数用户认可和采用。但是机架中温度调节、热量管理、线缆管 理等环节并没有受到足够的重视,没有真 正为每个机架中的IT设备提 供一个高可用的运行环境。


通常由 于数据中心的服务器设备数量急剧增长,为了更 便于管理和堆放,越来越 多的服务器呈现机架化,刀片服 务器的数量也日益增多。这种方 式虽然节省了空间,但功率 密度越来越高的机架内部环境就像一颗定时炸弹。要知道,系统的 稳定性除了电力因素外,最大的 相关因素就是热量控制。据权威 电力保护研究中心测试表明,机柜内温度每上升10度,IT设备的寿命就会减少50%,制冷的 问题不能良好解决,对IT设备的 损害是相当巨大的。


传统的 热量控制方法是降低整个机房温度,期望达到“冷却”服务器的作用。但事实 证明这种方法只能对整个房间的温度进行控制,并不能 保证机架中服务器的温度。比较科 学的解决办法是以机架为单元,控制IT微环境的温度。通过合理设置冷、热通道,引导冷 风均匀送到每个IT设备的进风处,并将热 风有效送回空调,保证机 架内的温度控制到适宜服务器工作的温度。


除了热量管理,机房线 缆管理也是提高可用性必须要考虑的因素之一。我们不 能仅仅只关注机房整体和局域网的布线明晰要求,在机柜 里和机柜间这种特定的IT微环境中,杂乱无 章的线缆大大降低了机房管理人员的工作效率。一旦网络出现故障,故障的 查找与排除将成为噩梦。机房的配电、布线往 往在机房建立初期没有得到足够重视,等到它 成为问题的时候,就会发 现它们已经严重到影响整个机房的可用性。


每个机架的线缆管理,包括配电、布线等等细节,都可能成为未来IT系统故障的导火线。想要一 次性避免所有问题的最简单方法就是采用整体解决方案,将机架、制冷、电源、管理与 维护集成为一个整体。


由于整 体解决方案使用户无需关注IT系统细节问题,对可用 性的提高效果明显且难度较小。这种站 在整体可用性高度来设计IT微环境 建设的整体解决方案,已成为大势所趋。


选用高可用低功耗的IT设备

高可用低功耗的IT设备的选用,要从CPU、存储器,到整台 设备的各个层面加以考虑。


处理器 厂商在倡导芯片的低功耗设计之外,服务器 整机生产厂商纷纷推出各种"新鲜"的绿色产品,帮助拥 有数据中心的大型企业提高能源利用率,同时改 善数据中心的设计方案,从而降 低数据中心的能耗成本乃至降低总体拥有成本。这的确 已成为客观需求,时代的需要。


采用多核的X86芯片技 术能提高数据中心的处理能力。常规的 数据中心需要几百台、上千台服务器,主要问 题在于服务器能力不能满足用户需求。采用多核的X86芯片架构的服务器,能力大大地提高了,而系统的复杂化,随着服 务器的数量减少也大大地简化了。在存储系统上,保证性能的前提下,应选用重量更轻、可靠性更高,而功耗 和运行成本更低的硬盘。


服务器 最大的损耗并不是来自芯片内部,而是来 自交流电与直流的转换,数据显示,交流电 转化为直流电的效率一般为60~65%,以外的 能耗显然直接就变成热量散出去了。对于数据中心来说,这些"多余"的热量 又带来另外一个问题,那就是散热,大中型 数据中心基本上要将成本的四分之一花在冷却方面。这样服 务器交流电转化为直流电的制造出来的热能,还需要 花费精力把它们"散"出去。虽然刀 片服务器功耗要低得多,让计算密度大幅增高,同时也 要解决散热的问题。刀片会 在未来被更加灵活的服务器类型代替,这类服 务器的计算架构会把内存、处理器、I/O设备一 起作为共享资源池看待。



变革整 体架构进行系统优化

简化数 据中心物理配置(服务器,网络,存储等)复杂性,减少了占地空间。数据中 心为了保证他们在峰值时的数据处理任务的完成,他们配置了几十台、几百台、甚至上千台服务器,为了这 些服务器协同工作,通过网 络和共享存储把他们联起来,而且还 有设备和软件把它们管理起来,系统才能协调工作,完成数据处理任务,到过这 些数据中心的现场都感到,系统联结非常复杂,走线很乱很难等等,数据中 心整体架构需要变革。实际上 目前使用的服务器架构已经沿用了几十年了,存在问 题已经浮出水面,刀片机 的问世使服务器的架构设计向前迈进了一步。但也带 来了通风散热的问题,数据中 心众多的网络设备、存储设备等,虽然通 过网络连接起来,但实际 上仍是一个个独立的群体。数据中心设备的整合、优化,进行集约化、集成设 计已经提到了日程。实现提 高服务器的效率和整个数据中心的效能,进行节能、降耗降 低整体的拥有成本,这就要 求数据中心和服务器的体系架构设计必须变革,用户在 期待新一代服务器时期的到来。


Egenera公司经过系统优化,把这些 需求整合成资源池,就像自 来水一样连到各个用户供使用。经过这 样的整合和优化,连接电缆在24个服务 器时大约比原来的结构需求量减少到了八分之一左右。服务器 的占用空间与其它厂商的刀片架构的服务器相比减少到四分之一左右。这些设 备集约化组合带来的占地面积也随之减少。


虚拟化 技术提高设备利用效能减少供电制冷成本

虚拟化 的基本概念很简单,封装计算资源,运行共 享物理基础架构,这样每 台设备就好像在自己独立的物理环境中运行一样。通过虚拟化和整合,把存储 和计算资源作为一个聚合存储池能够实现这个目的,用户可 以基于需求来访问网络、系统和应用。除此之外,通过测量可以发现,通常一 台服务器仅仅使用了总容量的5%~15%来提供应用服务。用虚拟 化技术把多台刀片服务器集约化成一个虚拟化服务器平台,用虚拟 化技术集成多台服务器的虚拟化平台,大大地 提高了服务器的利用效率。使用虚拟化技术,对利用 率过低的服务器的整合对终端用户是无缝的,用虚拟 化和集约化技术提高了服务器的利用效率,也大大 降低了能源消耗。服务器虚拟化,能够大幅提高IT负载的运行效率,节省能耗。虚拟化 能够帮助服务器有效逻辑整合,合理控制硬件规模,提高服 务器资源利用率,提高服务器CPU运行效率,而且虚 拟化还能在备份、存储、宕机等 方面提供好的支持。提供更 快的备份和恢复速度,就能够 搭建复杂测试环境,即节省 机房和楼面空间,也降低了机柜、网线、空调的能耗。虚拟化技术是推动数据中心绿色应用的重要标志,使用较少的硬件设备和电源来实现更大的处理能力的虚拟化技术将会是未来广泛被利用的技术。


两三年前所提及的虚拟化是指某一产品线的虚拟化,而现在所说的虚拟化,则是指整个数据中心的虚拟化,包括服务器、存储、网络等产品都会被虚拟化。


虚拟技术的应用可以缓解服务器的性能利用低的矛盾,但当众多服务器组成一个数据处理平台时,如何发挥虚拟技术的作用,有关技术问题仍需研究解决。综合利用刀片、虚拟化、水冷、power Excutive等技术,能够降低数据中心40~50%的电力损耗。


数据中心需要全面的管理设计

新一代数据中心管理系统不但要求实现对各设备的安全运行管理,同时也要求机房管理系统提供成本运营的相关数据,满足相关节能规范,自动计量与自动监控,客户只对自身消耗的资源“埋单”。这些数据中心将基于面向服务的体系结构(SOA)的全面管理,按需提供用户所需要的计算能力、智能化供应的IT能力,就像SaaS一样运营管理并提供服务。目前数据中心行业正在使用的PUE(电源使用效率)指标是一个显示计算/IT组件(如服务器)实际的耗电量需求是多少的指标,要计算一个设施的PUE,简单地用IT设备耗电量除以整个设施电源消耗即可。这个结果的数字可以在1和无穷大之间,越接近1,你的PUE就越好。PUE管理对绿色数据中心来说是应该考虑的,PUE是解决数据中心能源效率的最佳标准。


现代化的数据中心要求系统提供的实用性、灵活性和扩展性比以前更高。今天,您需要的远远不止是服务器管理,而是需要一套保证整个IDC能够正常、安全、稳定运行的系统。数据中心集中管理提供您对任何地点和任何状态下所有IT资产的访问和控制,并使您无需亲临现场就可以进行数据中心的完全的访问与控制,从而使很大程度上方便您的全面管理。数据中心远程集中管理控制系统为IT专业人员提供在有IP网络的地方均可实现对数据中心的设备访问,如同这些设备就在身边一样。这种作法不仅可以加快响应速度,缩短停机时间,还可以提高IT设备的可用性,更使管理人员无论何时何地,自由管理。数据中心远程集中控制解决方案允许多名操作人员同时对数据中心内的服务器、小型机、刀片式服务器、虚拟主机和网络设备等进行远程集中统一操作控制,并可以全程记录操作人员对目标设备的操作画面内容,用以跟踪并规范操作人员的操作行为。不但可以及时发现操作人员常见的、无意的误操作,进行事后分析与纠正;更可以对操作人员的恶意操作行为进行追溯,提供出恶意操作的第一手证据。


绿色数据中心的建设已经长出了"绿芽",支持和驱动绿色数据中心成长的一些关键技术在不断的发展和完善,绿色数据中心正茁壮成长并开花、结果。浩德科技着眼于推动我国新一代绿色数据中心的行业规范与国家标准,希望新的行业规范与国家标准能够引导并带动中国绿色数据中心产业的升级。我们将依据最新国际标准、最领先的绿色数据中心设计理念、最优建造经验与运营管理规范,推出系统化解决方案。成为国内一流的以数据中心基础设施为中心,面向“灾备+生产”一体化外包的综合性IT服务集团。

返回顶部

  • 成功案例
    友情链接:      涔濇父褰╃エ