日期:2023-01-24 阅读量:0次 所属栏目:信息管理
随着“云计算时代”的来临,越来越多的政府机关、企事业单位开始逐步将各自的业务信息系统向“云”上迁移,云计算行业已经成为未来ICT((Information Communication Technology)领域中发展的重要方向。随着云计算需求量的增大,越来越多的数据中心开始在各地建立起来。尽管云计算本身能够提高效率,避免计算资源的浪费,但同时,云计算自身的能耗问题也逐步凸显出来。
根据权威机构的研究结果表明,数据中心耗费了全球1.5%至2%的电力,并且以每年12%的增长率增长。全球数据中心耗电量同样惊人,据IDC报告,2005年全球数据中心的耗电量是全球用电量的0.8%。2007年全球数据中心耗费的总能量达到了3300亿千瓦时,相当于整个英国的电力需求。美国环保署报告,2011年美国的数据中心全年累计耗电1000亿千瓦时,占全美当年总耗电量的1.5%,电费约74亿美元。数据中心已经成为名副其实的“电老虎”。同时,数据中心电力的消耗会带来大量的碳排放,自2008年以来,全球数据中心每年都产生大约8000万吨二氧化碳,据预估,在2020年碳排放将达到3.4亿吨。
作为发展中国家,中国未来经济的发展必须走节能环保之路。云计算作为当前ICT发展重点方向,也必须寻找出一整套行之有效的节能技术手段。在数据中心的建设过程中,综合当前技术发展现状,应从以下三个方面开展技术革新,节约能源,建设更“绿色”的数据中心。
1 IT节能技术的革新
IT技术是云计算技术的核心,目前业界对于IT技术的研究重心已经由发展初期关注如何提高计算系统的高速度高性能,转向如何提高计算系统的计算效率(提高能耗比)。云计算的数据中心是所有计算和存储的中心,因此要构建“绿色”的数据中心,首先从IT节能技术的革新开始。
CPU体系结构的变化。CPU作为计算机的“心脏”主要有CISC(Complex Instruction Set Computer,复杂指令系统计算机)和RISC(Reduced Instruction Set Computer,精简指令系统计算机)两种体系结构。Intel公司出品的X86系列CPU就是典型的CISC产品,其特点是指令复杂,指令长度较长,编解码复杂,需要分解成多个微指令去执行,虽然便于提高计算机性能,但导致能耗大,相对而言,能耗比偏低。相对于此,大家常用的手机、PAD等智能移动终端多以ARM系列CPU为主,特点是性能相对较差,能耗低。随着近年来,电子技术飞速发展,以ARM为代表的CPU已经在能耗比上逐渐超越X86,并在计算密集型应用中逐渐崭露头角,逐渐引入到数据中心建设中。以百度为例,2012年底,该公司实现ARM Server全球首次规模化应用。并将GPU应用于机器学习领域。通过对程序的重构和优化,实现CPU单核加速400倍,将每瓦特的计算能力提升34倍的成果,大幅降低数据中心能耗。
存储技术的改进。当前计算机系统主要采用机械式硬盘,优点是技术成熟、价格低廉、使用方便,缺点是能耗较高。通过引入固态硬盘(Solid State Drive)将极大地缓解存储设备的能耗问题。固态硬盘,使用闪存颗粒作为存储单元,不再采用传统的机械存储方法,使用模拟的方式虚拟出传统硬盘存取方式和扇区等,区别于传统机械式硬盘,突出特点是没有机械结构,利用传统的NAND Flash特性,以区块写入和抹除的方式来作读写的功能,因此在读写的效率上,非常依赖闪存技术的发展。与传统机械式硬盘比较,具有低耗电、耐震、稳定性高、耐低温等优点。IBM近期推出“FlashSystem”系列全闪存存储服务器,有关负责人指出:数据中心建设中,采用SSD建设方案不仅有性能优势,也更省电,且在散热措施上的投资也要比传统硬盘小很多,综合来看,采用SSD技术是符合当前技术发展潮流的。
研发低能耗操作系统。随着基础硬件平台的演变,低能耗的ARM系列CPU和SSD硬盘的广泛使用,操作系统也需要全面调整体系结构,应将“低能耗,高效率、适度资源使用”原则作为未来计算机操作系统的重要设计原则。例如,微软在Windows 7操作系统中推出ReadyBoost的技术,通过闪存减少常用软件从较慢的机械硬盘中调用的次数,把读取延误减至最低,相应提高性能的同时,降低了能耗。未来在服务器操作系统中,将出现更多的新技术,为降低服务器功耗提供更多的技术支持。
2 机房系统的技术革新
根据最新统计,机房系统占整个数据中心的电耗比例已经达到45%,其中冷源部分占到2/3。绿色数据中心的构建,机房系统的节能解决方案成了重中之重,刻不容缓。
采用自然冷却的冷水机组。数据中心通常都需要常年不间断供冷,常规的制冷系统,室外温度即使是低于或远低于其循环冷冻水温的情况下冷水机组也需要照常运行。自然冷却(Freecooling)机组与常规冷水机组最大的区别在于它带有独特的风冷自然冷却换热器,其运行优先利用天然环境的低温空气冷却循环冷冻水,可以实现无压缩机运行制冷,显著节省压缩机的电耗。在夏季,自然冷却机组与常规空调一样仍旧采用压缩机制冷。在过渡季,当环境温度达到比冷冻水回水温度低2℃或以上时,开起自然冷却,利用冷空气的冷量预冷冷冻水,无需压缩机功耗;自然冷却不足部分,再由常规压缩制冷接力,从而减少了系统功耗。在冬季,完全靠自然冷却冷却冷冻水,不需压缩机开起,只需少量风扇电耗,能效比高达20以上。通过自然冷却技术,在过渡季和冬季减少了压缩机工作时间和强度,有效降低了制冷功耗。与常规的冷水机组相比,据计算,北京所在纬度地区为例,常年节电达到30%-38%。
热回收技术利用。大型数据中心常年需要不间断的冷源,需要冷水机组高效制冷完成。而与数据中心配套的周边办公、运维和宿舍在冬季却同时需要大量的热量来解决供暖问题。在常规设计中,供暖需要锅炉或热泵解决,需要消耗大量的能源。新的热回收技术,免费利用制冷机组在制冷时候向环境中排放的冷凝热来加热供暖系统,从而不需要锅炉或热泵系统。在冬季需要供暖时,系统回收冷凝热来实现,多余的冷凝热仍旧排放到环境中去。由于实现制冷机组的冷热联供,空调综合能效比达到9-10,这是其他任何冷机效率所无法比拟的。采用这种热回收技术,一个数据中心的上万平方米的办公、运维和宿舍都可以实现免费供暖。
高效磁悬浮变频离心冷水机组。
磁悬浮离心压缩机代表了当今最先进的压缩机技术趋势。变频驱动的高效磁悬浮无油离心式压缩机采用磁悬浮轴承技术,高性能脉宽调制(PWM)永磁同步电动机,其转速随负荷变化而自动调节,确保机组在各工况下始终处于最佳运行状态,使机组在满负荷及部分负荷时均能高效运行。无油润滑磁悬浮轴承,无任何接触摩擦,无需润滑油系统,显著增加机组可靠性,保养简单方便;无换热器油膜热阻,可提高蒸发、冷凝换热效率达15%左右,提升离心机组运行效率。采用该技术建设的空调机组具有当前最高的使用效率,无论在满负荷下,还是在部分负荷下,机组都有非常高的能效系数,空调综合能效比值达到10。
3 数据中心建设的技术革新
解决计算时代数据中心的能耗问题,除了在IT技术和机房系统的节能方面做出努力外,还需要在数据中心建设上做出整体的节能考虑,目前主要数据中心建设节能技术革新主要体现在以下两个方面:
全面使用DCIM软件。传统数据中心的基础设施运行效率低下是运维中的长期困扰,企业在初期缺少合理的规模设计,并在后期未能提高总体的管控能力是关键因素。为此多功能的数据中心基础设施管理(DCIM)软件作为一种解决方案被引入进了企业,全球已有上百家公司提供数据中心基础设施解决方案。DCIM 解决方案可帮助CIO收集个人设备的电源和冷却系统信息以及测量的能源消耗情况,动态配置能源使用方案。如艾默生电气公司的Trellis平台,被康普收购的iTRACS公司,都可以帮助企业积极主动地管理能源使用和自动执行的内部任务计划,以降低运营成本。DCIM软件管理让IT管理人员与设备管理人员可以更好地交流并协同工作,显而易见的好处是可以实现至少30%的节能效果,有助于让PUE(Power Usage Effectiveness,衡量数据中心能源效率指标)值降至1.22甚至更低。根据IDC研究,DCIM有望在未来几年保持稳健的增长态势。在2011年, DCIM软件和服务的市场总额达2.47亿美元。到2016年,DCIM市场将增长到6.9亿美元,年增长率为22.8%。
加强能源效率审计。近年来,企业对能效审计工作越来越关注,国外的很多成功经验也表明,能效管理将成为决定企业发展的“软实力”。德国能效博士柯文诺表示:“高能耗企业发展到今天,年产值已经不再是企业强大与否的唯一指标,重不重视节能技术正成为决定企业成败的关键因素。”数据中心运维过程中,信息化部门可通过定期审计并分析有关数据,实时掌握能耗情况,便于确定能耗突出点,从而有针对性地完善方案,优化配置。数据中心通过引入能源效率审计,有助于进一步节能工作的开展。
目前,信息技术正在日新月异的发展,云计算逐步在我国落地。从资源节约角度,云计算为我们的节能、环保提供了一个非常好的发展方向,但是大规模的云计算数据中心的建设又给我们带来了数据中心能耗突出的实际问题。因此,我们既要用好云计算,同时也要管好云计算,只有通过IT技术革新、机房系统建设技术革新、数据中心技术革新等多项节能举措并行,才能更好的将云计算为我们建设服务,才能真正的享受云计算带来的种种好处。
参考文献
[1]舒尔茨著.韩毅刚等译.绿色虚拟数据中心[M].北京:人民邮电出版社.
[2]领先腾讯阿里.百度云数据中心国内PUE第一.http:// IT专家网论坛[Z].2014,04,17
[3]解读云计算时代欧洲数据中心节能新技术.http://yjs2568 .2011-07-01.
[4]王珂.数据中心节能的前沿高招.畅享网,[Z].2013.
作者单位
1.中国五矿集团公司 北京市 100044