如何提高PUE值 數據中心能耗詳解

隨着IT設備的更新換代,每單位空間需要越來越多的電源和冷卻能力,但是每單位能源可提供更高的計算能力,需要進行適當的配置後,新服務器設備有助於用更少的設備做更多的工作,從而爲數據中心運營釋放電源和冷卻能力。

但是先前要做的是能源評估和耗能分析,要用更科學、更合理的方法來診斷和評估現有的IT設施和製冷系統耗能問題,例如把數據中心內的所有設備的能耗進行列表排序,找出能耗最大的設備,以制定合理的能耗優化方案。

數據中心設備的合理利用

數據中心設備的複雜度非常高,在高可靠性的要求之下,對整個部門也是非常大的挑戰。我們可以採用的解決方式是,把原來縱向的應用架構改成了新的橫向架構,即服務器、存儲和網絡的橫向管理,而不是像從前那樣按照各個系統來建立支撐平臺。

通過橫向的調整和整合,把各類應用層全部統一管理,提出服務器存儲和網絡支撐共享的方略,最終達到按需分配的模式。具體而言,在整合過程中,通過機房的整合,把設備逐步整合到一起;通過網絡的整合,把原來分佈在各個區域之中的服務器,對不同的終端進行支撐,構建成一個數據與存儲一體化的網絡架構。

方案的詳細部署

首先把物理分散服務器進行物理集中,以支撐網絡結構的調整。主要的思路是減少服務器,減少存儲設備和相關的基礎設施,把原來機房進行集中。物理集中完畢之後,然後對應用進行劃分,根據劃分結果進行服務器的集中,將分散在各處的服務器、維護人員進行整合,並對機房進行相應的選址及規劃。

然後是服務器的邏輯集中和應用整合。先是建立服務器羣組,進行應用的歸類與劃分;然後利用邏輯和物理分區技術,實現服務器計算能力的“動態應用”;並利用統一的分級存儲結構,實現數據生命週期管理。將進行容災系統的建設,用集中的、穩定的大服務器,代替分散的、不穩定的小服務器集羣,進行災備中心、安全中心的建設工作,以提高現在系統的可控性、可用性,並減少成本。

在整合過程中,從運營商的角度來講要服務於具體的業務目標,而不是跟着目前的技術去走。

虛擬化的利用

虛擬化是新一代數據中心使用最爲廣泛的技術,也是其與傳統數據中心的最大差異。在新一代數據中心,通過服務器虛擬化、網絡虛擬化、應用虛擬化等解決方案,不僅可以幫助企業或機構減少服務器數量、優化資源利用率、簡化管理,還可以幫助企業或機構實現動態IT基礎設施環境,從而降低成本、快速響應業務需求的變化。

虛擬化分爲硬件虛擬化和軟件虛擬化兩大部分

硬件虛擬化體現了硬件即服務的理念,只有規模大的企業或IT投資較大的大中型企業纔有可能從硬件虛擬化中受益。而對於IT投資不足的中小型企業,硬件虛擬化帶來的效益可能和部署硬件虛擬化帶來的成本持平。

軟件虛擬化技術可適用於各個層次的企業,具有廣泛適用性。對擁有數據中心的大型企業,可以同時使用硬件虛擬化和軟件虛擬化技術,並同時獲得兩者帶來的優勢和效益;對於沒有數據中心的中小型企業,使用軟件虛擬化技術的性價比更高。

現在業內的數字表明,很多服務器的利用率很低。舉個例子,在基於x86服務器環境中,Windows和Linux服務器利用率一般低於CPU資源的15%;很多UNIX服務器只利用了15~25%;這意味着服務器有75~90%的時間在消耗電源和冷卻資源,卻不完成任何工作。虛擬化和合並能力使您能夠將多個服務器上的工作負載合併到單個服務器上,使服務器利用率提高到50~70%,並且潛在地以削減的成本在x86和UNIX服務器上完成4到6倍的工作。

數據中心設備佈局

機櫃擺放

在現代機房的機櫃佈局中,人們爲了美觀和便於觀察會將所的的機櫃朝同一個方向擺放,如果按照這種擺放方式,機櫃盲板有效阻擋冷熱空氣的效果將大打折扣。正確的擺放方式應該是將服務器機櫃面對面或背對背的方式擺放,在機櫃前設出風口,使之形成“冷”通道和“熱”通道。這樣機櫃之間的冷風和熱風就不會混合在一起形成短路氣流,將提高製冷效果。

IT設備擺放

隨着服務器的小形化、高密度化以及刀片式服務器的產生,使服務器擺放的位置越來越不容IT管理者忽視。這些高功率設備的發熱量比普通IT設備可能要高1倍或者更多,如果將這些高功率負載密集地擺放在一個機櫃內,很人容易會出現一個高密設備羣並形成一個巨大的發熱羣體,這種情況最容易導致數據中心出現局部熱點,IT管理人員不得不降低整個機房環境的溫度或是添加專門的製冷設備,來處理這個局部發熱點。針對這樣的問題,可以將這些高功率設備和高密度服務器均分在每個機櫃內,這樣就會減少數據中心的熱點和製冷難點,製冷設備地運行費用和採購費用也隨之降低。

最大限度提高冷卻效率

服務器市場的慘烈競爭使其成本降低了不少,但是冷卻方面的能耗卻一路飆升,居高不下。根據數據中心研究機構正常運行時間學會(UPTIMEINSTITUTE)研究發現,由於“氣流損失”,也就是“旁路氣流”導致數據中心冷去的冷空氣有60%都被浪費了。結果是低效的氣流管理導致我們在能源方面花了許多冤枉錢。

可見,優化數據中心氣流管理可以降低操作成本和遞延資本成本。此外,有效的管理氣流還可以在不增加新的冷卻設備情況下增加服務器密度。

第一, 空調機與機櫃排垂直襬放且避開冷通道。當功率密度高時,空調機應分散安裝。

第二, 在高功率密度數據中心,應該適當鋪活動地板和調節出風口的出風速度。增加靜壓在總壓中的比例,使冷風在地板下均勻分佈。再通過送風口上設置的風量調節閥,調節每個機櫃前風口地板的通風面積和風速,從而達到機櫃需求供給合適的風量,以此提高空調的效率。

第三, 可在空調機頂部安裝回風道,並在熱通道上方設置迴風口。可以更有效地減少熱空氣迴流,使機房內上下溫度平均。

在德國慕尼黑大學的國家超級計算機HLRB-II數據中心裏,這種做法得到了昇華,他們將回風道延伸到了熱通道兩端的上方。這種方法能夠使熱氣流被快速大量的抽走,但是這對風道的橫截面積和風速的計算都要求比較精確,防止熱空氣迴流。並在冷熱通道的兩端添加了出風口,冷卻少量從熱通道兩側溢出的熱空氣,防止冷熱空氣混合,降低製冷效率。

能耗高強度的增長,使節能減排工作已經成爲了基本國策,空調用電佔據着機房總用電量的一半,因此也存在較大的節能潛力。對北方地區而言,一年中有四到六個月處於10~-30℃,如果能利用冬季室外的冷量來降低機房溫度,勢必將節約大量能源並減少維護的工作量。

增強設備電力管理

1、乙二醇自然冷卻製冷

乙二醇自然冷卻系統就符合這一構想。其工作原理是:在室內機蒸發器上端增加一組經濟盤管,室外增加乾冷器專供乙二醇循環使用,乙二醇系統爲全封閉系統,乙二醇溶液爲30%-70%,並且不需要更換。乙二醇溶液循環由乙二醇溶液泵爲動力來實現流動,在室內換熱器吸熱製冷,在室外換熱器放熱冷卻。這一系統利用的是乙二醇溶液隨濃度的增加其冰點降低的原理,使用大自然提供的冷源實現製冷節能。

2、智能自控新風冷氣機

在秋季還可以利用智能自控新風冷氣機,減少空調的運行時間,節約空調用電的同時延長空調的使用壽命,減少空調的維護費用,從而減少客戶開支,提高能源利用率。

工作原理

安裝自控新風冷氣機設備需根據實際機房面積,合理佈置安裝位置,選擇合適的設備數量,確定風量的大小,保證正常的降溫需要。還要根據機房情況要做降壓口。以增加空氣的流動,提高新風的效果。

由於主機吸入空氣溫度較低,直接送入機房可能會容易結露,爲防止這種現象發生,故將送風口位置設在機房空調的出風口處,這樣室外低溫空氣與機房空調大風量送風混合,在地板下形成靜壓,使進入機房的溫度潔淨度風速均在正常範圍之內。

利用自控新風冷氣機可以既保證室內的溫度和潔淨度,又能利用室內外的溫差,有效地降低室內的溫度,達到節能的目的。如果室外氣溫比較低可自行通過混風口進行混合風供給。

另外,需要在進風、排風管口加上防護網,節能新風冷氣,加空氣過濾網,起到保護、防塵作用。室外新風通過自控新風冷氣機經管道引到空調風機下方或上方。

增強設備電力管理提高PUE效率

談到數據中心節能,PUE是一個重要的指標。它反映了數據中心供電有多少被真正用於服務器計算。最好的結果是PUE爲1,有多少供電全部都用於服務器計算。但實際上,這是不可能的,爲保證服務器正常穩定工作,需要製冷,需要對服務器進行散熱。此外,電源轉換、照明、監控安防等需要消耗電力。因此,對於數據中心管理而言,就是想方設法提高PUE的效率(值越小越好)。

PUE值可分解爲製冷能效因子、供電能效因子和IT設備能效,當IT設備能效等於1的情況下,降低PUE值的最有效方法就是降低製冷能效因子和供電能效因子。

一、提高PUE效率之降低供電能效因子

這裏的供電能效因子包括ATS開關損耗、低壓配電系統損耗、供電電纜損耗和UPS系統損耗。統計數據表明出了UPS系統損耗外,其他損耗值大約爲0.02,所以降低UPS系統損耗是關鍵。

另外,在數據中心裏,即使服務器在空閒時也會消耗峯值的75%-80%,使用電源管理軟件適時關閉和開啓空閒服務器可降低能源峯值的45%,但是應用在需要不間斷工作的系統中,很多人關注服務器再啓動的響應時間問題。

目前數據中心供電系統節能的發展趨勢已經很明顯。一方面,取消高昂而耗能的隔離變壓器,自試點入戶變壓器後,所有供電設備環節不再採用工頻隔離變壓器;另一方面,供電迴路上,服務器工作電源是能耗最高節點,效率僅爲70%-75%。未開可能採用高壓直流技術(380V直流系統),大大減少供電系統損耗。

二、提高PUE效率之減少製冷能效因子

數據中心所需製冷量需要與IT負載熱容量匹配,可隨IT設備的散熱量調節制冷容量和風速,消除不必要的冷量和空氣循環來提高製冷系統效率。另一方面,在高熱密度的數據中心裏,可讓冷風更接近熱源,可也有效減少製冷損耗。

顯然,一個設計與運營良好的數據中心,在空調系統配置正確,不考慮照明、新風機等設備情況下,能效比應該是小於1.6。現在的數據中心客戶也已經開始廣泛關注節能與效率,目前運行的數據中心PUE基本在2~2.5範圍內,新設計的數據中心客戶PUE指標傾向於1.8~1.6之間,並且大的客戶已經開始在標書中要求採用美國流行的能效評定模型PUE指標設計。

從以上分析可以看出數據中心效率發展趨勢基本爲:第一,IT設備刀片化、虛擬化,減少服務器數量,以降低服務器能耗;第二,採用直流供電技術,大幅度提高供電效率;第三,使用液體制冷技術,讓冷源更接近熱源,減少空氣對流散熱。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章