走進英特爾位於馬來西亞的資料中心的白色大門,迎面而來一股涼意,這是一座從2002年就開始啟用的老機房,下吹式空調系統的2座冰水主機位於機房中央,冷空氣從高架地板吹出,通過機櫃後釋出的熱空氣則從天花板的迴風口排入到天花板通道中,送至冰水機冷卻,就像是一般企業老舊機房的傳統設計一樣。 英特爾亞太地區和中國各地據點營運所需的各式應用服務,近半數在這座機房中運作,包括辦公室、企業應用以及最重要的處理器產品設計。所在,在這座機房中,除了一般效能的伺服器以外,還有大量供英特爾研發團隊與合作廠商設計產品的高運算伺服器HPC。 但是,這座老機房原先的冷卻設計,難以滿足HPC的散熱需求,所以,後來英特爾另外在這座機房內,又打造了一個小房間,採取不一樣的冷卻設計,來解決高密度運算的需求。 英特爾用來改善機房冷卻問題的解決之道,正是導入了冷熱通道的冷卻設計。在這個機房內的小房間中,英特爾採用了煙囪式機櫃,冷空氣同樣由高架地板吹出,進入HPC機櫃後,由機櫃上方的煙囪排入天花板的通道,同樣循著原有冷熱循環管路,進入冰水機冷卻後形成冷空氣,再繼續下一個熱流循環。 不只是英特爾,隨著伺服器運算效能越來越高,企業也越來越仰賴IT以後,應用系統需要的運算量也越來越大,再加上虛擬化技術越來越興盛,單一伺服器上往往要負載好幾套應用系統,高密度的刀鋒系統和高耗能的HPC高運算伺服器讓整座機櫃的功率越來越大。 例如一座機櫃可以安裝4箱刀鋒系統,若全數插滿刀鋒伺服器,每箱14刀,一刀若用電4百瓦,整座機櫃的用電量就超過了22千瓦,非常驚人,遠高於傳統機櫃不到10千瓦的用電,對很多傳統機房的冷卻設計來說,這是非常大的挑戰。 很多企業為了抑制伺服器過熱造成的不穩定,往往會將機房空調溫度調低,甚至達到10度C以下,企圖以接近冰箱冷藏室的低溫,來解決機房散熱問題。但是,這麼一來,也造成空調系統效率不彰,耗電量大增,形成另外一筆電費的負擔。
李魁鵬是經濟部能源局補助臺灣綠色生產力基金會編印的《電信網路機房節能應用技術手冊》主筆(後簡稱機房節能手冊)。這是他訪查過臺灣多座IT機房後的結論。 若以常見的機房能源消耗指標PUE(Power Usage Effectiveness)來看,美國電信級機房在2003年時的平均PUE值是1.95,而在2005年時更是達到1.63,但李魁鵬在這本去年出版的機房節能手冊中提出,實測臺灣電信專業機房得到的結果是1.9。兩相比較,李魁鵬認為,臺灣電信機房還有30%的節能改善空間。電信業者提供的IDC級專業機房都如此,更何況是一般企業自行打造維運的機房,多數也有很大的改善空間。 造成臺灣企業機房冷卻效果不彰的常見問題,包括了高耗能的IT設備缺乏節能管理或沒有整併;迴風設計沒有使用風管而是直接回風,造成氣流短循環,氣流無法有效率地冷卻機櫃。迴風口和出風口太接近,造成氣流短循環,氣流無法有效冷卻機櫃。 還有像機房缺乏冷熱通道的設計以及短循環的迴風,造成機房溫度場混亂,甚至進一步造成空調設備的溫控感測點不易設置,空調箱和冰機的控制失序,經常要頻繁開啟或關閉切換,導致冷卻系統不穩定運轉且有容易故障的風險。其他與冷卻設計相關的問題像是配線系統雜亂阻礙氣流、冰水主機老舊或過大設計而低效率運轉、不當高架地板開口設計造成了氣流分配不均與氣流洩漏嚴重等。 十大機房改善建議,動態PUE監控和建立冷熱通道最優先 李魁鵬在手冊中也提出了10項改善建議,其中,第一步要開始動態測量PUE值,藉由量測能源消耗及PUE監測,而且要長期監控平均計算,例如將冬天和夏天時的機房PUE值平均計算。了解機房能源性能和效率之後,接著就是要建立冷熱通道來進行機房氣流管理。 其他更細緻的改善作法還有調高冷通道溫度、使用變頻空調系統、避免空調超量設計和主機臺數規畫、將未使用的機櫃封板減少氣流短循環、採用伺服器虛擬化和整併。 若企業能進一步施工則可採用水或空氣的自然冷卻方法,使用模組化與高效率的變壓器和UPS系統,或是改用冷煤冷卻系統來提高冷卻效率。 其中,了解機房情況以後,第一個要動手進行的工作是「要建立冷熱通道,對冷卻才有幫助,才能兼顧整間機房不同散熱情況和能源的消耗。」這是李魁鵬建議企業優先採用的機房改善良方。
|
本Blog主要以紀錄小編工作上所遇到的點點滴滴,所收錄之文章來至各大媒體及Blog,幾乎皆非原創文章,僅提供小編本人進行記錄方便資料查找,並會註明出觸及連結,如有任何疑義請來信告知,謝謝!
2011年8月25日 星期四
用冷熱通道有效管理機房氣流
訂閱:
張貼留言 (Atom)
沒有留言:
張貼留言