AI算力競賽加速散熱技術(shù)變革,液冷方案獲行業(yè)青睞
進(jìn)入AIGC時(shí)代,智算中心規模日漸龐大,服務(wù)器能耗與日俱增。如何降低智算中心能耗已成為國家和地方政府關(guān)注的焦點(diǎn)。
工信部數據顯示,2022年全國數據中心總耗電量約2700億千瓦時(shí)。當前,大部分數據中心仍主要采用風(fēng)冷散熱技術(shù),在單柜密度、PUE值方面已愈發(fā)難以滿(mǎn)足行業(yè)發(fā)展及綠色節能方面的要求,而冷板式液冷方案則為現有數據中心節能改造提供了諸多便利。
近日,國產(chǎn)CPU領(lǐng)軍企業(yè)飛騰信息技術(shù)有限公司正式發(fā)布飛騰騰云S5000C服務(wù)器液冷解決方案,并在第十二屆中國電子信息博覽會(huì )上榮獲創(chuàng )新金獎。
液冷釋放芯片極致性能
目前,常規風(fēng)冷僅支持8-10kW的單柜密度,若繼續采用風(fēng)冷散熱,將導致行間空調需求數量陡增,算力成本也將急劇增加,因此高密度散熱場(chǎng)景下液冷方案成本和性能優(yōu)勢顯著(zhù)。本次飛騰聯(lián)合同泰怡針對S5000C服務(wù)器液冷解決方案進(jìn)行測試,結果表明基于本次液冷解決方案打造的下一代高性能液冷服務(wù)器,如果應用在30KW風(fēng)液式CDU液冷機柜中,單機柜可配置25臺1U雙路液冷服務(wù)器,相對風(fēng)冷機柜理論上可提升297.6%。

30KW 風(fēng)液式液冷機柜
測試結果還表明, S5000C高主頻芯片可以在液冷系統的加持下穩定可靠運行,主頻相對標準版芯片提高20%。
液冷實(shí)現算力綠色節能
中國信息通信研究院測算,到2030年我國數據中心耗電量將達到5900億千瓦時(shí)。工信部等部門(mén)在2021年12月提出加快綠色數據中心建設,到2025年全國新建大型、超大型數據中心電能利用效率(PUE)降到1.3以下。
相較于傳統風(fēng)冷,液冷方案采用液態(tài)介質(zhì)作為熱傳遞介質(zhì),熱傳導效率比空氣大大提高,可以更有效地移除計算機組件中的熱量,從而降低能耗。本次測試結果表明,液冷系統的整體能耗相較風(fēng)冷可降低約10%左右,同時(shí)滿(mǎn)足國家要求的PUE值,從而降低空調機房以及機柜的電力成本,具有較好的經(jīng)濟適用性。

飛騰騰云S5000C液冷機柜以及服務(wù)器結構圖
此外,本次飛騰推出的液冷解決方案基于四臺雙路服務(wù)器進(jìn)行系統功耗測試,進(jìn)液溫度在40℃以上, S5000C結溫控制在65℃以?xún)?,CPU的結溫溫度波動(dòng)在±1℃以?xún)?,使得服?wù)器系統的核心部件在一個(gè)較低且穩定的溫度下運行,大大提高了系統的可靠性以及核心部件的使用壽命。整個(gè)液冷系統熱阻低,散熱能力顯著(zhù)加強。
為了最大限度降低漏液帶來(lái)的風(fēng)險,本次飛騰液冷解決方案還采用了一套漏液感知與干預系統。通過(guò)漏液檢測接口直接檢測漏液,在第一時(shí)間通過(guò)BMC發(fā)送警報。在本次測試中,飛騰針對主板的LEAKAGE 4pin 漏液檢測接口進(jìn)行了測試,目前該接口已通過(guò)漏液檢測設備識別檢測與移除告警以及模擬漏液故障報警等測試。
隨著(zhù)AI技術(shù)的飛速發(fā)展,液冷技術(shù)特別是冷板式液冷正獲得越來(lái)越多數據中心的青睞。由于冷板式液冷的硬盤(pán)、光模塊等服務(wù)器部件以及運維模式和機房承重與傳統風(fēng)冷場(chǎng)景基本一致,因此不需要對現有風(fēng)冷機房和機柜進(jìn)行大規模改造,升級成本也相對較低。飛騰本次發(fā)布的飛騰騰云S5000C服務(wù)器液冷解決方案不僅能夠顯著(zhù)提升數據中心的能效和散熱性能,還能夠降低噪音和運營(yíng)成本,這對于追求高效率和可持續運營(yíng)的數據中心來(lái)說(shuō)至關(guān)重要。
評論