當AI大模型參數規模從千億級向萬億級躍遷,單機柜功耗從4KW飆升至50KW以上,數據中心散熱問題已從幕后走向臺前,成為制約算力發展的核心瓶頸。在內蒙古和林格爾新區,中國移動呼和浩特智算中心以冷板式液冷技術為核心,構建起覆蓋芯片到園區的全鏈路節能體系,將智算區PUE(電能利用效率)壓至1.15的全球頂尖水平,年節電量相當于1.7萬戶家庭全年用電,為AI算力時代提供了綠色轉型的標桿方案。
傳統風冷技術正面臨前所未有的挑戰。AI智算中心因GPU/NPU高密度部署,單機柜功率突破30KW并向100KW邁進,單顆芯片熱流密度超300W/cm2,相當于在指甲蓋大小面積上持續點亮300瓦燈泡。空氣導熱能力僅為液體的1/25,導致25KW以上機柜極易形成局部熱點,直接引發芯片降頻、服務器宕機等問題。更嚴峻的是,全國在用風冷數據中心PUE普遍高于1.4,制冷能耗占總能耗30%-40%,既推高運營成本,又與國家"雙碳"目標形成尖銳矛盾。
和林格爾新區的天然稟賦為液冷技術落地提供了理想條件。呼和浩特年平均氣溫7.7℃,每年約6個月可完全依賴自然冷源散熱,同等技術條件下較南方地區節電20%以上。內蒙古新能源發電量全國第一,該中心通過"風-光-儲"一體化模式實現綠電直供,2024年綠電交易占比達77%,2025年目標突破80%,含稅電價低至0.365元/度。這種"地理+能源"的雙重優勢,使中心在建設初期就具備低PUE基因,堪稱中國版的"綠色算力冰島"。
技術突破方面,該中心采用冷板式液冷技術,在CPU、GPU等高熱芯片表面安裝定制化金屬冷板,讓絕緣冷卻液在微米級流道中高速循環,直接帶走90%以上熱量。升溫后的冷卻液通過CDU冷卻分配單元與閉式冷卻塔完成熱交換,形成全封閉、零泄漏的散熱閉環。相比傳統風冷,這種"精準滴灌"式散熱效率提升25倍,剩余10%機房環境散熱采用水冷前門+熱管背板空調,制冷效率提升63%,空調能耗降低66%。冬季啟用的余熱回收系統,將服務器廢熱用于園區供暖,年減碳超1000噸。
全鏈路智能溫控平臺是該系統的"神經中樞"。通過華為能效調優解決方案,實時監測芯片溫度、管路流量壓力等參數,利用AI算法動態調節冷卻液流速、風機轉速與制冷功率,實現"負載變、溫度變、制冷量同步變"。即使在萬卡集群滿負荷訓練場景下,也能將芯片溫度控制在最優區間,確保PUE穩定在1.15。目前該中心已建成國內首個超萬卡國產液冷智算集群,部署2950臺服務器,總算力達6.7EFLOPS,單機柜功耗突破56KW,是傳統風冷機柜的10倍以上。
經濟效益與環保效益同樣顯著。按當前負荷測算,該方案年節電1719萬度,節省電費619萬元,節水9.5萬噸、節省水費86萬元。試點項目對比風冷方案年節電94.2萬度,碳排放降低24.6%。從全生命周期看,每年可節約標準煤19萬噸,減少二氧化碳排放63.5萬噸,配合高比例綠電使用,成為"東數西算"工程的綠色低碳樣板。更關鍵的是,液冷技術徹底打開了算力上限,為萬卡級AI集群部署掃清物理障礙。
在支撐國產算力自主可控方面,該中心已落地華為昇騰、天數智芯等五類本土芯片,搭載1.98萬張AI訓練卡、近萬張推理卡,國產芯片算力占比超85%。通過統一算力池化技術,實現雙芯混訓效率超90%,三芯混訓完成驗證并投入生產。穩定的液冷環境為多元芯片協同運行提供了可靠保障,目前中心已孵化出政務、醫療、工業等40余款行業大模型,吸引字節跳動、智譜AI等113家企業入駐。
盡管液冷技術優勢明顯,但其規模化推廣仍面臨挑戰。行業標準不統一導致服務器與機柜接口互不兼容,冷板式系統的漏液風險對密封工藝提出極高要求,初期投資成本較風冷高出30%-50%。針對這些痛點,中國移動正牽頭制定液冷行業標準,推動機柜與服務器解耦;通過全封閉管路設計、高精度光纖傳感等技術規避漏液風險;隨著產業鏈成熟,液冷方案投資回收期已縮短至2-3年,長期運營成本優勢顯著。據預測,冷板式液冷與單相浸沒式液冷將成為主流技術路線,核心部件國產化率有望在2025年突破80%。








