
2017 年,Nvidia 推出 V100,功耗 300 瓦。
三年後的 A100 提升至 400 瓦,2022 年的 H100 則飆升到 700 瓦。到了 2024 年的 Blackwell,單顆晶片功耗突破 1200 瓦,幾乎成為一台手掌大小的電暖器。業界預測,未來兩年內,AI 晶片功耗可能超過 2000 瓦,並在更長期朝 5000 瓦邁進。 傳統風冷系統的散熱密度最多僅能支撐每機櫃 8 kW,如今 AI 集群卻已逼近 100 kW。資料中心的設計邏輯,正被迫全面重寫。
液態冷卻:AI 時代的散熱語言
空氣太輕、熱容太小。水的比熱容量約為空氣的 4 倍、密度是 800 倍、導熱率更高出 23 倍。這使得液體能吸收的熱能,是空氣的 3200 倍以上。也因此,液態冷卻(Liquid Cooling)正在成為新標準。它不僅是工程選項,更是資料中心能否撐過 AI 熱浪的生死線。在工程語境中,液冷早已不再等於水冷。水雖便宜又常見,但有兩個致命缺陷:會導電,而且沸點過高。 對必須維持在 60°C 以下運作的晶片而言,純水根本無法滿足需求。因此,液冷工程師設計出兩大類冷卻介質:
- 第一類是水基冷卻液,主要用於單相直冷系統。這類液體通常由去離子水混合乙二醇或丙二醇組成,並添加防鏽與抗菌劑。它們封閉循環於冷板與換熱器之間,不直接接觸電子元件。
- 第二類是不導電的介電液(Dielectric Fluid),可直接浸沒伺服器。這些液體多由氟化物、矽油或合成烴油製成,具有低導電性與可控沸點特性。化學公司如 Chemours、Honeywell、3M、Shell 都在開發不同配方。
這些流體的物理性質(比熱、導熱率、沸點與黏度)決定了它能承受的功率密度與散熱效率。
散熱的物理戰場

最成熟的方案是單相直冷。伺服器在晶片上裝上金屬冷板,冷卻液(多為水或乙二醇混合液)流經冷板內的微流道,將熱量直接帶走。這是當前 AI 資料中心普遍採用的方案,能處理多數 GPU 的散熱需求。
但當功耗突破 2 kW,一切開始失效。水溫急速上升、泵浦壓力劇增,流速難以維持。於是第二階段的解法誕生:雙相直冷(Two-Phase Cooling)。
這種方法利用潛熱原理。介電液接觸晶片時迅速沸騰,吸收汽化熱,溫度幾乎不變。液體變成氣體後再被冷凝回液體,形成封閉循環。這種相變過程能以更少的能量完成散熱,節能幅度可達 30% 以上。
浸沒式冷卻:重新定義資料中心的形狀
更激進的構想,是直接把伺服器整台泡進液體裡。單相浸沒冷卻使用不導電油,讓整台機器浸沒在封閉槽中。這樣不僅能消除風扇、降低噪音,也消除了灰塵、震動與靜電干擾。
新加坡的 Sustainable Metal Cloud 已實現此技術,透過改良伺服器結構與材料,讓油槽運作更穩定。但當 AI 晶片功耗繼續攀升,油冷的傳熱速度仍難以應付極端熱流密度。因此業界開始轉向下一階段:雙相浸沒冷卻(Two-Phase Immersion)。
這種設計讓整台伺服器浸在會沸騰的介電液中。液體吸熱汽化,蒸氣在冷凝板上被水冷卻成液體,再度回流。由於液體沸點可精確控制在晶片運作溫度(約 40~50°C),整個系統能在無需冷凍機(chiller)的情況下穩定運作。
從散熱到能源:資料中心的第二場戰爭
液態冷卻的意義,不止在散熱,而是整個能源體系的轉向。AI 資料中心的電力消耗逐步逼近城市級規模,而液冷能將廢熱回收成可再利用能源,例如供暖、工業熱水或再發電。這讓冷卻技術變成能源管理的一部分,而不只是成本負擔。
Amkor、Google、Meta 等公司正在測試液冷系統與再生能源網路的結合;Redwood Materials 則利用回收電池打造微電網,為 AI 機房提供穩定電力。當我們談 AI 基礎設施,重點早已不只是算力堆疊,而是電力、冷卻與水資源的協同設計。
常見疑問與挑戰
液冷維護更困難嗎?
確實如此。尤其是兩相浸沒系統,介電液揮發或污染後更換昂貴。Airedale 已設計出氣液隔層槽,減少開蓋維修時的蒸氣流失。
介電液環保嗎?
新一代配方正朝低 GWP(全球暖化潛能)方向研發。Chemours、3M、Honeywell 都在開發可回收、低毒性的流體。
風冷會被淘汰嗎?
不會。未來多數資料中心將採混合冷卻模式,約 80% 的熱負載由液冷處理,其餘仍以風冷輔助。這既穩定又能控制成本。
(延伸閱讀:Redwood Materials 用舊電池打造 AI 微電網的新能源模式、 AI 基礎設施的資本狂潮與能源轉向)

















