AI 晶片散熱臨界點:液態冷卻正重構資料中心能源系統

更新 發佈閱讀 5 分鐘
raw-image

2017 年,Nvidia 推出 V100,功耗 300 瓦。

三年後的 A100 提升至 400 瓦,2022 年的 H100 則飆升到 700 瓦。到了 2024 年的 Blackwell,單顆晶片功耗突破 1200 瓦,幾乎成為一台手掌大小的電暖器。業界預測,未來兩年內,AI 晶片功耗可能超過 2000 瓦,並在更長期朝 5000 瓦邁進。 傳統風冷系統的散熱密度最多僅能支撐每機櫃 8 kW,如今 AI 集群卻已逼近 100 kW。資料中心的設計邏輯,正被迫全面重寫。


液態冷卻:AI 時代的散熱語言

空氣太輕、熱容太小。水的比熱容量約為空氣的 4 倍、密度是 800 倍、導熱率更高出 23 倍。這使得液體能吸收的熱能,是空氣的 3200 倍以上。也因此,液態冷卻(Liquid Cooling)正在成為新標準。它不僅是工程選項,更是資料中心能否撐過 AI 熱浪的生死線。在工程語境中,液冷早已不再等於水冷。

水雖便宜又常見,但有兩個致命缺陷:會導電,而且沸點過高。 對必須維持在 60°C 以下運作的晶片而言,純水根本無法滿足需求。因此,液冷工程師設計出兩大類冷卻介質:

  • 第一類是水基冷卻液,主要用於單相直冷系統。這類液體通常由去離子水混合乙二醇或丙二醇組成,並添加防鏽與抗菌劑。它們封閉循環於冷板與換熱器之間,不直接接觸電子元件。
  • 第二類是不導電的介電液(Dielectric Fluid),可直接浸沒伺服器。這些液體多由氟化物、矽油或合成烴油製成,具有低導電性與可控沸點特性。化學公司如 Chemours、Honeywell、3M、Shell 都在開發不同配方。

這些流體的物理性質(比熱、導熱率、沸點與黏度)決定了它能承受的功率密度與散熱效率。


散熱的物理戰場

raw-image

最成熟的方案是單相直冷。伺服器在晶片上裝上金屬冷板,冷卻液(多為水或乙二醇混合液)流經冷板內的微流道,將熱量直接帶走。這是當前 AI 資料中心普遍採用的方案,能處理多數 GPU 的散熱需求。

但當功耗突破 2 kW,一切開始失效。水溫急速上升、泵浦壓力劇增,流速難以維持。於是第二階段的解法誕生:雙相直冷(Two-Phase Cooling)。

這種方法利用潛熱原理。介電液接觸晶片時迅速沸騰,吸收汽化熱,溫度幾乎不變。液體變成氣體後再被冷凝回液體,形成封閉循環。這種相變過程能以更少的能量完成散熱,節能幅度可達 30% 以上。


浸沒式冷卻:重新定義資料中心的形狀

更激進的構想,是直接把伺服器整台泡進液體裡。單相浸沒冷卻使用不導電油,讓整台機器浸沒在封閉槽中。這樣不僅能消除風扇、降低噪音,也消除了灰塵、震動與靜電干擾。

新加坡的 Sustainable Metal Cloud 已實現此技術,透過改良伺服器結構與材料,讓油槽運作更穩定。但當 AI 晶片功耗繼續攀升,油冷的傳熱速度仍難以應付極端熱流密度。因此業界開始轉向下一階段:雙相浸沒冷卻(Two-Phase Immersion)。

這種設計讓整台伺服器浸在會沸騰的介電液中。液體吸熱汽化,蒸氣在冷凝板上被水冷卻成液體,再度回流。由於液體沸點可精確控制在晶片運作溫度(約 40~50°C),整個系統能在無需冷凍機(chiller)的情況下穩定運作。


從散熱到能源:資料中心的第二場戰爭

液態冷卻的意義,不止在散熱,而是整個能源體系的轉向。AI 資料中心的電力消耗逐步逼近城市級規模,而液冷能將廢熱回收成可再利用能源,例如供暖、工業熱水或再發電。這讓冷卻技術變成能源管理的一部分,而不只是成本負擔。

Amkor、Google、Meta 等公司正在測試液冷系統與再生能源網路的結合;Redwood Materials 則利用回收電池打造微電網,為 AI 機房提供穩定電力。當我們談 AI 基礎設施,重點早已不只是算力堆疊,而是電力、冷卻與水資源的協同設計。


常見疑問與挑戰

液冷維護更困難嗎?

確實如此。尤其是兩相浸沒系統,介電液揮發或污染後更換昂貴。Airedale 已設計出氣液隔層槽,減少開蓋維修時的蒸氣流失。

介電液環保嗎?

新一代配方正朝低 GWP(全球暖化潛能)方向研發。Chemours、3M、Honeywell 都在開發可回收、低毒性的流體。

風冷會被淘汰嗎?

不會。未來多數資料中心將採混合冷卻模式,約 80% 的熱負載由液冷處理,其餘仍以風冷輔助。這既穩定又能控制成本。


(延伸閱讀:Redwood Materials 用舊電池打造 AI 微電網的新能源模式AI 基礎設施的資本狂潮與能源轉向



留言
avatar-img
留言分享你的想法!
avatar-img
想想 | Thoughtstream
4會員
124內容數
想想,陪你一起理解世界的節奏。 聚焦於半導體、人工智慧、能源、量子科技與虛擬貨幣, 結合最前沿的學術研究與全球產業觀察, 幫助你在資訊爆炸的時代,快速看清知識的脈絡, 理解科技如何影響商業與生活。
2025/10/14
ASML 歷經二十年,讓 13.5 奈米 EUV 光在晶圓廠穩定誕生。核心技術是以雷射擊發錫滴產生等離子體的 LPP 架構,取代易損的放電電極。最新三脈衝設計在預脈衝與主脈衝間加入稀釋脈衝,降低錫密度並提升轉換效率,可望將光源功率推進至 800–1000W。
Thumbnail
2025/10/14
ASML 歷經二十年,讓 13.5 奈米 EUV 光在晶圓廠穩定誕生。核心技術是以雷射擊發錫滴產生等離子體的 LPP 架構,取代易損的放電電極。最新三脈衝設計在預脈衝與主脈衝間加入稀釋脈衝,降低錫密度並提升轉換效率,可望將光源功率推進至 800–1000W。
Thumbnail
2025/10/13
ASML 的 EUV 光源系統表面上只是雷射打中一滴錫,實際卻牽涉極限精度、碎片管理與熱場穩定等工程難題。每秒 5 萬次擊發、功率提升與鏡面汙染控制,形成全球僅 ASML 能掌握的核心技術。這不是仿製,而是數十年累積的軟實力成果。
Thumbnail
2025/10/13
ASML 的 EUV 光源系統表面上只是雷射打中一滴錫,實際卻牽涉極限精度、碎片管理與熱場穩定等工程難題。每秒 5 萬次擊發、功率提升與鏡面汙染控制,形成全球僅 ASML 能掌握的核心技術。這不是仿製,而是數十年累積的軟實力成果。
Thumbnail
2025/10/11
Redwood Materials 由前 Tesla 技術長 JB Straubel 創立,正以退役電動車電池打造 AI 微電網,為資料中心提供再生能源。這些電池延壽後可再運作 10 至 20 年,搭配太陽能形成分散式電力網。
Thumbnail
2025/10/11
Redwood Materials 由前 Tesla 技術長 JB Straubel 創立,正以退役電動車電池打造 AI 微電網,為資料中心提供再生能源。這些電池延壽後可再運作 10 至 20 年,搭配太陽能形成分散式電力網。
Thumbnail
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
新世代的液冷系統包含 Liquid to Air 的 sidecar 目前已經取得輝達(nVIDIA)全球唯三RVL(推薦供應商)資格,且為唯一台商,預計今年下半年開始出貨。
Thumbnail
新世代的液冷系統包含 Liquid to Air 的 sidecar 目前已經取得輝達(nVIDIA)全球唯三RVL(推薦供應商)資格,且為唯一台商,預計今年下半年開始出貨。
Thumbnail
隨著近年來的AI浪潮,讓大家普遍對於AI後續的發展充滿了期待。今年所舉辦的台北電腦展 (Computex),讓這樣的相關的討論更加熱烈。有在投資的讀者們或多或少都會看到相關產業鏈的梳理,像是AI伺服器需要什麼奈米的晶圓製程、需要那些先進封裝測試技術、需要什麼樣的水冷技術、哪些的OEM廠 (O
Thumbnail
隨著近年來的AI浪潮,讓大家普遍對於AI後續的發展充滿了期待。今年所舉辦的台北電腦展 (Computex),讓這樣的相關的討論更加熱烈。有在投資的讀者們或多或少都會看到相關產業鏈的梳理,像是AI伺服器需要什麼奈米的晶圓製程、需要那些先進封裝測試技術、需要什麼樣的水冷技術、哪些的OEM廠 (O
Thumbnail
在半導體科技頂端的台積電和ASML都發布了財報,面臨回檔壓力的AI半導體還有戲嗎?
Thumbnail
在半導體科技頂端的台積電和ASML都發布了財報,面臨回檔壓力的AI半導體還有戲嗎?
Thumbnail
設備在高度頻繁不間斷地使用下,會產生高溫而導致硬體設備壽命耗損加速,及異常現象增加,如彈道膛線…。為了滿足未來科技應用,散熱技術扮演了重要關鍵之一。 人工智能高效運算(AI HPC) “當退潮了,就知道誰沒穿泳褲…”
Thumbnail
設備在高度頻繁不間斷地使用下,會產生高溫而導致硬體設備壽命耗損加速,及異常現象增加,如彈道膛線…。為了滿足未來科技應用,散熱技術扮演了重要關鍵之一。 人工智能高效運算(AI HPC) “當退潮了,就知道誰沒穿泳褲…”
Thumbnail
隨著AI技術的迅速發展,伺服器市場也隨之變革。OpenAI的ChatGPT引領語言模型潮流,其計算力來自高效能AI伺服器,配備GPU或AI加速器,支持TensorFlow等框架。穩定且高效的電源供應器(PSU)如FSP與3Y Power的電源供應器,提供穩定性及多重保護,滿足AI伺服器的需求。本
Thumbnail
隨著AI技術的迅速發展,伺服器市場也隨之變革。OpenAI的ChatGPT引領語言模型潮流,其計算力來自高效能AI伺服器,配備GPU或AI加速器,支持TensorFlow等框架。穩定且高效的電源供應器(PSU)如FSP與3Y Power的電源供應器,提供穩定性及多重保護,滿足AI伺服器的需求。本
Thumbnail
在人工智慧 (AI) 迅速發展的時代,為了維持龐大運算能力,所消耗能源也越來越多。因此對於環境生態的影響,也必須要更多關注並採取行動。值得注意的是,維持 AI 發展所需的計算能力,大約每 100 天就會翻倍。為達到 AI 模型效率提升十倍的提目標,運算能力需求可能會激增高達原來的 10,000 倍。
Thumbnail
在人工智慧 (AI) 迅速發展的時代,為了維持龐大運算能力,所消耗能源也越來越多。因此對於環境生態的影響,也必須要更多關注並採取行動。值得注意的是,維持 AI 發展所需的計算能力,大約每 100 天就會翻倍。為達到 AI 模型效率提升十倍的提目標,運算能力需求可能會激增高達原來的 10,000 倍。
Thumbnail
隨著 AI 需求上升,用氣冷方式可能有點挑戰,需要 15 兆瓦電力、成本也高、對環境也造成負擔,而美超微的 DLC 直接液冷可用室溫水提供最佳冷卻,對環境影響也較小,只要 10 兆瓦就能為整個資料中心供電,對發電有限的資料中心來說是新世界,因此美超微目標是讓 DLC 直接液冷成為主流解決方案。
Thumbnail
隨著 AI 需求上升,用氣冷方式可能有點挑戰,需要 15 兆瓦電力、成本也高、對環境也造成負擔,而美超微的 DLC 直接液冷可用室溫水提供最佳冷卻,對環境影響也較小,只要 10 兆瓦就能為整個資料中心供電,對發電有限的資料中心來說是新世界,因此美超微目標是讓 DLC 直接液冷成為主流解決方案。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News