所有大咖 CSP 現在都已經進到「大量量產 AI 資料中心」階段,不再只是試水溫,2025–2027 是全球 AI 機房爆發期!

一、全球 AI 資料中心進度:
2025年 IEA 最新報告估計,光 AI 資料中心一年 CapEx 就逼近 5,800 億美元,主要就是 AWS、Microsoft、Google、Meta 這幾家在狂砸錢建 AI 機房。
其中 Alphabet、Microsoft、Amazon、Meta 四家就佔了約 2,000 億美元數位基礎建設 CapEx,而且 2025 年再成長 40% 以上,全部都朝「AI 叢集 + 高密度機櫃 + 液冷」方向走。
現在不是「要不要蓋 AI 機房」的問題,而是「在哪裡搶電、搶 GPU、用什麼散熱方式撐到 GW 等級」。
二、各 CSP 的 AI 資料中心進度(以 2025 Q4 為基準)
AWS(Amazon Web Services)
CPU / GPU / 自研晶片的佈局,2025 年正式啟動 Project Rainier,印第安納州 New Carlisle 的超大型 AI 資料中心園區,投資額約 110 億美元。
叢集裡有將近 50 萬顆 Trainium2,是目前全球最大之一的 AI 訓練集群,Anthropic 已經在上面跑模型。 AWS 表示 2025 年底前,Trainium2 規模會拉到超過 100 萬顆。
OpenAI 跟 AWS 簽了 7 年、380 億美元的雲端合約,會在 2026 年前逐步吃滿 Amazon 各地搭載 Nvidia GPU 的 AI 叢集,等於直接幫 AWS 的 AI 資料中心填好客戶。
2025第三季AWS仍維持約 29% 全球雲基礎設施市佔,在 AI 雲端戰裡還是龍頭。
進度判讀:AWS 已經從「建 AI 機房」進入「用自家 Trainium 做大規模 AI 訓練 + 搭配 Nvidia 叢集賣給 OpenAI / Anthropic」的實戰階段。AWS最大優勢是同時掌握最多客戶+自研晶片+既有雲生態。
Microsoft Azure
微軟的超級AI資料中心和 Superfactory在2025 財年,Microsoft 計畫投入約 800 億美元 用在 AI 資料中心與相關基礎建設,其中約 500 億美元直接砸在 hyperscale AI 資料中心,另外 200 億美元建「主權雲+邊緣 AI」,100 億美元投入能源與永續系統。
代表性的案子是 Fairwater AI 資料中心,2025 年 9 月公開,內建大規模液冷系統,配備全球第二大水冷 chillers。 2025 年 10 月又在亞特蘭大啟動第二座同架構機房,兩地用高速網路串成跨州「AI superfactory」,支撐 OpenAI 與自家 Copilot 集群。
主權雲與區域佈局大量投資在印度、法國、阿聯、日本、巴西等地的 「AI 主權雲資料中心」,專門給政府與受監管產業跑國家級 LLM。
進度判讀:Microsoft 是目前 「AI 專用超級機房」設計最激進的一家,直接為 AI 重新設計機房(電力、冷卻、佈線都以 GPU 集群為起點),同時推進主權雲,卡住政府 / 金融等高門檻客戶。中長期來看,它的瓶頸會在電力與綠能供應,不是意願或資金。
Google Cloud
Google 在 TPU + AI Hypercomputer 路線,2025 年Google Cloud 公布,TPU v5p 正式量產上線,宣稱是上一代四倍效能,主打 Gemini 2.0 等大型多模態模型訓練。
推出 「AI Hypercomputer」架構,把 TPU、網路與儲存整合成一個可以按需擴展的 AI 超級電腦平台,搭配新一波資料中心擴建。 Google Cloud 也宣布約 750 億美元的資料中心擴建計畫,再配上約 200 億美元的再生能源投資,保證這些 AI 機房長期有綠電可用。
2025 年 11 月又公開 Project Suncatcher,研究把搭載 TPU 的 AI 計算節點放到太陽能供電的衛星星座上,目標是未來能把部分 AI 算力搬上太空。
進度判讀:現在 Google 的重點是 「TPU+AI Hypercomputer」標準化,把 AI 機房做成一種模組化產品;在區域佈局上,會持續增加新 region(特別是對 Gemini 有需求的國家),但節奏相對 AWS / Azure 稍保守。
Meta
雖不是傳統 CSP,但 AI 機房超長期 CapEx 承諾,2025 年 11 月Meta 宣布 三年內在美國基礎建設與 AI 資料中心投入 6,000 億美元,目標是支撐 Llama 系列、推薦系統與「追求超級智慧」的內部 AI 計畫。
2025 年 10 月,Meta 與 Blue Owl Capital 成立合資公司,投資路易斯安那州 Hyperion 資料中心,用 270 億美元的複雜融資架構來興建,設計目標是超過 2GW 的運算容量,是迄今最大單一 AI 機房之一。
Meta 的基礎建設團隊說明,從最早 4,000 GPU 的 AI 叢集開始建,到現在規模與複雜度都倍數成長,需要全面重做 冷卻、機械系統、網路與儲存架構,大量導入液冷與高密度機櫃。
進度判讀:Meta 所有 AI 機房都是為自家業務(Reels、廣告排序、Llama)服務,不對外賣雲,但在實際 GPU 規模與 AI 機房密度上非常激進。
























