在愛荷華州 Council Bluffs 的一座Google資料中心裡,TPU v5p Pod 星羅棋布。副總裁 Mark Lohmeyer 站在兩公尺高的白色機櫃旁,用手指輕敲金屬外殼:「這一代 TPU,比上一代快兩倍,能把一座語言模型的訓練週期從數月壓到數週。」
一旁工程師正在模擬「斷電」情境──幾秒鐘內,UPS 電池與液冷管路的狀態同時閃黃,再度提醒我們:就算晶片性能翻倍,能耗與散熱才是下一波大戰的主角。

GPU 壟斷鬆動,雲端巨頭搶造「專用矽」
- 市場大餅: IDTechEx 預估,資料中心 AI 晶片產值將在 2030 年突破 4,530 億美元,2025–2030年,年複合成長率 14 %。
- 佈局動機: Omdia 統計,NVIDIA 至今仍握有推論/訓練 ≈80 % 市佔,但親手打造 ASIC 可把 TCO 砍掉三成以上,並減少供應鏈瓶頸。
三大陣營:誰最先給 NVIDIA「降價壓力」?

一句話結論: NVIDIA 的「通用 GPU 加速」模式並未消失,但AI 超級工程正把矽設計的錢砸回雲端巨頭內部,自製 ASIC 成本線開始壓進 H100/H200 的毛利帶。
技術前線:算力只是門票,封裝與記憶體才是護城河
- Chiplet × CoWoS: TSMC 宣布 2025 年將 CoWoS 月產能拉到 8 萬片,是 2021 年的 12 倍,仍需與 SoIC 和 Fan-Out 產線爭奪時段。
- HBM4 搶跑: SK hynix 已送樣 12-layer HBM4,鎖定 Q4 2025 給 NVIDIA 首批 Blackwell-Next 卡;Samsung 最快 2026 上半年跟進。
- 液冷狂潮: Microsoft、Colovore 到超微型邊緣機房,全線導入直接液冷或零廢水方案,空冷機櫃正迅速退場。
金流戰術:從「賣卡」到「按 Token 計價」
- AWS 把 Trainium 佈署包裝成「Trn2 Ultra Cluster」租賃,每秒課頻率、按時收費,主打訓練成本可比 H100 省 40 %。
- Groq 乾脆省掉客戶採購伺服器的 CAPEX,直接販售「Token-per-Second」API;目前 Llama-2 70B 單用戶吞吐 300 token/s。
供應鏈「甜蜜點」:台灣、韓國、美國的三角競合
- 台灣:TSMC 先進封裝、欣興 ABF 載板、健策液冷板;接單能見度一路排到 2026。
- 韓國:HBM4 良率領先後,SK hynix 罕見主動要求客戶簽三年長約。
- 美國:亞利桑那州 3 nm 廠試產,加上封裝中心,提供 Google、AWS 就近選項,降低地緣政治風險。
未來 12-36 個月觀察指標
- Ironwood 與 Trainium 3 大規模部署速度,若推理 ASIC 成功落地,NVIDIA 在 inference 端市佔將首次明顯下滑。
- HBM4 良率&成本曲線,每 GB 成本若在 2026 年降至 HBM3E 水平以下,將引爆第二波 ASIC 設計潮。
- RISC-V Datacenter Core 生態系,Tenstorrent、SiFive 是否吸引 OEM 導入,決定「開放 ISA」能否在雲端站穩腳步。
- TSMC 先進封裝月產能 > 90 K WPM 交付節奏,直接影響 Blackwell、TPU v5、MTIA v2 等旗艦加速卡的供應。
ASIC AI 晶片的「專用化」黃金十年
- 2025-2028:雲端巨頭以自研 ASIC 大幅切入訓練/推理,形成「GPU + ASIC」混合叢集格局。
- 2028-2030:RISC-V + Chiplet + HBM4E/5 成熟後,ASIC 門檻大幅降低,更多 SaaS/垂直服務商將跟進自研,AI 基礎設施邁入「多樣化 + 去中心化」。
- 投資啟示:短期關注 HBM 供應鏈、CoWoS/玻璃基板;中期關注 RISC-V IP與高速光通訊;長期則是低能耗推理 ASIC 服務化的新商業模式。