當巨頭開始用「自製」和「替換」來管理成本,運算資源的定價權,將不再由單一供應商決定。

Meta 正與 Google 商討在 2027 年採用規模達數十億美元的 TPU,並計畫從 2026 年開始租用 Google Cloud 的 TPU 服務。這是 TPU 首度可能在非 Google 的超大型資料中心落地,其背後的核心驅動力是 Meta 在 2025 年已逼近 $400 億美元的 GPU CapEx 成本壓力。
- Meta 的議價權與成本戰略: 對 Meta 而言,TPU 的魅力從來不是原始速度,而是更低的設備成本與在大型 workload 上可經工程化補足差距的潛力。Meta 擁有 Llama 模型、PyTorch 等完整軟體堆疊,是全球極少數能負擔「跨架構移植成本」的大公司。這是一種成本優先的戰略選擇。
- Google 的戰略反擊: 對 Google 而言,讓 Meta 採用 TPU 不只是一筆生意,而是一次削弱 Nvidia 壟斷定價權的戰略行動。TPU 雖未成為市占第一,但它已成為改變 AI 硬體談判籌碼的關鍵武器。Anthropic 與 OpenAI 近月與 Google 的合作傳聞,都直接迫使 Nvidia 必須追加投資以維持黏著度。
- 硬體生態的轉折點: TPU 若成功在 Meta 落地,意味著 AI 硬體生態正式從單一路線(Nvidia)走向多元架構的開端。真正的競爭,將從「模型誰更強」轉向「誰能讓模型跑得最便宜」。













