這篇文章要帶你完整理解 OpenAI 與 Broadcom 最新宣布的「10GW 客製化 AI 晶片與系統」合作。我會先幫你解釋新聞內容,再帶你回顧背後的時間線脈絡,接著延伸讀者最關心的問題(為什麼要自己設計晶片?會不會衝擊 NVIDIA?乙太網路有什麼玄機?),最後再幫你總整理重點,讓你能快速吸收這場 AI 硬體大戰的最新發展 💡。
新聞一覽:OpenAI × Broadcom 的 10GW 大計 ⚡
2025 年 10 月 14 日(台北時間),OpenAI 正式宣布與 Broadcom 展開多年合作,雙方將聯手打造 規模高達 10GW 的 AI 加速器與網路系統。新聞稿清楚指出:由 OpenAI 負責設計晶片與系統架構,Broadcom 則負責開發與大規模部署。這項計畫將在 2026 年下半年開始陸續上線,並預計 2029 年全面完成。

在新聞裡,OpenAI 特別強調這項合作的兩大目的:
- 降低對單一供應商的依賴(不再只靠 NVIDIA)
- 壓低 AI 推理的運算成本,讓服務能更可持續地發展
Broadcom 本身是乙太網路與 ASIC 晶片的龍頭,市場立即解讀這是一場「AI 基礎建設的戰略分工」。公告後,Broadcom 股價應聲上揚,顯示資本市場對這個「10GW 大單」的期待。📈
為什麼會有這一步?算力焦慮到自研晶片的必然路徑 🛠️
要理解這個新聞,就要回顧 AI 業界這兩年的「算力焦慮」。以下用一個清晰的時間線,幫你梳理這個合作是怎麼演變而來的:
- 2023–2024|GPU 供應緊張
ChatGPT 帶動生成式 AI 熱潮,所有大模型公司都在搶 NVIDIA GPU,結果供不應求,價格飆升。AI 推理的成本(例如每次問答、每張圖片生成)居高不下,讓 OpenAI 這類高流量服務壓力巨大。 - 2024 年|雲端巨頭紛紛自研
Google 推 TPU、Amazon 有 Trainium/Inferentia、Meta 發展自家 ASIC、Microsoft 也啟動 Maia 晶片。這股浪潮其實就是「降低 NVIDIA 依賴」的共同策略。 - 2025 年 9 月|合作傳聞浮現
外媒開始密集報導 OpenAI 與 Broadcom 已經在洽談晶片合作,目標在 2026 年前後量產,首批晶片將用於 OpenAI 自家伺服器,不會對外銷售。 - 2025 年 10 月 13 日(美西)→ 10 月 14 日(台北)|正式宣布
OpenAI 與 Broadcom 同步發布新聞,確認合作規模為 10GW,並設定 2026–2029 的部署計畫。新聞稿同時提到 Broadcom 的乙太網解決方案將成為資料中心骨幹。
這條時間線告訴我們:從 GPU 短缺、成本壓力,到雲端巨頭的自研潮,OpenAI 踏出這一步其實是必然選擇。🔑
最關心的三個問題 🔍
1) 為什麼 OpenAI 要自己設計晶片?
OpenAI 的重點不在「性能極致」,而是「每次推理的成本可控」。他們希望透過客製化設計,把自家模型的運算圖與記憶體需求寫進硬體,讓能效與延遲剛好符合需求。這樣做能降低功耗,並避免「為了萬用而浪費效能」的情況。換句話說,這是一種針對自身 workload 的定製化省錢策略 💰。
2) 這會不會衝擊 NVIDIA?
短期內不會。NVIDIA 仍是市場霸主,OpenAI 在訓練大型模型時還是需要大量 GPU。但長期來看,這象徵 「混合艦隊」成為常態——部分任務交給自研晶片,其他仍靠 GPU。這會降低 NVIDIA 的獨占優勢,也讓 OpenAI 在議價上有更多籌碼。
3) 為什麼新聞特別強調乙太網?
傳統上,AI 資料中心常用 NVIDIA 的 InfiniBand,但成本高且屬於封閉生態。Broadcom 的乙太網路方案則勝在 開放性、成本更低、供應商多元,特別適合大規模推理任務的「橫向擴張」。這一步若成功,將可能改寫資料中心的網路架構戰局 🌉。
總結:這場合作的三大啟示 ✨
回顧整篇,我們可以抓出三個核心啟示:
- 混合算力時代已經到來:未來 AI 資料中心將不再只靠 GPU,而是 GPU + 自研 ASIC 的混合配置。
- 乙太網成為推理基礎:以往被認為「不夠快」的乙太網,現在因技術進步與成本優勢,開始挑戰 InfiniBand 的地位。
- 供應鏈分散化是大趨勢:AI 大廠不再願意把命脈交給單一供應商,這會讓整個晶片與網通產業重新洗牌。
📌 一句話總結:OpenAI × Broadcom 的「10GW 計畫」不是單一晶片的故事,而是一場 2026–2029 年的長期算力戰略佈局,背後的核心是 降低推理成本 + 分散風險。
🙏 我是 Mech Muse,專門寫科技新知與產業趨勢。如果這篇文章幫你快速抓到 AI 晶片大戰的關鍵點,歡迎追蹤我,我會持續幫你追蹤這場硬體革命,讓你在產業與投資的決策上不會錯過任何一步!