2026 年不是單一時間點暴衝,而是從 Q1 → Q3 → H2 三波疊加的 ASIC 出貨大年,而且 ASIC 伺服器的 YoY 成長率會明顯超過 GPU 陣營。

撰文|編輯部|2025年11月
波段一:2026 Q1~Q2 (第一批量產上線+中國陣營起跑)
AWS:Trainium3 進入量產與實質出貨- TrendForce 指出:由 Alchip、Marvell 參與設計的 Trainium3(3nm)首款規格,預計在 2026 年 Q1 量產。
- 市場側訊也一直強調:Alchip 3nm 專案(高度可能就是 Trainium3/Inferentia3)2025 年小量,2026 年 full ramp。
- 2026 上半年 AWS 會開始用自家 ASIC 伺服器承接一部分訓練/推論工作,對 GPU 依賴度略降。
- 供應鏈受惠:3nm wafer、CoWoS / 3D IC 封裝、Alchip/Marvell 類設計服務、板卡、伺服器 OEM。
華為:Ascend 950PR/950DT 在 2026 初正式出貨
- 華為在 2025 年 Huawei Connect 公布路線圖,Ascend 950PR/950DT 計畫在 2026 年初(Q1)推出,並搭配自家 HBM,鎖定大型 AI 叢集。
- 這是中國陣營 AI ASIC 伺服器在 2026 的第一波大規模市場事件,主力出貨將對本土伺服器、PCB、電源與散熱供應鏈拉貨。
AWS 既有 Trainium2 的機櫃擴充
Trainium2 在 2024 年底已 GA,Trainium3 在 2025 年底會有液冷櫃方案,2026 則是 v2+v3 雙線拉升機櫃出貨。
波段二:2026 Q3 (Meta 自研 HBM ASIC 上線,第二波拉貨高峰)
Meta:首顆 HBM AI 訓練晶片於 2026 Q3 ramp
- 券商與外資報告指出:Meta 預計在 2026 Q3 ramp 第一顆搭載 HBM 的自研 AI 晶片,對應 Broadcom ASIC 專案。
- 2025 Q4 先量產 MTIA v2,主攻推論;2026 年將推出採 HBM 的 MTIA v3,出貨規模預期成長「超過一倍」。
- 2026 Q3 起,Meta 會有明顯的 ASIC server 機櫃部署潮,特別聚焦推薦系統與部分生成式 AI。
- Broadcom 在 AI ASIC 的收入與 2.5D 封裝需求,預期在 2026 H2 會拉高。
波段三:2026 H2(Q3~Q4)Google TPU v7p 放量 + OpenAI–Broadcom 機櫃啟動 + Microsoft Maia 200
Google:TPU v7p(Ironwood)逐步取代 v6e,2026 年開始放量
- TrendForce:Google 與 Broadcom 合作的 TPU v7p(Ironwood)鎖定訓練應用,預計自 2026 年起「逐步放量」,將接替 TPU v6e 成為核心平台。
- 另一則報導指出:2025 年 TPU 出貨約 250 萬顆,2026 年 TPU 整體出貨預期突破 300 萬顆、年增逾 40%。
- 2026 H1:TPU v6e(Trillium)仍是主力;Ironwood 開始導入少量。
- 2026 H2:Ironwood 機櫃規模放大、TPU 伺服器整體出貨進入高峰。
OpenAI × Broadcom:客製 ASIC 機櫃在 2026 H2 開始部署
- OpenAI 官方公告:與 Broadcom 合作開發 10GW 客製 AI 加速器與 rack 系統,計畫於 2026 年下半年開始部署,預計 2029 年前完成整體 rollout。
- 媒體補充:這批 ASIC 主要用於 OpenAI 自家與合作據點的資料中心,部署起點落在 2026 H2。
- 這是純 ASIC data center cluster 的大型新供給,會推升 Broadcom ASIC + Ethernet / switching 產品的需求。
Microsoft:Maia 200(Braga)量產延後到 2026,伺服器放量踩在 H2
- 報導指出:微軟將新一代 AI 晶片(代號 Braga,上市名預期為 Maia 200)的量產時程往後推至少 6 個月到 2026 年。
- 2026 H1 大多是 Maia 100 與 GPU 混合機櫃的初期導入。
- 2026 H2 才會看到 Maia 200 ASIC server 的實質放量,對應 Azure 自家叢集與 Copilot 等工作負載。
整體市場:2026 年 AI 伺服器與 ASIC 拉貨同步衝高。TrendForce 預估:
- 2026 年全球 AI 伺服器出貨量年增 >20%,AI server 產值年增 >30%,營收占整體 server 比重達 74%。
- CSP 資本支出在 GPU 機櫃 + ASIC 基礎建設加持下,2026 年 CapEx 將再創新高,達 5,200 億美元以上。
- 2026 年 CSP 自研 ASIC 類 AI server 成長率約 44.6%,遠高於 GPU 類的 16.1%,NVIDIA 市佔開始被稀釋。

















