【CSP自研 AI ASIC】2026年三大波出貨節奏!

更新 發佈閱讀 6 分鐘

2026 年不是單一時間點暴衝,而是從 Q1 → Q3 → H2 三波疊加的 ASIC 出貨大年,而且 ASIC 伺服器的 YoY 成長率會明顯超過 GPU 陣營。

raw-image

撰文|編輯部|2025年11月


波段一:2026 Q1~Q2 (第一批量產上線+中國陣營起跑)

AWS:Trainium3 進入量產與實質出貨

  • TrendForce 指出:由 Alchip、Marvell 參與設計的 Trainium3(3nm)首款規格,預計在 2026 年 Q1 量產。 
  • 市場側訊也一直強調:Alchip 3nm 專案(高度可能就是 Trainium3/Inferentia3)2025 年小量,2026 年 full ramp。
  • 2026 上半年 AWS 會開始用自家 ASIC 伺服器承接一部分訓練/推論工作,對 GPU 依賴度略降。
  • 供應鏈受惠:3nm wafer、CoWoS / 3D IC 封裝、Alchip/Marvell 類設計服務、板卡、伺服器 OEM。

華為:Ascend 950PR/950DT 在 2026 初正式出貨

  • 華為在 2025 年 Huawei Connect 公布路線圖,Ascend 950PR/950DT 計畫在 2026 年初(Q1)推出,並搭配自家 HBM,鎖定大型 AI 叢集。
  • 這是中國陣營 AI ASIC 伺服器在 2026 的第一波大規模市場事件,主力出貨將對本土伺服器、PCB、電源與散熱供應鏈拉貨。

AWS 既有 Trainium2 的機櫃擴充

Trainium2 在 2024 年底已 GA,Trainium3 在 2025 年底會有液冷櫃方案,2026 則是 v2+v3 雙線拉升機櫃出貨。 


波段二:2026 Q3 (Meta 自研 HBM ASIC 上線,第二波拉貨高峰)

Meta:首顆 HBM AI 訓練晶片於 2026 Q3 ramp

  • 券商與外資報告指出:Meta 預計在 2026 Q3 ramp 第一顆搭載 HBM 的自研 AI 晶片,對應 Broadcom ASIC 專案。 
  • 2025 Q4 先量產 MTIA v2,主攻推論;2026 年將推出採 HBM 的 MTIA v3,出貨規模預期成長「超過一倍」。
  • 2026 Q3 起,Meta 會有明顯的 ASIC server 機櫃部署潮,特別聚焦推薦系統與部分生成式 AI。
  • Broadcom 在 AI ASIC 的收入與 2.5D 封裝需求,預期在 2026 H2 會拉高。 

波段三:2026 H2(Q3~Q4)Google TPU v7p 放量 + OpenAI–Broadcom 機櫃啟動 + Microsoft Maia 200

Google:TPU v7p(Ironwood)逐步取代 v6e,2026 年開始放量

  • TrendForce:Google 與 Broadcom 合作的 TPU v7p(Ironwood)鎖定訓練應用,預計自 2026 年起「逐步放量」,將接替 TPU v6e 成為核心平台。 
  • 另一則報導指出:2025 年 TPU 出貨約 250 萬顆,2026 年 TPU 整體出貨預期突破 300 萬顆、年增逾 40%。
  • 2026 H1:TPU v6e(Trillium)仍是主力;Ironwood 開始導入少量。
  • 2026 H2:Ironwood 機櫃規模放大、TPU 伺服器整體出貨進入高峰。

OpenAI × Broadcom:客製 ASIC 機櫃在 2026 H2 開始部署

  • OpenAI 官方公告:與 Broadcom 合作開發 10GW 客製 AI 加速器與 rack 系統,計畫於 2026 年下半年開始部署,預計 2029 年前完成整體 rollout。 
  • 媒體補充:這批 ASIC 主要用於 OpenAI 自家與合作據點的資料中心,部署起點落在 2026 H2。
  • 這是純 ASIC data center cluster 的大型新供給,會推升 Broadcom ASIC + Ethernet / switching 產品的需求。

Microsoft:Maia 200(Braga)量產延後到 2026,伺服器放量踩在 H2

  • 報導指出:微軟將新一代 AI 晶片(代號 Braga,上市名預期為 Maia 200)的量產時程往後推至少 6 個月到 2026 年。
  • 2026 H1 大多是 Maia 100 與 GPU 混合機櫃的初期導入。
  • 2026 H2 才會看到 Maia 200 ASIC server 的實質放量,對應 Azure 自家叢集與 Copilot 等工作負載。

整體市場:2026 年 AI 伺服器與 ASIC 拉貨同步衝高。TrendForce 預估:

    • 2026 年全球 AI 伺服器出貨量年增 >20%,AI server 產值年增 >30%,營收占整體 server 比重達 74%。 
    • CSP 資本支出在 GPU 機櫃 + ASIC 基礎建設加持下,2026 年 CapEx 將再創新高,達 5,200 億美元以上。 
    • 2026 年 CSP 自研 ASIC 類 AI server 成長率約 44.6%,遠高於 GPU 類的 16.1%,NVIDIA 市佔開始被稀釋。 


留言
avatar-img
留言分享你的想法!
avatar-img
Tx3 Research|掌握關鍵洞察
51會員
241內容數
Tx3是一個專注於產業財報分析、投資心法與國際趨勢解析的媒體,結合產業第一線脈動、數據驅動的思考,以及全球視野下的策略觀點。 我們不是單純報導新聞,而是以犀利的眼光挑戰框架,用簡明但深刻的語言解構複雜議題,幫助讀者掌握「看懂趨勢、預判未來、做出投資好決策」的核心能力。
2025/11/13
當市場只盯著「NAND 價格起飛」時,聰明的投資人,應該開始掃描整條供應鏈的放大效應。每一顆容量翻倍、速度升級的 NAND 背後,都意味著:更複雜的控制器晶片(SSD/eMMC/UFS Controller)、更高功耗與更多軌電壓需要的 PMIC / DC-DC / LDO、更高速介面帶來的 PHY
Thumbnail
2025/11/13
當市場只盯著「NAND 價格起飛」時,聰明的投資人,應該開始掃描整條供應鏈的放大效應。每一顆容量翻倍、速度升級的 NAND 背後,都意味著:更複雜的控制器晶片(SSD/eMMC/UFS Controller)、更高功耗與更多軌電壓需要的 PMIC / DC-DC / LDO、更高速介面帶來的 PHY
Thumbnail
2025/11/11
背景先抓兩點: TrendForce:GB200/GB300 Rack 2025 年出貨擴大,液冷採用率持續升高,GB300 NVL72 用到專用冷水板、快接頭等複雜液冷零組件。  Morgan Stanley 估算:GB300 NVL72 一整櫃的液冷 BOM 約 4.99 萬美元,是整台系統
2025/11/11
背景先抓兩點: TrendForce:GB200/GB300 Rack 2025 年出貨擴大,液冷採用率持續升高,GB300 NVL72 用到專用冷水板、快接頭等複雜液冷零組件。  Morgan Stanley 估算:GB300 NVL72 一整櫃的液冷 BOM 約 4.99 萬美元,是整台系統
2025/11/11
從系統端主晶片、記憶體模組周邊 IC、供電相關 Power IC,到各式搭配 DDR4 的橋接與應用晶片,逐一拆解「搭配 DDR4 的晶片有哪些」 撰文|編輯部|2025年11月 一、系統端:內建 DDR4 控制器的主晶片 這一類就是「拿 DDR4 當工作記憶體」的主角晶片,本身內建 DDR
Thumbnail
2025/11/11
從系統端主晶片、記憶體模組周邊 IC、供電相關 Power IC,到各式搭配 DDR4 的橋接與應用晶片,逐一拆解「搭配 DDR4 的晶片有哪些」 撰文|編輯部|2025年11月 一、系統端:內建 DDR4 控制器的主晶片 這一類就是「拿 DDR4 當工作記憶體」的主角晶片,本身內建 DDR
Thumbnail
看更多
你可能也想看
Thumbnail
生產力爆發帶來的過剩,會讓過去的「還可以啦」成為最低標準。市場需求對於出類拔萃、獨一無二的需求還是存在,但是對於那些價格高度敏感,或是只需要穩定、便宜、還可以啦的需求端來說,AI 正在迅速取代這部分的供給,中間長尾的服務提供者被 AI 替換。
Thumbnail
生產力爆發帶來的過剩,會讓過去的「還可以啦」成為最低標準。市場需求對於出類拔萃、獨一無二的需求還是存在,但是對於那些價格高度敏感,或是只需要穩定、便宜、還可以啦的需求端來說,AI 正在迅速取代這部分的供給,中間長尾的服務提供者被 AI 替換。
Thumbnail
這篇文章帶你快速了解 鴻海為何押注 AI 伺服器、營收結構如何從 iPhone 轉向 AI、以及 Foxconn × OpenAI 有哪些可能的合作方向。透過背景拆解、時間線整理與產業脈絡分析,你能看懂鴻海在全球 AI 基建浪潮中的定位與機會,掌握 2026 之前最關鍵的發展趨勢。
Thumbnail
這篇文章帶你快速了解 鴻海為何押注 AI 伺服器、營收結構如何從 iPhone 轉向 AI、以及 Foxconn × OpenAI 有哪些可能的合作方向。透過背景拆解、時間線整理與產業脈絡分析,你能看懂鴻海在全球 AI 基建浪潮中的定位與機會,掌握 2026 之前最關鍵的發展趨勢。
Thumbnail
過去兩年,生成式AI引爆了全球科技業的投資熱潮。從輝達(NVIDIA)股價的爆發,到微軟、亞馬遜、Google大手筆的資料中心擴張,AI似乎正成為下一個經濟奇蹟。但在這場狂熱背後,也出現了越來越多的疑問:AI是否正走向泡沫?AI的回報速度能否追上龐大的資本支出?誰將是下一階段真正的贏家?
Thumbnail
過去兩年,生成式AI引爆了全球科技業的投資熱潮。從輝達(NVIDIA)股價的爆發,到微軟、亞馬遜、Google大手筆的資料中心擴張,AI似乎正成為下一個經濟奇蹟。但在這場狂熱背後,也出現了越來越多的疑問:AI是否正走向泡沫?AI的回報速度能否追上龐大的資本支出?誰將是下一階段真正的贏家?
Thumbnail
自ChatGPT問世以來,生成式AI帶動全球關注,雲服務商的資本支出快速攀升——2025年預估達 4,450億美元,2026年更將突破 5,000億美元。微軟、亞馬遜、Google、Meta,以及中國的阿里、百度、騰訊等,皆加大投資力道。
Thumbnail
自ChatGPT問世以來,生成式AI帶動全球關注,雲服務商的資本支出快速攀升——2025年預估達 4,450億美元,2026年更將突破 5,000億美元。微軟、亞馬遜、Google、Meta,以及中國的阿里、百度、騰訊等,皆加大投資力道。
Thumbnail
2025年9月24日 | 香港時間晚上 10:42 緯穎公布了強勁的八月營收,達到新台幣 960 億元(年增 198%,月增 14%),比高盛預估高出 24%。受惠於雲端資本支出的增加、ASIC 晶片的持續升級以及不斷增長的推論需求,我們看好 ASIC AI 伺服器市場,並視緯穎為主要受益者。我們
Thumbnail
2025年9月24日 | 香港時間晚上 10:42 緯穎公布了強勁的八月營收,達到新台幣 960 億元(年增 198%,月增 14%),比高盛預估高出 24%。受惠於雲端資本支出的增加、ASIC 晶片的持續升級以及不斷增長的推論需求,我們看好 ASIC AI 伺服器市場,並視緯穎為主要受益者。我們
Thumbnail
OpenAI 與 Oracle 擬在未來五年採購約 3000 億美元 的雲端算力(合約已簽/將從 2027 年起執行等說法見不同報導)。這是 AI 歷史上數額極大的交易。 甲骨文為履約將大規模擴建資料中心與伺服器機櫃;供應鏈上游的伺服器、機櫃、機殼、電源、網通與系統整合商(包含台系廠商如鴻海、神達
Thumbnail
OpenAI 與 Oracle 擬在未來五年採購約 3000 億美元 的雲端算力(合約已簽/將從 2027 年起執行等說法見不同報導)。這是 AI 歷史上數額極大的交易。 甲骨文為履約將大規模擴建資料中心與伺服器機櫃;供應鏈上游的伺服器、機櫃、機殼、電源、網通與系統整合商(包含台系廠商如鴻海、神達
Thumbnail
2025年第一季結束,全球雲端四大巨頭 Amazon、Microsoft、Alphabet(Google)、Meta 皆公布大幅度的資本支出增幅,,更去年鴻海董事長劉揚偉在公開演講中提出的觀點不謀而合:「AI沒有終點,只有持續擴張」 • Amazon:2025年第一季資本支出約為240億美元,較2
Thumbnail
2025年第一季結束,全球雲端四大巨頭 Amazon、Microsoft、Alphabet(Google)、Meta 皆公布大幅度的資本支出增幅,,更去年鴻海董事長劉揚偉在公開演講中提出的觀點不謀而合:「AI沒有終點,只有持續擴張」 • Amazon:2025年第一季資本支出約為240億美元,較2
Thumbnail
摘要 強調了全球雲服務提供商(CSPs)在AI基礎設施上的強勁資本支出(capex),預計2025年將達到3250億美元,其中約一半用於AI伺服器需求。然而,亞洲半導體和硬體供應鏈能否及時滿足這一需求仍是關鍵問題,特別是GB300伺服器機架的生產進度將直接影響下半年產能。此外,報告也提到中國市場對
Thumbnail
摘要 強調了全球雲服務提供商(CSPs)在AI基礎設施上的強勁資本支出(capex),預計2025年將達到3250億美元,其中約一半用於AI伺服器需求。然而,亞洲半導體和硬體供應鏈能否及時滿足這一需求仍是關鍵問題,特別是GB300伺服器機架的生產進度將直接影響下半年產能。此外,報告也提到中國市場對
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News