OpenAI 與 Broadcom 的合作、以及市場上 Google TPU 等自製/定製加速器的推進,意味著 hyperscalers(超大雲端廠)與 AI 企業將大幅擴建以 ASIC 為主的伺服器機櫃與資料中心。 這波「AI 基建潮」會帶來海量機櫃、機櫃組裝與系統整合訂單,而鴻海在全球伺服器組裝與機櫃製造的擴產動作,讓它成為顯而易見的供應端受惠者。 市場研究機構估計 AI 伺服器市場未來數年將快速成長(年複合成長率高),代表長期需求可觀。
為什麼會發生?三大推動力拆解 1. 大模型時代推升「竭盡效能」的需求,超級使用者要客製化晶片 大型語言模型與多模態模型對運算密集度的需求遠高於過去。為了降低雲端成本、提升延遲與吞吐,很多 AI 企業與雲端廠商選擇走「客製化 ASIC / XPU」或採用專用 TPU 類產品的路子。OpenAI 與 Broadcom 的大單正是這個趨勢的標誌之一,代表業界不再只倚賴單一 GPU 廠商。 2. 從「芯片」到「機櫃」是乘數效應:每顆 ASIC 都要放進機櫃、要冷卻、要電力、要整合 一顆芯片只是開始;企業需要把數萬、數十萬顆加速器裝到機櫃,配套冷卻、電力分配、機櫃間網路與系統整合,這些都是大宗採購項目。換句話說,芯片下單會直接帶動機櫃與整套交付的需求,形成硬體採購的乘數效應。 3. 地緣政治與「主權化」需求推高在地化採購與多供應鏈佈局 多國出於資料主權、安全或供應鏈韌性考量,傾向在本地或可控區域建立資料中心並多元化供應商(不只依賴單一 GPU 廠商)。這讓像鴻海這種能在多個國家設廠並提供整體交付能力的廠商,具備策略優勢。 ---
鴻海為何可能成大贏家?(務實三點) 1. 已有機櫃與伺服器組裝能量在手:鴻海近年積極擴大 AI 機櫃與伺服器代工產能(含美墨投資、廠區擴產),在短期能加速承接大宗交付。 2. 系統整合與在地化交付能力:超大案子往往要整合冷卻、電力、安裝與驗證,這些是代工之外的高附加值服務,能帶來比純組裝更高的毛利空間。 3. 全球供應鏈與客戶關係優勢:鴻海長期與大型雲端與硬體廠有合作基礎,若雲端大廠與 AI 訓練/推理業者分配採購給多家供應商,鴻海極有機會分得一杯羹。 ---
粉色小結(溫柔的結語) 這波由 OpenAI、Google 等巨頭推動的 ASIC / TPU 與「機櫃整體交付」潮,不只是換個晶片,而是把整個 AI 基建供應鏈拉高到另一個層級。對消費者來說,代表更強大的 AI 服務;對城市與能源規劃者來說,代表更多的電力與冷卻需求;對投資人來說,則是檢視誰能從「單顆芯片」的紅利,延伸到「機櫃與系統整合」的長期商機。鴻海目前擁有承接這條供應鏈上游到交付端的能力,因此被市場視為有力的受惠者——但真正的贏家,還是會由那些能把「速度、在地化與毛利」三項都顧好的廠商來決定。