去年2024五月因為13F看到Druckenmiller 大幅買進Coherent,寫了一篇《降低AI資料傳輸能耗,Drunkenmiller也看好矽光子高成長未來?》。如今光通訊全面爆發,就想整理更完整的行業展望,看看這個行業現在的變化是什麼,為什麼被稱為是下一個記憶體。
AI運算的隱形瓶頸:Networking新戰場
當全球投資人的目光緊盯著NVIDIA等AI晶片龍頭和高頻寬記憶體HBM供應鏈時,另一個關鍵基礎設施產業:光通訊,正悄然成為AI運算擴張的新瓶頸。這個產業的供需緊張程度已達到與HBM類似的級別:訂單能見度長達數年甚至延伸至2028年,客戶開始排隊簽訂長期供貨協議,產能配置成為戰略決策。
這不是短期景氣循環,而是AI運算架構演進帶來的結構性轉變。Lumentum執行長Michael Hurlston直言,該公司超過60%的營收現在來自雲端和AI基礎設施,「這是一場連接GPU的戰爭,而不是GPU本身的競賽。」
Broadcom執行長Hock Tan一語道破關鍵:「在生成式AI中,網路正成為電腦本身,而不是任何單一的GPU或XPU。」當數十萬個AI運算單元需要同步運行一個大型模型時,任何延遲或斷線都可能導致整個叢集癱瘓。因此,如何高效、可靠、低功耗地連接這些晶片,已成為限制AI發展的最大技術挑戰。
一、需求端爆發:AI對頻寬的無限渴求
AI模型的複雜度正以驚人速度增長。Google TPU系統架構師Cedric Glenn指出,模型大小每年成長超過10倍且沒有放緩跡象。這種指數級成長對網路I/O能力提出了「無限」需求,因為系統性能瓶頸始終落在資料傳輸,而非晶片運算速度。
市場規模的膨脹速度驚人。Marvell執行長Matt Murphy揭露,該公司光學業務從收購Inphi時的6億美元年營收,短短四年內已成長至30億美元規模,「這個業務單獨拿出來,用半導體產業的本益比估值,就應該值得整個Marvell的市值。」這番話並非誇大。領先的光通訊廠商正以50-70%的速度狂飆。
需求的結構性轉變體現在Scale-up網路革命上。傳統資料中心採用Scale-out橫向擴展,網路架構像一棵樹,主要用於機架與機架之間的通訊。但AI運算需要的是Scale-up垂直擴展,要求機架內數百顆GPU/XPU之間的連接必須像單一、巨大的運算核心一樣快速、緊密地協同運作。Broadcom估計,Scale-up網路的內容機會是傳統Scale-out網路的5到10倍。為了實現大規模機架內擴展,網路頻寬必須從目前銅纜的28Tbps轉向光學連接提供的100Tbps。
二、 供應端的瓶頸:磷化銦(InP)成為產業咽喉
儘管需求像海嘯般湧來,但光通訊產業卻面臨著關鍵元件的供應瓶頸,其中最核心的短缺就是磷化銦(Indium Phosphide, InP)雷射。




















