AI 時代,為什麼資料傳輸要從「電」走向「光」?
在 AI 時代,大家常常注意 GPU、HBM、先進製程、CoWoS 封裝,但真正限制 AI 資料中心成長的,還有一個很關鍵的瓶頸:資料怎麼傳得更快、更省電、更穩定。
大型 AI 模型不是靠一顆 GPU 就能完成,而是靠成千上萬顆 GPU、交換器、記憶體、伺服器、機櫃共同合作。當算力越來越強,資料搬運量也會暴增。如果資料傳輸跟不上,再強的 GPU 也會等待資料,造成昂貴算力空轉。因此,未來 AI 資料中心的競爭,不只是「誰的晶片算得快」,更是「誰的系統搬資料搬得快」。這也是為什麼 矽光子 Silicon Photonics、CPO 共同封裝光學、Optical I/O 光學輸入輸出 會成為下一代 AI 基礎建設的重要技術。NVIDIA 在 2025 年發表 Spectrum-X Photonics 與 Quantum-X Photonics 共同封裝光學網路交換器,目標就是讓 AI factories 能擴展到數百萬 GPU 等級;Broadcom 也在 2025 年推出 Tomahawk 6 Davisson,主打 102.4 Tbps CPO Ethernet switch,用於 AI 叢集的 scale-up 與 scale-out。
一、為什麼 AI 資料中心需要「光」?
傳統電子系統主要靠銅線與電訊號傳資料。這在低速、短距離時很好用,但當資料傳輸速度進入 800G、1.6T、3.2T,甚至更高世代時,銅線與電訊號會遇到明顯瓶頸。
第一,電訊號在高速下容易衰減與失真。
資料速率越高,訊號越難維持乾淨,需要更多補償電路、retimer、DSP 與散熱設計。
第二,傳輸距離越長,功耗越高。
在晶片內部或封裝內部,電訊號還可以運作;但跨板、跨機櫃、跨資料中心時,銅線就會變得很吃力。
第三,AI 資料中心最缺的是電力。
如果大量電力花在資料傳輸與散熱,而不是花在 GPU 訓練與推論上,整體效率就會下降。
光通訊的優勢是:高頻寬、低損耗、可長距離傳輸、抗電磁干擾,而且適合大量平行通道。所以 AI 系統越大,越需要把資料搬運從「電訊號」逐步轉向「光訊號」。
簡單說:
電適合短距離、晶片內部、封裝內互連。
光適合高速、大頻寬、長距離、大規模資料中心互連。
二、什麼是矽光子 Silicon Photonics?
矽光子就是把光學元件做進半導體晶片平台中,讓光可以在晶片上傳輸、調變、接收與處理。
傳統晶片是讓電子在金屬線裡跑;
矽光子則是讓光在微小光波導裡跑。
可以想成:
傳統電子晶片:
電子訊號 → 金屬線 → 電路
矽光子晶片:光訊號 → 光波導 → 光學元件
矽光子晶片中常見的元件包括:
光波導 Waveguide:像光的高速公路,讓光在晶片上移動。
調變器 Modulator:把電訊號轉換成光訊號的變化。
光偵測器 Photodetector:把光訊號轉回電訊號。
耦合器 Coupler:讓光纖中的光進入晶片,或讓晶片中的光進入光纖。
分波與合波元件 MUX/DEMUX:把不同波長的光合併或分開。
雷射光源 Laser:提供光載波,但雷射常需要 III-V 材料或外部光源配合,因為矽本身不是理想發光材料。
矽光子的重點在於:它可以結合半導體製程,朝向更高整合度、更低功耗、更大量產的方向發展。台積電也把矽光子與 COUPE 光引擎放進高效能運算與下一代互連的技術路線中;其 2026 年技術動態提到,COUPE photonics engine 的 CPO 將在 2026 年進入生產,並可提升功率效率、降低延遲。
三、什麼是 CPO 共同封裝光學?
CPO 是 Co-Packaged Optics,中文可稱為「共同封裝光學」或「共封裝光學」。
傳統資料中心交換器通常是這樣:
交換晶片 ASIC
│
│ 高速電訊號經過 PCB 板走線
▼前面板可插拔光模組
│
▼光纖
也就是說,交換晶片先用電訊號把資料送到機箱前方的光模組,再由光模組轉成光訊號送進光纖。
問題是:當速度越來越高,晶片到光模組這一段電訊號路徑就越耗電、越難設計。
CPO 的做法是:把光學引擎直接放到交換晶片或 AI 晶片旁邊,甚至放進同一個封裝基板上。
CPO 架構:
┌──────────────────────────┐
│ 同一封裝基板 │
│ │
│ 交換 ASIC / AI ASIC │
│ │ 超短電連接 │
│ 光學引擎 Optical Engine │
└─────────│────────────────┘
▼
光纖
CPO 的核心邏輯很簡單:
高速電訊號不要跑太遠,
越早轉成光,越省電、越穩定、越容易擴大頻寬。
NVIDIA 宣稱其 CPO 網路交換器透過矽光子整合,可降低 AI factory 網路功耗與營運成本,並提到相較傳統方法有 3.5 倍能源效率與 10 倍網路韌性等優勢;Broadcom 的 Tomahawk 6 Davisson 則主打 102.4 Tbps CPO Ethernet switch,用於大型 AI 叢集網路。
四、什麼是 Optical I/O?
Optical I/O 就是「光學輸入輸出」。它的意思是:晶片或封裝不再只用電訊號和外界交換資料,而是直接把部分高速 I/O 轉成光訊號。
如果 CPO 比較常先用在「交換器 ASIC + 光學引擎」,那 Optical I/O 更進一步,會走向:
AI 加速器之間的光連接。
XPU 與 Switch 之間的光連接。 XPU 與記憶體池之間的光連接。 封裝內 chiplet 與外部系統的高速光連接。 未來資料中心內部的光學資料高速公路。
可以想成:
傳統 I/O:
AI 晶片 → 電訊號 → PCB / 線纜 / 模組
Optical I/O:
AI 晶片 → 光學 I/O chiplet → 光纖 / 光互連
Optical I/O 的目的不是單純「把線換成光纖」,而是要改變整個 AI 系統架構。未來如果 AI 加速器、記憶體池、交換器、伺服器之間都能用更低功耗、更高頻寬的光互連,資料中心就能更彈性地組成超大型運算系統。
五、三者的關係:矽光子是技術底座,CPO 是封裝方式,Optical I/O 是未來介面
這三個名詞很容易混在一起,但其實可以這樣理解:
矽光子 Silicon Photonics
是底層技術,把光學元件做進半導體晶片。
CPO Co-Packaged Optics
是封裝架構,把光學引擎放到交換晶片或運算晶片旁邊,縮短電訊號距離。
Optical I/O
是更長期的系統方向,讓晶片直接用光和外界高速交換資料。
一句話總結:
矽光子是「造光路」。
CPO 是「把光路搬到晶片旁邊」。 Optical I/O 是「讓晶片用光和世界溝通」。
六、為什麼 CPO 先從交換器開始,而不是直接進 GPU?
很多人會問:既然光傳輸這麼好,為什麼不直接把光學 I/O 做進 GPU?
原因是:GPU 本體非常昂貴、功耗高、熱設計困難,而且可靠性要求極高。若光學引擎直接整合進 GPU 封裝,一旦雷射、耦合、光纖、封裝良率、散熱或維修出問題,影響會非常大。
因此,產業比較務實的演進路線通常是:
第一階段:先用在交換器。
第二階段:光學引擎靠近 ASIC,形成 CPO。 第三階段:逐步進入 AI 加速器封裝附近。 第四階段:走向真正的 in-package Optical I/O。 第五階段:更長期才可能進入更深層的 on-chip optical interconnect。
也就是說,CPO 先從交換器開始,是因為交換器本來就是資料流量最集中的地方,也是最容易先看到節能與頻寬效益的地方。
七、AI 資料中心的真正瓶頸:不是只有算力,而是互連
AI 訓練需要大量 GPU 同步交換資料。如果網路不夠快,會發生幾個問題:
GPU 等待資料。
訓練效率下降。 網路耗電增加。 系統延遲上升。 大型叢集穩定性變差。 資料中心總成本增加。
因此,AI factory 的本質不只是「很多 GPU 放在一起」,而是要讓大量 GPU 像一台超級電腦一樣協同工作。這時候,交換器、光模組、CPO、Optical I/O 就變成 AI 基礎建設的核心。
NVIDIA 發表 CPO 交換器時,特別強調 AI factories 需要重新設計網路基礎設施,並且其 Spectrum-X Photonics、Quantum-X Photonics 目標就是支援更大規模 AI 工廠互連。
八、用生活比喻理解:CPO 就像把高鐵站蓋到工廠旁邊
可以把 AI 資料中心想像成一座超大型城市:
GPU 是工廠。
HBM 是倉庫。 Switch 是交通樞紐。 銅線是一般道路。 光纖是高速鐵路。 CPO 是把高鐵站蓋到工廠旁邊。 Optical I/O 是讓工廠大門直接接上高鐵月台。
以前資料要先從工廠開車到市中心車站,再搭高鐵。
現在 CPO 與 Optical I/O 的方向,是讓資料一出工廠就上高鐵。
這樣可以減少塞車、降低耗能、縮短延遲,讓整個 AI 城市更有效率。
這代表未來高階 AI 晶片封裝不只是:
GPU + HBM + Interposer
而可能變成:
GPU / XPU + HBM + Chiplets + Optical Engine + Advanced Package
也就是說,先進封裝正在從「把運算和記憶體放近」,進一步走向「把光通訊也放近」。
這對半導體供應鏈有重大意義,因為它牽動的不只是晶圓代工,還包括封裝、載板、連接器、光纖、測試、散熱、伺服器系統與資料中心整合。
九、技術挑戰:為什麼不是馬上全面取代銅線?
雖然矽光子、CPO、Optical I/O 很有前景,但它們還有許多挑戰。
第一,雷射光源問題。
矽本身不是理想發光材料,因此高品質雷射常需要 III-V 材料或外部雷射配合。雷射壽命、溫度穩定性、備援設計都是難題。
第二,封裝與光纖耦合難度。
光不像電那麼容易接。光纖與光子晶片之間需要非常精準的對準,微小偏移就可能造成損耗。
第三,熱管理更複雜。
AI 晶片與交換 ASIC 本身已經很熱,光學元件又對溫度敏感,把兩者放近會讓散熱更困難。
第四,測試成本高。
光電混合晶片不只要測電性,還要測光功率、波長、插入損耗、位元錯誤率、溫度漂移與封裝可靠性。
第五,可維修性問題。
傳統可插拔光模組壞了可以換;CPO 如果出問題,維修方式就比較複雜,需要系統層級重新設計。
所以,未來不會是「光立刻完全取代電」,而會是:
短距離、封裝內仍大量使用電;
高頻寬、長距離、大規模互連逐漸導入光; 電與光會長期共存,形成光電融合系統
十、未來發展方向:從資料中心到晶片級光互連
未來矽光子、CPO、Optical I/O 可能會沿著幾個方向發展:
1. AI 交換器全面升級
CPO 最先落地的主戰場會是高速交換器,尤其是 1.6T、3.2T 以上的 AI 資料中心網路。
2. AI 加速器導入 Optical I/O chiplet
AI ASIC、GPU、XPU 可能逐步在封裝中加入光學 I/O chiplet,降低跨晶片、跨封裝傳輸功耗。
3. 記憶體池化 Memory Pooling
未來 AI 系統可能不再完全依賴每顆 GPU 綁定固定 HBM,而是透過高速光互連連接更大的外部記憶體池。
4. Rack-scale computing
整個機櫃可能被設計成一個大型可重組運算系統,光互連負責把 GPU、CPU、DPU、記憶體、儲存與交換器高速連起來。
5. 更長期的 on-chip optical interconnect
更遠期的方向,是讓光不只在封裝間傳輸,甚至進入晶片內部部分資料路徑。不過這需要更成熟的元件、製程、熱管理與成本控制。
十一、總結:AI 時代的高速公路,正在從銅線走向光纖
矽光子、CPO、Optical I/O 代表的是 AI 基礎設施的一次重大轉變。
過去我們重視的是單顆晶片性能;
現在更重要的是整個系統的資料流動效率。
AI 要繼續變強,不能只靠更多 GPU,也不能只靠更先進製程。它還需要更快、更省電、更穩定的資料高速公路。
最後可以用三句話總結:
矽光子,是把光學元件做進半導體世界。
CPO,是把光學引擎放到晶片旁邊,減少高速電訊號的距離。
Optical I/O,是讓未來 AI 晶片直接用光傳資料,重塑整個資料中心架構。
最白話地說:
AI 時代的算力像一座超級工廠,
HBM 是倉庫,GPU 是機器,Switch 是交通樞紐, 而矽光子 × CPO × Optical I/O,就是讓資料用光速流動的高速鐵路系統。
研究興趣用途,非投資建議。











