系列文|光通產業鏈故事
一個沒有人在乎的物理事實
黃仁勳站在舞台上,背後是一張投影片。
上面是一個機櫃的剖面圖,密密麻麻的線路,像一棵被剪掉葉子的樹,只剩下藤蔓互相纏繞。他說:「我們做到了。72 顆 GPU,連在一起,像一顆巨大的超級晶片。這個架構將會改變 AI 的一切。」
台下掌聲。
媒體的標題都在報算力:「GB200 NVL72 效能碾壓前代」、「黃仁勳:AI 超級電腦新里程碑」。
沒有人在報導那 2 英里長的銅線。
是的,2 英里,大約 3.2 公里的銅纜,纏繞在那個機櫃的內部。NVIDIA 的工程師知道自己在做什麼——機櫃內部的短距離連接,銅線夠用,成本低,而且省下了 20kW 的功耗,讓整個系統的散熱需求更容易管理。
這是一個務實的工程決策。
但這個決策裡藏著一個沉默的前提,一個機櫃裡可以用銅線,不代表整個資料中心都可以。當 AI 的規模繼續膨脹,這個前提會開始動搖,然後有一天,它會塌掉。
那一天,比大多數人想像的,近得多。
銅線的物理極限
要理解問題,你得先理解銅線在做什麼。
在一個 AI 資料中心裡,GPU 和 GPU 之間需要不停地交換資料。訓練一個大型語言模型,不是一顆 GPU 的事,是幾千顆、幾萬顆 GPU 同時協作的事。它們像一個龐大的合唱團,每個聲部都需要聽到其他人在唱什麼,才能決定自己下一個音符。
這個「聽的動作」,在電腦裡就是資料傳輸。
傳輸的速率,決定了 AI 可以學多快。
銅線傳資料,靠的是電訊號。電訊號有一個天敵,叫做距離。Keysight 的工程師說過一句話,工程圈裡流傳很廣:「在 200 Gbps 的速率下,1 公尺的銅纜大約會產生 34dB 的訊號損耗。」
34dB,你可以把它換算成一個更直觀的數字:訊號強度衰減到原來的萬分之四。
你傳出去一百個字,對方只收到不到一個字。
當然,工程師有辦法補償這個損耗——放大器、均衡器、各種信號處理技術,可以在一定距離內把訊號拉回來。但補償本身需要消耗能量,能量變成熱,熱要散掉,散熱要花錢花電。然後你就掉進了一個越補越貴的無底洞。
更根本的問題是:這個補償有上限。
銅線的頻寬,存在一個物理上的天花板。你可以加錢、加技術、加工程師,但你無法改變物理定律。當 AI 對頻寬的需求超過這條線,銅線的故事就結束了。
那條線,現在已經近在眼前。
AI 為什麼把問題逼出來了
過去十年,這個問題不是沒有人知道。學術界很早就在討論光通訊進入資料中心的可能性。但那時候的 AI,規模還沒大到讓人認真在乎。
2018 年,訓練一個當時算是前沿的語言模型,可能用幾百顆 GPU,幾週時間。銅線連接,延遲可以接受,頻寬夠用,電費在可控範圍內。
然後 ChatGPT 出現了。
GPT-3 訓練據估計用了 1,000 顆以上的 A100 GPU,幾個月時間。GPT-4 的規模又翻了好幾倍。到了現在,頂級 AI 公司的訓練叢集,動輒幾萬顆 GPU,散布在整個資料中心的多個機架和機房。
機架之間的距離,幾十公尺。不同機房之間,可能幾百公尺。
這個距離,銅線已經沒有辦法用原本的邏輯運作了。EE Times 的一份報告記錄了一個轉捩點:到 2025 年底,全球超大型資料中心新建的骨幹連接,有 85% 已經改用光纖,而不是銅線。
85%。這不是一個緩慢的趨勢,這是一個決定。
為什麼是光?
光纖傳輸的原理,和銅線完全不同。
銅線靠電子移動傳遞資訊,光纖靠光子。光子在玻璃纖維裡傳播,損耗極低——同樣的距離,光纖的訊號衰減只有銅線的幾千分之一。你可以讓光跑幾公里,甚至幾十公里,訊號依然清晰。
頻寬上,光的優勢更是碾壓式的。銅線的頻寬受限於電磁波的物理特性,有個很難突破的天花板。光的頻寬幾乎是理論無限——你可以在同一條光纖裡,用不同波長的光同時傳遞多路訊號,像一條公路上同時跑無數條不同顏色的車道。
功耗上,光也贏。在相同的傳輸速率下,光模組的功耗比銅線系統低很多,而且距離越長,差距越大。
這對 AI 資料中心來說,意味著真金白銀。
一個大型 AI 資料中心,年電費可以高達幾億美元。任何能降低功耗的技術,都可以直接換算成利潤。微軟、Google、Meta 這些公司不是因為環保才換光纖的,他們是因為算出來了,光纖比銅線便宜。
但光纖還不夠
光纖解決了「機架之間」的問題。
但如果你想把事情做得更徹底,你會發現還有一個更難解的地方:光訊號從光纖進入晶片之前,要先轉換成電訊號;晶片裡的電訊號出來之後,要再轉換成光訊號,才能繼續傳。
這兩次轉換,叫做「光電轉換」。
每一次轉換,都是延遲。每一次轉換,都是功耗。每一次轉換,都是潛在的訊號失真。
工程師的本能是:能不轉換,就不轉換。
那如果把光直接帶到晶片旁邊,讓光訊號從封裝體內就開始傳,省掉那段電的旅程呢?
這就是 CPO(Co-Packaged Optics,共封裝光學)的核心概念。把光引擎直接封裝在 AI 晶片的旁邊,光和電的距離縮短到幾毫米,轉換損耗幾乎消失,功耗再降 30-40%,頻寬再往上跳。
這個技術,已經不是未來式了。
NVIDIA 已經確認,下一代的 Rubin 平台,在 scale-out 連接(也就是叢集之間的互連)上,將採用 CPO 光學架構。2026 年下半年,Rubin 平台的系統將開始出貨。
但 CPO 要大規模量產,還差一塊拼圖。
那塊拼圖,在新竹。
發令槍的名字叫 COUPE
矽光子技術,也不是新東西。研究人員用標準的矽晶圓製程製作光學元件的想法,學術界討論了將近二十年。想法很美好——如果可以用台積電現有的製程做光學元件,成本就能大幅下降,良率就能大幅提升,量產就能成為可能。
問題是,想法和可以量產之間,永遠隔著一條叫做「工程地獄」的河。
台積電花了很多年,走過了那條河。
他們把這個技術叫做 COUPE——Compact Universal Photonic Engine,緊湊型通用光子引擎。簡單說,就是用台積電的先進封裝製程,把矽光子引擎和 AI 晶片封裝在一起,讓 CPO 從實驗室概念,變成可以大規模製造的工業產品。
台積電宣布,COUPE 將於 2026 年正式量產。
這是一顆發令槍。
槍響之後,整條供應鏈要動了。從上游的雷射晶片材料,到光纖連接器,到被動光學元件,到封裝測試,每一個環節的需求,都會在接下來的幾年內快速放大。
這條供應鏈上,有幾家台灣公司,默默做了很多年,等的就是這一刻。
你可能從來沒有聽過他們的名字。
但你用的 AI,可能正在靠他們的零件跑。
下一篇:台積電的那張入場券——矽光子是什麼,COUPE 怎麼讓整條供應鏈開始動,以及為什麼銅線退場這件事,台積電反而是最大贏家
⚠️ 本文為產業觀察與趨勢分析,不構成投資建議。所有投資決策請自行評估風險。
資料來源:
- 34dB 損耗數據:Keysight 工程師訪談 — AI Drives Need For Optical Interconnects In Data Centers, Semiconductor Engineering, 2023
- GB200 NVL72 銅纜長度(2 英里):NVIDIA GB200 NVL72 技術分析, Continuum Labs
- 85% 光纖部署比例:Why Fiber Optics is Replacing Copper in Data Centers, EE Times, 2025/12
- Rubin 平台 CPO scale-out 規格:Nvidia's Vera Rubin Platform In Depth, Tom's Hardware, 2025/11
- TSMC COUPE 2026 量產時程:2026年CPO光通訊商轉元年,元富證券, 2025/12















