簡介與背景
隨著雲端運算、人工智慧(AI)與高性能運算(HPC)的快速發展,全球資料流量呈現爆炸性成長,對高速資料傳輸技術的需求日益殷切。從資料中心的網路架構到家用裝置的連接介面,各種高速傳輸標準持續演進,以滿足日益提升的頻寬和低延遲要求。
本文將深入分析高速傳輸產業的關鍵技術與組件,包括高速以太網路、PCI Express匯流排、共封裝光學(CPO)、光收發模組、家用高速介面、SerDes技術、InfiniBand網路,以及台灣、中國、美國在供應鏈中的角色。同時也比較主要供應商的技術門檻,並探討AI、雲端、邊緣運算等應用趨勢帶來的機遇與挑戰。
高速以太網路演進與資料中心應用
以太網速率提升
近年來以太網標準從100Gb/s一路提升至200Gb/s、400Gb/s,乃至最新的800Gb/s,驅動著資料中心網路頻寬的飛躍成長。以過去十年為例,資料中心交換機總容量已從0.64Tb/s劇增至25.6Tb/s,端口通道數從64增至512,每通道速率也從10Gb/s提升到100Gb/s。800G以太網交換機晶片(容量51.2Tb/s)已問世,其設計採用了8個通道,每通道速度100Gb/s的架構。這種架構透過重用兩組400G以太網的邏輯實現800G,確保與現有400G技術的向下相容。根據2022年OCP高峰會統計,預計到2025年800G熱插拔光模組的出貨量將超越400G,同時資料中心能在不大幅改動既有佈線的情況下平滑升級到800G。資料中心與AI/HPC應用需求
大規模雲資料中心和AI/HPC叢集是高速以太網主要應用場域。傳統100G網路已漸趨普及,400G正成為升級主流,而面對AI訓練等未來需求,800G和1.6T時代正加速到來。高頻寬低延遲的需求使資料中心網路架構朝更高端發展,例如某些尖端AI資料中心要求在400G/800G鏈路下實現<50微秒的延遲,並結合RDMA等技術減少通訊開銷。NVIDIA近期推出專為AI工作負載打造的Spectrum-X平台,結合800G乙太網交換器與“SuperNIC”智能網卡,目標解決傳統乙太網在AI訓練時的效能瓶頸。此外,NVIDIA的Quantum-2/Quantum-3系列交換器採用800Gb/s端口速率並內建擁塞控制等功能,可大幅提升AI與HPC集群的通信效能。總體而言,為支撐雲端和AI時代的海量流量,高速以太網正從200G/400G快速邁向800G/1.6T,這背後的關鍵在於採用PAM4等技術將單通道速度提升至200Gb/s,以倍增整體傳輸效率。
800G以太網的挑戰
然而,要實現800G以上速率也面臨諸多挑戰。首先是信號完整性和功耗問題:當每通道速率從50G提升到100G時,插槽、主板和連接器上的高速電信號損耗和串擾顯著增加,迫使SerDes接口功耗上升。研究指出,未來超大規模交換機中,I/O介面的功耗可能會超過交換晶片核心本身。其次,保持對200G/400G世代的向後相容亦不易,在實現更快CDR鎖相、更多並行通道的同時,還需兼顧極低延遲和錯誤率。
此外,高速模組面臨散熱密度提升的難題,800G光模組功耗更高,需發展先進的散熱技術。為達到每機架伺服器800Gb/s總吞吐,交換晶片SerDes必須達到每通道100G,對PCB走線和封裝技術提出更高要求。總之,800G以太網雖為大勢所趨,但在電信號完整性、功耗控制、散熱和相容性方面都存在高技術門檻,需要產業各環節協同創新。
PCIe匯流排演進對GPU/AI/NIC的影響
PCIe 4.0/5.0/6.0概述
PCI Express(PCIe)是連接CPU與GPU、網卡(NIC)、SSD等高速週邊的主要匯流排介面,其頻寬每約三年翻倍一代。PCIe 4.0於2017年問世,單通道速率16GT/s(約每通道2GB/s單向帶寬);PCIe 5.0則在2020年前後推出,速率翻倍至32GT/s(約每通道4GB/s)。最新的PCIe 6.0於2022年定案,是變化最大的一代:單通道速率提升至64GT/s,並改採PAM4(四電平脈衝幅度調變)編碼,以每符號承載2 bit資料的方式將頻寬再倍增。PCIe 6.0還引入FLIT定長分組傳輸模式,提高效能效率。PCI-SIG聯盟更在2022年宣佈PCIe 7.0規格開發,目標單通道128GT/s,預計2025年發布最終版本。可見PCIe技術正以約3年一代、每代頻寬加倍的步調演進,以滿足處理器與周邊裝置日益增長的I/O帶寬需求。
對GPU與AI加速器的影響
GPU等AI加速卡對主機介面的帶寬需求極高,PCIe的世代提升直接關係到GPU與NIC/SSD之間資料交換效率。一台搭載8張GPU的AI伺服器,常需要配置多達8顆PCIe Retimer重定時晶片,以確保CPU與GPU、CPU與SSD之間高速信號的穩定。例如NVIDIA A100 GPU採用PCIe 4.0匯流排,理論上x16通道的單向總帶寬約252Gb/s。因此A100伺服器通常搭配200Gb/s的網路介面卡(如Mellanox HDR InfiniBand)來匹配其I/O能力。而新一代H100 GPU升級至PCIe 5.0(單向約504Gb/s),對應採用400Gb/s網卡(Mellanox NDR InfiniBand)。
這意味著從A100到H100,單卡所需的網路介面模組從200G提高到400G甚至800G(例如雙端口400G組合成800G)。據統計,A100集群中每卡大約需求4個200G光模組,而H100集群每卡則需對應更多高速模組。若未來GPU伺服器升級到PCIe 6.0(單向帶寬可達1024Gb/s),將可支援800G網卡,進一步推升單卡對應的光模組需求翻倍。總之,PCIe匯流排的進化使GPU等加速器能夠更充分發揮性能,也推動了更高速網卡和交換設備的採用。
Retimer與訊號完整性
隨PCIe速率倍增,主板連接的信號損耗和抖動挑戰也倍增。為了維持高速鏈路的信號品質,PCIe在4.0世代開始引入信號調理晶片:包括Retimer(重定時器)和Redriver(重驅動器)。Retimer是一種內建時鐘數據恢復(CDR)電路的混合訊號裝置,可提取和重塑PCIe信號時鐘,消除抖動並提升信號完整性。Redriver則透過放大與均衡補償部分損耗。相較之下,Retimer功能更複雜且效果更佳,但會帶來少許延遲。在PCIe 5.0標準下,端到端通道(含封裝)損耗預算提高到約36dB@16GHz(較3.0時的22dB大幅增加),因此Retimer等晶片已成為PCIe系統中不可或缺的元件。特別是在大型AI伺服器中,Retimer大量使用來保障多GPU/CPU連接的訊號質量。例如Astera Labs指出,一台8卡GPU伺服器可配置8顆PCIe 4.0 Retimer來穩定CPU-GPU與CPU-SSD連線。未來隨著PCIe 6.0及CXL等協議導入PAM4和更高頻率,Retimer/重定時技術將更為關鍵,同時也衍生出新的機遇,如智慧型Retimer、Switch晶片等輔助元件的市場成長。
共封裝光學(CPO)與光電整合趨勢
CPO的動因與概念
當前400G/800G級別的高速光模組已經逼近傳統可插拔外形的物理極限。以太網交換機容量從早期0.64Tb/s增至如今的25.6Tb/s,主要倚賴64×400G或32×800G模組的並行實現。然而在QSFP-DD、OSFP等既有外形尺寸下,進一步提高速率面臨連接器密度和功耗上的嚴峻挑戰。要讓單一模組支持800G甚至更高,每通道速率需達100G以上,這導致主板插槽、邊緣連接的信號完整性問題激增,SerDes功耗也隨之飆升。業界預期,在未來的超大容量交換機中,如果仍採用傳統可插拔方案,I/O介面功耗可能超過交換ASIC核心功耗。共封裝光學(Co-Packaged Optics, CPO)正是在此背景下應運而生的創新架構。CPO將光收發元件直接與交換機ASIC晶片緊鄰封裝於同一基板上,大幅縮短電信號傳輸距離,以解決高速下的信號完整性瓶頸。透過將光引擎移至晶片旁,CPO減少了高密度電接腳和長走線所帶來的損耗,有望降低I/O功耗、縮小體積並改善性能。近年來,CPO已在超大規模資料中心獲得關注和初步應用,被視為因應未來網路需求的有潛力方案。
CPO技術進展
2024年3月,博通(Broadcom)率先向客戶交付了業界首款51.2Tb/s的CPO乙太網交換機產品。該交換機將8個6.4Tb/s矽光光學引擎與Broadcom頂尖的Tomahawk5交換ASIC共封裝在一起。據報導,這款代號“Bailly”的CPO交換機相比傳統可插拔方案,光互連功耗降低了70%,矽晶片面積效率提高了8倍。這一實例展示了CPO在節能和高密度方面的巨大優勢。NVIDIA也不甘示弱,預計於2025年第三季推出CPO版本的Quantum-3 800G InfiniBand交換機,並計畫在後續Ethernet產品中採用共封裝光學。由此可見,全球領先廠商皆投入CPO研發,預示此技術正加速走向實用。根據IDTechEx預測,到2035年CPO市場規模將超過12億美元,2025-2035年年複合成長率接近29%,其中交換機應用將占主導地位(每台交換機可能集成多達16個光引擎),而AI加速器的光互連約佔20%份額。這反映高速互連在資料中心與AI系統中的關鍵性日增。
光電整合封裝方式
為實現CPO,需要將光子元件(如雷射、調製器、光檢測器)與電子ASIC進行異質集成。主要有幾種途徑:2D並置封裝是在PCB上將光子晶片與電子晶片並排,透過銲線鍵合連接,此法簡單成本低但寄生電感較大、I/O密度有限;2.5D中介層封裝則把光子與電子晶片一起倒裝在矽中介層上,寄生更低但封裝較複雜;3D堆疊整合更進一步,使用TSV硅通孔、Cu凸塊鍵合等技術將電子晶片直接疊放在光子晶片上,寄生效應最低但熱管理成為難題;單片集成則是最前沿但尚未成熟的方法,即在同一晶圓製程中同時製造電子電路和光子器件,理想上可消除晶片間連接,但目前多受限於製程節點差異。各種整合技術各有權衡,需視應用需求選擇。除了封裝,本地光源供應也是CPO關鍵之一,常以外置雷射(ELS)方式提供多通道光輸出。CPO交換機還需考量光纖佈局,高達上千芯的光纖需容納在機內,常透過高芯數MPO連接器實現有序管理。總體而言,CPO代表了資料中心光電融合的一大方向,其成功落地仰賴先進封裝、硅光子技術與系統設計的協同突破。
光模組市場發展:SFP/QSFP/DD模組、AOC與矽光技術
光模組類型與演進
光收發模組是網路中將電訊號轉換為光訊號並傳輸的關鍵零組件,常用介面形式包括SFP、QSFP系列等。SFP(小型可插拔模組)通常為單通道設計,應用於1G、10G、25G以太網等;QSFP(四通道SFP)則將4通道集成一體,最早用於40G(4×10G)以太網,隨後擴展到QSFP28(4×25G, 100G)、QSFP56(4×50G, 200G)等。為因應400G時代,業界推出QSFP-DD(雙倍密度QSFP)與OSFP兩種新外形:QSFP-DD具有8條高速通道(如8×50G PAM4=400G),可向下相容QSFP模組尺寸;OSFP則是針對400G/800G全新設計的更大外形,可支持8×100G等配置。
未來800G模組可採QSFP-DD800(8×100G)或OSFP800實現,兩者在高速密度和散熱空間上有所權衡。光模組除了獨立的收發器形式,也有有源光纜(AOC)形式,後者將兩端光模組與光纖線固定為一體,適合機架內或短距離連接,具有即插即用、成本較低的優勢,但靈活性稍差。相對地,直連銅纜(DAC)是在短距離(一般<35米)內以高品質銅纜直接傳輸信號,成本更低但距離受限,常用於機櫃內部連接。實務上,資料中心內部的互連方案會依距離、功耗、密度和成本綜合考量:機架內優先DAC/AOC,機架間則多採用光模組+光纖以獲得更遠距離。例如被動DAC通常僅適用12米範圍,再遠就需AOC或光纖模組來保證訊號品質。
光模組市場格局
近年光模組市場快速成長且競爭格局出現變化。根據統計,2023年全球光模組市場前十大供應商中有7家為中國企業,合計佔有超過50%的市場份額。其中,中際旭創(旗下Innolight)和新易盛等廠商出貨量大幅提升,成功打入NVIDIA等AI巨頭供應鏈,帶動中國廠商在400G/800G模組市場上取得領先。
美國方面,Coherent(由II-VI併購Finisar而來)和思科(含Acacia等業務)仍占有重要地位,提供先進高速模組技術。傳統上,日本與臺灣在光模組領域影響力較小,但臺灣廠商如AOI(美國應用光電子,主要產能在中美兩地)也因獲得超大數據中心訂單而逐漸受到矚目。整體而言,光模組市場正朝高速率化與集中化發展:高速產品需求激增,而具備規模量產和研發實力的龍頭廠商持續壯大,市場份額向Top10集中。
矽光子(Silicon Photonics, SiPh)的應用
為滿足400G/800G以上模組的小型化和低成本需求,矽光子技術正加速滲透。矽光透過在CMOS晶圓上製造光學元件(如波導、調制器等),可以將傳統使用III-V族材料(如InP)的光器件集成到矽基板上,大幅降低成本並提高整合度。採用矽光集成的光收發晶片可同時處理電和光信號,不僅提升資料傳輸速度,還能減少元件數量、縮小模組尺寸。業界資料顯示,一個800G矽光收發模組內的組件數量相比傳統方案可減少超過30個,體現出高度集成的優勢。矽光模組多採用外置光源(External Laser),將高功率連續波雷射光耦合進矽晶片,再由矽上的調制器產生高速光信號。
目前Broadcom、Marvell等公司皆投入矽光子研發:例如Broadcom的800G矽光模組已省去大量離散元件,提高可靠性並降低成本。矽光模組市場被看好,在AI和資料中心需求帶動下,預計未來數年將快速成長。中國廠商也積極追趕硅光技術,中際旭創等已發布1.6T矽光樣品模組,宣稱自研矽光晶片可支援單波長200G速率。總的來說,矽光子技術正從實驗室走向商用,成為高速光模組演進的重要路線,將在800G及之後世代扮演關鍵角色。
USB4、Thunderbolt、DisplayPort、HDMI等家用高速介面
USB與Thunderbolt介面
在個人電腦和家用電子領域,USB和Thunderbolt(雷電)是常見的高速連接介面。USB4是最新一代USB標準,整合了Intel Thunderbolt 3協議特性,使用USB-C連接器,最高傳輸速率可達40Gb/s。USB4不僅可傳輸數據,還支援影像通道傳輸(DisplayPort Alt Mode)和高達240W的供電能力。2022年USB-IF又發布USB4 v2.0規範,宣稱支援80Gb/s傳輸,這與下一代Thunderbolt 5的速度相當。
Thunderbolt 4目前速度為40Gb/s,與USB4等效,但規範更嚴謹(如要求支援雙4K顯示輸出等);即將推出的Thunderbolt 5則在Thunderbolt 4基礎上倍增頻寬至80Gb/s,並首創非對稱模式,可在單條線上實現120Gb/s單向 + 40Gb/s回傳,用於高解析度顯示的情境。這意味著Thunderbolt 5將能支援雙6K甚至8K顯示器的輸出,同時保有充裕的外接數據頻寬。隨著Intel在處理器中整合Thunderbolt控制器,越來越多筆電和主機板直接支援Thunderbolt/USB4。這些介面的整合讓使用者能以USB-C連接外接顯示器、高速儲存、擴充等裝置,享受快速連接體驗。
DisplayPort與HDMI影像介面
DisplayPort(DP)和HDMI是主要的視訊介面標準,廣泛用於電腦顯示器、電視和遊戲主機等。DisplayPort 1.4支援最高32.4Gb/s(8.1Gb/s×4通道)的總帶寬,可滿足4K 144Hz或8K 60Hz影像輸出需求。更新的DisplayPort 2.0/2.1大幅提升頻寬至80Gb/s(20Gb/s×4),對應解析度可達16K@60Hz或8K@240Hz等極限。DP2.1並引入新的UHBR傳輸速率等級,使多螢幕菊鍊和高色深高刷新影像更為可行。在實際應用中,由於DisplayPort多用於PC顯示器,它的高頻寬特性讓電競玩家可實現4K@144Hz以上的極致體驗。
相比之下,HDMI 2.1規範總帶寬48Gb/s,足以支援4K@120Hz、8K@60Hz影像,主要被電視和影音設備採用。HDMI強調向下相容性和CEC控制等功能,適合居家娛樂生態。由於HDMI 2.1問世稍晚,近年新款顯示卡與電視皆已配備,能提供VRR可變更新率、eARC音訊回傳等先進功能。整體而言,DisplayPort在最高性能上略勝一籌,但HDMI在民用市場普及度更高,各有所長。值得一提的是,新一代顯示卡開始導入DP2.1(例如AMD Radeon RX 7000系列),未來高端PC顯示將率先進入80Gb/s時代。而Thunderbolt 5/USB4 v2的80Gb/s帶寬也意味著透過一條USB-C連接線即可傳輸雙路8K影像,顯示PC/行動裝置、生態整合的發展趨勢。
家用高速介面應用場景
在家用與個人裝置領域,高速介面帶來更豐富的應用體驗。例如,Thunderbolt和USB4讓外接GPU、高速SSD陣列等成為可能,使用者可藉由單一纜線擴充筆電的圖形和儲存性能。又如高解析度VR頭戴裝置,透過DP或HDMI 2.1提供足夠的影像帶寬以實現流暢體驗。隨著8K電視和120Hz主機遊戲興起,HDMI 2.1已成為新世代影音設備的標配接口,以支援超高畫質內容傳輸。不僅如此,高速介面的普及也加速了裝置間的融合:USB-C逐漸成為萬用連接埠,未來一台家庭電腦或智慧螢幕可能只需幾條USB4線,就能同時連接顯示、儲存、網路與充電功能,實現簡潔的線材配置。總的來說,家用高速介面標準正朝更高速、更整合的方向演進,為消費者帶來更高解析度與更便利的連接體驗。
SerDes技術在交換器/ASIC/GPU內部的角色

來源:電子工程專輯



SerDes的重要性
SerDes(Serializer/Deserializer,串行器/解串器)是一種將並行資料轉換為高速串行資料再傳輸、並在接收端還原的電路技術,廣泛存在於交換器ASIC、網卡、GPU和處理器內部。隨著資料速率提高,傳統寬總線並行連接難以在體積和功耗上持續擴展,因此現代高性能晶片大量採用SerDes做高速串行連接。
在大型乙太網交換晶片上,每個網路埠通常由若干SerDes通道組成,例如400G埠可能由8×56G PAM4 SerDes實現,800G埠則需8×112G SerDes。SerDes的性能直接決定了晶片I/O介面的上限,因此廠商無不投入研發更高速的SerDes IP。目前業界已從56G PAM4 SerDes(支撐25.6Tb/s級交換機)發展到112G PAM4 SerDes(支撐51.2Tb/s交換機),並正向224G世代邁進。Cadence公司已在2023年初於台積電3nm製程上試產了224G-LR長距SerDes PHY,為下一代800G/1.6T網路做好準備。根據IPnest數據顯示,2023年起224G SerDes的商業設計導入開始增加,而112G和56G的需求將逐步下滑,顯示224G SerDes正成為新趨勢。
高速SerDes應用案例

來源:電子工程專輯
在不同場景下,SerDes扮演的角色略有不同:
(1) 晶片對模組(Chip-to-Module, C2M):這是交換機/網卡ASIC與光收發模組之間的介面,通常屬短距(VSR)通道,SerDes需適應連接器和PCB走線帶來的中等損耗。
(2) 晶片對晶片(Chip-to-Chip, C2C):如主交換晶片與轉發晶片間、CPU與南橋芯片間的連接,距離較短但不經光介質,屬中距(MR)場景。
(3) 晶片對背板/銅纜(C2B/Cable):如大型系統中透過背板或被動銅纜連接多台設備,是長距(LR)場景,對SerDes要求最高。112G時代尚可透過優質銅背板達到1~2公尺距離,但在224G下,由於頻率翻倍帶來的損耗增大,即便使用先進材料和連接器,被動銅介質可能難以超過1公尺。
因此,超112G世代的SerDes應用正面臨物理極限挑戰。為改善224G線路,工程上採取多種手段:使用低損耗PCB板材、將光/電接口更靠近ASIC、在路徑中增加Retimer中繼,甚至用高速線纜取代PCB部分走線(flyover)。若這些措施仍不足,則考慮在更高頻帶採用PAM6等更複雜調變方案來權衡性能。目前業界尚在討論224G於長距應使用PAM4或PAM6,但無論哪種,都對SerDes架構提出更嚴苛要求,需要提高ADC解析度、等化算法和時鐘抖動控制等,以在功耗不翻倍的前提下達成翻倍的速率。
對交換機/GPU內部的影響
在超大規模交換機和GPU/加速器內部,SerDes聯結起眾多內外部介面,宛如晶片的「神經網路」。以交換機為例,一顆51.2Tb/s ASIC含有512個112G SerDes,除了連接前面板埠口外,還用於多晶片解決方案的介面(如採用雙die時die間互連)。大量SerDes集成使交換機I/O帶寬得以每2年翻倍,但也貢獻了相當比例的功耗。對GPU而言,除了與主機通訊的PCIe SerDes,GPU之間的高速直連(如NVLink)也是特殊的SerDes鏈路。例如NVIDIA H100 GPU具有NVLink 4互連,總帶寬高達900GB/s,透過多組高速SerDes實現,以加快GPU集群內部資料吞吐。
未來若NVLink進入PAM4世代(224G級),可能率先超越PCIe成為更高速的晶片直連通道。此外,隨多晶片模組(MCM)架構興起,處理器和加速器的Chiplet之間也開始採用SerDes技術(如BoW或USR介面)進行資料通信,兼顧高頻寬與封裝靈活性。可以說,SerDes已成為現代高效能晶片的關鍵基礎IP,誰能掌握領先的SerDes技術,誰就在高階ASIC競賽中取得優勢。正因如此,我們看到像Broadcom、Cadence、Synopsys等皆投入224G SerDes研發,聯發科等臺廠也推出自有長距224G SerDes IP以參與這場技術角逐。
InfiniBand高速網路在AI超級運算中的應用
InfiniBand簡介
InfiniBand(IB)是一種針對高性能計算(HPC)與大型集群設計的網路互連技術,以高頻寬、低延遲著稱。自2000年代初問世以來,InfiniBand的速度演進一向領先於乙太網,同期帶寬往往高出一代。其命名以資料速率倍增為特色:SDR(Single Data Rate)最初每通道2.5Gb/s,4X鏈路達10Gb/s;隨後DDR/ QDR將頻率翻倍到5Gb/s、10Gb/s,4X鏈路帶寬提升至20Gb/s、40Gb/s。
進入2010年代後,又出現FDR(56Gb/s 4X)、EDR(100Gb/s 4X)、HDR(200Gb/s 4X)和當前最新的NDR(400Gb/s 4X)等世代。其中4X表示4通道,一般InfiniBand埠都是四通道組合(如HDR 4×50G=200G)。每代IB速率和命名對應如下:QDR=40G、EDR=100G、HDR=200G、NDR=400G。未來還規劃XDR(暫稱)達800G。InfiniBand的演進步伐之快,使其長期成為超級電腦及AI集群的首選網路:在Top500超算中,InfiniBand布署比例很高,就是因為它提供乙太網難以比擬的超低延遲與零丟包通信機制。
高頻寬低延遲的優勢
InfiniBand從第二層協定開始即與乙太網不同。IB交換機使用16位識別碼(LID)進行路由,封包轉發流程精簡且採用cut-through直通式處理,使端到端延遲可低於100奈秒。相形之下,乙太網交換需查MAC表、可能疊加IP/MPLS等多層,且通常採store-and-forward機制,延遲往往數微秒起跳。在大規模併行計算中,微小延遲差異會被放大為整體性能差異,因此IB的極低時延深受HPC社群青睞。
另外,InfiniBand在設計上實現了無損傳輸:透過鏈路級流控和端到端信用機制,IB網路避免了擁塞丟包,確保資料不需重傳。而傳統乙太網未內建類似機制(除非應用層如RoCE加以實現),遇突發流量時可能產生緩衝溢出丟包,為防止丟包乙太網交換機往往要配置大緩存,既增加成本又殘留不確定性。
因此,在高要求場景下,InfiniBand的可靠性與效率遠勝乙太網。IB還通過硬體RDMA遠端內存存取卸載CPU,提高併行通信效率。所有這些特性讓InfiniBand成為名副其實的高性能網路介面。據統計,一些最新AI超算集群(如微軟、OpenAI的部署)已開始採用400G NDR InfiniBand交換機和網卡,以滿足大模型訓練對巨量資料同步的需求。
NVIDIA DGX與AI應用
自NVIDIA在2019年收購Mellanox後,InfiniBand更成為AI基礎架構的重要組成。NVIDIA的DGX系列AI伺服器內部透過NVLink/NVSwitch連結多GPU,而跨伺服器的連結則採用InfiniBand網路(或者NVIDIA基於IB技術的以太方案)來組建大型GPU集群。以最新的DGX H100為例,每台配置多張NDR 400G InfiniBand網卡,並可透過Leaf-Spine拓撲的Quantum-2交換機組成上千GPU的互聯。InfiniBand獨有的SHARP原位運算引擎還能在交換機上執行All-Reduce等通信操作,減少GPU間同步的延遲,這對分散式深度學習尤為有利。
值得注意的是,隨著AI集群規模愈來愈大,乙太網也在努力追趕,例如100/200/400G乙太網結合RDMA技術(RoCE)試圖進入AI領域。然而NVIDIA今年推出的Spectrum-X以太網平台,實質上也是針對AI調優的方案(包含了InfiniBand的一些加速特性),意圖彌合乙太與IB在AI場景的差距。
未來,乙太網與InfiniBand將在AI超算中並存:前者兼具通用性與成本優勢,後者提供極致性能。NVIDIA明確表示將同時發展兩條產品線。例如,2024年底有望看到800G Ethernet交換機應用於雲端AI資料中心,同時800G InfiniBand(Quantum-3)則服務於超算AI工廠。兩者都朝著1.6T世代演進,其背後都離不開高速SerDes、光模組和協定技術的創新。可以預見,高性能網路在AI時代的重要性與日俱增,無論採用哪種協定,其核心目標都是提供更大的吞吐與更低的延遲,滿足AI大算力對通訊的嚴苛需求。
台灣、中國、美國的供應鏈角色
IC設計與晶片供應
美國在高速傳輸領域掌握絕大多數核心IC設計能力與IP。像交換機ASIC、路由晶片、SerDes PHY等高階晶片主要由美國公司設計(如Broadcom佔據資料中心交換機超過五成市場;Marvell通過併購Inphi等布局光介面與網路SoC)。美國也孕育了許多創新IP公司,如Credo專精於112G PAM4 SerDes和低功耗DSP,在超大資料中心佔有一席之地。Inphi則長期領先於光學通信IC(包括相干光DSP、PAM4驅動/接收芯片),其技術壁壘明顯,2021年被Marvell以約100億美元高價收購。
相較之下,中國本土的高速IC設計尚有差距,但也在迎頭趕上:華為海思過去曾推出200G/400G交換機晶片,不過受制於製程限制未達業界最先進水平。近年中國新創如寒武紀(Cambricon)等也研發AI互連晶片,但整體而言中國在>50G SerDes、400G以上網路ASIC方面仍依賴國際供應。
臺灣在IC設計端的角色主要是支援性的:少數公司如聯發科、瑞昱在乙太網PHY、PCIe Retimer等特定領域有產品,但在最高端的資料中心交換ASIC/NIC方面並非領導者。不過臺灣矽智財公司矽創(Faraday)、力旺(eMemory)等提供IP授權,間接參與了高速晶片設計供應鏈。
晶圓代工與封裝測試
臺灣握有全球晶圓製造和先進封裝的關鍵。台積電(TSMC)以5nm、3nm等節點為Broadcom、Marvell、NVIDIA等公司代工高速網路晶片,使後者得以及時採用最先進製程實現性能領先。例如Broadcom的Tomahawk 5交換機採用5nm製程;Cadence的224G SerDes亦在TSMC 3nm上試產。
這種晶圓代工優勢是台灣供應鏈的核心價值。此外,台灣封測廠如日月光(ASE)、矽品等深度參與高階網路IC的封裝與測試。一些創新封裝技術(如CoWoS、InFO、扇出型封裝)由台積電或OSAT業者提供,幫助實現如HBM高頻寬記憶體與交換ASIC同封裝、甚至光電共封裝CPO的工藝。
值得一提的是,CPO對封裝水平要求極高,TSMC也推出整合光子的封裝平台(如COUPE光子引擎),臺廠在這方面具備潛在競爭力。中國在代工和封裝環節近年進步明顯(中芯國際、長電科技等),但在3nm~5nm最尖端製程上與台積電尚有明顯差距。美國則已幾乎不生產先進邏輯芯片,主要依賴台灣與韓國晶圓廠供應,這也是高速傳輸晶片供應鏈的地緣挑戰之一。
光模組與器件製造
中國已成為光收發模組製造的最大基地。全球前十大模組廠裡中國佔據七席,包括中際旭創(Innolight)、新易盛(Eoptolink)、華為(Huawei)海思光電、光迅科技(Accelink)、海信寬帶(Hisense Broadband)、華工正源(HG Genuine)等。這些廠商在100G/200G數據中心光模組時代迅速崛起,以性價比和靈活交付獲得國內外雲計算客戶青睞。
尤其是中際旭創與新易盛已打入國際一線雲服務商以及NVIDIA AI集群供應鏈,成為中國高階光模組的旗艦代表。中國在光源器件(如激光器、光電探測器)領域也有所布局,但高端雷射晶片仍部分仰賴美國II-VI(科赫)、Lumentum等供應。
美國的光模組製造份額則經歷整合後有所下降,目前主要玩家包括Coherent(Finisar)與思科光通信(Cisco, 含Acacia相干產品)。他們多專注於400G以上高階模組和相干光器件,如Acacia主導相干400G CFP2-DCO市場。另一美國廠商AOI(Applied Optoelectronics)在美中兩地生產資料中心光模組,以垂直整合雷射器聞名,是少數仍具備自行生產雷射+模組能力的企業之一。
臺灣本土的光模組廠相對較少,過去有光寶等經營10G/40G模組,但未持續投入更高階產品。臺廠更多是透過合作與代工參與,如新竹的波若威(Accelink Taiwan)曾為中國光迅在台基地。近期也有廠商投入矽光子組裝測試等領域,例如穎崴(Invec)等設備商為矽光封裝提供解決方案。整體來看,中國以產能規模及成本優勢掌握光模組製造,美國則以技術創新與高階市場為主,臺灣扮演供應鏈支援和特定環節代工的角色。
系統設備與整合
在最終的網路設備和系統整合環節,美中各有一線廠商:美國擁有Cisco、Arista、Juniper等網路設備巨頭,產品涵蓋資料中心交換器、路由器到企業級網路。Cisco長年主導電信和企業網市場,也布局資料中心400G/800G交換機。Arista則專注雲數據中心交換器,以軟硬體解耦、速度快著稱,其對高速以太網演進持樂觀看法。美國廠商也提供整體超算互連方案,如HPE的Slingshot網路專為超算設計。
中國方面,華為是網通設備龍頭,提供從電信級路由器到雲數據中心交換機的全套產品。其CloudEngine系列交換機已推出400G型號,800G產品據報亦在研發。華為在國內AI數據中心市場扮演重要供應商角色,並透過自研協同(如昇騰AI與網絡設備)打造解決方案。除華為外,中興通訊、新华三(H3C)也在中國資料中心網路有一席之地。
臺灣則以ODM/OEM模式參與系統整合:如Accton、Wistron、Foxconn等替國際品牌或雲端客戶代工生產交換機和伺服器。白牌交換機的興起讓臺灣ODM成為隱形推手,例如Accton提供Facebook/Meta等超大規模資料中心的100G/400G交換機硬體設計與製造。此類JDM模式(合作設計製造)使臺廠深入高階網路設備供應鏈,而最終系統由美國大廠或雲公司掌控品牌和軟體生態。綜合而言,美國強在核心晶片與系統架構,中國強在光電製造與本土市場,臺灣則以製造實力和靈活配合成為各方的關鍵夥伴。
主要供應商與技術門檻比較
高速傳輸產業涵蓋多層次技術,孕育了一批各具專長的供應商。以下列出數家具代表性的廠商並比較其技術優勢:
Broadcom(博通)
來自美國的業界巨頭,在乙太網交換機ASIC、網路交換晶片領域處於領先地位。Broadcom的StrataXGS與Jericho系列交換晶片廣泛用於資料中心交換機,其Tomahawk5晶片率先達到51.2Tb/s容量(5nm工藝)。Broadcom還具備SerDes IP領先優勢,最早推出112G PAM4內核並研發224G技術。此外,Broadcom透過收購Avago、博科等取得了光收發器、光引擎技術(Avago過去本就是光元件大廠)。
它在CPO共封裝光學上業界率先商用,功耗和密度優勢顯著。Broadcom技術門檻高在於對先進製程和混合訊號設計的掌握,以及產品線廣度(從交換晶片、網卡、PCIe switch到光器件應有盡有)。目前Broadcom也涉足AI專用晶片(如為谷歌等客製加速器),預計未來數年AI網路相關營收將大增。整體而言,Broadcom以研發和併購提高護城河,其交換晶片方案和光連接技術均處行業領先位置。
Marvell(邁威爾)
美國半導體公司,透過一系列收購轉型為資料基礎設施芯片供應商。在高速傳輸領域,Marvell擁有Prestera系列乙太網交換芯片和OCTEON網路處理器,雖市場份額不及Broadcom但也有一定佈局。同時Marvell在2021年併購Inphi後,大舉進軍光通信晶片市場。Inphi帶給Marvell強大的PAM4 DSP和相干光學收發器技術,Marvell因而能提供完整的400G/800G光模組內晶片解決方案。據報導,Marvell正研發基於6.4Tb/s硅光引擎的1.6T光模組和相應交換平台。
Marvell的技術門檻在於數模混合設計和系統級方案能力:它能將DSP、驅動器、TIA等整合,打造低功耗的光連接ASIC。相對Broadcom,Marvell規模略小但勝在靈活多樣,尤其在AI和雲端趨勢下,Marvell提供定製ASIC(如雲端專用加速器)與標準產品並行策略,爭取高速網路新機會。總的來說,Marvell屬第二梯隊的多領域玩家,技術覆蓋交換、PHY、光電接口,壁壘亦相當高,未來能否挑戰Broadcom部分領域地位值得關注。
Credo(科立諾)
創立於美國的高速連接解決方案公司,由於創辦團隊有臺灣背景,在臺亦設有研發。Credo專注於SerDes PHY和低功耗DSP,其特色是在滿足性能的同時極力降低功耗與成本。Credo的112G PAM4 SerDes以及各種Retimer/齒輪箱晶片已打入多家超大規模資料中心的鏈路方案,特別是在400G/800G AOC有源線纜和被動背板應用中享有聲譽。
2021年Credo發布了“Black Hawk”系列PAM4 DSP retimer,可支援800G(16×50G PAM4)鏈路並比同類產品功耗低一半。其32通道裝置能提供端到端信號完整性,適用於驅動QSFP-DD/OSFP模組、AEC線纜等多種場景。Credo成功的關鍵在其獨特架構與類比混合信號專長,將DSP演算法和電路設計優化結合,實現業界領先的每bit功耗(pJ/bit)。技術門檻方面,Credo作為新創雖規模不大但掌握難以複製的類比IP,同時靈活滿足不同應用需求,已建立良好口碑。未來隨800G、1.6T互連興起,Credo這類垂直領域專家有望繼續在巨頭縫隙中拓展市場。
Inphi(英飛凌光電,現屬Marvell)
Inphi原是美國高速通信晶片領導廠,專精於電光接口的訊號處理。其產品包括10G~400G的跨阻放大器(TIA)、驅動放大器,以及50G PAM4 DSP、相干光收發DSP等,廣泛用於光模組和相干傳輸系統。Inphi的PAM4 DSP在100G per lambda技術上處於先發地位,推動了單波100G PAM4在400G QSFP-DD、ZR相干模組中的實現。由於Inphi長期聚焦高速類比/數位混合電路,累積了深厚的技術know-how和專利,使其產品具備高性能、低功耗的競爭力,是該領域的“隱形冠軍”。
Marvell收購Inphi後,將其整合為自家光互連部門,大幅提高了Marvell在400G/800G模組晶片和相干光市場的實力。Inphi的技術門檻在於高速信號處理演算法與電路設計融合的能力,加上對製程特性的極致運用(例如在16nm/7nm上設計高速ADC/DSP)。這種能力並非一朝一夕可得,也很難靠砸錢短期追上,因而Inphi系統所構築的壁壘極高。展望未來,Inphi團隊有望協助Marvell率先推出1.6T PAM4平台等,繼續扮演高速傳輸技術推手。
AOI(Applied Optoelectronics Inc,應用光電子)
AOI是由臺灣裔創辦人在美國成立的光網路元件公司,主要產品為光收發模組和雷射器,服務資料中心、電信和CATV等市場。AOI的特色在於垂直整合:自行生產半導體雷射(二極體)晶片、做組件封裝,再組裝成光模組。這使AOI在成本和技術控制上有一定優勢。該公司早期以10G/40G模組為主供貨數據中心,近年亦推出100G/200G甚至400G模組產品。
2023年AOI宣佈已向一主要超大規模客戶大量出貨高速光模組,市場推測客戶可能是Meta或Microsoft。AOI能取得這類訂單,表明其技術和量產能力得到一線客戶認可。技術上,AOI的門檻在於長年累積的製程經驗:如如何在MOCVD機台上成長高可靠度的DFB雷射陣列晶片,如何優化40Gb/s、100Gb/s短距VCSEL模組良率等。雖然AOI規模不及中企龍頭,但其美國背景有助拿下北美客戶,且垂直整合模式在供應鏈緊張時展現優勢(自家有晶圓廠,不完全依賴外部供料)。未來AOI若能順利擴充400G以上產品線並控制良率成本,將有機會在高階模組市場站穩一席之地。
Accelink(光迅科技)
中國老牌光電子企業,背靠央企訊號源研究所,產品線涵蓋光收發模組、光放大器、光開關等。Accelink在中國電信級光模組市場長期佔優,100G以下產品穩定量產。面對數據中心高速模組浪潮,光迅近年也加大投入400G/800G領域,並與業內公司合作攻關硅光子技術。例如2022年光迅與思科合作開發了1.6T OSFP-XD矽光模組,顯示其希望在下一代技術上取得突破。不過就當前情況,Accelink在400G數據中心模組市占上稍遜於新興民營企業(如旭創、新易盛),這與其體制和市場靈活度相關。
技術門檻方面,Accelink具有完整產品線和上游資源(如自有光速晶片產線),但如何將傳統電信級可靠性優勢轉換為低成本高速模組的競爭力,是其面臨的課題。相對而言,光迅科技的技術護城河在於長期耕耘的光器件封裝能力和品質管控,但在高速PAM4 DSP、先進封裝等方面可能需依賴外部夥伴。未來若能整合國內研究力量(例如與院所合作矽光晶片),光迅仍有潛力在中國乃至全球高速光模組市場占有重要位置。
(以上僅列舉部分代表廠商,其他如思科(Cisco)、Arista、Intel(在PCIe/CXL領域)、Lumentum(Coherent optics)等在各自領域亦有技術領先之處。)
產業趨勢、應用需求變化
AI與雲端主導需求
當前產業最強勁的驅動力莫過於人工智慧訓練和雲端數據中心。大型AI模型的訓練需要數千甚至上萬顆GPU協同計算,這對網路提出了前所未有的帶寬與延遲要求。例如OpenAI的GPT模型訓練使用專門構建的GPU超算集群,其中內部通信成為瓶頸之一。為降低同步開銷,AI集群正全面升級到200G HDR、400G NDR InfiniBand網路,甚至開始規劃800G級別互連。LightCounting預測,2024年用於AI集群的乙太網光模組銷售額將翻倍,整體光模組市場規模超過176億美元。可以說,AI時代帶來對高速傳輸前所未見的爆發式需求。
同時,超大規模雲廠(如Google、Amazon、Meta等)也在建設新一代資料中心,其網路升級路徑幾乎與AI同步:伺服器從25G升到50G/100G端口,骨幹網從100G升到400G/800G交換。這些都在牽引光器件、交換晶片產業高速前進。另一方面,邊緣運算的興起則對網路提出分散部署和低成本的要求。許多邊緣資料中心規模較小,可能採用25G、100G等相對低速的互連,但要求容易部署和耗能低。因此我們看到一些小型高速標準(如50G PAM4電纜、行動回傳用的50G BiDi光模組等)開始湧現,以適應5G基地台、邊緣伺服器之需。未來隨IoT和車聯網裝置數量暴增,邊緣節點之間也許會形成迷你雲,對應的小型交換和低延遲協定(如TSN時間敏感網路)可能獲得發展。但總體來說,雲端+AI仍將是未來數年高速傳輸市場的主角,相關投資與研發將圍繞這兩大場景展開。
技術趨勢與融合
在技術發展路線上,可以明顯感受到電子和光學正在加速融合。共封裝光學(CPO)和光電I/O(OIO)正是為了打破電子傳輸瓶頸而生的技術。CPO將光引擎移至ASIC晶片鄰近,已被視為未來交換機提高埠速的可行方案。初代CPO產品(如Broadcom Bailly)已證明其大幅節能的價值。展望5年內,800G~1.6T速率的交換機有望逐步採用CPO架構,以控制I/O功耗和體積。
Optical I/O的概念可能興起,即將光連接延伸至處理器/加速器的封裝中,甚至直接作為晶片之間的總線。新創公司Ayar Labs等已做出樣品,採用微型光模組作為晶片let互連,據稱單線帶寬可達200Gb/s/mm,功耗僅為銅互連的1/10。Yole預測在2030年前後,OIO有機會提供1000倍於傳統電I/O的頻寬密度。這意味著屆時處理器與記憶體、加速器之間的溝通將跳脫銅線限制,進入光子傳輸時代。
當然,目前OIO仍處研發初期,業界預期2026年左右才可能看到初步量產應用。總之,光纖取代銅纜線是高速傳輸領域的趨勢:愈來愈多信號轉為光傳輸,銅纜與電背板逐步讓位於光纖和光波導。同時,先進封裝(如2.5D/3D Chiplet整合)也與互連技術緊密結合,未來高性能系統將是封裝技術、SerDes/光I/O、熱管理的全方位創新。
產業挑戰
儘管前景光明,高速傳輸領域也面臨不少挑戰。首先是物理極限與工程難題:隨頻率進入數十GHz以上,信號完整性保證、製造公差、測試成本都呈指數級上升。224G PAM4 SerDes的時脈單位(UI)不到10皮秒,任何矽寄生、抖動都考驗設計功力。如何在不爆炸性增加功耗下實現更高速度,是晶片設計的持續難題。目前普遍的做法是依賴DSP來補償通道損益,但DSP也帶來功耗和延時,因此有廠商開始探索模擬等化或新調變(如PAM6、PAM8甚至MLSD等)作為折衷。
其次是成本與良率問題:高速光電器件往往需要先進製程和更複雜封裝,導致單價居高不下。例如800G光模組初期報價昂貴,只有AI訓練這類應用願意投產。隨著需求放量,如何降低成本、提高良率是供應鏈需共同面對的挑戰。這涉及從矽光晶片規模化生產(目前矽光仍處於相對小眾的生產線)到光纖陣列封裝自動化等各方面的努力。
第三,標準與生態的挑戰:高速傳輸標準眾多且迭代快,產業需要在競合中尋找平衡。例如,InfiniBand和乙太網在HPC領域的路線之爭;PCIe 6.0和CXL 3.0在CPU-GPU連接上的協調;DisplayPort與USB4/Thunderbolt在PC介面的整合等。在這些標準競爭中,背後其實是巨頭生態的競合,既要推動技術演進又要顧及相容性與市場接受度。
最後,地緣政治因素也為產業增添不確定性:美中技術緊張導致高端晶片供應限制,一方面中國廠商積極研發替代方案,另一方面美國企業失去部分市場,可能削弱規模效應,不利於全球協作創新。
領趨觀點:投資與機會展望
在產業轉折點上,也孕育著大量投資機會。未來數年值得關注的幾大方向包括:
高速SerDes和IP
隨224G時代來臨,擁有成熟112G產品線的IP供應商將受青睞,而能率先推出可靠224G解決方案者更將獲大量訂單。Cadence、Synopsys這類IP巨頭自不待言,新興IP公司如Alphawave(英國)也值得注意,其在高階SerDes和介面IP上擴張迅速。
AI數據中心網路設備
由於AI浪潮,交換機、路由器廠商迎來新一輪升級換代需求。Arista Networks等專注雲端交換的公司在近一年股價大漲,即反映市場對其800G/1.6T產品出貨前景的看好。同時,任何能顯著降低AI集群網路功耗的創新(如Spectrum-X這類專用網路架構)都有可能成為投資亮點。
關鍵零組件與設備
高速測試儀器、光封裝設備等隨著技術演進也有升級需求。能提供112G/224G信號分析儀、探針臺的測試廠商,如Keysight是隱形受益者。又如能實現高速光器件自動耦合封裝的設備企業,在矽光規模化過程中相當重要。
結語
高速傳輸技術是現代數位經濟的命脈。無論是人工智慧模型訓練的海量參數同步,還是日常生活中4K/8K影音的即時傳送,都有賴於底層互連技術的不斷創新。從100G到800G,以太網路在短短數年間完成了跨越,但同時也將面臨更嚴峻的挑戰。PCIe、USB等通用介面則以每數年翻倍的步伐,使裝置之間的連接更加順暢。
光與電的融合趨勢日益明顯,矽光子和共封裝光學預示著未來資料中心的模樣。在這場技術競賽中,美國企業憑藉研發和IP優勢居主導地位,中國廠商則依循製造和市場規模迅速崛起,臺灣扮演關鍵製造與供應角色。
展望未來,高速傳輸產業將朝著更高速、更節能、更智能的方向發展,以滿足AI時代、雲時代對資料溝通的要求。在產業與資本的合力推動下,高速傳輸領域的創新步伐將不會減緩。高速傳輸產業將持續創新,從800G、1.6T到未來的3.2T甚至更高,連接世界的速度仍在加快。
參考資料:
- 茂綸股份有限公司 – 《邁向兆位元時代:NVIDIA 800G/1.6T 高速網路解決方案全面解析》(2025)。
- 飛速科技 FS.com – 《800G以太網發展新趨勢》(2024)。
- 中金公司研究部 – 《PCIe發展特快車》(2023)。
- 中金公司研究部 – 《AI帶動通訊傳輸升級》(2023)。
- 電子工程專輯 – 《共封裝光學(CPO)技術及市場-2024版》(2024)。
- 國信證券 – 《通信行業2025年投資策略》(2025)。
- 國信證券 – 《通信行業2025年投資策略》(2025)。
- 國信證券 – 《通信行業2025年投資策略》(2025)。
- Granite River Labs – 《Thunderbolt 5、4與USB4差異概述》(2024)。
- 飛速科技 FS.com – 《InfiniBand與以太網:它們是什麼?》(2024)。
- CSDN部落格 – 《InfiniBand網絡帶寬從SDR到NDR發展》(2023)。