2024-05-31|閱讀時間 ‧ 約 0 分鐘

降低AI資料傳輸能耗,Drunkenmiller也看好矽光子高成長未來?

raw-image

AI資料中心基礎設施需要加速運算、加速連接和加速儲存。與其他應用程式不同,AI應用程式(例如訓練)無法輕鬆安裝在單一處理器上。AI需要互連的處理器——有時是數千甚至數萬個——這意味著運算和連接(connectivity)從根本上連結在一起。

AI 需要4個 networks

  1. 運算結構 Compute Fabric: 連接 AI加速器、GPU、CPU 和伺服器內的其他元件。此結構設計用於短距離高速運行,通常依賴使用 PCIe 的銅或 NVLink 等專有介面。
  2. 後端網路 backend network: 透過層層互連的網路交換器(network switch)和光模組(Optical module),將上述伺服器連接成AI 集群(clusters)。networking protocol是 InfiniBand 或以太網(Ethernet),但這兩種協定都運行在光模組上。
  3. 前端網路 frontend network:將AI clusters 連接到雲端資料中心進行儲存、交換等。位於AI伺服器內部的CPU將資料移入和移出,每個CPU都有自己的NIC(network interface controller),連接到自己的光學模組。前端網路使用乙太網路protocol
  4. 資料中心互連(Digital Canter interconnect, DCI):使用 100 公里或更長的連結將一個資料中心連接到該地區的其他資料中心。


長期以來,矽光子(Silicon Photonics, SiPh)一直被譽為幫助資料中心應對日益增長的頻寬需求並改善伺服器和交換器之間連接性的解決方案。該技術涉及使用矽代替玻璃作為光傳輸介質來創建光子積體電路。

使用矽光子技術的短距離光互連通過實現低功耗和更高的熱效率 (pj/bit) 的高速數據傳輸提供了一種解決方案。這對於減少熱量產生和保持系統高效運行非常重要。矽光子的集成可以創建更小、更密集的光子積體電路 (PiC),從而促進對 AI/ML 工作負載至關重要的高密度頻寬連接。

雲端資料中心營運商必須不斷擴大容量,以滿足客戶對頻寬的永不滿足的需求,在人工智慧等應用的快速部署的推動下,頻寬需求目前以每年 50% 以上的速度成長。同時,他們必須克服嚴格的成本、可靠性和功耗挑戰,以維持經濟可行性。

光模組(Optical modules)是資料中心內部保持資料移動的關鍵環節。他們是數據基礎設施領域的無名英雄之一。

Marvell的長線故事

付費訂閱
分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

IEO 國際財經科技前沿觀察 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.