在COMPUTEX 2025展會上,各家伺服器廠商展示了其最新一代的AI運算系統,包括針對個人使用的DGX系列、數據中心級的HGX平台以及模組化的MGX架構。這些產品代表了AI基礎設施的最新發展,為從邊緣到雲端的AI運算帶來明顯的性能提升。本文將深入分析這些系統的技術特點、創新之處及其對AI產業的影響。
NVIDIA DGX個人AI超級電腦:從桌面到AI工廠
NVIDIA在本次展會重點展示了兩款針對個人AI開發者與研究人員的DGX系列產品:小型的DGX Spark與高性能的DGX Station。這些系統將原本只存在於數據中心的強大AI運算能力帶到了桌上型設備。
DGX Spark:世界最小的AI超級電腦
DGX Spark(原Project DIGITS)是NVIDIA推出的最小型AI超級電腦,專為研究人員、數據科學家、機器人開發者和學生設計。這款小巧但功能強大的系統具有以下特點:搭載NVIDIA GB10 Grace Blackwell超級晶片;配備128GB LPDDR5x統一系統記憶體,直接配置在電路板上;提供高達1 PFLOPS的AI運算能力,可單獨執行200B參數的模型;當連接兩台DGX Spark時,可支援高達405B參數的模型推論;採用NVIDIA ConnectX網路技術,達成系統互連,目前已開放預訂。DGX Spark採用AI原生設計,不是為了通用運算而設計,而是專門為AI開發需求打造。系統預裝基於Ubuntu的DGX OS,包含最新的NVIDIA AI軟體堆疊,並提供對NVIDIA NIM微服務與NVIDIA Blueprints的存取權限。
DGX Station:桌面級AI超級工作站
相比DGX Spark,DGX Station提供了更強大的性能,適合處理大規模AI訓練與推論任務:搭載NVIDIA Grace Blackwell Ultra超級晶片;配備高達784GB的大型一致性記憶體(496GB LPDDR5X + 288GB HBM3e);提供高達20 PFLOPS的AI運算性能,足以訓練1兆參數模型;整合NVIDIA ConnectX-8 SuperNIC,提供每秒800Gb的網路頻寬;支援NVIDIA多實例GPU(MIG)技術,可分割為7個獨立執行實例。
DGX Station專為AI工作站級應用打造,可作為單一使用者的個人工作站,也可作為多人共享的集中式運算節點。系統同樣採用AI原生設計,以DGX OS為基礎,為AI開發提供最佳環境。
HGX數據中心AI平台:AI工廠的核心引擎
NVIDIA HGX平台是大規模AI訓練與推論的基礎設施,在COMPUTEX 2025上,NVIDIA展示了最新的HGX B300系列,代表了數據中心級AI加速技術的最新發展。
HGX B300 NVL系列:為推理時代打造
HGX B300系列標誌著NVIDIA命名方式的轉變,現在強調通過NVLink連接的計算芯片數量,而非GPU封裝數量。主要特點包括:提供NVL8、NVL16和NVL72等多種配置,適應不同規模需求;HGX B300 NVL16配備16個Blackwell Ultra GPU,提供高達2.3TB的HBM3e記憶體;FP4 Tensor Core性能達144 PFLOPS,較前代提升顯著;NVLink 5 Switch提供1.8 TB/s的GPU互連頻寬,總NVLink頻寬達14.4 TB/s;網路頻寬提升至1.6 TB/s,是前代的2倍;LLM推論性能比前代提升11倍,專為生成式AI推理優化;GB300較GB200提供1.5倍HBM容量、2倍頻寬及1.5倍算力。
HGX B300 NVL72是整機櫃解決方案,配備18台伺服器,每台支持由4顆NVIDIA Blackwell Ultra GPU和2顆NVIDIA Grace CPU組成的GB300 Grace Blackwell Ultra超級晶片。整個系統採用全液冷設計,專為AI推理時代打造,為大規模模型推論提供最佳性能。


NVLink Spine與NVLink Fusion:擴展互連能力
NVIDIA還展示了NVLink Spine技術,包含5,000條同軸線纜,可連接72個GPU,總頻寬達130 TB/s,超越全球整個互聯網的高峰總流量。
NVLink Fusion是COMPUTEX 2025的重要亮點,允許企業構建半客製化AI基礎設施:任何想建設數據中心的企業,無論是否使用NVIDIA AI GPU,都能搭配使用NVLink;協助企業將半客製化AI基礎設施擴展到超級電腦級別的運算能力;客戶可與世芯-KY、Astera Labs、Marvell、聯發科等合作夥伴獲得NVLink Fusion晶片設計服務;富士通、高通等公司正設計自己的CPU,並將整合NVLink。
MGX模組化架構:企業AI基礎設施的彈性方案
NVIDIA MGX是一種模組化服務器架構,為企業級AI應用提供靈活、可擴展的解決方案。本次COMPUTEX上,多家合作夥伴展示了基於MGX的系統。
MGX系統特點與合作夥伴
MGX平台的主要特點包括:提供超過100種可客製化配置,滿足不同規模和類型的AI工作負載;支援NVIDIA RTX PRO 6000 Blackwell伺服器版GPU或NVIDIA H200 NVL GPU;LLM推論效能比前代提升1.8倍,HPC性能提升1.3倍;基於MGX架構的伺服器如MiTAC G4527G6可支持多達8張NVIDIA GPU;兼容Intel Xeon 6處理器,最高支持8TB DDR5-6400記憶體;整合NVIDIA ConnectX-8 SuperNIC,提供高達每秒800Gb的網路連接;支持NVIDIA BlueField-3 DPU,強化南北向數據傳輸能力。
參與MGX生態系統的合作夥伴包括Advantech研華科技、GIGABYTE技嘉、LITEON光寶科技、MiTAC神雲科技等,他們展示了各自基於MGX架構的解決方案。這些系統專為企業級AI、代理AI、物理AI工作流程、自主決策與即時數據分析等應用場景設計,為未來企業AI奠定基礎。
RTX PRO Server:專業視覺運算與AI加速
NVIDIA也推出並已開放購買RTX PRO Server,該系統基於MGX架構,特點包括:搭載8張RTX PRO 6000 Blackwell GPU,配備96GB GDDR7記憶體;總共800GB記憶體,集成ConnectX-8 SuperNIC Switch;AI運算性能達30 PFLOPS,RTX圖形運算效能3 PFLOPS;RTX PRO Server Rack則搭載4台RTX PRO Server,算力達120 PFLOPS;適合專業視覺運算與AI加速應用場景。
網路與互連技術:AI基礎設施的神經系統
ConnectX-8 SuperNIC:AI網路的基礎
NVIDIA ConnectX-8 SuperNIC是NVIDIA AI網路產品組合的關鍵元件,在本次展會中得到廣泛應用:提供高達每秒800Gb的InfiniBand與乙太網路連接速度;支持NVIDIA SHARP技術,具備先進的擁塞控制與In-Network Computing能力;專為在GPU密集型環境中加速LLM訓練、推論及萬億參數AI模型設計;在HGX B300 NVL72系統中,每個節點配備4顆ConnectX-8 SuperNIC。
液冷技術:支持高密度AI運算
隨著AI系統功耗不斷提升,液冷技術成為維持系統穩定運行的關鍵:HGX B300 NVL72採用全液冷設計,實現高密度高性能運算;QCT QoolRack側車式液冷解決方案,專為滿足次世代AI基礎設施的高散熱需求;無需進行基礎設施改造,可無縫整合至現有的氣冷數據中心;提升電力使用效率(PUE)與永續性,為高功率AI工作負載提供支持。
結論:NVIDIA重塑AI基礎設施生態
在COMPUTEX 2025上展示的DGX、HGX與MGX系統代表了當前AI基礎設施的最新發展。從個人開發者使用的DGX Spark與DGX Station,到企業級的MGX平台,再到大規模數據中心的HGX系列,NVIDIA提供了覆蓋全場景的AI加速解決方案。透過NVLink Fusion技術,NVIDIA不僅擴展了自身產品的性能邊界,也為合作夥伴提供了構建半客製化AI基礎設施的能力。這一開放策略將加速AI基礎設施的創新與發展,推動AI技術在各行業的應用與落地。隨著AI模型規模和複雜度的不斷增長,高效能、可擴展的基礎設施將成為AI發展的關鍵。NVIDIA通過持續創新和生態系統建設,鞏固了其在AI基礎設施領域的領導地位,也為下一代AI應用提供了強韌的基礎設施。