H100架構:Hopper 架構(針對 AI 訓練與推理的 GPU)。製程:台積電 4nm 製程。電晶體數量:約 800 億。記憶體:支援 HBM3 記憶體,容量最大達 80GB。設計:單一晶片(非 Chiplet)。主要應用:AI 訓練與推理。高效能運算(HPC)。技術特點:支援 NVLink,實現晶片間高速連接。適合資料中心運算。B200架構:Blackwell 架構(H100 的進化版)。製程:台積電 4nm 製程。電晶體數量:約 2,080 億(H100 的 2.6 倍)。記憶體:支援 HBM3e 記憶體,容量最大達 192GB。設計:Chiplet(多晶片組),通過 NVLink-HBI 技術提升互聯性能,傳輸速度高達 10TB/s。主要應用:大型語言模型(LLM)訓練與推理。超高效能運算需求。技術特點:整體性能顯著提升,適合更複雜和大規模的 AI 訓練場景。更優化的能效比。GB200架構:Grace Hopper 超算設計(Grace CPU + Blackwell GPU 整合)。製程:台積電 4nm 製程。設計:由 B200 GPU 和 Grace CPU 集成而成。採用 NVLink-C2C 技術,實現 CPU 和 GPU 高速互聯。記憶體:支援 HBM3 記憶體和 LPDDR5,提供超高頻寬。主要應用:即時推理、訓練大型語言模型(LLM)。超算與高效能數據處理需求。技術特點:CPU 與 GPU 的深度整合適合複雜的 HPC 和 AI 工作負載。優化整體性能和功耗。關鍵差異總結H100:單晶片設計,適合 AI 和 HPC 工作。B200:採用 Chiplet 設計,性能大幅提升,支援更高級的 AI 訓練需求。GB200:結合 CPU 和 GPU,專注於超算和複雜的 AI 應用。三者之間最大的差異在於設計架構、記憶體技術以及目標應用場景。