H100
- 架構:Hopper 架構(針對 AI 訓練與推理的 GPU)。
- 製程:台積電 4nm 製程。
- 電晶體數量:約 800 億。
- 記憶體:
- 設計:單一晶片(非 Chiplet)。
- 主要應用:
- 技術特點:
- 支援 NVLink,實現晶片間高速連接。
- 適合資料中心運算。
B200
- 架構:Blackwell 架構(H100 的進化版)。
- 製程:台積電 4nm 製程。
- 電晶體數量:約 2,080 億(H100 的 2.6 倍)。
- 記憶體:
- 支援 HBM3e 記憶體,容量最大達 192GB。
- 設計:Chiplet(多晶片組),通過 NVLink-HBI 技術提升互聯性能,傳輸速度高達 10TB/s。
- 主要應用:
- 大型語言模型(LLM)訓練與推理。
- 超高效能運算需求。
- 技術特點:
- 整體性能顯著提升,適合更複雜和大規模的 AI 訓練場景。
- 更優化的能效比。
GB200
- 架構:Grace Hopper 超算設計(Grace CPU + Blackwell GPU 整合)。
- 製程:台積電 4nm 製程。
- 設計:
- 由 B200 GPU 和 Grace CPU 集成而成。
- 採用 NVLink-C2C 技術,實現 CPU 和 GPU 高速互聯。
- 記憶體:
- 支援 HBM3 記憶體和 LPDDR5,提供超高頻寬。
- 主要應用:
- 即時推理、訓練大型語言模型(LLM)。
- 超算與高效能數據處理需求。
- 技術特點:
- CPU 與 GPU 的深度整合適合複雜的 HPC 和 AI 工作負載。
- 優化整體性能和功耗。
關鍵差異總結
- H100:單晶片設計,適合 AI 和 HPC 工作。
- B200:採用 Chiplet 設計,性能大幅提升,支援更高級的 AI 訓練需求。
- GB200:結合 CPU 和 GPU,專注於超算和複雜的 AI 應用。
三者之間最大的差異在於設計架構、記憶體技術以及目標應用場景。