🟩 NVIDIA AI Scale Roadmap
(H100 → H200 → B200 → GB200 → Rubin)
這條 roadmap 是近年 AI 基礎設施最重要技術演進之一。
本質是一條:
AI 模型 scaling 需求 → GPU 架構 → 系統級算力
演化鏈。
可理解為:
GPU → GPU + memory → GPU infra → rack computer → AI factory
下面逐代解析 👇
🟩 ① Hopper 時代 — H100(AI GPU 起點)
👉 NVIDIA H100
⭐ 核心定位
- GPT-4 時代訓練 GPU
- 第一個「LLM optimized GPU」
⭐ 技術突破
- Transformer Engine
- FP8
- NVLink4
- HBM3
⭐ 意義
👉 AI GPU commodity 化
AI 訓練從 HPC 變成標準 GPU 叢集
🟩 ② Hopper Refresh — H200 (記憶體 scaling)
👉 NVIDIA H200
⭐ 核心定位
- 推理與 memory-bound AI
⭐ 技術突破
- HBM3e
- bandwidth ↑
- memory ↑
⭐ 意義
👉 LLM memory bottleneck 被解決
scaling 從 compute-bound → memory-bound
🟩 ③ Blackwell — B200(AI infra GPU)
👉 NVIDIA B200
⭐ 核心定位
- frontier model training
- trillion parameter AI
⭐ 技術突破
- Blackwell Tensor Core
- multi-die GPU
- FP4
- NVLink5
⭐ 意義
👉 GPU → AI infrastructure component
GPU 不再是 device,而是 infra element
🟩 ④ Grace-Blackwell — GB200(superchip 時代)

👉 NVIDIA GB200
⭐ 核心定位
- AI factory node
- rack computer
⭐ 技術突破
- Grace CPU + GPU
- coherent memory
- NVLink switch fabric
- memory pooling
⭐ 意義
👉 Computer = rack
主機板 → 機櫃
這是 computing paradigm shift。
🟩 ⑤ Rubin(未來世代)
👉 NVIDIA Rubin
⭐ 預期定位
- post-Blackwell AI infra
⭐ 預期方向
- 更高 NVLink scale
- photonic interconnect(市場預期)
- memory fabric
- AI factory native design
⭐ 意義
👉 Datacenter = accelerator
整個資料中心成為計算單元
⭐ AI scaling roadmap(核心圖)
H100 → H200 → B200 → GB200 → Rubin
GPU GPU+M infra rack factory
⭐ 每一代解決的 bottleneck

👉 這就是 AI scaling 本質
⭐ Paradigm shift(最重要)
🔷 pre-AI era
CPU → server → cluster
🔷 AI era
GPU → superchip → rack → factory
👉 compute hierarchy 被重寫
⭐ 一句話總結
H100 = AI GPU
H200 = memory AI GPU
B200 = AI infrastructure GPU
GB200 = rack computer
Rubin = AI factory primitive


