🟩 NVIDIA 全 GPU Hierarchy(RTX 5090 → RTX Pro → H200 → B200 → GB200)
NVIDIA GPU 並不是單一產品線,而是完整算力層級架構。
可理解為:
PC → 工作站 → 單卡 AI → AI 基礎設施 → AI 超級系統
以下是完整 hierarchy 👇
⭐ NVIDIA GPU 全層級總覽(核心圖)
Consumer (PC)
↓
Workstation
↓
Datacenter GPU
↓
Datacenter Next-gen
↓
Rack-scale AI system
🟩 ① Consumer 層 — RTX 5090
👉 NVIDIA GeForce RTX 5090
定位
- 玩家
- Creator
- 本地 AI
特徵
- GDDR7
- 顯示輸出
- 高頻率
- RT pipeline
角色
👉 edge compute GPU
在 hierarchy 中是最底層算力節點
🟩 ② Workstation 層 — RTX Pro
👉 NVIDIA RTX Pro
(前身 Quadro)
定位
- CAD
- DCC
- simulation
- workstation AI
特徵
- ECC memory
- 長期 driver support
- 大 VRAM
- multi-display
角色
👉 professional edge compute
比 RTX 5090 更穩定、更大 VRAM
🟩 ③ Datacenter GPU — H200
👉 NVIDIA H200
定位
- LLM 推理
- 中型訓練
- HPC
特徵
- HBM3e
- NVLink
- Hopper tensor engine
角色
👉 single-node AI compute
AI cluster 的基本 building block
🟩 ④ Next-gen Datacenter — B200

👉 NVIDIA B200
定位
- frontier model training
- trillion-param AI
- MoE
特徵
- 超大 HBM
- Blackwell tensor
- NVLink fabric
角色
👉 foundation AI compute
現代 人工智慧基礎設施 (AI infra) 核心 GPU
🟩 ⑤ Rack-scale System — GB200
👉 NVIDIA GB200
定位
- AI factory
- hyperscale training
- inference cloud
特徵
- Grace CPU + Blackwell GPU
- memory pooling
- NVLink switch fabric
- rack-level design
角色
👉 AI supercomputer node
AI 資料中心基本單位
⭐ 五層 GPU hierarchy(最重要理解)

👉 每上升一層:
- memory ↑
- interconnect ↑
- power ↑
- scale ↑
⭐ 本質差異(哲學)
🔷 RTX 5090
👉 GPU as device
🔷 RTX Pro
👉 GPU as tool
🔷 H200
👉 GPU as compute node
🔷 B200
👉 GPU as infrastructure
🔷 GB200
👉 GPU as datacenter primitive
⭐ 一句話總結
RTX 5090 → 個人算力
RTX Pro → 專業算力
H200 → AI 節點
B200 → AI 基礎設施
GB200 → AI 超級系統
















