🟩 NVIDIA RTX 5090 vs B200 完整比較
這兩張 GPU 雖然同屬 Blackwell 架構,但定位完全不同:
- RTX 5090 → 消費級 / 工作站 / 遊戲 / 本地 AI
- B200 → 資料中心 / AI 訓練 / 超級算力
👉 可以理解為:
RTX 5090 = 高端 PC GPUB200 = AI 超級計算 GPU
下面給你完整技術級對比。
🟩 一、產品定位差異(最核心)

👉 B200 本質上不是顯卡,而是 AI 加速器
🟩 二、核心規格比較
🔷 RTX 5090
核心規格
- 架構:Blackwell
- VRAM:32 GB GDDR7
- 頻寬:1.79 TB/s
- CUDA cores:≈21,760
- FP32:約125 TFLOPS
- TDP:約575 W
👉 特點
- 高時脈
- 圖形 RT pipeline
- DLSS 4
- 顯示輸出
➡️ 偏「高頻寬 + 高時脈通用 GPU」
🔷 B200

核心規格
- 架構:Blackwell
- VRAM:192–288 GB HBM3e
- 頻寬:約8 TB/s
- FP32:約90 TFLOPS
- INT8:3600 TOPS
- TDP:約1000 W
👉 特點
- 超大 HBM
- 超高頻寬
- AI tensor optimized
- 多 GPU NVLink fabric
➡️ 偏「超記憶體 + AI tensor throughput」
🟩 三、架構哲學差異(真正關鍵)
⭐ RTX 5090 設計哲學
👉 latency optimized
- 高頻率
- Shader pipeline
- Ray tracing
- Graphics scheduler
- 適合:
- 遊戲
- 渲染
- 本地推理
目標 → 單 GPU 反應速度
⭐ B200 設計哲學
👉 throughput optimized
- 超大 memory pool
- Tensor engine dominance
- NVLink scale-out
- HBM streaming
目標 → cluster 計算效率
🟩 四、AI 能力差異(最重要)

👉 B200 是為:
- GPT training
- Frontier model
- MoE
- exascale inference
🟩 五、記憶體系統差異(決定性)
RTX 5090
- GDDR7
- 32 GB
- ~1.8 TB/s
👉 typical GPU memory
B200
- HBM3e
- 192–288 GB
- ~8 TB/s
👉 AI memory system
這是最大差距
👉 LLM scaling = memory bandwidth bound
🟩 六、互連能力差異

👉 B200 可形成:
- GB200 superchip
- DGX cluster
- NVL72 rack
🟩 七、功耗 vs 性能哲學

👉 B200 是「設施級 GPU」
🟩 八、最直觀理解(重要)
⭐ RTX 5090
👉 Ferrari
- 單機快
- 延遲 (latency)
- graphics + AI
⭐ B200
👉 高鐵
- 多節串聯
- 吞吐量 (throughput)
- 集群人工智慧 (cluster AI)
🟩 九、總結一句話
👉 RTX 5090 = 最強 PC GPU
👉 B200 = AI 基礎設施 GPU
不是同級產品。
















