vocus logo

方格子 vocus

NVIDIA GPU 全層級總覽

更新 發佈閱讀 5 分鐘

🟩 NVIDIA 全 GPU Hierarchy(RTX 5090 → RTX Pro → H200 → B200 → GB200)

NVIDIA GPU 並不是單一產品線,而是完整算力層級架構

可理解為:

PC → 工作站 → 單卡 AI → AI 基礎設施 → AI 超級系統

以下是完整 hierarchy 👇


⭐ NVIDIA GPU 全層級總覽(核心圖)

Consumer (PC)

Workstation

Datacenter GPU

Datacenter Next-gen

Rack-scale AI system

🟩 ① Consumer 層 — RTX 5090

👉 NVIDIA GeForce RTX 5090

定位

  • 玩家
  • Creator
  • 本地 AI

特徵

  • GDDR7
  • 顯示輸出
  • 高頻率
  • RT pipeline

角色

👉 edge compute GPU

在 hierarchy 中是最底層算力節點


🟩 ② Workstation 層 — RTX Pro

👉 NVIDIA RTX Pro

(前身 Quadro)

定位

  • CAD
  • DCC
  • simulation
  • workstation AI

特徵

  • ECC memory
  • 長期 driver support
  • 大 VRAM
  • multi-display

角色

👉 professional edge compute

比 RTX 5090 更穩定、更大 VRAM


🟩 ③ Datacenter GPU — H200

👉 NVIDIA H200

定位

  • LLM 推理
  • 中型訓練
  • HPC

特徵

  • HBM3e
  • NVLink
  • Hopper tensor engine

角色

👉 single-node AI compute

AI cluster 的基本 building block


🟩 ④ Next-gen Datacenter — B200

raw-image

👉 NVIDIA B200

定位

  • frontier model training
  • trillion-param AI
  • MoE

特徵

  • 超大 HBM
  • Blackwell tensor
  • NVLink fabric

角色

👉 foundation AI compute

現代 人工智慧基礎設施 (AI infra) 核心 GPU


🟩 ⑤ Rack-scale System — GB200

👉 NVIDIA GB200

定位

  • AI factory
  • hyperscale training
  • inference cloud

特徵

  • Grace CPU + Blackwell GPU
  • memory pooling
  • NVLink switch fabric
  • rack-level design

角色

👉 AI supercomputer node

AI 資料中心基本單位


⭐ 五層 GPU hierarchy(最重要理解)

raw-image

👉 每上升一層:

  • memory ↑
  • interconnect ↑
  • power ↑
  • scale ↑

⭐ 本質差異(哲學)

🔷 RTX 5090

👉 GPU as device


🔷 RTX Pro

👉 GPU as tool


🔷 H200

👉 GPU as compute node


🔷 B200

👉 GPU as infrastructure


🔷 GB200

👉 GPU as datacenter primitive


⭐ 一句話總結

RTX 5090 → 個人算力

RTX Pro → 專業算力

H200 → AI 節點

B200 → AI 基礎設施

GB200 → AI 超級系統




留言
avatar-img
sirius數字沙龍
6會員
157內容數
吃自助火鍋啦!不要客氣,想吃啥,請自行取用!
sirius數字沙龍的其他內容
2026/02/23
🟩 NVIDIA RTX 5090 vs B200 完整比較 這兩張 GPU 雖然同屬 Blackwell 架構,但定位完全不同: RTX 5090 → 消費級 / 工作站 / 遊戲 / 本地 AI B200 → 資料中心 / AI 訓練 / 超級算力
Thumbnail
2026/02/23
🟩 NVIDIA RTX 5090 vs B200 完整比較 這兩張 GPU 雖然同屬 Blackwell 架構,但定位完全不同: RTX 5090 → 消費級 / 工作站 / 遊戲 / 本地 AI B200 → 資料中心 / AI 訓練 / 超級算力
Thumbnail
2026/02/23
NVIDIA GPU 命名規則完整圖解。 用一張實例: 👉 RTX 4070 Ti SUPER ① GeForce(品牌層) ② RTX / GTX(功能世代) ③ 世代數字(第一位) ④ 等級數字(後兩位) ⑤ 後綴(性能變體)
Thumbnail
2026/02/23
NVIDIA GPU 命名規則完整圖解。 用一張實例: 👉 RTX 4070 Ti SUPER ① GeForce(品牌層) ② RTX / GTX(功能世代) ③ 世代數字(第一位) ④ 等級數字(後兩位) ⑤ 後綴(性能變體)
Thumbnail
2026/02/22
NVIDIA 顯示卡命名其實是品牌 → 系列 → 型號 → 世代架構的層級。 你看到的 GeForce 與 RTX 並不是同一層概念。 🔷 一、GeForce 是「品牌大類」 NVIDIA GeForce =👉 NVIDIA 面向 消費級玩家
Thumbnail
2026/02/22
NVIDIA 顯示卡命名其實是品牌 → 系列 → 型號 → 世代架構的層級。 你看到的 GeForce 與 RTX 並不是同一層概念。 🔷 一、GeForce 是「品牌大類」 NVIDIA GeForce =👉 NVIDIA 面向 消費級玩家
Thumbnail
看更多
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
在 AI 晶片的光環之外,數據中心的「血管」正發生一場革命。光聖科技憑藉深厚的精密光學基礎,已成為Google 不可或缺的策略夥伴。光聖約九成營收與美系大廠 AI 基礎設施相關。其高芯數光纖配線產品是 Google TPU Ironwood 架構中不可或缺的物理組件,支撐了近萬顆晶片的高速溝通。
Thumbnail
在 AI 晶片的光環之外,數據中心的「血管」正發生一場革命。光聖科技憑藉深厚的精密光學基礎,已成為Google 不可或缺的策略夥伴。光聖約九成營收與美系大廠 AI 基礎設施相關。其高芯數光纖配線產品是 Google TPU Ironwood 架構中不可或缺的物理組件,支撐了近萬顆晶片的高速溝通。
Thumbnail
數位基礎設施的角色已從單純的後勤支援轉變為決定性的戰略資產,而APLD正處於這場變革的風暴中心。公司從早期的加密貨幣礦場託管服務商,成功轉型為專注於HPC與AI工作負載的新世代資料中心開發商與營運商。本報告旨在詳盡分析APLD截至 2026 會計年度第二季的營運狀況、財務表現、戰略佈局及潛在風險。
Thumbnail
數位基礎設施的角色已從單純的後勤支援轉變為決定性的戰略資產,而APLD正處於這場變革的風暴中心。公司從早期的加密貨幣礦場託管服務商,成功轉型為專注於HPC與AI工作負載的新世代資料中心開發商與營運商。本報告旨在詳盡分析APLD截至 2026 會計年度第二季的營運狀況、財務表現、戰略佈局及潛在風險。
Thumbnail
在AI技術呈指數級發展的當下,全球科技產業正面臨著前所未有的「算力饑荒」。LLM的參數量從數百億邁向數萬億,對底層基礎設施——特別是GPU叢集——的需求呈現出井噴式增長。在這一背景下,Nebius Group 以一種獨特且極具戲劇性的姿態重返全球資本市場的核心舞台。
Thumbnail
在AI技術呈指數級發展的當下,全球科技產業正面臨著前所未有的「算力饑荒」。LLM的參數量從數百億邁向數萬億,對底層基礎設施——特別是GPU叢集——的需求呈現出井噴式增長。在這一背景下,Nebius Group 以一種獨特且極具戲劇性的姿態重返全球資本市場的核心舞台。
Thumbnail
1. Availability Zones (AZs, 可用區域) 這是 AWS 的標準基礎設施單位。 位置: 位於 AWS 的「區域 (Region)」內(例如東京區域、北維吉尼亞區域)。一個 Region 通常包含 3 個以上的 AZ。 物理環境: AWS 擁有的超大型資料中心群。 連接
Thumbnail
1. Availability Zones (AZs, 可用區域) 這是 AWS 的標準基礎設施單位。 位置: 位於 AWS 的「區域 (Region)」內(例如東京區域、北維吉尼亞區域)。一個 Region 通常包含 3 個以上的 AZ。 物理環境: AWS 擁有的超大型資料中心群。 連接
Thumbnail
Oracle財報公佈後,股價面臨壓力。儘管 AI 訂單創歷史新高,達到 5230 億美元,但市場擔憂其高資本支出、債務壓力及對 OpenAI 的依賴。這篇整理 Oracle 在 AI 基礎設施、晶片策略、客戶多元化和應用層面的佈局,同時評估其面臨的潛在風險與成長動能。
Thumbnail
Oracle財報公佈後,股價面臨壓力。儘管 AI 訂單創歷史新高,達到 5230 億美元,但市場擔憂其高資本支出、債務壓力及對 OpenAI 的依賴。這篇整理 Oracle 在 AI 基礎設施、晶片策略、客戶多元化和應用層面的佈局,同時評估其面臨的潛在風險與成長動能。
Thumbnail
AI 的戰場正從模型演算法轉向電力與基礎設施。Nvidia、OpenAI、Oracle、Meta 等企業在 2025 年投入超過一兆美元建設資料中心與雲端網絡,AI 的瓶頸不再是演算法,而是電力、建築與 GPU。電力正成為新的摩爾定律,重塑全球科技的權力結構。
Thumbnail
AI 的戰場正從模型演算法轉向電力與基礎設施。Nvidia、OpenAI、Oracle、Meta 等企業在 2025 年投入超過一兆美元建設資料中心與雲端網絡,AI 的瓶頸不再是演算法,而是電力、建築與 GPU。電力正成為新的摩爾定律,重塑全球科技的權力結構。
Thumbnail
蘋果iPhone 17聚焦端側AI算力,旨在透過更低延遲的體驗鞏固生態系價值。NVIDIA發布下一代推論專用GPU「Rubin CPX」,劍指長上下文與多模態生成任務。Oracle財報揭示另一端景象:雲基礎設施(OCI)因承接巨量AI工作負載,剩餘履約義務(RPO)暴增,預示雲端AI開支的強勁動能。
Thumbnail
蘋果iPhone 17聚焦端側AI算力,旨在透過更低延遲的體驗鞏固生態系價值。NVIDIA發布下一代推論專用GPU「Rubin CPX」,劍指長上下文與多模態生成任務。Oracle財報揭示另一端景象:雲基礎設施(OCI)因承接巨量AI工作負載,剩餘履約義務(RPO)暴增,預示雲端AI開支的強勁動能。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News