NVIDIA 自 2006 年推出 CUDA 架構以來,持續研發專為人工智慧(AI)設計的 GPU,以下是其主要產品的演進:
- 2006 年:CUDA 架構
- NVIDIA 發布 CUDA(Compute Unified Device Architecture),使 GPU 能夠進行通用計算,開啟了 GPU 在 AI 領域的應用。
- 2008 年:Tesla 系列
- 推出 Tesla C1060,基於 GT200 架構,專為高效能計算和科學運算設計,支援 CUDA,適用於 AI 訓練。
- 2012 年:Kepler 架構
- 發布 Tesla K20,基於 Kepler 架構,提升了雙精度浮點運算性能,適合深度學習訓練。
- 2016 年:Pascal 架構
- 推出 Tesla P100,採用 Pascal 架構,支援 NVLink 技術,顯著提升深度學習訓練效率。
- 2017 年:Volta 架構
- 發布 Tesla V100,基於 Volta 架構,首次引入 Tensor Core,專為深度學習加速設計,提升 AI 訓練和推理性能。
- 2020 年:Ampere 架構
- 推出 A100 GPU,採用 Ampere 架構,擁有第三代 Tensor Core,支援多實例 GPU(MIG)技術,適用於多種 AI 工作負載。
- 2022 年:Hopper 架構
- 發布 H100 GPU,基於 Hopper 架構,具備第四代 Tensor Core,支援 Transformer Engine,專為大型 AI 模型訓練和推理設計。
- 2024 年:Blackwell 架構
- 計劃推出 B100 GPU,採用 Blackwell 架構,預計在性能和能效上有重大突破,進一步提升 AI 訓練和推理能力。
NVIDIA 持續透過新架構和技術,提升 GPU 在 AI 領域的性能和效率,滿足不斷增長的計算需求。
1. CUDA 架構
- 代表晶片:
- 用途:
- 初步實現 GPU 通用計算,應用於基礎 AI 訓練和科學運算。
2. Fermi 架構
3. Kepler 架構
- 代表晶片:
- Tesla K10
- Tesla K20
- Tesla K40
- 用途:
- 強化深度學習和高效能運算,成為 AI 訓練的熱門選擇。
4. Maxwell 架構
- 代表晶片:
- 用途:
- 針對深度學習推理進行優化,適合低功耗推理工作負載。
5. Pascal 架構
- 代表晶片:
- Tesla P100
- Tesla P4
- Tesla P40
- 用途:
- 支援 NVLink 技術,顯著提升 AI 訓練和高效能運算效率。
6. Volta 架構
- 代表晶片:
- 用途:
- 首次引入 Tensor Core,顯著加速深度學習訓練和推理。
7. Turing 架構
8. Ampere 架構
- 代表晶片:
- A100
- A30
- A10
- RTX A 系列(專業圖形運算)
- 用途:
- 支援第三代 Tensor Core 和多實例 GPU(MIG),專為大規模 AI 模型訓練設計。
9. Hopper 架構
- 代表晶片:
- 用途:
- 配備第四代 Tensor Core 和 Transformer Engine,專注於生成式 AI 和大型語言模型(LLM)。
10. Blackwell 架構
- 代表晶片(即將推出):
- B100
- 預期還有其他產品(如 B200、GB200)
- 用途:
- 採用 Chiplet 設計,進一步提升 AI 訓練和推理性能,支援更大規模的模型和高效能運算。