<回顧>Nvidia的一些焦點(第二季財報)

更新於 2024/11/18閱讀時間約 14 分鐘

1. 資料中心(Data Center)

業務重點:

  • NVIDIA 的資料中心收入在最新一季達到 263 億美元,同比增長 154%,是公司的最大收入來源。
  • 核心產品:
    • H100 和 A100 Tensor Core GPU:專為 AI 訓練與推理設計,廣泛應用於生成式 AI、雲端計算、高效能計算(HPC)等領域。
    • Spectrum-X Ethernet 平台:為 AI 提供高速網絡連接解決方案,廣受雲服務提供商採用。
    • DGX 系列伺服器:整合多個 GPU,支援大規模 AI 模型訓練與部署。

發展亮點:

  • 強勁的 Hopper 晶片需求和 Blackwell 的市場期待。
  • 與多家雲服務供應商(如 CoreWeave)合作,推動生成式 AI 模型的部署。

2. 遊戲(Gaming)

業務重點:

  • 遊戲業務在最新一季收入達 29 億美元,同比增長 16%。
  • 核心產品:
    • GeForce RTX 系列 GPU:支援光線追蹤(Ray Tracing)和 DLSS 技術,提升遊戲畫質與效能。
    • GeForce NOW:雲端遊戲服務,提供不依賴高效能硬體的遊戲體驗。

發展亮點:

  • 推出超過 600 款支援 RTX 的遊戲。
  • 擴展 GeForce NOW 服務至更多地區,滿足全球玩家需求。

3. 專業視覺化(Professional Visualization)

業務重點:

  • 最新季度收入為 4.54 億美元,同比增長 20%。
  • 核心產品:
    • Quadro GPU:為建築設計、動畫製作和工程模擬等專業場景提供高效能。
    • NVIDIA Omniverse:實時 3D 協作與模擬平台,支持數字孿生技術和工業自動化。

發展亮點:

  • 推出生成式 AI 模型和微服務以加速工作流。
  • 支援開發工業數字孿生和機器人技術。

4. 自動駕駛與機器人(Automotive and Robotics)

業務重點:

  • 最新季度收入為 3.46 億美元,同比增長 37%。
  • 核心產品:
    • NVIDIA DRIVE 平台:提供自動駕駛汽車的完整解決方案,包括感知、定位與決策系統。
    • Isaac Robotics 平台:專為機器人設計,支援研發與生產。

發展亮點:

  • 合作夥伴包括比亞迪電子、西門子和 Teradyne Robotics。
  • 推出支持開發自動機器的感測器仿真服務。

5. 人工智慧與生成式 AI(Artificial Intelligence & Generative AI)

業務重點:

  • NVIDIA 全面布局生成式 AI,包括硬體、軟體和服務:
    • Blackwell 系列 GPU:下一代 AI 晶片,針對大模型(如 ChatGPT)的訓練和推理進行優化。
    • NVIDIA AI Enterprise:完整的 AI 軟體堆疊,支援企業 AI 部署。
    • NVIDIA AI Foundry:專為生成式 AI 企業提供工具,助力模型開發與應用。

發展亮點:

  • 宣布 H200 GPU 與 Blackwell 系統整合,加速生成式 AI 的發展。
  • 與 Hugging Face 合作,推出基於 NIM 微服務的推理服務。

6. 研發與技術創新

  • CUDA 平台: 提供平行運算架構,是 AI 和 HPC 開發的基石。
  • Grace Hopper 超級晶片: 整合 CPU 和 GPU,針對 AI 和資料中心任務優化。
  • NVIDIA Metropolis: 用於智慧城市和邊緣計算的計算機視覺平臺。

重點業務結論:

  1. 資料中心業務 是 NVIDIA 的核心增長引擎,占公司收入的大部分,支援全球 AI 和雲端運算的需求。
  2. 遊戲業務 維持穩定增長,透過 RTX GPU 和 GeForce NOW 推動市場滲透。
  3. 生成式 AI 和自動駕駛 是未來發展的關鍵領域,特別是 Blackwell 系列 GPU 和 DRIVE 平台的應用。




H100A100 Tensor Core GPU 是兩個不同的 NVIDIA GPU 產品,但它們都屬於 NVIDIA 的 Tensor Core 系列,專為 高效能計算(HPC)人工智慧(AI)應用 設計。以下是詳細區分和介紹:


A100 Tensor Core GPU

推出時間:

  • 2020 年,基於 NVIDIA 的 Ampere 架構

用途:

  • 專為 深度學習訓練推理 設計,也適用於高效能科學計算、數據分析等。

特點:

  1. 多實例 GPU (MIG) 技術:
    • 將一個 GPU 分成多個虛擬 GPU,允許多個工作負載同時運行。
    • 非常適合雲服務和共享資源環境。
  2. 高效運算:
    • 支援 FP64(雙精度)計算,適合需要高精度的科研應用。
    • 在 AI 訓練和推理方面表現優異。
  3. 應用場景:
    • 深度學習模型訓練(如 GPT 系列模型)。
    • 科學模擬和分析(如氣候建模、分子動力學)。

H100 Tensor Core GPU

推出時間:

  • 2022 年,基於 NVIDIA 的 Hopper 架構,是 A100 的下一代產品。

用途:

  • 專為 生成式 AI(Generative AI) 設計,尤其適用於大規模語言模型(如 ChatGPT)的訓練和推理。

特點:

  1. Transformer 引擎:
    • 針對 Transformer 模型(如 GPT、BERT)的運算進行優化,提升性能高達 6 倍。
    • 是訓練大規模語言模型的理想選擇。
  2. 更高效能:
    • 比 A100 提升了多達 3 倍的性能。
    • 支援 FP8(低精度)運算,提升 AI 訓練速度並減少功耗。
  3. 應用場景:
    • 訓練超大規模生成式 AI 模型。
    • 推理任務(如 NLP、推薦系統)。
    • 高效能科學計算與數據中心部署。


raw-image
  • A100:適合傳統深度學習訓練、推理和高精度計算。
  • H100:針對生成式 AI 進行了專門優化,是目前 NVIDIA 最新的頂級產品,特別適合大模型訓練和大規模推理工作負載。


Transformer 模型設計概述

Transformer 是一種 深度學習模型架構,最初由 Google 的研究團隊於 2017 年在論文《Attention is All You Need》中提出,現在已經成為自然語言處理(NLP)和生成式人工智慧(Generative AI)模型的核心架構。

以下是 Transformer 模型設計的關鍵要素:


1. 核心思想:Self-Attention 機制

  • Transformer 的核心是 Self-Attention 機制,用於在句子中捕捉詞語之間的關聯性。
  • 傳統 RNN 和 LSTM 等模型處理長句時效率較低,而 Transformer 通過 Self-Attention 同時處理整個句子,計算並關注最相關的詞

Self-Attention 運作原理:

  • 每個詞(Token)會與句子中的所有其他詞建立關聯(注意力權重)。
  • 使用注意力權重來加權輸入數據,從而聚焦於有用的信息。


Self-Attention 與傳統模型的主要差別


1. 傳統模型的限制

(1) RNN/LSTM

  • 逐步處理: 一次只能處理一句話的一個詞,必須按順序逐步運算,效率較低。
  • 長距依賴難以捕捉: 當句子很長時,開頭和結尾的詞之間關係容易被「遺忘」。

(2) CNN

  • 局部視野: CNN 的卷積操作一次只能處理鄰近的詞語,無法直接捕捉句子中遠距離詞之間的關聯。
  • 需要更多層次: 若要擴大視野,需堆疊多層卷積,導致計算複雜度增加。

2. Self-Attention 的優勢

(1) 全局關注

  • Self-Attention 可以讓每個詞直接與句子中的所有詞建立聯繫,而不用按順序逐步處理。
  • 例子: 在句子「小明喜歡蘋果,因為它很甜」中,Self-Attention 可以直接把「它」和「蘋果」聯繫起來。

(2) 高效並行處理

  • 傳統模型: RNN 和 LSTM 必須按序處理,無法並行。
  • Self-Attention: 可以一次處理整個句子中的所有詞,大幅提升計算效率。

(3) 更靈活的關聯建模

  • 自注意力機制能根據語境動態調整不同詞語的重要性,而不是像 CNN 那樣固定鄰近範圍。
  • 例子: 在句子「銀行裡有很多錢」和「河邊有一條銀行」中,Self-Attention 能根據上下文確定「銀行」是金融機構還是河岸。
raw-image








2. 結構設計:編碼器-解碼器架構

Transformer 由兩個主要部分組成:

  1. 編碼器(Encoder):
    • 將輸入序列(例如一段文字)轉換為上下文向量,提取關鍵特徵。
    • 主要功能是理解整個輸入的語義。
  2. 解碼器(Decoder):
    • 將編碼器生成的上下文向量轉化為目標序列(例如翻譯結果)。
    • 解碼過程使用 Self-Attention 和 Encoder-Decoder Attention,同時關注輸入語義和當前解碼進度。

3. 核心組件

Transformer 中的主要模組包括:

(1) 多頭注意力機制(Multi-Head Attention)

  • 通過多個注意力頭,同時從不同的角度分析序列中各詞的關聯性。
  • 提升模型在不同語義層面的理解能力。

(2) 前饋神經網絡(Feed-Forward Network, FFN)

  • 每個編碼器和解碼器層內都包含一個 FFN,用於對注意力結果進行進一步處理。

(3) 殘差連接(Residual Connections)

  • 每層模組後都有殘差連接和層歸一化(Layer Normalization),使模型更容易訓練,並緩解梯度消失問題。

(4) 位置編碼(Positional Encoding)

  • 因為 Transformer 沒有序列處理的順序性,它使用位置編碼添加序列位置信息,讓模型了解詞語在句子中的相對位置。

4. Transformer 的優勢

  • 並行化處理: 不像 RNN 和 LSTM 需要依序處理數據,Transformer 可以同時處理整個序列,大幅提升計算效率。
  • 長距離依賴: Self-Attention 機制能有效捕捉句子中遠距詞語間的關聯。
  • 可擴展性: Transformer 結構可以擴展為更大的模型(如 GPT、BERT),適用於各種任務。

5. 常見應用場景

Transformer 成為生成式 AI 和深度學習模型的基石,應用非常廣泛:

  • 自然語言處理(NLP): 如機器翻譯(Google 翻譯)、文本生成(ChatGPT)、文本分類。
  • 生成式 AI: 如 GPT 系列模型、DALL·E 圖像生成模型。
  • 推薦系統: 分析用戶行為和偏好,生成個性化建議。
  • 生物醫學: 用於基因序列分析和藥物開發。

6. NVIDIA H100 對 Transformer 的優化

NVIDIA 的 H100 Tensor Core GPU 專為 Transformer 模型進行了深度優化:

  • Transformer Engine:
    • 自動混合精度計算(FP8 和 FP16),在保持準確性的同時提升計算速度。
    • 適合大規模模型(如 GPT-4)訓練和推理。
  • 多實例 GPU (MIG): 提供多任務並行處理能力,最大化資源利用。
  • 高效內存管理: 支援更大模型和更多數據的運算。

總結

Transformer 模型憑藉 Self-Attention 機制和並行處理能力,已成為 AI 的核心架構。NVIDIA H100 等硬體專門針對 Transformer 進行優化,大幅提升了生成式 AI 的訓練與推理效率,進一步推動了人工智慧技術的發展。



A100:進入人工智慧的基礎性產品

  • 定位: A100 是 NVIDIA 針對人工智慧(AI)設計的第一代高性能 GPU,為 AI 訓練和推理提供強大的計算能力。
  • 功能:
    • 能夠處理從小型到大型的深度學習模型(如圖像分類、推薦系統)。
    • 支援多實例 GPU(MIG),允許將一塊 GPU 分為多個虛擬 GPU,用於共享計算資源。
  • 應用場景:
    • AI 模型訓練:適用於自然語言處理(如 BERT)和電腦視覺模型(如 ResNet)。
    • 推理任務:如即時語音識別、推薦系統。
    • 高效能計算(HPC):科學模擬、基因分析等。
  • 作用: 它是一個全面的人工智慧計算工具,幫助企業和研究機構從傳統運算邁向 AI 世界。

H100:針對人工智慧的深度優化

  • 定位: H100 是 A100 的升級版,針對當前生成式 AI 的發展需求進行了專門優化。
  • 優化特點:
    1. 針對大模型(如 GPT-4)的性能優化:引入了 Transformer Engine,特別適合處理大型語言模型和生成式 AI 模型。
    2. 性能提升:比 A100 的運算性能高出多達 6 倍。支援更低精度的 FP8 運算,能以更少的功耗和更快的速度進行 AI 訓練。
    3. 專注生成式 AI:適用於大規模語言模型、推薦系統、AI 聊天機器人(如 ChatGPT)。
  • 應用場景:
    • 生成式 AI:如大規模語言模型(GPT-4、BERT)、文本生成和 AI 繪圖(如 DALL·E)。
    • 高效能推理:為大型雲服務和資料中心的 AI 部署提供支援。
  • 作用: 它是一款針對生成式 AI 工作負載的專業 GPU,是目前處理最複雜 AI 任務的最佳選擇。
raw-image

簡單理解:

  • A100 是人工智慧計算的「起步工具」,廣泛應用於各種 AI 模型訓練與推理。
  • H100 是專為生成式 AI 設計的「尖端工具」,特別適合處理當前 AI 發展中的最前沿應用。




avatar-img
1會員
209內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
DA的美股日記 的其他內容
NVIDIA是一家成立於1993年的美國科技公司,總部位於加利福尼亞州聖克拉拉市。該公司以設計和製造圖形處理器(GPU)聞名,最初專注於遊戲和圖形領域。隨著人工智慧(AI)和高效能計算的興起,NVIDIA的業務範圍已擴展至多個領域。 主要核心業務: 圖形處理器(GPU): NVIDIA的GeFo
HBM,全稱 High Bandwidth Memory(高頻寬記憶體),是一種專為高性能計算設計的先進記憶體技術。它以 3D 堆疊 為核心,能夠提供極高的數據傳輸頻寬,同時降低功耗和佔用空間,成為人工智慧(AI)、高效能計算(HPC)和高端 GPU 的首選記憶體。 HBM 的核心特點
1. Chiplet 是什麼? Chiplet 設計 就是把一個大晶片分成多個小晶片,這些小晶片各自負責不同功能,然後用超高速連接技術把它們組合起來,讓它們像一個完整的晶片一樣運作。 3. Chiplet 的優點 更容易生產: 小晶片製作成功率高(良率高),比做一個大晶片更省成本。 性能更
1. Ampere 架構 代表晶片: A100、A30、A10 技術特點: 第三代 Tensor Core: 提升了混合精度計算性能,支援 FP32、FP16、BF16 和 INT8 等多種精度,適合不同 AI 工作負載。 增強矩陣運算能力,特別是大型矩陣的乘加操作。 多實例
NVIDIA 自 2006 年推出 CUDA 架構以來,持續研發專為人工智慧(AI)設計的 GPU,以下是其主要產品的演進: 2006 年:CUDA 架構 NVIDIA 發布 CUDA(Compute Unified Device Architecture),使 GPU 能夠進行通用計算,開啟了
H100 架構:Hopper 架構(針對 AI 訓練與推理的 GPU)。 製程:台積電 4nm 製程。 電晶體數量:約 800 億。 記憶體: 支援 HBM3 記憶體,容量最大達 80GB。 設計:單一晶片(非 Chiplet)。 主要應用: AI 訓練與推理。 高效能運算(HPC
NVIDIA是一家成立於1993年的美國科技公司,總部位於加利福尼亞州聖克拉拉市。該公司以設計和製造圖形處理器(GPU)聞名,最初專注於遊戲和圖形領域。隨著人工智慧(AI)和高效能計算的興起,NVIDIA的業務範圍已擴展至多個領域。 主要核心業務: 圖形處理器(GPU): NVIDIA的GeFo
HBM,全稱 High Bandwidth Memory(高頻寬記憶體),是一種專為高性能計算設計的先進記憶體技術。它以 3D 堆疊 為核心,能夠提供極高的數據傳輸頻寬,同時降低功耗和佔用空間,成為人工智慧(AI)、高效能計算(HPC)和高端 GPU 的首選記憶體。 HBM 的核心特點
1. Chiplet 是什麼? Chiplet 設計 就是把一個大晶片分成多個小晶片,這些小晶片各自負責不同功能,然後用超高速連接技術把它們組合起來,讓它們像一個完整的晶片一樣運作。 3. Chiplet 的優點 更容易生產: 小晶片製作成功率高(良率高),比做一個大晶片更省成本。 性能更
1. Ampere 架構 代表晶片: A100、A30、A10 技術特點: 第三代 Tensor Core: 提升了混合精度計算性能,支援 FP32、FP16、BF16 和 INT8 等多種精度,適合不同 AI 工作負載。 增強矩陣運算能力,特別是大型矩陣的乘加操作。 多實例
NVIDIA 自 2006 年推出 CUDA 架構以來,持續研發專為人工智慧(AI)設計的 GPU,以下是其主要產品的演進: 2006 年:CUDA 架構 NVIDIA 發布 CUDA(Compute Unified Device Architecture),使 GPU 能夠進行通用計算,開啟了
H100 架構:Hopper 架構(針對 AI 訓練與推理的 GPU)。 製程:台積電 4nm 製程。 電晶體數量:約 800 億。 記憶體: 支援 HBM3 記憶體,容量最大達 80GB。 設計:單一晶片(非 Chiplet)。 主要應用: AI 訓練與推理。 高效能運算(HPC
你可能也想看
Google News 追蹤
Thumbnail
*合作聲明與警語: 本文係由國泰世華銀行邀稿。 證券服務係由國泰世華銀行辦理共同行銷證券經紀開戶業務,定期定額(股)服務由國泰綜合證券提供。   剛出社會的時候,很常在各種 Podcast 或 YouTube 甚至是在朋友間聊天,都會聽到各種市場動態、理財話題,像是:聯準會降息或是近期哪些科
Thumbnail
**目前A I產業的發展應該可以分成兩個部分:一大部分以晶片製造商為主,這個是以Nvidia 公司為主要的製造供應以及受益者;其他的就是應用在製造晶片及運轉或是依其使用的設備供應鏈,像是網通設備或是冷卻系統等等。因此依此論點來看,大概可以含括了一大範圍供應鏈的一籃子的企業廠商,不管在美國公司或是台灣
美东时间7月30日,AMD发布了2024年二季度业绩报告。数据显示,公司在该季度实现了显著的业绩增长,营收和净利润均远超市场预期,推动股价在盘后交易中大幅上涨。 财报数据显示,AMD二季度总营收58.35亿美元,同比增长9%,环比增长7%;净利润录得2.65亿美元,同比猛增881%,环比大增115
Thumbnail
深入分析近期市場動態,包括颱風影響、AI展覽延遲、外資和投信行為、融資餘額風險等。報告提供了NVIDIA和Broadcom等公司的詳細分析,並對未來市場走勢和投資策略提出建議。通過對AI相關股票的估值風險和市場盤整期的預測,為投資者提供全面的市場觀察和投資指南。
Nvidia收123.54美元上揚4.76%,根據路透社22日獨家報導Nvidia正在開發新一代「Blackwell」AI晶片的中國版本,目前暫時定名為「B20」,將完全符合美國目前的出口管制規定,在利多消息刺激下Nvidia止跌上漲,帶動科技類股反攻,SOX大漲4%...
Thumbnail
日經新聞11日報導,供應大量產品、半導體給蘋果(Apple)、微軟(Microsoft)、輝達(Nvidia)等客戶的台灣主要企業營收續增,主因AI相關需求續旺,加上PC相關需求出現復甦跡象。
Thumbnail
COMPUTEX 之後 AI 議題持續發燒,其實背後就僅是一間公司把這波熱潮推至高峰:NVIDIA。NVIDIA 憑著 AI GPU 的大獲成功成為市值最高的公司,甚至超越了蘋果和 Google。
25日Nvidia大漲6.76%收126.09美元,結束連續下跌的走勢,漲幅居SOX 30支成分股之冠,之前三個交易日Nvidia一口氣重挫12.89%,讓AI族群也全數哀嚎,隨著Nvidia的止跌轉漲,晶片類股台積電ADR也收漲2.86%,ARM也大漲6.31%......
Broadcom於6月12日盤後決定上調AI晶片營收預估值,同時宣布1拆10股票分割計畫,連漲7個交易日, 17日強漲5.41%收1,828.87美元,漲幅居費城半導體指數30支成分股之冠,創歷史收盤新高,近一週期間漲幅高達30.5%,今年以來股價大漲了63.84%....
Thumbnail
6月7日執行1拆10股票分割的Nvidia大漲5.16%收1,224.40美元,收盤市值來到3.012兆美元,超越Apple成為全美市值第二大企業,僅次於Microsoft ,Nvidia晶圓代工夥伴台積電ADR同步大漲6.86%收162.92美元創歷史收盤新高...
Thumbnail
MRVL FY1Q25 營收報 11.61 億美元,略低於 Sell Side 預期的 11.62 億美元 ,但略高於我 model 預期的 11.5 億美元,主要是受惠於資料中心營收維持強勁的雙位數 QoQ 成長。
Thumbnail
*合作聲明與警語: 本文係由國泰世華銀行邀稿。 證券服務係由國泰世華銀行辦理共同行銷證券經紀開戶業務,定期定額(股)服務由國泰綜合證券提供。   剛出社會的時候,很常在各種 Podcast 或 YouTube 甚至是在朋友間聊天,都會聽到各種市場動態、理財話題,像是:聯準會降息或是近期哪些科
Thumbnail
**目前A I產業的發展應該可以分成兩個部分:一大部分以晶片製造商為主,這個是以Nvidia 公司為主要的製造供應以及受益者;其他的就是應用在製造晶片及運轉或是依其使用的設備供應鏈,像是網通設備或是冷卻系統等等。因此依此論點來看,大概可以含括了一大範圍供應鏈的一籃子的企業廠商,不管在美國公司或是台灣
美东时间7月30日,AMD发布了2024年二季度业绩报告。数据显示,公司在该季度实现了显著的业绩增长,营收和净利润均远超市场预期,推动股价在盘后交易中大幅上涨。 财报数据显示,AMD二季度总营收58.35亿美元,同比增长9%,环比增长7%;净利润录得2.65亿美元,同比猛增881%,环比大增115
Thumbnail
深入分析近期市場動態,包括颱風影響、AI展覽延遲、外資和投信行為、融資餘額風險等。報告提供了NVIDIA和Broadcom等公司的詳細分析,並對未來市場走勢和投資策略提出建議。通過對AI相關股票的估值風險和市場盤整期的預測,為投資者提供全面的市場觀察和投資指南。
Nvidia收123.54美元上揚4.76%,根據路透社22日獨家報導Nvidia正在開發新一代「Blackwell」AI晶片的中國版本,目前暫時定名為「B20」,將完全符合美國目前的出口管制規定,在利多消息刺激下Nvidia止跌上漲,帶動科技類股反攻,SOX大漲4%...
Thumbnail
日經新聞11日報導,供應大量產品、半導體給蘋果(Apple)、微軟(Microsoft)、輝達(Nvidia)等客戶的台灣主要企業營收續增,主因AI相關需求續旺,加上PC相關需求出現復甦跡象。
Thumbnail
COMPUTEX 之後 AI 議題持續發燒,其實背後就僅是一間公司把這波熱潮推至高峰:NVIDIA。NVIDIA 憑著 AI GPU 的大獲成功成為市值最高的公司,甚至超越了蘋果和 Google。
25日Nvidia大漲6.76%收126.09美元,結束連續下跌的走勢,漲幅居SOX 30支成分股之冠,之前三個交易日Nvidia一口氣重挫12.89%,讓AI族群也全數哀嚎,隨著Nvidia的止跌轉漲,晶片類股台積電ADR也收漲2.86%,ARM也大漲6.31%......
Broadcom於6月12日盤後決定上調AI晶片營收預估值,同時宣布1拆10股票分割計畫,連漲7個交易日, 17日強漲5.41%收1,828.87美元,漲幅居費城半導體指數30支成分股之冠,創歷史收盤新高,近一週期間漲幅高達30.5%,今年以來股價大漲了63.84%....
Thumbnail
6月7日執行1拆10股票分割的Nvidia大漲5.16%收1,224.40美元,收盤市值來到3.012兆美元,超越Apple成為全美市值第二大企業,僅次於Microsoft ,Nvidia晶圓代工夥伴台積電ADR同步大漲6.86%收162.92美元創歷史收盤新高...
Thumbnail
MRVL FY1Q25 營收報 11.61 億美元,略低於 Sell Side 預期的 11.62 億美元 ,但略高於我 model 預期的 11.5 億美元,主要是受惠於資料中心營收維持強勁的雙位數 QoQ 成長。