
Colette Kress,NVIDIA執行副總裁兼首席財務官:
謝謝你,Toshiya。我們在持續變化的外部環境中,再次創下了季度營收新高。總營收達到 467億美元,超出我們的預期,並在所有市場平台上實現了季度成長。
資料中心營收年增率達 56%,即使 h20營收下降了 40億美元,資料中心營收仍然實現了季度成長。NVIDIA 的 Blackwell 平台達到歷史新高,季度成長率為 17%。我們在第二季開始量產出貨 GB300。我們針對雲端服務供應商、新興雲端業者、企業與主權機構所提供的全方位 AI 解決方案,皆對我們的成長有所貢獻。
我們正處於一場將改變所有產業的工業革命的起點。我們預估到本世紀末,AI 基礎建設的支出將達 3至4兆美元。
這些大規模的建設計畫為 NVIDIA 帶來了重大的長期成長機會。GB200 NBL 系統正被廣泛採用,部署於雲端服務供應商與消費者網路公司。領先的模型開發者,包括 OpenAI、Meta 和 Mistral,都在資料中心規模上使用 GB200 NBL 72 來訓練下一代模型並在生產環境中提供推論服務。
新推出的 Blackwell Ultra 平台也有亮眼表現,創造了數十億美元的營收。由於 GB300 與 GB200 在架構、軟體與實體設計上皆相容,主要雲端服務供應商能夠輕鬆建置與部署 GB300 機架,使得向新架構的轉換過程非常順利。
工廠在7月底與8月初的建置已成功轉換,以支援 GB300 的量產擴張。目前已全面進入量產階段,現行的生產速度已恢復至全速,每週約生產 1,000 組機架。預計第三季產能將進一步加速,因為更多產線即將投入運作。隨著 CoreWeave 準備推出其 GV300 實例,並已在推理模型上展現出相較 H100 高出 10 倍的推論效能,我們預期下半年市場將廣泛可用。
與上一代 Hopper 相比,GV300 與 DL72 AI 工廠在每瓦特處理的 Token 效能上提升了 10 倍,這對資料中心而言極具價值,因為其運作受限於電力供應,這樣的能效提升也將直接轉化為營收。
Rubin 平台的晶片目前正在晶圓廠製造中,包括 Vera CPU、Rubin GPU、CX9 Super NIC、NVLink 144 擴展交換器、Spectrum X 橫向與縱向擴展交換器,以及矽光子處理器。Rubin 預計將於明年進入量產階段,並成為我們第三代 NVLink RackScale AI 超級電腦,擁有成熟且完整的供應鏈。
這使我們能夠維持每年推出新產品的節奏,並在運算、網路、系統與軟體領域持續創新。
在7月底,美國政府開始審查向中國客戶銷售 H20 的許可證。儘管過去幾週已有部分中國客戶獲得許可,但我們尚未根據這些許可出貨任何 H20。美國政府官員表示,預期政府將從獲許可的 H20 銷售中取得 15% 的營收分成,但截至目前,美國政府尚未發布正式法規來明文規定此要求。
我們在第三季的財測中未納入 H20 的營收,因為仍在處理地緣政治相關問題。若這些問題得以解決,我們預期第三季可出貨約 20 至 50 億美元的 H20,若新增訂單,營收還可進一步提升。我們持續向美國政府爭取批准 Blackwell 對中國的銷售。我們的產品是為有益的商業用途而設計與銷售,每一筆授權交易都將有利於美國經濟與美國的技術領導地位。
在競爭激烈的市場中,我們希望獲得每一位開發者的支持。只要美國的 AI 技術堆疊能在全球競爭中脫穎而出,就有機會成為世界標準。值得注意的是,本季 Hopper 與 H200 的出貨量有所增加。我們也在第二季向一位非中國的非受限客戶銷售了約 6.5 億美元的 H20。Hopper 需求的季度成長顯示出加速運算在資料中心工作負載中的廣泛應用,以及 CUDA 函式庫與全堆疊優化所帶來的效能與經濟價值提升。
隨著我們持續交付 Hopper 與 Blackwell GPU,我們正專注於滿足全球激增的需求。這波成長由雲端與企業的資本支出所驅動,預計今年資料中心基礎建設與運算投資將達 6000 億美元,兩年內幾乎翻倍。我們預期 AI 基礎建設的年度投資將持續成長,主要受到以下幾項因素驅動:需要大量訓練與推論運算的推理型 Agentic AI、全球主權 AI 的建設、企業 AI 的導入,以及實體 AI 與機器人的到來。Blackwell 已成為新一代 AI 推論效能的標竿。隨著推理型與 Agentic AI 在各產業快速普及,AI 推論市場也正迅速擴張。
Blackwell 的 RackScale NVLink 與 CUDA 全堆疊架構,透過重新定義推論的經濟效益來解決效能與成本問題。GB300 平台上的新 NVFP4(四位元精度)與 NVLink 72 技術,使每個 Token 的能源效率相較 Hopper 提升了 50 倍,讓企業能以前所未有的規模變現其運算能力。舉例來說,投資 300 萬美元於 GV200 基礎建設,可創造 3,000 萬美元的 Token 收益,達到 10 倍報酬率。
NVIDIA 的軟體創新,加上強大的開發者生態系,已讓 Blackwell 自推出以來效能提升超過兩倍。CUDA、TensorRT LLM 與 Dynamo 的進展正持續釋放最大效率。
來自開源社群的 CUDA 函式庫貢獻,加上 NVIDIA 的開放式函式庫與框架,現已整合進數百萬個工作流程中。這股由 NVIDIA 與全球社群共同推動的創新飛輪,進一步鞏固了 NVIDIA 在效能上的領導地位。NVIDIA 也是 OpenAI 模型、資料與軟體的主要貢獻者之一。
Blackwell 引入了突破性的數值方法來進行大型語言模型的預訓練。透過 NVFP4,GB300 上的運算速度比使用 FP8 的 H100 快了 7 倍,同時保有 16 位元精度的準確性與 4 位元的速度與效率,為 AI 的效能與可擴展性樹立了新標準。
AI 產業正迅速採用這項革命性技術,主要業者如 AWS、Google Cloud、Microsoft Azure、OpenAI,以及 Cohere、Mistral、Kimi AI、Perplexity、Reflection 和 Runway 都已開始導入。NVIDIA 的效能領導地位也在最新的 MLPerf 訓練基準測試中獲得驗證,GB200 完勝所有項目。請留意即將在 9 月公布的 MLPerf 推論測試結果,其中將包含 Blackwell Ultra 的基準數據。
NVIDIA RTX Pro 伺服器目前已全面量產,供全球系統製造商使用。這些是採用 PCIe 的空冷系統,可無縫整合進標準 IT 環境中,同時支援傳統企業 IT 應用與最先進的 Agentic AI 與實體 AI 應用。
目前已有近 90 家企業,包括多家全球領導品牌,開始採用 RTX Pro 伺服器。Hitachi 用於即時模擬與數位分身,Lilly 用於新藥研發,Hyundai 用於工廠設計與自駕車驗證,Disney 則用於沉浸式敘事。隨著企業現代化資料中心,RTX Pro 伺服器有望成為數十億美元級的產品線。
主權 AI(Sovereign AI)正快速崛起,因為各國利用本地基礎建設、資料與人才發展自身 AI 的能力,為 NVIDIA 帶來重大機會。NVIDIA 在英國與歐洲的多項指標性計畫中居於領導地位。
歐盟計畫投資 200 億歐元,在法國、德國、義大利與西班牙設立 20 座 AI 工廠,其中包含 5 座超級工廠,以將其 AI 運算基礎建設提升 10 倍。在英國,NVIDIA 支援的 Umbard AI 超級電腦已正式亮相,成為該國最強大的 AI 系統,提供 21 ExaFLOPS 的 AI 運算效能,加速新藥研發與氣候建模等領域的突破。
我們預期今年主權 AI 營收將超過 200 億美元,較去年成長逾一倍。網路部門也創下新高,營收達 73 億美元。隨著 AI 運算叢集需求不斷攀升,高效率、低延遲的網路架構變得至關重要。這代表季度成長 46%、年成長 98%,且 Spectrum X Ethernet、InfiniBand 與 NVLink 的需求皆強勁。
我們的 Spectrum X 強化型乙太網路解決方案,為乙太網路 AI 工作負載提供最高吞吐量與最低延遲。Spectrum X Ethernet 實現了季度與年度的雙位數成長,年化營收已突破 100 億美元。在 Hotchips 大會上,我們發表了 Spectrum XGS Ethernet 技術,旨在整合分散的資料中心,打造超大規模 AI 超級工廠。CoreWeave 是首批採用此技術的業者之一,預計 GPU 間的通訊速度將倍增。
InfiniBand 的營收也幾乎在季度間翻倍,主要受惠於 XDR 技術的採用,該技術相較前代提供兩倍頻寬提升,對模型開發者尤其有價值。
全球最快的交換器 NVLink,其頻寬為 PCIe Gen 5 的 14 倍,隨著客戶部署 Brace Blackwell NVLink RackScale 系統,帶動了強勁成長。NVLink Fusion 的正面回饋也非常廣泛,該技術可支援半客製化的 AI 基礎建設。日本即將推出的 Fugaku Next 將透過 NVLink Fusion 將富士通的 CPU 與我們的架構整合,可執行 AI、超級運算與量子運算等多種工作負載。
Fugaku Next 加入了快速擴展的量子超級運算與研究中心名單,這些中心皆採用 NVIDIA 的 CUDA Q 量子平台,包括 ULEC、AIST、NNF 和 NERSC,並獲得超過 300 家生態系夥伴支持,包括 AWS、Google Quantum AI、Quantinuum、QEra 和 SciQuantum。
我們最新的機器人運算平台 THOR 現已上市。THOR 的 AI 效能與能源效率比 NVIDIA AGX Orin 高出一個數量級,可在邊緣即時執行最新的生成式與推理型 AI 模型,實現最先進的機器人技術。NVIDIA 的機器人全堆疊平台採用率正快速成長,目前已有超過 200 萬名開發者,以及超過 1,000 個硬體、軟體應用與感測器合作夥伴共同推動市場導入。
各行各業的領導企業已採用 THOR,包括 Agility Robotics、Amazon Robotics、Boston Dynamics、Caterpillar、Figure、Hexagon、Medtronic 和 Meta。機器人應用在裝置端與基礎建設上都需要指數級成長的運算能力,這也成為我們資料中心平台的長期成長動能。
NVIDIA Omniverse 搭配 Cosmos 是我們的資料中心實體 AI 數位分身平台,專為機器人與機器人系統的開發而設計。本季我們宣布與 Siemens 的合作大幅擴展,目標是打造 AI 自動化工廠。歐洲的領先機器人公司,包括 Agile Robots、Neurorobotics 和 Universal Robots,皆以 Omniverse 平台開發其最新創新技術。
接下來將快速摘要各地區的營收表現。
中國市場的資料中心營收在本季呈現季減,降至低個位數百分比。請注意,我們第三季的財測並未納入對中國客戶的 H20 出貨。
新加坡的營收占第二季開立發票總額的 22%,因為客戶將帳務集中於新加坡處理。其中超過 99% 的資料中心運算營收雖開立給新加坡,但實際客戶為美國企業。
我們的遊戲業務營收創下新高,達 43 億美元,季增 14%,年增 49%。這主要來自 Blackwell GeForce GPU 的量產推進與供應增加所帶動的強勁銷售。本季我們出貨了 GeForce RTX 5060 桌上型 GPU,為全球數百萬玩家帶來兩倍效能提升,並支援進階光線追蹤、神經渲染與 AI 驅動的 DLSS 4 遊戲體驗。
Blackwell 將於 9 月登上 GeForce NOW,這是 GeForce NOW 有史以來最重大的升級,將提供 RTX 5080 等級效能、極低延遲,以及 5K 解析度與每秒 120 幀的遊戲體驗。
我們也將 GeForce NOW 的遊戲庫擴充至超過 4,500 款遊戲,成為目前雲端遊戲服務中最大的遊戲庫。
對於 AI 愛好者而言,裝置端 AI 在 RTX GPU 上表現最佳。我們與 OpenAI 合作,針對其開源 GPT 模型進行最佳化,讓數百萬台支援 RTX 的 Windows 裝置能夠進行高品質、快速且高效的推論。透過 RTX 平台堆疊,Windows 開發者可以打造專為全球最大 AI PC 使用者群設計的 AI 應用。
專業視覺化業務營收達 6.01 億美元,年增 32%。
成長主要來自高階 RTX 工作站 GPU 的採用,以及 AI 驅動的工作負載,如設計、模擬與原型開發。主要客戶正運用我們的解決方案加速其營運流程。Activision Blizzard 使用 RTX 工作站提升創意工作流程;機器人創新公司 Figure AI 則以 RTX 嵌入式 GPU 驅動其人形機器人。
汽車業務(僅包含車載運算部分)營收達 5.86 億美元,年增 69%,主要由自駕解決方案推動。我們已開始出貨 NVIDIA Thor SoC,這是 Orin 的後繼產品。
Thor 的推出正好與產業加速轉向視覺、語言、模型架構、生成式 AI 及更高階自動化的趨勢相吻合。Thor 是我們迄今最成功的機器人與自駕運算平台。Thor 將驅動我們的全堆疊 Drive AV 軟體平台,目前已進入量產階段,為 NVIDIA 開啟數十億美元的新營收機會,同時提升車輛安全性與自動化程度。
接下來是損益表的其他部分:
- GAAP 毛利率為 72.4%,非 GAAP 毛利率為 72.7%。這些數字包含了 1.8 億美元(約 40 個基點)的利得,來自釋放先前為 H20 預留的庫存。若不計此利得,非 GAAP 毛利率仍達 72.3%,高於預期。
- GAAP 營業費用季增 8%,非 GAAP 則季增 6%,主因為運算與基礎建設成本上升,以及薪資與福利支出增加。
- 為支援 Blackwell 與 Blackwell Ultra 的量產,第二季庫存由 110 億美元增至 150 億美元。
- 儘管我們優先投入成長與策略性計畫,第二季仍透過股票回購與現金股利向股東回饋 100 億美元。
- 董事會近期批准了 600 億美元的股票回購授權,新增至第二季末剩餘的 147 億美元授權額度。
接下來,我們將進入第三季的財測展望。
總營收預計為 540 億美元,誤差範圍為 ±2%。這代表較前一季成長超過 70 億美元。再次強調,我們的財測並未納入對中國客戶的 H20 出貨。
GAAP 與非 GAAP 毛利率預計分別為 73.3% 與 73.5%,誤差範圍為 ±50 個基點。我們仍預期全年結束時,非 GAAP 毛利率將維持在 75% 左右的中高水準。
GAAP 與非 GAAP 營業費用預計分別約為 59 億美元與 42 億美元。全年營業費用預計年增率將達到高 30% 區間,高於先前預估的中 30% 區間。我們正在加速業務投資,以因應未來龐大的成長機會。
GAAP 與非 GAAP 的其他收入與支出預計為約 5 億美元的淨收入,不包含非上市與公開持股證券的損益。GAAP 與非 GAAP 的稅率預計為 16.5%,誤差範圍 ±1%,不含特殊項目。
更多財務數據可參見財務長評論與官網上的其他資訊。
最後,讓我簡要說明即將舉行的財經社群活動:
- 我們將於 9 月 8 日參加在舊金山舉辦的高盛科技會議。
- 年度 NDR(非交易路演)將於 10 月展開。
- GTC 資料中心活動將於 10 月 27 日開始,Jensen Huang 的主題演講預定於 10 月 28 日舉行。
我們期待在這些活動中與各位見面。
我們的 2026 財年業績說明會預定於 11 月 19 日舉行,屆時將討論財報結果。現在我們將開放問答環節。請主持人協助進行提問。
Q&A
C.J. Muse(Cantor Fitzgerald 分析師):我想問的是,從晶圓製造到機架出貨的交期長達十二個月,您今天在電話會議中確認 Rubin 將在下半年開始量產。顯然,這些投資是多年的計畫,取決於電力、冷卻等基礎設施。我希望您能從高層次的角度談談您對 2026 年的成長願景。如果能就網路與資料中心的發展方向做些比較與評論,那就更好了。謝謝。
Jensen Huang:謝謝你,CJ。從最高層次來看,成長的驅動力來自於推理型 Agentic AI 的出現。過去的聊天機器人是一次性回應,你給它一個提示,它就生成一個答案。現在的 AI 會進行研究、思考、規劃,甚至使用工具。這被稱為「長時間思考」,而思考越久,通常能產出更好的答案。
一次性生成與推理型 Agentic AI 模型所需的運算量可能相差 100 倍、1000 倍,甚至更多,因為它會進行大量的閱讀與理解。這使得所需的運算量大幅增加,而 AI 的效能也大幅提升。由於 Agentic AI 的出現,AI 的「幻覺」(錯誤回答)大幅減少。現在它可以使用工具並執行任務,企業也因此開始採用這些技術。
隨著 Agentic AI 和視覺語言模型的進展,我們也看到在實體 AI 領域的突破,例如機器人與自動化系統。過去一年,AI 有了巨大的進步,而推理型系統是完全革命性的。
我們打造了 Blackwell MVLink 72 系統,一個機架級的運算系統,就是為了這個時刻。我們已經投入多年研發。去年,我們從 MVLink 8(節點級運算,每個節點是一台電腦)轉向 NVLink 72(每個機架是一台電腦)。這種架構的轉變非常困難,但成果非常驚人。我們看到運算速度提升數個數量級,因此在能源效率與生成成本方面也有極大改善。
接下來幾年,我們將透過 Blackwell、Rubin 以及後續產品,擴展至一個 3 到 4 兆美元的 AI 基礎建設機會。過去幾年,前四大雲端服務供應商的資本支出已翻倍,達到約 6000 億美元。我們正處於這場建設的起點,而 AI 技術的進步也讓它能夠被廣泛應用於各行各業,解決各種問題。
Vivek Arya(美銀證券分析師):謝謝你們回答我的問題。Colette,我想釐清一下關於中國市場 20 億到 50 億美元的部分。需要哪些條件才能達成?進入第四季後,中國業務的可持續成長速度大概會是怎樣?然後 Jensen,我想請教你關於競爭格局的問題。你們的一些大型客戶已經有或正在規劃許多 ASIC 專案。我注意到你們的 ASIC 競爭對手 Broadcom 表示,他們的 AI 業務明年可能成長 55% 到 60%。你是否看到市場有可能從 NVIDIA 的 GPU 轉向 ASIC?你從客戶那邊聽到什麼?他們是如何在商用晶片(merchant silicon)與 ASIC 之間做出選擇與分配的?謝謝。
Colette Kress(NVIDIA 執行副總裁暨財務長):謝謝你,Vivek。讓我先回答你關於 H20 晶片出貨的問題。我們的 H20 晶片在中國市場有一定的需求,我們也已取得初步的出口許可。此外,我們也有現貨供應,因此我們才會說這一季可能出貨金額會落在 20 億到 50 億美元之間。
目前我們仍在等待一些地緣政治相關的問題獲得進一步釐清,政府與企業之間仍在協商採購與決策方向。因此目前情況仍不明朗,我們也無法確定這一季的最終出貨金額。不過,如果市場需求增加、許可增加,我們也能持續生產更多 H20 並進一步出貨。
Jensen Huang: NVIDIA 所打造的產品與 ASIC(特定應用積體電路)非常不同,我們先來談談 ASIC。很多專案啟動了,許多新創公司也因此誕生,但真正能進入量產的產品卻非常少,原因是這真的很困難。加速運算與一般用途的運算完全不同。
你不能只是寫好軟體然後編譯到處理器上。加速運算是一個全堆疊的共同設計問題。近幾年來,AI 工廠的複雜度大幅提升,因為問題的規模成長得非常快。這真的是世界上最極端的電腦科學挑戰,毫無疑問。
整個技術堆疊非常複雜。模型的演進速度驚人,從基於自回歸的生成模型,到基於擴散的生成模型,再到混合模型與多模態模型,各種模型層出不窮,不管是 Transformer 的衍生版本還是其進化版本,都令人眼花撩亂。
NVIDIA 的一大優勢是我們的技術在每個雲端平台都能使用,所有電腦公司都支援我們,從雲端、地端、邊緣設備到機器人,都能使用相同的程式設計模型。因此,全球所有框架都支援 NVIDIA 是合理的。
當你在打造新的模型架構時,選擇在 NVIDIA 平台上釋出是最合理的。NVIDIA 平台的多樣性,不僅能因應各種架構的演進,我們也無所不在,並且加速整個流程——從資料處理、預訓練、強化學習的後訓練,到推論階段。
因此,當你用 NVIDIA 平台建構資料中心時,它的效益是最好的,使用壽命也更長久。
我還想補充一點:除了上述所有內容之外,這現在已經是一個極度複雜的系統性問題了。大家常談論晶片本身,例如那顆 ASIC,也就是 GPU,很多人都在談論它。但要打造 Blackwell 平台和 Rubin 平台,我們必須建構整套系統,包括 CPU、快速記憶體、極度節能的大容量快取記憶體(這對於具代理能力的 AI 至關重要),再連接到 GPU、超級網卡(super NIC)、我們稱為 NVLink 的擴展交換器——這是完全革命性的技術,目前已進入第五代。
接著還要連接到擴散式交換器,不論是 Quantum 或 Spectrum X Ethernet,現在甚至要跨交換器擴展,以因應 AI 超級工廠的需求——這些工廠的運算規模達數個 gigawatt,全都互相連接。我們稱這個架構為 Spectrum XGS。
我們本週在 Hot Chips 大會上剛剛發表了這項技術。可以說,我們所做的一切,其複雜度都非常驚人,而且是在極端規模下完成的。
最後我還想再補充一點:我們之所以能進入每個雲端平台,是有充分理由的。
不只是因為我們的能源效率最高,我們的每瓦效能(perf per watt)是所有運算平台中最好的。在這個電力受限的資料中心時代,每瓦效能直接影響營收。你也聽我說過:「買得越多,成長越快。」因為我們的每美元效能(perf per dollar)非常出色,企業也能獲得極佳的利潤率。
因此,NVIDIA 架構所帶來的成長機會與毛利率機會都是最好的。這也是為什麼每個雲端平台、每家新創公司、每家電腦公司都選擇 NVIDIA。我們真的是一個全面性的、全堆疊的 AI 工廠解決方案。
Ben Reitzes,Melius 分析師:Jensen,我想請教你關於你提到的到本世紀末資料中心基礎建設支出將達到 3 兆到 4 兆美元的預測。你之前曾提到,到 2028 年僅在運算方面的支出約為 1 兆美元。如果綜合你過去的說法,這 3 到 4 兆美元可能代表其中有超過 2 兆美元是用於運算。請問這樣的理解是否正確?你是否預期到 2030 年前會看到這樣的規模?另外,你認為 NVIDIA 在其中的市占會是多少?目前你們在整體基礎建設的運算部分市占非常高,我也想知道你是否擔心有任何瓶頸,例如電力供應,會影響達成 3 到 4 兆美元的目標?謝謝。
Jensen Huang:是的,謝謝你。正如你所知,僅僅是前四大超級雲端業者(hyperscalers)的資本支出(CapEx)在過去兩年就翻倍了。隨著 AI 革命全面展開,AI 競賽正式啟動,這些公司的年度資本支出已經翻倍至 6,000 億美元。
距離2030還有五年,而這 6,000 億美元只是前四大雲端業者的支出。我們還有其他企業在建設地端(on-premise)系統,還有全球各地的雲端服務供應商正在擴建。美國目前約佔全球運算能力的 60%。隨著時間推移,人工智慧的發展將會反映各國 GDP 的規模與成長,並且加速 GDP 的成長。而我們的貢獻,就是 AI 基礎建設中的重要一環。
以一座 1 gigawatt 的 AI 工廠為例,總建置成本約在 500 億至 600 億美元之間(±10%),其中 NVIDIA 的部分約佔 350 億美元左右。這並不只是 GPU。我知道大家都認為我們是 GPU 的發明者,但事實上,在過去十年中,我們已經轉型成為一家 AI 基礎建設公司。要建構一台 Rubin AI 超級電腦,至少需要六種不同的晶片。要擴展到 1 gigawatt 的規模,就需要數十萬個 GPU 運算節點與大量機架。因此,我們真正的角色是 AI 基礎建設的提供者。
我們希望持續推動這個產業的成長,讓 AI 更有用,同時也非常重視 每瓦效能(performance per watt),因為如你所提到的,未來的限制因素很可能是電力供應或 AI 基礎建設的建置能力。
我們必須盡可能地提升工廠的效能。NVIDIA 的每單位能源效能直接驅動工廠的營收成長。舉例來說,如果你有一座 100 megawatt 的 AI 工廠,那麼「每 100 megawatt 的效能」就決定了你的營收,也就是「每 100 megawatt 能產生多少 token」。
此外,我們的 每美元效能(performance per dollar)也非常高,因此毛利率也非常好。總之,這些就是未來的限制因素,而 3 到 4 兆美元的支出預測,在接下來五年內是非常合理的。
Joe Moore,摩根士丹利分析師:太好了,謝謝你。恭喜你們重新開啟中國市場的機會。你能談談那裡的長期前景嗎?我記得你曾提到,全球 AI 軟體市場有一半在中國。你認為 NVIDIA 在這塊業務上能有多大的成長?另外,讓 Blackwell 架構最終在中國獲得授權,這件事有多重要?
Jensen Huang:中國市場今年對我們來說大約是 500 億美元的機會。如果我們能以具競爭力的產品切入這個市場,而今年是 500 億美元,那麼你可以預期它每年會以 50% 的速度成長,因為全球 AI 市場也在以類似的速度成長。中國是全球第二大的運算市場,同時也是 AI 研究人員的重鎮。全球大約有 50% 的 AI 研究人員在中國,絕大多數領先的開源模型也是在中國創建的。因此,我認為美國科技公司能夠進入這個市場是非常重要的。
你知道,開源雖然是在某個國家創建的,但卻被全球廣泛使用。中國推出的開源模型真的非常優秀。像 DeepSeek 當然已經在全球引起關注,Qwen(Q1)也很出色,Kimi 也很出色。
現在有一大批新模型正在推出,它們是多模態的,具備強大的語言理解能力,這些模型推動了全球企業對 AI 的採用,因為企業希望打造自己的專屬軟體堆疊。因此,開源模型對企業來說非常重要,對那些希望建立專屬系統的 SaaS 公司也非常重要。
開源對全球的機器人技術也帶來了巨大影響。所以開源真的很重要,而美國公司能夠參與其中也很重要。這將會是一個非常龐大的市場。我們正在與政府部門溝通,說明美國企業能夠進入中國市場的重要性。
正如你所知,H20 已經獲得批准,可供不在實體清單上的公司使用,許多授權也已經獲得核准。
因此,我認為我們將 Blackwell 架構引入中國市場的機會是真實存在的。我們只需要持續倡導這件事的合理性,以及美國科技公司在 AI 競賽中領先並勝出的重要性,並協助讓美國的技術堆疊成為全球標準。
Aaron Rakers,富國銀行分析師:好的,謝謝讓我提問。我想回到本週關於Spectrum XGS的公告。現在以太網產品的年化營收已超過100億美元,請問您如何看待Spectrum XGS的市場機會?我們是否可以將它視為資料中心互連層的一部分?您對於這個機會在整個以太網產品組合中的規模有什麼看法?謝謝。
Jensen Huang:我們現在提供三種網路技術:一種是用於「向上擴展」(scale up),一種是「向外擴展」(scale out),還有一種是「跨域擴展」(scale across)。
「向上擴展」是為了建構最大規模的虛擬GPU,也就是虛擬運算節點。NVLink是一項革命性的技術。NVLink 72讓Blackwell能夠在世代交替上實現遠超Hopper的飛躍。
在當前這個時代,我們有長時間思考的模型、具備代理能力的AI推理系統,NVLink基本上放大了記憶體頻寬,而這對於推理系統來說至關重要。因此,NVLink 72非常出色。
接著我們透過網路技術進行「向外擴展」,我們有兩種選擇:InfiniBand,它無疑是延遲最低、抖動最小、擴展性最好的網路。不過,它需要更多的專業知識來管理這些網路。
對於超級電腦以及領先的模型開發者來說,InfiniBand(量子InfiniBand)是毫無疑問的首選。如果你要評估一座AI工廠的效能,使用InfiniBand的系統表現是最好的。
對於那些希望使用以太網的用戶——因為他們整個資料中心都是以太網架構——我們推出了一種新型以太網,稱為Spectrum Ethernet。Spectrum Ethernet不是市面上的標準產品,它整合了大量新技術,專為低延遲、低抖動與壅塞控制而設計,並且能夠在效能上大幅接近InfiniBand,遠超其他現有的以太網技術。我們稱這項技術為 Spectrum X Ethernet。
最後,我們還有 Spectrum XGS,這是一種「gigascale」技術,用來連接多個資料中心、多個AI工廠,形成一個超級工廠,也就是一個巨型系統。
你會看到網路技術在AI工廠中扮演非常重要的角色。事實上,選擇正確的網路技術可以讓效能與吞吐量從65%提升到85%甚至90%,這樣的提升幅度幾乎讓網路成本變得「免費」。
選擇正確的網路技術,你會獲得難以置信的投資回報。正如我之前提到的,一座耗電一吉瓦的AI工廠可能價值500億美元,因此若能提升工廠效率數十個百分點,就可能帶來數十億甚至千億美元的效益。
這就是為什麼NVIDIA如此重視網路技術,也正是我們在五年半前收購Mellanox的原因。
如前所述,Spectrum X現在已成為相當規模的業務,而它才推出約一年半。Spectrum X是一項成功的產品。
我們的三大網路技術都非常出色:
- NVLink 用於「向上擴展」
- Spectrum X 與 InfiniBand 用於「向外擴展」
- Spectrum XGS 用於「跨域擴展」
Stacy Raskin,分析師,Bernstein Research:嗨,大家好,謝謝你們回答我的問題。我有一個比較策略性的問題要問 Colette。關於財測,你們的營收增加了超過 70 億美元,其中絕大部分來自資料中心。我該如何分配這 70 億美元在 Blackwell、Hopper 和網路設備之間?我的意思是,看起來 Blackwell 這一季可能貢獻了 270 億美元,比上一季的 230 億美元還多。Hopper 在 H20 之後仍然維持在 60 億或 70 億美元左右。你認為 Hopper 的強勢會持續嗎?我該如何理解這 70 億美元在這三個不同組件之間的分配?
Colette Kress,執行副總裁兼財務長:謝謝你的提問,Stacy。首先,從第二季到第三季的成長來看,Blackwell 仍然是我們資料中心業務的主要貢獻來源。但請記住,它不僅促進了我們的運算業務,也促進了網路業務,因為我們正在銷售那些整合了 Jensen 剛提到的 NVLink 的大型系統。至於 Hopper,我們仍在銷售,包括 H100 和 H200 系列。但再說一次,這些都是 HCX 系統,我仍然相信 Blackwell 會是我們在這方面業務的主要貢獻來源。所以我們會持續推進。雖然目前還沒有更具體的細節來說明這一季的最終表現,但你可以預期 Blackwell 仍將是成長的主要驅動力。
Jim Schneider,高盛:午安,謝謝您回答我的問題。您對於推理模型的機會已經說得非常清楚,也對 Rubin 的技術規格有相當明確的說明。但您是否可以再補充一些背景,說明您如何看待 Rubin 產品的轉換?它為客戶帶來了哪些額外的能力?另外,您會認為 Rubin 在效能或能力方面的提升,相較於 Blackwell,是更大、更小,還是差不多的進步?謝謝。
Jensen Huang:我們現在是採取年度更新的週期。這樣做的原因是,我們可以藉此加速成本下降,並最大化客戶的營收。當我們提升每瓦效能(perf per watt),也就是每單位能源所能產生的 token 數量時,實際上就是在幫助客戶提升營收。Blackwell 在推理系統上的每瓦效能,將比 Hopper 高出一個數量級。因此,在相同的能源消耗下——而所有資料中心本質上都受限於能源——使用 Blackwell 的資料中心,將能夠比以往任何產品、甚至目前全球任何系統都更有效地提升營收。
此外,由於效能/成本比(perf per dollar)非常出色,投入資本所獲得的效能也能幫助客戶提升毛利率。只要我們每一代架構都有好的創新點,就能透過新架構的推出,幫助客戶提升營收能力、AI 能力,以及毛利率。
因此,我們建議合作夥伴與客戶要掌握節奏,依照年度週期來建設資料中心。而 Rubin 將會帶來一系列全新的創意。我剛剛停頓了一下,因為從現在到明年之間,我還有很多時間可以向大家介紹 Rubin 將帶來的各種突破。
Rubin 確實有很多很棒的創新,我很期待分享,但現在還不能說。
我會留到 GTC(GPU 技術大會)再詳細介紹更多內容。不過,儘管如此,在接下來的一年裡,我們會全力推進 Grace Blackwell(GB200),接著是 Blackwell Ultra(B300),全面進軍資料中心。今年顯然是創紀錄的一年,我預期明年也會是創紀錄的一年。
我們一方面持續提升 AI 的效能,朝向人工超級智慧邁進;另一方面也持續提升超大規模客戶的營收能力。
Timothy Arcuri,UBS:非常感謝。Jensen,我想問你一個問題,你之前提到 AI 市場的年均成長率(CAGR)是 50%。那我想知道你對明年的展望有多少掌握?這樣的成長率是否也是你預期資料中心營收成長的合理目標?我認為你們的成長至少會與這個 CAGR 持平。是否有什麼可能影響這個預期的因素?謝謝。
Jensen Huang,:我認為最好的看法是,我們從大型客戶那裡獲得了對明年相當明確的預測,非常非常具規模的預測。而且我們還有很多業務正在拓展,還有許多新創公司正在成立。別忘了,去年 AI 原生新創公司獲得的資金是 1,000 億美元,而今年——年還沒結束——已經達到 1,800 億美元。
如果你看看那些正在創造營收的 AI 原生新創公司,去年是 20 億美元,今年是 200 億美元。明年達到今年的 10 倍,也不是不可能的事。而開源模型的興起,也讓大型企業、SaaS 公司、工業公司、機器人公司能夠加入 AI 革命,成為另一個成長來源。
無論是 AI 原生公司、企業級 SaaS、工業 AI 或新創公司,我們都看到 AI 的興趣與需求非常龐大。現在的熱度,相信你們都知道——市場上所有東西都賣光了。H100 賣光了,H200 也賣光了。
大型雲端服務供應商(CSP)甚至開始向其他 CSP 租用算力。AI 原生新創公司正在努力爭取算力資源,以便訓練他們的推理模型。需求真的非常非常高。
從長期來看,資本支出(CapEx)在兩年內翻倍。現在僅大型超大規模業者的年度資本支出就達到 6,000 億美元。
對我們來說,能夠成為這每年 6,000 億美元資本支出的一部分,佔有重要地位,並不是不合理的事。因此,我認為在接下來的幾年,甚至整個十年,我們都將迎來快速且重大的成長機會。
讓我用這段話作為結尾:Blackwell 是全球期待已久的下一代 AI 平台,它帶來了卓越的世代躍進。
NVIDIA 的 NVLink 72 機架級運算架構是革命性的創新,正好趕上推理型 AI 模型對訓練與推論效能需求呈現數量級成長的時刻。Blackwell Ultra 正在全速推進,需求非常強勁。而我們的下一代平台 Rubin 已經進入晶圓製造階段,Rubin 平台包含六款新晶片,全部都已在台積電完成 Tape-out。
Rubin 將成為我們第三代 MB LINK 機架級 AI 超級電腦,因此我們預期供應鏈將更加成熟並全面擴展。Blackwell 與 Rubin 的 AI 工廠平台,將在本十年末以前,擴展至全球 3 至 4 兆美元的 AI 工廠建設浪潮中。
客戶正在打造規模越來越大的 AI 工廠,從使用數千顆 Hopper GPU 的數十兆瓦資料中心,到現在使用數十萬顆 Blackwell GPU 的百兆瓦設施。很快,我們將建造數百萬顆 Rubin GPU 平台,驅動多個場域、總功率達數吉瓦的 AI 超級工廠。每一代推出後,需求只會持續成長。
一次性聊天機器人已經演進為具推理能力的 Agentic AI,能夠進行研究、規劃並使用工具,推動訓練與推論所需算力呈現數量級成長。Agentic AI 正在邁向成熟,並開啟企業市場,讓企業能夠打造專屬領域與公司流程的 AI 智能代理人。
實體 AI 的時代已經到來,開啟了機器人與工業自動化等全新產業。未來每個產業、每家工業公司都需要建造兩座工廠:一座用來製造機器,另一座用來打造其機器人的 AI。
本季,NVIDIA 創下了營收新高,也達成了我們旅程中的一項重要里程碑。
未來的機會巨大,一場新的工業革命已經展開。AI 的競賽正在進行中。感謝各位今天的參與,我期待在下週的財報電話會議再次與大家見面。謝謝。