
Colette Kress,NVIDIA執行副總裁暨財務長:
我們交出另一個亮眼的季度成績,營收達 570億美元,同比成長 62%,並創下單季營收成長紀錄,增加 100億美元,即 22%。我們的客戶持續投入三大平台轉型,推動加速運算、強大AI模型以及自主應用的指數級成長。然而,這些轉型仍處於早期階段,未來將影響各行各業的工作。我們目前可見的 Blackwell 和 Rubin 平台收入,從今年初至2026年底,規模達 5000億美元。透過執行年度產品節奏並延伸我們在全棧設計上的性能領先,我們相信NVIDIA將成為 每年3兆至4兆美元AI基礎設施建置的最佳選擇,這是我們預估在本世紀末前的市場規模。AI基礎設施的需求仍超出我們的預期。
雲端服務已全部售罄,我們的GPU安裝基礎,包括新舊世代產品(Blackwell、Hopper、Ampere),均已充分利用。第三季資料中心營收創下 510億美元紀錄,同比增長 66%,在我們的規模下是重大成就。運算業務同比成長 56%,主要由 GB300 的量產推動;網路業務則因 NVLink 擴展及 Spectrum X Ethernet 和 Quantum X InfiniBand 的強勁雙位數成長而翻倍。全球超大規模雲端業者(hyperscalers),上兆美元產業,正在將搜尋、推薦及內容理解,從傳統機器學習轉向生成式AI。NVIDIA CUDA在兩者皆表現卓越,是這一轉型的理想平台,推動基礎設施投資達數千億美元。在Meta,AI推薦系統正提供更高品質、更相關的內容,讓使用者在Facebook和Threads等應用程式上花費更多時間。分析師對2026年頂尖雲端服務供應商(CSP)及 hyperscalers 的資本支出(CapEx)預期持續上升,目前總額約達 6000億美元,比年初高出 2000億美元以上。我們認為,現有超大規模工作負載向加速運算與生成式AI的轉型,將貢獻我們長期機會的大約一半。另一個成長支柱是基礎模型建構者(如 Anthropic、Mistral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab 和 xAI)持續增加運算支出,並積極擴展運算能力以提升智慧。三大擴展法則(scaling laws) pre-training, post-training, and inference 仍然成立。事實上,我們看到一個正向的良性循環正在形成:擴展法則與運算資源的取得,正在產生更好的智慧,進而提升採用率與獲利。
OpenAI最近分享,他們的每週用戶數已增至 8億,企業客戶達 100萬,且毛利率保持健康。同時,Anthropic報告指出,其年度化營收截至上月已達 70億美元,較年初的 10億美元大幅成長。我們也見證了 Agentic AI 在各行各業與任務中的擴散。像 Cursor、Anthropic、Open Evidence、Epic 和 Abridge 等公司,隨著強化現有勞動力,使用者增長迅速,為程式開發者與醫療專業人士帶來無可置疑的投資報酬率。全球最重要的企業軟體平台,如 ServiceNow、CrowdStrike 和 SAP,正在整合NVIDIA的加速運算與AI技術。我們的新合作夥伴 Palantir,首次將NVIDIA CUDA X函式庫與AI模型,導入其極受歡迎的本體論平台(ontology),進行強化。過去,與大多數企業軟體平台一樣,Ontology僅在CPU上運行。 Lowe's 正利用該平台打造供應鏈敏捷性,降低成本並提升顧客滿意度。企業普遍利用AI來提升生產力、提高效率並降低成本。RBC 正採用 Agentic AI,大幅提升分析師的工作效率,將報告生成時間從數小時縮短至數分鐘。AI與數位分身幫助 Unilever 將內容創作速度加快 2倍,並削減 50% 成本。Salesforce 的工程團隊在採用 Cursor 後,新程式碼開發的生產力至少提升 30%。
在過去一季,我們宣布了總計 500萬顆GPU 的AI工廠與基礎設施專案。這些需求涵蓋所有市場:CSPs, sovereigns, model builders, enterprises, and supercomputing centers,並包含多個里程碑式的建置。
xAI 的 Colossus 2,全球首座 gigawatt-scale 資料中心;Lilly 的AI工廠,用於藥物研發,是製藥業最強大的資料中心。就在今天,AWS 與 Humane 擴大合作,部署多達 15萬顆AI加速器,包括我們的 GB300。xAI 與 Humane 也宣布合作,將共同開發一個世界級GPU資料中心網絡,核心設施為 500-megawatt 旗艦中心。
Blackwell 在第三季獲得更多動能,GB300 超越 GB200,並貢獻約 三分之二 的Blackwell總收入。GB300的轉換過程非常順利,已向主要雲端服務供應商、超大規模業者及GPU雲端進行量產出貨,並已推動其成長。Hopper平台自推出以來已進入第13季,本季營收約 20億美元。H20 銷售額約 5000萬美元。
由於地緣政治問題以及中國市場競爭日益激烈,本季度並未出現大量採購訂單。 雖然我們對目前無法向中國出貨更具競爭力的資料中心運算產品感到失望,但我們仍致力於與美國和中國政府保持溝通,並持續倡導美國在全球競爭的能力。要在AI運算領域建立可持續的領導地位,美國必須贏得每位開發者的支持,並成為每個商業企業(包括中國企業)的首選平台。
Rubin平台 預計將在 2026年下半年開始量產。由七顆晶片驅動的 Vera Rubin平台,將再次帶來相較於 Blackwell 的 X級性能提升。
我們已從供應鏈合作夥伴收到晶片,並欣喜地報告,全球各地的NVIDIA團隊正在順利完成啟動工作。Rubin 是我們第三代機架級系統,重新定義了製造能力,同時保持與 Grace Blackwell 的相容性。我們的供應鏈資料中心生態系統與雲端合作夥伴,現已熟練掌握NVIDIA機架架構的建置與安裝流程,為Rubin的快速量產做好準備。
我們每年的 X級性能躍升,不僅提升每美元的運算性能,還降低客戶的運算成本。NVIDIA CUDA GPU的長使用壽命,相較於其他加速器,提供顯著的總擁有成本(TCO)優勢。CUDA的相容性以及我們龐大的安裝基礎,讓NVIDIA系統的壽命遠超過原始估計。二十多年來,我們持續優化CUDA生態系統,改善現有工作負載、加速新工作負載,並在每次軟體更新中提升吞吐量。
大多數缺乏CUDA與NVIDIA經過時間驗證且多功能架構的加速器(accelerators),隨著模型技術演進,在幾年內就會過時。 得益於CUDA,我們六年前出貨的 A100 GPU,如今仍在滿負載運行,並由大幅改進的軟體堆疊支援。我們在過去25年中,從一家遊戲GPU公司,演變為 AI資料中心基礎設施公司。我們在 CPU、GPU、網路與軟體領域的創新能力,並最終降低每個token的成本,業界無人能及。
我們的網路業務專為AI打造,現已成為全球最大,營收達 82億美元,同比成長 162%,其中 NVLink、InfiniBand 和 Spectrum X Ethernet 均有助於成長。我們在資料中心網路領域取得勝利,因為大多數AI部署現在都包含我們的交換器,且 Ethernet GPU連接率大致與 InfiniBand持平。
Meta、Microsoft、Oracle 和 xAI 正在使用 Spectrum X Ethernet交換器建設 gigawatt AI factories,並各自運行其選擇的作業系統,突顯我們平台的靈活性與開放性。我們最近推出 Spectrum XGS,這是一項跨規模技術,可支援 超大規模AI工廠。NVIDIA是唯一擁有 AI scale-up, scale-out, and scale-across的公司,強化我們作為AI基礎設施供應商的獨特地位。
客戶對 NVLink Fusion 的興趣持續增長。我們在10月宣布與 Fujitsu 的策略合作,將透過NVLink Fusion整合Fujitsu的CPU與NVIDIA GPU,連結我們龐大的生態系統。我們也宣布與 Intel 合作,開發多代客製化資料中心與PC產品,並透過NVLink連結NVIDIA與Intel的生態系統。
本週在 Supercomputing 25 大會上,Arm 宣布將整合 NVLink IP,讓客戶能打造與 NVIDIA 連接的 CPU SoC。 NVLink 目前已進入第五代,是市場上唯一經過驗證的擴展技術。在最新的 MLPerf 訓練結果中,Blackwell Ultra 的訓練速度比 Hopper 快 5倍,NVIDIA 橫掃所有基準測試。值得注意的是,NVIDIA 是唯一在符合 MLPerf 嚴格準確度標準的同時,利用 bridge FP4 的訓練平台。
在 Semi-Analysis 推理最大基準測試中,Blackwell 在所有模型與使用案例中,達成最高效能與最低總擁有成本(TCO)。尤其重要的是,Blackwell 的 NVLink 在 Mixture of Experts(MOE)架構上的表現,這是全球最受歡迎的推理模型架構。在 DeepSeek R1 上,Blackwell 相較於 H200,每瓦效能提升 10倍,每 token 成本降低 10倍,這是由我們極致的程式設計方法推動的重大世代躍升。
NVIDIA Dynamo,一個開源、低延遲、模組化推理框架,現已被所有主要雲端服務供應商採用。透過 Dynamo 的支持與分解式推理,AWS、Google Cloud、Microsoft Azure 和 OCI 等平台,顯著提升了企業雲端客戶在複雜 AI 模型(如 MOE 模型)上的推理效能。
我們正在與 OpenAI 建立策略合作,協助其建置並部署至少 10 gigawatt AI 資料中心,此外我們也有機會投資該公司。我們透過其雲端合作夥伴 Microsoft Azure、OCI 和 CoreWeave 為 OpenAI 提供服務,並將在可預見的未來持續支持。隨著 OpenAI 持續擴張,我們很高興能協助其增加自建基礎設施,並正努力達成最終協議,期待支持 OpenAI 的成長。
昨天,我們與 Anthropic 一同慶祝了一項重大公告。Anthropic 首次採用 NVIDIA,我們正在建立深度技術合作夥伴關係,以支持 Anthropic 的快速成長。 我們將合作優化 Anthropic 模型以適配 CUDA,並提供最佳的效能、效率與總擁有成本(TCO)。同時,我們也會針對 Anthropic 的工作負載,優化未來的 NVIDIA 架構。Anthropic 的運算承諾初期將包括 高達 1 gigawatt的運算能力,採用 Grace Blackwell 和 Vera Rubin 系統。
我們對 Anthropic、Mistral、OpenAI、Reflection、Thinking Machines 等公司的策略性投資,代表著能擴展 NVIDIA CUDA AI 生態系統的合作,並讓每個模型在 NVIDIA 平台上達到最佳運行。我們將持續進行策略性投資,同時保持嚴謹的現金流管理。
Physical AI 已經是一個數十億美元的業務,並瞄準數兆美元的市場機會,成為 NVIDIA 下一個成長引擎。美國領先的製造商與機器人創新者,正在利用 NVIDIA 的 three-computer architecture:在 NVIDIA 上進行訓練、在 Omniverse computers上測試,並在 Jetson robotic computers上部署實際 AI。
PTC 和 Siemens 推出新服務,將 Omniverse-powered digital twin workflows帶給其龐大的客戶群。包括 Belden、Caterpillar、Foxconn、Lucid Motors、Toyota、TSMC 和 Wistron 在內的公司,正在建設 Omniverse digital twin factories,以加速 AI 驅動的製造與自動化。Agility Robotics、Amazon Robotics、Figure 和 Skilled at AI 正在採用我們的平台,並利用 NVIDIA Cosmos World Foundation models進行開發,使用 Omniverse 進行模擬與驗證,並以 Jetson 驅動下一代智慧型機器人。
我們持續專注於建立全球供應鏈的韌性與冗餘。上個月,我們與 TSMC 合作,慶祝 首片 Blackwell 晶圓在美國本土生產。我們將在未來四年持續與 Foxconn、Wistron、Amcor、SPIL 等公司合作,擴大我們在美國的布局。
遊戲業務營收達 43 億美元,同比增長 30%,主要受益於強勁需求以及 Blackwell 動能的延續。終端市場銷售保持強勁,且渠道庫存在進入假期季時維持正常水平。Steam 最近創下並發用戶紀錄,達 4200 萬玩家,同時數千名粉絲齊聚韓國的 GeForce Gamer Festival,共同慶祝 GeForce 25 週年。
NVIDIA 專業視覺化業務已演進為工程師與開發者的運算平台,無論是圖形還是 AI。專業視覺化營收達 7.6 億美元,同比增長 56%,再創新高,成長主要來自 DGX Spark,全球最小的 AI 超級電腦,基於 Grace Blackwell 的小型配置打造。汽車業務營收達 5.92 億美元,同比增長 32%,主要由自駕解決方案推動。
我們正與 Uber 合作,擴展全球最大、Level 4 自駕準備就緒的車隊,基於全新 NVIDIA Hyperion L4 Robotaxi 參考架構。
接下來是損益表其他部分:
- GAAP 毛利率為 73.4%,非 GAAP 毛利率為 73.6%,超出預期。
- 毛利率環比提升,主要受資料中心產品組合、改善的週期時間與成本結構影響。
- GAAP 營業費用環比增長 8%,非 GAAP 增長 11%,成長主要來自基礎設施運算,以及工程研發成本中的薪酬與福利增加。
- 第三季非 GAAP 有效稅率略高於 17%,高於指引的 16.5%,原因是美國營收強勁。
- 在資產負債表方面,庫存環比增長 32%,供應承諾環比增長 63%。
我們正準備迎接顯著的成長,並對自身執行機會的能力充滿信心。
接下來談談第四季展望:
- 總營收預期為 650 億美元,正負 2%。
- 以中位數計算,展望意味著 環比成長 14%,主要受 Blackwell 架構持續動能推動。
- 與上季一致,我們未假設來自中國的資料中心運算收入。
- GAAP 與非 GAAP 毛利率預期分別為 74.8% 與 75%,正負 50 個基點。
- 展望 2027 財年,雖然投入成本上升,我們正努力將毛利率維持在 70%中段。
- GAAP 與非 GAAP 營業費用預期分別約為 67 億美元與 50 億美元。
- GAAP 與非 GAAP 其他收入與支出預期為約 5 億美元的收入,不含非上市及公開持股的盈虧。
- GAAP 與非 GAAP 稅率預期為 17%,正負 1%,不含特殊項目。
現在,讓我將時間交給 Jensen。
NVIDIA CEO, Jensen:
近期有許多人談論 AI 泡沫,但從我們的角度看,情況完全不同。提醒大家,NVIDIA 與其他加速器截然不同。我們在 AI 的每個階段都表現卓越,從 pre-training and post-training to inference。憑藉二十年對 CUDA X 加速函式庫的投資,我們在科學與工程模擬、電腦圖形、結構化資料處理到傳統機器學習方面同樣出色。全球正同時經歷三大平台轉型,這是自摩爾定律誕生以來的首次。NVIDIA在這三項轉型中扮演獨特且關鍵的角色。
第一個轉型,是隨著摩爾定律趨緩,從以CPU為核心的通用運算,轉向以GPU加速運算。全球在非AI軟體上投入了大量資金,涵蓋從資料處理到科學與工程模擬,每年在雲端運算上的花費達數千億美元。許多過去僅能在CPU上執行的應用,現在正快速轉移到CUDA GPU上。加速運算已達到臨界點。
第二個轉型,是AI本身也達到臨界點,不僅改變現有應用,還催生全新的應用場景。對現有應用而言,生成式AI正在取代傳統機器學習,從搜尋排序、推薦系統、廣告投放、點擊率預測到內容審核,這些都是超大規模基礎設施的核心。Meta的Gem模型就是一個例子,它是一個基於大型GPU集群訓練的廣告推薦基礎模型。在第二季,Meta報告顯示,Instagram廣告轉換率提升超過5%,Facebook動態消息提升3%,這些增長由生成式AI驅動的Gem所帶來。轉向生成式AI,對超大規模運算企業而言,意味著可觀的收入增長。
現在,一個新的浪潮正在興起:具備推理、規劃與工具使用能力的「Agentic AI」系統。從程式碼助手如Cursor與Claude Code,到醫療影像工具如iDoc、法律助手Harvey,以及自動駕駛系統如 Tesla FSD 與Waymo,這些系統代表 the next frontier of computing。當今全球成長最快的公司 OpenAI、Anthropic、xAI、Google、Cursor、Lovable、Replet、Cognition AI、Open Evidence、Abridge、Tesla 都在引領Agentic AI的發展。
總結來說,這三大平台轉型中,加速運算的轉型是基礎且必不可少的,尤其在後摩爾定律時代。轉向生成式AI是一項具有變革性且必不可少的進程,它能強化現有應用與商業模式。轉向Agentic AI 及 Physical AI 將帶來革命性影響,催生全新的應用、公司、產品與服務。
在考慮基礎設施投資時,請務必關注這三個基本動態,因為它們都將在未來幾年推動基礎設施的增長。NVIDIA之所以被選擇,是因為我們獨特的架構能夠支持這三項轉型,並適用於所有形式與模態的AI,涵蓋各行各業、AI的每個階段,以及雲端中多樣化的運算需求,甚至從雲端延伸至企業與機器人。一個架構,全面支持。
Q&A
摩根士丹利的 Joseph Moore:太好了,謝謝。我想請您更新一下進度。您曾在 GTC 上提到,Blackwell 加上 Rubin 在 2025 和 2026 年的收入預估為 5,000 億美元。當時您說其中已有 1,500 億美元已經出貨。隨著季度結束,這些數字是否仍大致維持不變?也就是說,接下來大約 14 個月還有 3,500 億美元?我假設在這段時間內,您還沒看到全部需求,但是否有可能超過這些數字?
A:是的,謝謝 Joe。我先來回答這個問題。沒錯,我們正按照 5,000 億美元的預測進行,並且在完成部分季度後仍保持進度。我們還有幾個季度要走,直到 2026 年曆年結束。這個數字會繼續增長,我相信我們會在 2026 財年之前滿足更多可出貨的運算需求。本季度我們出貨了 500 億美元,但如果不補充說明,我們可能還會接更多訂單。例如,就在今天,我們與沙烏地阿拉伯(KSA)的公告,該協議本身在三年內將增加 40 萬到 60 萬顆 GPU。Anthropic 也不是新消息。顯然,我們有機會在原先宣布的 5,000 億美元基礎上再增加。
Cantor Fitzgerald 的 C.J. Muse:好的,下午好,感謝您回答我的問題。顯然,關於 AI 基礎設施建設規模、資金籌措能力以及投資回報率,外界存在相當大的疑慮。然而,同時您提到目前供應已經售罄,每一顆啟用的 GPU 都已被搶購。AI 世界甚至還未真正從 B300 中獲得巨大效益,更不用說 Rubin。Gemini 3 剛剛宣布, Grok 5 即將推出。我的問題是:在這樣的背景下,您認為供應在未來 12 到 18 個月內有現實的可能追上需求嗎?還是您覺得這個時間框架可能會延長?
A: 如您所知,我們在供應鏈規劃方面做得非常好。NVIDIA 的供應鏈基本上涵蓋了全球所有科技公司。台積電及其封裝業務、我們的記憶體供應商與合作夥伴,以及所有系統 ODM 都與我們一起做了非常好的規劃。我們一直在為 a big year 做準備。我們早已看到我剛才提到的三個轉變:從通用計算到加速計算。必須認識到,AI 不僅僅是代理型 AI,生成式 AI 正在改變超大規模雲服務商過去在 CPU 上完成的工作。生成式 AI 讓他們能夠將搜尋、推薦系統,以及新增的推薦與精準投放全部轉移到生成式 AI,這一過程仍在持續轉型中。
無論您安裝 NVIDIA GPU 是為了資料處理,還是為了在推薦系統中使用生成式 AI,或者是為了構建代理型聊天機器人,以及大多數人想到 AI 時所聯想到的那類 AI,所有這些應用都由 NVIDIA 加速。當您考慮整體支出時,必須認真思考每一層,它們都在成長,彼此相關但並不相同。最棒的是,它們都能在 NVIDIA GPU 上運行。同時,由於 AI 模型的品質正在以驚人的速度提升,其在不同使用場景中的採用率也在增加,無論是程式碼輔助(NVIDIA 自身大量使用),而且我們並不是唯一的使用者。
事實上,歷史上增長最快的應用,是 Cursor、Claude Code、OpenAI Codex 和 GitHub Copilot 的組合,這些應用是史上增長最快的。不僅僅是軟體工程師在使用,它還因 Vibe Coding 而被廣泛採用,工程師、行銷人員、供應鏈規劃師都在使用。我認為這只是其中一個例子,還有很多其他領域,例如 Open Evidence 在醫療保健方面的工作,或數位影片編輯領域的 Runway。利用生成式 AI 和代理型 AI 的令人振奮的新創公司數量正在快速增長,更不用說我們所有人都在越來越多地使用它。
所有這些指數級的變化,更不用說,就在今天,我讀到 Demis 的訊息,他說預訓練和後訓練仍然完全保留。Gemini 3 利用了擴展定律,並在品質和模型效能上獲得了巨大的提升。我們看到所有這些指數級的進展幾乎同時發生。我總是回到基本原則,思考我之前提到的每個動態:從通用計算到加速計算,生成式 AI 取代傳統機器學習,當然還有代理型 AI,這是一個全新的類別。
美國銀行證券的 Vivek Aria:我想知道,在那個 5,000 億美元的數字中,您對 per gigawatt NVIDIA 內容的假設是什麼?因為我們聽到的數字從per gigawatt 250 億美元低至 300 億或 400 億美元都有。我想知道,您在這個 5,000 億美元的數字中,對功率以及每吉瓦美元的假設是什麼?再往長期看,Jensen,您提到到 2030 年資料中心規模將達 3 兆到 4 兆美元。您認為其中有多少需要供應商融資?又有多少可以由大型客戶、政府或企業的現金流來支持?謝謝。
A: 在每一代產品中,從 Ampere 到 Hopper,再從 Hopper 到 Blackwell,以及 Blackwell 到 Rubin,我們在資料中心的占比都在增加。Hopper 這一代大約是 20 左右,20-25。Blackwell 這一代,特別是 Grace Blackwell,大約是 30,上下浮動。Rubin 可能比這更高。在每一代中,性能提升都是倍數級的。因此,客戶的 TCO「總體擁有成本」(Total Cost of Ownership)也會隨之改善倍數。最重要的是,最終您仍然只有 一個gigawatt的功率,一個gigawatt的資料中心,一個gigawatt的電力。因此,每瓦性能(Performance per Watt),也就是架構的效率,極其重要。這個效率不能靠蠻力去提升,沒有任何蠻力的可能。那一個吉瓦直接轉換,您的每瓦性能直接、絕對直接影響您的收入,這就是為什麼現在選擇正確的架構如此重要。這個世界沒有任何可以浪費的過剩資源。
我們必須非常、非常謹慎,我們在整個技術堆疊中採用一個稱為 協同設計(co-design) 的概念,涵蓋框架與模型、整個資料中心,甚至包括電力與散熱,並在我們的生態系統中針對整個供應鏈進行最佳化。每一代,我們的經濟貢獻都會更大,我們所提供的價值也會更高。最重要的是,我們的 每瓦能效(energy efficiency per watt) 在每一代都將達到非凡的水平。
至於持續成長,客戶的融資取決於他們自己。我們看到有相當長期的成長機會。請記住,今天大部分焦點都在 超大規模雲端服務商(hyperscalers)。關於 hyperscalers,有一個經常被誤解的地方,那就是 投資 NVIDIA GPU 不僅能提升他們的規模、速度與成本效益,相較於一般用途運算(general-purpose computing)這是第一點,因為摩爾定律的擴展已經顯著放緩。
摩爾定律的核心是降低成本,是一種隨時間推進的 運算成本通縮效應。但這個趨勢已經放緩,因此他們需要新的方法來持續降低成本。採用 NVIDIA GPU 運算,確實是最佳途徑。
第二點是 提升現有商業模式的收入。推薦系統(recommender systems)驅動著全球的 hyperscalers,無論是推薦短影片、書籍、購物車中的下一個商品、廣告、新聞,一切都與推薦有關。網路上有數兆級的內容,他們怎麼可能知道該在你的小小螢幕上呈現什麼,除非擁有非常先進的推薦系統?而這些系統如今已經進化到 生成式 AI(generative AI)。
我剛才提到的前兩點,數千億美元的資本支出(CapEx)必須投入,並且完全由現金流資助。在此之上的,就是 Agentic AI。這是全新的消費,也是全新的應用。我之前提到過其中一些應用,但這些新應用同時也是歷史上增長最快的應用。
我認為,一旦人們開始理解水面下真正發生的事情,而不是僅僅從資本支出投資的簡單視角來看,就會認識到這三個動態。最後,請記住,我們剛才談的是美國的雲端服務供應商(CSPs)。每個國家都會資助自己的基礎設施。你有多個國家,你有多個產業。
世界上大多數產業尚未真正涉入 Agentic AI,但它們即將開始。所有你熟悉的公司名稱,我們正在合作的,不管是自動駕駛公司,還是用於工廠的物理 AI 數位分身(digital twins),以及全球正在建設的工廠和倉庫數量,還有大量獲得資金支持的數位生物技術新創公司,以加速藥物研發。所有這些不同的產業現在都在參與,並且將進行自己的融資。
不要僅僅把目光放在 hyperscalers 身上,認為它們是未來建設的唯一途徑。你必須看到整個世界,看到所有不同的產業。企業運算(enterprise computing)將資助它們自己的產業。
Melius 的 Ben Ritzes:Jensen,我想問一下關於現金的問題。說到五千億,未來幾年你們可能會產生大約五千億美元的自由現金流。你們對這筆現金有什麼計劃?多少會用於股票回購,多少會投入到生態系統?你們如何看待對生態系統的投資?我認為外界對這些交易的運作方式以及你們的標準(例如 Anthropic、OpenAI 等)存在很多困惑。非常感謝。
A: 是的,感謝你的問題。當然,我們會用現金來支持公司的成長。沒有任何公司能在我們所談論的這種規模下成長,並擁有 NVIDIA 所具備的連結、深度以及廣度的供應鏈。我們整個客戶群能依賴我們的原因,是因為我們建立了非常有韌性的供應鏈,並且擁有能支持他們的資產負債表。當我們進行採購時,供應商可以完全信任我們;當我們做預測並與他們規劃時,他們會認真看待,因為我們的資產負債表。我們不是隨意編造需求,我們非常清楚自己的需求量。因為他們多年來一直與我們共同規劃,我們的聲譽和可信度非常高。要做到這一點,需要非常強大的資產負債表,才能支持這種成長速度和規模。這是第一點。
第二點,當然,我們會繼續進行股票回購。我們會持續這麼做。關於投資,這是我們非常非常重要的一項工作。我們至今所做的所有投資,都是與擴展 CUDA 的影響力、擴展生態系統相關。如果你看看我們與 OpenAI 的合作與投資,這段關係可以追溯到 2016 年。我當時交付了第一台 AI 超級電腦給 OpenAI,從那時起我們就保持著密切且良好的合作關係。如今,OpenAI 所做的一切都運行在 NVIDIA 上。他們部署的所有雲端,不論是訓練還是推理,都使用 NVIDIA,我們非常喜歡與他們合作。我們與他們的夥伴關係,使我們能從技術層面更深入合作,以支持他們加速成長。這是一家成長速度極快的公司。
不要只看媒體報導,要看看所有與 OpenAI 相關的生態系統夥伴和開發者,他們都在推動其使用量。AI 的品質與一年前相比有了巨大的提升,回應的品質非常出色。我們投資 OpenAI,是為了建立深度的共同開發夥伴關係,擴展我們的生態系統並支持他們的成長。當然,與其放棄我們公司的股份,我們獲得了他們公司的股份。我們投資在這家世代難得的公司,並擁有其股份。我完全預期這項投資將帶來非凡的回報。
至於 Anthropic,這是他們首次採用 NVIDIA 的架構。Anthropic 首次採用 NVIDIA 架構,這家公司是全球用戶數第二多的 AI,在企業市場表現非常出色。Claude Code 表現非常好,Claude 在全球企業市場也非常成功。現在我們有機會與他們建立深度合作,將 Claude 引入 NVIDIA 平台。
那麼我們現在擁有什麼?退一步看,NVIDIA 的架構、NVIDIA 的平台,是全球唯一能運行所有 AI 模型的平台。我們運行 OpenAI,我們運行 Anthropic,我們運行 xAI,這得益於我們與 Elon 及 xAI 的深度合作。我們還將這個機會帶到沙烏地阿拉伯(KSA),讓 Humane 也能為 xAI 提供託管機會。我們運行 xAI,我們運行 Gemini,我們運行 Thinking Machines。
還有什麼?我們幾乎全部都運行。不僅如此,我們還運行科學模型、生物模型、DNA 模型、基因模型、化學模型,以及全球各領域的模型。AI 不僅僅是認知型 AI,它正在影響每一個產業。我們能夠透過生態系統投資,與全球最優秀、最具創意的公司在技術層面建立深度合作。我們正在擴展生態系統的影響力,並獲得這些公司股份與投資,這些公司往往是世代難得的成功企業。這就是我們的投資理念。
高盛的 Jim Schneider:下午好,感謝您回答我的問題。過去您曾提到,大約有 40% 的出貨量與 AI 推理(inference)相關。我想知道,展望明年,您認為這個比例在一年後可能會達到多少?另外,能否談談您預計明年推出的 Rubin CPX 產品,並為我們提供一些背景?您認為它能佔整體 TAM(總可用市場)的多大比例?還有,能否說明該產品的目標客戶應用場景?謝謝。
A:CPX 是專為長上下文類型的工作負載生成而設計的。所謂長上下文,基本上在開始生成答案之前,必須先閱讀大量資料,基本上就是長上下文。這可能是一堆 PDF 文件、一系列影片、研究 3D 圖像等等。您必須先吸收這些上下文。CPX 就是為這類長上下文工作負載而設計的。
它的「每美元性能」非常出色。它的「每瓦性能」也非常出色。這讓我忘記了問題的第一部分,推理。哦,推理。是的。目前有三個同時擴展的規律。第一個擴展規律稱為「預訓練」,它仍然非常有效。第二個是「後訓練」。後訓練基本上發現了令人驚嘆的演算法,可以提升 AI 將問題拆解並逐步解決的能力。而且後訓練正在呈指數級擴展。基本上,投入越多運算資源到模型,它就越聰明、越智能。
第三個是推理。推理因為「思維鏈」(chain of thought)、因為推理能力,AI 在回答之前基本上會先閱讀、思考。由於這三個因素,所需的運算量已經完全呈現指數級增長。
我認為很難確定在任何時間點,這個百分比會是多少,以及由誰主導。當然,我們希望推理能成為市場的重要部分。如果推理市場很大,這意味著人們在更多應用中使用它,並且使用頻率更高。我們都應該希望推理市場非常大。這正是 Grace Blackwell 平台比世界上任何東西都要先進一個數量級的原因。第二好的平台是 H200。現在很明顯,GB300、GB200 和 GB300,因為我們實現了 NVLink 72 的擴展網路,您也看到了 Colette 在半分析基準測試中提到的,它是迄今為止最大的單一推理基準測試。GB200 搭配 NVLink 72,性能提升了 10 倍,甚至 10 到 15 倍。這是一個巨大的飛躍。要有人能追上這一點,將需要很長時間。我們在這方面的領先地位肯定是多年級的。是的,我希望推理能成為非常重要的領域。我們在推理方面的領導力是非凡的。
瑞銀(UBS)的 Timothy Arcury:非常感謝。Jensen,你的許多客戶正在推動「用電端」(behind-the-meter)的電力方案。請問,讓你最擔心、可能限制你們增長的最大瓶頸是什麼?是電力,還是融資,或者是其他像記憶體甚至晶圓代工?非常感謝。
A:這些都是問題,而且都是限制因素。原因在於,當你以我們這樣的速度和規模成長時,怎麼可能有任何事情是容易的?NVIDIA 正在做的事情,顯然前所未有。我們創造了一個全新的產業。一方面,我們正在將運算從通用型、經典或傳統運算轉換到加速運算與人工智慧。這是一方面。另一方面,我們創造了一個全新的產業,稱為「AI 工廠」。這個概念是,為了讓軟體運行,你需要這些工廠來生成它,生成每一個 token,而不是檢索預先建立的資訊。我認為,整個轉型需要極大的規模。從供應鏈開始,當然,供應鏈我們有更好的可視性與控制,因為我們在管理供應鏈方面非常擅長。
我們擁有非常優秀的合作夥伴,已經合作了 33 年。在供應鏈這一部分,我們相當有信心。現在,往供應鏈下游看,我們已經與許多在土地、電力、建築殼體,當然還有融資領域的企業建立了合作關係。這些事情沒有一件是容易的,但它們都是可以處理、可以解決的問題。我們最重要的工作是做好規劃。我們在供應鏈上游和下游都進行規劃。我們建立了大量合作夥伴,也有許多進入市場的途徑。更重要的是,我們的架構必須為客戶提供最佳價值。目前,我非常有信心 NVIDIA 的架構在「每單位總擁有成本(TCO)下的性能」方面是最好的。
它也是「每瓦功耗下的最佳性能」,因此,對於任何輸入的能量,我們的架構都能創造最大的收益。我認為,我們成功的速度正在加快,我相信我們今年此時的成功程度比去年此時更高。選擇我們的客戶數量,以及在探索其他方案後回到我們的平台數量,都在增加,而不是減少。我認為,這一切都證明了我多年來告訴你們的事情正在成真,並且變得顯而易見。
Bernstein Research 的 Stacey Raskin:Colette,我有一些關於毛利率的問題。您提到明年希望將毛利率維持在 70% 中段。我想先問,最大的成本增加來源是什麼?只是記憶體,還是還有其他因素?您打算如何達成這個目標?成本優化、提前採購與定價各占多少比例?另外,考慮到營收看起來會從目前的水準大幅成長,我們該如何看待明年的營運費用(OpEx)增長?
A:謝謝,Stacey。讓我先回顧一下我們目前所處的財政年度。請記得,今年早些時候我們曾表示,透過成本改善與產品組合調整,我們將在年底達到毛利率 70% 中段。我們已經實現這個目標,並準備在第四季繼續執行。現在是時候溝通我們對明年的規劃。明年,業界已知的投入價格將是我們需要處理的部分。
我們的系統絕不是容易處理的。它包含大量的元件,許多不同的部分,這些都是我們在考量時必須顧及的。我們將所有這些因素納入考量。我們相信,透過持續改善成本、縮短週期時間以及優化產品組合,我們將努力維持毛利率在 70% 中段。這是我們對毛利率的整體計劃。
您的第二個問題是關於營運費用(OpEx)。目前,我們的目標是在 OpEx 方面確保我們能與工程團隊及所有業務團隊一起創新,為市場打造更多系統。正如您所知,我們現在有一個新的架構即將推出,這意味著團隊非常忙碌,以達成這個目標。我們將持續加大在創新上的投資,涵蓋軟體、系統以及硬體。我接下來交給 Jensen,看他是否要補充幾點。
是的,完全正確。我唯一要補充的是,請記住,我們會提前規劃、預測、計劃,並與供應鏈進行協商。我們的供應鏈早已清楚我們的需求,也早已知道我們的需求量。我們與他們合作並協商已經很長一段時間了。我認為最近的需求激增確實非常顯著,但請記住,我們的供應鏈與我們合作已久。
在許多情況下,我們已經為自己確保了大量供應,因為他們顯然是在與全球最大的公司合作。我們也與他們密切合作,處理財務相關事宜,並確保預測和計劃等。我認為這一切對我們來說都運作得非常好。
富國銀行的 Aaron Rakers:好的,感謝您回答我的問題。Jensen,我想問的是,關於最近宣布的 Anthropic 合作,以及您客戶群的整體廣度,我很好奇您對 AI ASIC 或專用 XPU 在這些架構建置中所扮演角色的看法是否有任何改變?您是否有觀察到什麼?我記得您過去一直相當堅定地認為,這類計畫很多最終並未真正部署。我想知道,我們是否已經到了某個階段,讓情況更傾向於僅採用 GPU 架構?謝謝。
A:非常感謝您的問題。首先,您不是在與公司競爭,而是在與團隊競爭。世界上能夠打造這些極度複雜系統的卓越團隊並不多。回到 Hopper 和 Ampere 時代,我們只需要打造一顆 GPU,那就是加速 AI 系統的定義。而如今,我們必須建構整個機櫃,還要設計三種不同類型的交換器:scale-up、scale-out 和 scale-across。現在要建構一個運算節點,已經遠不只是製造一顆晶片這麼簡單了。
整個運算系統的一切,因為 AI 現在需要記憶,而過去 AI 完全沒有記憶。如今,它必須能夠記住事物。它所需的記憶量和上下文規模是巨大的,記憶體架構的影響也非常驚人。從專家混合模型到稠密模型、擴散模型、自回歸模型,更不用說遵循物理定律的生物模型,模型的多樣性在過去幾年急速擴張。挑戰在於問題的複雜度大幅提高,AI 模型的多樣性極其龐大。
這正是我們的優勢所在,如果要說讓我們與眾不同的五個關鍵因素,第一個是我們能加速整個轉換過程的每一個階段。CUDA 讓我們能夠透過 CUDA X,從通用運算過渡到加速運算。我們在生成式 AI 領域非常強大,在代理式 AI 領域也非常強大。每一個階段、每一個層次的轉換,我們都表現卓越。您可以投資一個架構,並在所有領域中使用它,不必擔心工作負載在這三個階段的變化。這是第一點。
第二點,我們在 AI 的每個階段都非常出色。大家一直知道我們在預訓練方面非常強大,我們在後訓練方面也表現優異,而事實證明,我們在推論方面同樣非常強大,因為推論真的非常困難。思考怎麼可能會容易?很多人認為推論只是一次性操作,因此很簡單,任何人都可以這樣進入市場,但事實並非如此。
但事實證明,這是所有階段中最困難的,因為「思考」本身就非常艱難。我們在 AI 的每個階段都表現卓越,這是第二點。第三點,我們現在是全球唯一能夠運行所有 AI 模型、所有前沿 AI 模型的架構。我們能非常出色地運行開源 AI 模型、科學模型、生物模型、機器人模型。我們能運行每一種模型,這是全球唯一能做到的架構。無論是自回歸模型還是擴散模型,我們都能運行。我們能在所有主要平台上運行所有模型。
第四點,我們存在於每一個雲端環境。開發者喜愛我們的原因,是因為我們真的無處不在。我們在每個雲端平台上,甚至可以為您打造一個名為 DGX Spark 的微型雲。我們在每一台電腦上,從雲端到本地部署、機器人系統、邊緣設備、PC,應有盡有。一個架構,所有東西都能運作,這非常驚人。
最後一點,也是最重要的一點,第五點,如果您是雲端服務供應商,或者像 Humane、CoreWeave、Nscale 、Nebius 這樣的新創公司,甚至 OCI,NVIDIA 為什麼是您最佳的平台?因為我們的需求消化能力(offtake)極其多元。我們能幫助你處理需求消化。這不只是把一個隨機的 ASIC 丟進資料中心,而是要問:需求從哪裡來?多樣性從哪裡來?韌性從哪裡來?架構的多功能性從哪裡來?能力的多樣性從哪裡來?NVIDIA 擁有如此強大的需求消化能力,因為我們的生態系統極其龐大。所以這五個要點,涵蓋了每一個加速與轉換的階段、每一個 AI 的階段、每一個模型,從雲端到本地部署,最後,當然,一切都指向 需求消化(offtake)。謝謝。

























