
Colette Kress,NVIDIA 執行副總裁暨財務長:謝謝 Toshiya。我們又交出了一個非常出色的季度,創下營收、營業利益與自由現金流的新紀錄。總營收達到 680 億美元,年增 73%,成長速度較第三季度進一步加速。季比成長同樣創下紀錄,我們在資料中心業務新增了 110 億美元的營收,客戶群多元且持續擴大,包括雲端服務提供商、超大型雲端業者、AI 模型開發商、企業客戶以及主權國家。
對我們 Blackwell 架構的需求持續增強,這款產品是針對資料中心規模進行極致共同設計(extreme co-design)的,不僅用於訓練,隨著推論(inference)部署的增加,需求也在同步成長。加速運算的轉型,以及 AI 全面滲透到現有超大型雲端工作負載,持續推動我們的成長。基於越來越聰明且多模態的模型所建構的 Agentic AI 與物理 AI 應用,正開始對我們的財務表現產生貢獻。
全年來看,資料中心業務產生 1,940 億美元營收,年增 68%。自從 2023 財年 ChatGPT 出現以來,我們的資料中心業務規模已擴大近 13 倍。展望未來,我們預期在 2026 日曆年全程都會維持季比營收成長,成長幅度將超過我們去年所分享的 5,000 億美元 Blackwell 與 Rubin 營收機會。我們相信目前的庫存與供應承諾足以應對未來需求,包括出貨將延續到 2027 日曆年。
每個資料中心都面臨電力限制。客戶在這些限制條件下,會根據每瓦效能(performance per watt)做出關鍵的架構決策,以最大化 AI 工廠的營收。SemiAnalysis 稱 NVIDIA 為「Inference King」,而 InferenceX 最近的結果進一步強化了我們在推論領域的領導地位:GB300 與 NVL72 相較 Hopper 實現高達 50 倍的每瓦效能,以及 35 倍更低的每 token 成本。
透過對 CUDA 軟體的持續優化,在短短 4 個月內,就讓 GB200 與 NVL72 的效能提升高達 5 倍。NVIDIA 提供了最低的每 token 成本,而運行 NVIDIA 平台的資料中心則產生最高的營收。我們的創新速度,特別是在我們這個規模下,是無與倫比的。
憑藉每年接近 200 億美元的研發預算,以及我們在運算與網路、晶片、系統、演算法與軟體之間進行極致共同設計的能力,我們計畫在每一代產品中實現每瓦效能的 X 倍躍升,並長期維持我們的領導地位。
第四季度資料中心營收達到 620 億美元,年增 75%,季增 22%,主要由 Blackwell 的持續強勢以及 Blackwell Ultra 的快速爬坡所驅動。由於 NVIDIA 基礎設施需求極高,即使是 Hopper 以及許多已推出 6 年的 Ampere 架構產品,在雲端市場上也已經全部售罄。
自從我們的 Grace Blackwell NVL72 系統發布以來,已經將近一年。今天,已有 9 吉瓦(gigawatts)的 Blackwell 基礎設施部署完成,並被主要雲端服務提供商、超大型雲端業者、AI 模型開發商以及企業客戶所消耗。本季表現最亮眼的,是我們資料中心規模基礎設施的核心之一——網路業務,產生 110 億美元營收,年增超過 3.5 倍。對我們 scale-up(垂直擴展)與 scale-out(水平擴展)技術的需求達到歷史新高,兩者皆實現雙位數季增,主要受 NVLink、Spectrum-X Ethernet 以及 InfiniBand 的強勁採用所驅動。
年比成長主要來自 NVLink 72 scale-up 交換器,因為 Grace Blackwell 系統在本季約佔資料中心營收的三分之二。NVLink scale-up 架構徹底革新了運算方式,展現了我們在超級電腦所有晶片以及全端堆疊(full stack)之間進行極致共同設計(extreme co-design)的強大威力。
在第四季度,我們宣布將為 AWS 啟用 NVLink,讓其與自家客製化矽晶整合。我們的 Spectrum-X Ethernet 在 scale-up 與 scale-across 網路領域的動能非常強勁,客戶正積極將分散式資料中心整合成一體化的吉瓦級(gigascale)AI 工廠。
全年來看,我們的網路業務營收超過 310 億美元,相較於 2021 財年(我們收購 Mellanox 的那一年)成長超過 10 倍。
我們的需求輪廓廣泛、多樣化,且正在超越單純的聊天機器人應用。首先,從傳統機器學習到生成式 AI 的基礎平台轉型正在發生。超大型雲端業者將大量傳統工作負載升級為生成式 AI(包括搜尋、廣告生成以及內容推薦系統),並展現出強勁的投資報酬率(ROI),這促使我們最大的客戶加速資本支出。
例如,在 Meta,GEM 模型的進步讓 Facebook 的廣告點擊率提升 3.5 倍,Instagram 的對話量增加超過 1%,直接轉化為顯著的營收成長。使用相同的 NVIDIA 基礎設施,Meta Superintelligence Labs 能夠訓練並部署他們的前沿 Agentic AI 系統。
前沿 Agentic 系統已經到達一個轉折點。Claude Code、Claude Cowork 以及 OpenAI Codex 已經展現出實用的智能。採用率正在暴增,token 也開始產生獲利,這帶來極大的迫切性來擴大運算規模。運算直接轉化為智能與營收成長。
分析師對 2026 年五大雲端提供商與超大型雲端業者的資本支出預期,自年初以來已增加近 1,200 億美元,接近 7,000 億美元,而這五大業者合計佔我們資料中心營收的略超過 50%。
我們持續預期傳統資料中心工作負載轉向 GPU 加速運算,以及使用 AI 來強化當前超大型雲端工作負載,這兩者將共同貢獻我們長期機會的大約一半。就像今天的電力與網際網路一樣,每個國家都將自行建造並運營其部分 AI 基礎設施。在 2026 財年,我們的主權 AI 業務年增超過三倍,營收超過 300 億美元,主要由加拿大、法國、荷蘭、新加坡和英國的客戶所驅動。長期來看,我們預期主權 AI 機會的成長至少會與 AI 基礎設施市場同步,因為各國會按其 GDP 比例投入 AI 支出。
雖然美國政府批准了少量針對中國客戶的 H200 產品,但我們尚未產生任何相關營收,且我們不清楚是否會允許任何進口進入中國。我們在中國的競爭對手,受到近期 IPO 的助力,正在取得進展,並有潛力在長期內顛覆全球 AI 產業的結構。為了維持美國在 AI 運算領域的領導地位,美國必須接納每一位開發者,並成為包括中國在內的所有商業企業的首選平台。我們將繼續與美國和中國政府互動,並倡導美國在全球競爭的能力。
我們在上個月 CES 上推出了 Rubin 平台,包含 6 款新晶片:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 Ethernet Switch。
該平台將以僅四分之一的 GPU 數量訓練 MoE 模型,相較於 Blackwell,推論每 token 成本最高可降低 10 倍。我們在本週稍早已將首批 Vera Rubin 樣品出貨給客戶。我們仍按計劃在今年下半年開始量產出貨。Rubin 採用模組化、無纜線托盤設計,相較 Blackwell 將提供更好的韌性與維護便利性。我們預期每一家雲端模型建構者都會部署 Vera Rubin。
轉到遊戲業務。遊戲營收達到 37 億美元,年增 47%,主要受 Blackwell 強勁需求與供應改善所驅動。GeForce RTX 是 PC 遊戲玩家、創作者與開發者的領先平台。在第四季度,我們新增了多項技術與進展,包括 DLSS 4.5,它利用 AI 將遊戲視覺效果提升到全新境界。
G-SYNC Pulsar 帶來即使在動態畫面中也極為清晰的驚人圖像。在領先的 AI PC 框架中,大型語言模型(LLM)推論速度提升 35%。
展望未來,雖然我們產品的終端需求依然強勁,通路庫存水位也維持健康,但我們預期供應限制將成為第一季度及之後遊戲業務的逆風。
在專業視覺化領域,營收首次突破 10 億美元大關,本季達到 13 億美元,年增 159%,季增 74%。在本季度,我們推出了 RTX PRO 5000 Blackwell 工作站,搭載 72 GB 高速記憶體,專為運行 LLM 與 Agentic 工作流程的 AI 開發者設計。
汽車業務營收達到 6.04 億美元,年增 6%,主要受自駕解決方案的強勁需求所驅動。
在 CES 上,我們推出了 Llama Nemotron,這是全球首個開放式推理、視覺、語言、動作模型、模擬藍圖與資料集組合,讓車輛能夠「思考」。首款搭載基於 NVIDIA DRIVE 的 Llama Nemotron 的乘用車,將很快在全新 Mercedes-Benz CLA 上路。
物理 AI 已經到來,在 2026 財年已為 NVIDIA 貢獻超過 60 億美元營收。Robotaxi 乘車量呈指數級成長,Waymo、Tesla、Uber、WeRide、Zoox 等商業車隊,以及其他業者,預計將從 2025 年的數千輛擴大到未來十年的數百萬輛,創造出數千億美元規模的市場。這項擴張將需要數量級更高的運算,每一家主要汽車 OEM 與服務提供商都在 NVIDIA 平台上開發。
我們持續推進機器人開發,推出全新 NVIDIA Cosmos 與 Isaac GR00T 開放模型、框架,以及搭載 NVIDIA 技術的機器人與自主機器,服務於領先合作企業,包括 Boston Dynamics、Caterpillar、Franka Robotics、LG Electronics 與 Nuro Robotics。
為了加速工業物理 AI 的採用,我們也宣布與 Dassault Systèmes、Siemens 以及 Synopsys 擴大合作,將 NVIDIA AI 基礎設施、Omniverse 數位孿生、世界模型與 CUDA-X 函式庫帶給數百萬研究人員、設計師與工程師,共同打造全球產業。
接下來談談損益表其餘部分。GAAP 毛利率為 75%,非 GAAP 毛利率為 75.2%,隨著 Blackwell 持續爬坡而季比提升。GAAP 營業費用季增 16%,非 GAAP 基礎上季增 21%,主要與新產品推出以及運算與基礎設施相關成本有關。
第四季度非 GAAP 有效稅率為 15.4%,低於我們對本季的預期,主要受到一次性稅務利益的影響。庫存季比成長 8%,同時採購承諾也大幅增加。我們已策略性地確保庫存與產能,以滿足未來數季之後的需求。這比平常的時間範圍更長,反映出我們目前對需求的可見度更長。雖然我們預期先進架構的供應緊張情況將持續存在,但我們對憑藉自身規模、廣泛的供應鏈以及長期穩固的合作夥伴關係,持續把握未來成長機會充滿信心。
第四季度我們產生 350 億美元的自由現金流,全年 2026 財年則達到 970 億美元。
全年我們以股票回購與股利形式,向股東返還 410 億美元,相當於自由現金流的 43%。我們持續投資於技術與生態系統,以培養市場發展、驅動長期成長,並最終為股東帶來優於大盤或同業群的總回報。重要的是,我們將繼續以策略性且嚴謹的方式進行投資,並維持對股東返還資本的承諾。
接下來談談第一季度的展望。從本季度開始,我們將把股票基礎薪酬費用納入非 GAAP 結果中。股票基礎薪酬是我們薪酬計畫的核心組成部分,用以吸引並留住世界級人才。
首先談營收。總營收預計為 780 億美元,±2%。
我們預期大部分成長將由資料中心業務驅動。與上季度一致,我們的展望中不假設來自中國的任何資料中心運算營收。
GAAP 與非 GAAP 毛利率預計分別為 74.9% 與 75%,±50 個基點。全年來看,我們持續預期毛利率維持在 70% 中段。我們將持續更新 Vera Rubin 轉型的進展。
GAAP 與非 GAAP 營業費用預計分別約為 77 億美元與 75 億美元,其中包含 19 億美元的股票基礎薪酬費用。全年來看,我們預期非 GAAP 營業費用年比成長將落在 40% 低段,因為我們持續投資於不斷擴大的機會領域。
對於全年 2027 財年,我們預期 GAAP 與非 GAAP 稅率將介於 7% 至 19% 之間,不包含任何一次性項目或稅務環境的重大變化。
現在我將會議交給 Jensen,我想他有幾句話要跟大家說。
Jensen Huang,NVIDIA 總裁暨執行長: 本季度,我們大幅深化並擴展了與領先前沿模型開發者的合作關係。我們最近慶祝了 OpenAI 推出 GPT-5.2 Codex,這款模型使用 Grace Blackwell 和 NVL72 系統進行訓練與推理。GPT-5.2 Codex 能夠承擔涉及研究、工具使用和複雜執行的長時間任務。5.3 Codex 已在 NVIDIA 內部廣泛部署。我們的工程師非常喜歡它。我們持續與 OpenAI 朝向達成合作協議的方向努力,並相信我們已經非常接近了。我們對與 OpenAI 的持續合作感到非常興奮,這是一家世代難得一見的公司,我們從他們創立之初就有幸與之合作。
Meta Superintelligence Labs 正以閃電般的速度擴張。上週我們宣布,Meta 正在部署數百萬顆 Blackwell 和 Rubin GPU、NVIDIA CPU,以及 Spectrum-X Ethernet,用於訓練和推理。本季度,我們宣布與 Anthropic 達成合作夥伴關係,並對該公司投資 100 億美元。
Anthropic 將使用 Grace Blackwell 和 Vera Rubin 系統進行訓練與推理。Anthropic 的 Claude Cowork 代理平台具有革命性,已為企業 AI 採用打開了洪水般的閘門。在 Claude Cowork 和 OpenClaw 之間,運算需求正呈爆炸性成長。代理式 AI 的「ChatGPT 時刻」已經到來。
憑藉與 Anthropic、Meta、OpenAI 和 xAI 等公司的合作夥伴關係,NVIDIA 部署於每一個雲端,加上我們能夠從零開始打造完整堆疊的 AI 基礎設施,或在雲端提供支援的能力,我們在每個階段——訓練、推理以及 AI 工廠規模擴展——都處於獨特的位置,能與前沿模型建構者合作。
最後,我們最近與 Groq 簽署了一份非獨占授權協議,取得其低延遲推理技術,並歡迎一批傑出的工程師加入 NVIDIA。正如我們當初與 Mellanox 的做法一樣,我們將把 Groq 的創新融入 NVIDIA 架構,實現 AI 基礎設施、效能與價值的新等級。
我們期待下個月在 GTC 大會上分享更多內容。交還給你們。現在我們將進入問答環節。主持人,請開始提問。
Vivek Arya 美國銀行證券(Bank of America Securities): 謝謝接受我的提問。我記得你們提到現在已經能看到到 2027 日曆年的成長能見度,而且你們的採購承諾也反映了這種信心。 Jensen,我想問,當你看你們最大的雲端客戶時,今年雲端資本支出(CapEx)接近 7000 億美元,很多投資者擔心明年要維持這個水準會更困難,而且其中好幾家的現金流產生能力也在壓縮。 我知道你們對自己的路線圖非常有信心,採購承諾等等也是,但你對客戶持續成長 CapEx 的能力有多大的信心? 如果他們的 CapEx 不成長,NVIDIA 還能在這個框架內找到成長的方式嗎?謝謝。
Jensen Huang: 我對他們的現金流成長很有信心。原因很簡單。 我們現在已經看到「代理式 AI」(agentic AI)的轉折點(inflection point),以及代理(agents)在全球企業各處的實用性。 正因為如此,你會看到驚人的運算需求。 在這個新的 AI 世界裡,運算就是營收。沒有運算,就無法產生 token;沒有 token,就無法成長營收。 在這個新的 AI 世界,運算等於營收。 我現在非常確定,我們已經來到這個轉折點。 我們看到 Codex 和 Claude Code 的生產性應用,以及對 Claude Cowork 的極大熱情,還有對 OpenClaw 以及它們企業版本的巨大熱情。所有企業獨立軟體供應商(ISVs)現在都在他們的工具平台上開發代理式系統。 我現在可以確定,我們已經到達轉折點,我們正在產生對客戶有生產力、對雲端服務提供者有獲利的 token。 簡單的邏輯、簡單的思考方式是:運算已經改變了。 過去是軟體跑在電腦上,每年大概 3000 到 4000 億美元的資本支出規模,現在轉向 AI。 要產生 token,就需要運算容量,這直接轉化為成長,也直接轉化為營收。
Joe Moore,摩根士丹利分析師: 謝謝,恭喜你們的業績表現非常出色。你們提到了一些策略性投資,包括對Anthropic、可能還有OpenAI、CoreWeave的投資,同時也包括合作夥伴如Intel、Nokia、Synopsys等。你們顯然處於整個生態系的中心位置。 能否談談這些投資的角色?你們如何看待把資產負債表當作工具,來擴大NVIDIA在整個生態系中的地位,並參與這波成長?
Jensen Huang: 大家都知道,對NVIDIA來說,最核心、最根本的就是我們的生態系。這也是大家最喜歡我們這家公司的地方——生態系的豐富程度。 幾乎全球每一家新創公司都在NVIDIA的平台上開發。我們存在於每一家雲端服務商、每一個企業內部資料中心,我們也遍布全球邊緣運算和機器人系統。數以千計的AI原生公司都是建立在NVIDIA之上。
我們現在正處於一個全新運算時代的開端、全新運算平台的轉型期,我們希望趁著這個絕佳機會,把所有人都帶到NVIDIA平台上。 一切都已經建立在CUDA之上,所以我們的起點其實非常好、非常強大。
當我們打造整個AI生態系的時候,無論是語言AI、物理AI、AI物理、生物、機器人、製造業……我們希望所有這些垂直領域的生態系都建立在NVIDIA之上。 這對我們來說是極其珍貴的機會,讓我們能夠投資整個技術棧(stack)的生態系。
現在我們的生態系比過去更加豐富。過去我們主要是一家GPU運算平台公司,但現在我們是一家完整的AI基礎設施運算公司。我們在運算的每個面向都有平台,從運算本身、AI模型、網路,到我們的DPU,每一層都有完整的運算堆疊。
就像我之前提過的,無論是企業、製造業、工業、科學、機器人,每一個垂直生態系都有自己不同的技術堆疊,而我們希望持續投資,讓我們的生態系繼續擴大和深化。 我們的投資策略非常明確、非常聚焦,就是要擴大並深化NVIDIA生態系的覆蓋範圍與影響力。
Harlan Sur, J.P. Morgan 分析師:下午好。感謝接受我的提問。網路業務在你們整體資料中心產品組合中的占比持續上升,對吧?到財年 2026 年為止,你們的網路營收每個季度都呈現年比年加速成長,對吧?第四季度如你們所說,年比年成長達到 3.6 倍。顯然,這得益於你們的 scale-up 和 scale-out 網路產品組合的強勁表現,我記得去年上半年,你們 Spectrum-X Ethernet 交換平台的年化運行率(annualized run rate)大約是 100 億美元。看起來去年下半年可能已經提升到 110 億到 120 億美元左右。Jensen,從你們的訂單簿來看,特別是即將推出的 Spectrum-XGS,以及即將上市的 102T Spectrum-6 交換平台,現在 Spectrum 的成長跑道(runway)趨勢如何?你預期在今年(曆年)年底時會是什麼情況?
Jensen Huang:你知道的,正如你所了解,我們把自己定位為一家 AI 基礎設施公司,而 AI 運算基礎設施包括 CPU、GPU,我們發明了 NVLink 來將單一運算節點 scale up 成一個巨大的運算機架。我們發明了「機架級電腦」(rack scale computer)的概念。我們不是出貨單一節點的電腦,而是出貨整機架的電腦。那個 NVLink 交換 scale-up 系統,然後再透過 Spectrum-X 和 InfiniBand 來進行 scale-out。我們同時支持兩者。我們也使用 Spectrum-X scale-across 來跨資料中心擴展。我們對網路的思考其實就是一種延伸。我們提供一切都是開放的,讓人們可以自由決定如何混搭、在不同規模下使用,以及如何整合到他們客製化的資料中心中。
最終來說,這一切都是我們平台的一大組成部分。NVLink 的發明,真正讓我們的網路業務 turbocharged(渦輪增壓)。每個機架都配備九個節點的交換器,每個交換器裡面有兩顆晶片,未來還會有更多。我們每個機架的交換量真的非常驚人。我們現在也是全球最大的網路公司。如果你看 Ethernet 市場,我們大概兩年前才進入 Ethernet 交換市場,我認為我們現在很可能已經是全球最大的 Ethernet 網路公司,而且很快一定會是。Spectrum-X Ethernet 對我們來說真的是全壘打(home run)。你知道的,我們對人們想怎麼做網路都持開放態度。
有些人真的非常喜歡 InfiniBand 的低延遲和 scale-up 能力,我們當然會繼續支持。有些人喜歡用 Ethernet 來整合整個資料中心的網路。我們創造了一種 Ethernet 能力,將人工智慧的處理方式延伸到資料中心,我們在這方面表現得極為出色。我們的 Spectrum-X 性能真的證明了這一點。你知道,當你建置一個 100 億或 200 億美元的 AI 工廠時,如果網路的有效性和利用率能差 10%,甚至輕易達到 20%,那轉換成真金白銀是非常可觀的。
NVIDIA 的網路業務真的成長非常快,我認為這只是因為我們把 AI 基礎設施建得非常有效,而 AI 基礎設施業務本身正在以驚人的速度成長。
CJ Muse,Cantor Fitzgerald分析師:下午好。感謝接受提問。我想,隨著CPX針對大型上下文窗口,以及Groq很可能會推出專門針對解碼(decode)的解決方案,我很好奇我們該如何看待你們未來的路線圖。我們是否應該認為,NVIDIA會越來越重視客製化矽片(customized silicon),無論是按工作負載還是按客戶來客製,尤其是在你們轉向dielet架構後,這是否會成為更大的重點?非常感謝。
Jensen Huang:每個人都應該盡可能延長、推遲使用dielet的時機。原因在於,每次你跨越一個dielet邊界,就必須穿越一個介面。每次穿越介面,就會無謂地增加延遲、增加功耗。我們並不排斥dielet,我們已經在使用dielet,但我們只在絕對別無選擇的時候才使用。如果你看看Grace Blackwell架構和Rubin架構,我們使用了兩個巨大的、受reticle限制的晶粒(dies),把它們直接拼接(abut)在一起,這樣就能減少架構跨越的次數。競爭對手的架構效能上,就會明顯看到這種「dielet稅」(dielet tax)的影響。
如果你看NVIDIA,大家常說這是我們的軟體優勢,但你知道,軟體從哪開始、架構從哪結束,其實很難劃分。我們的軟體之所以有效,正是因為我們的架構非常優秀。CUDA架構無疑比市面上任何計算架構都更有效率、更高效,能在每flop、每瓦特下提供更高的性能,這完全歸功於我們架構設計的方式。
關於Groq以及低延遲解碼器(low latency decoder),我有一些很棒的想法,想在GTC上跟大家分享。最簡單的想法是:因為CUDA的存在,我們的基礎設施極其多功能,我們會繼續保持這種優勢。
你知道,我們所有的GPU在架構上都是相容的,這意味著當我今天針對Blackwell優化模型時,所有這些工作、所有對軟體堆疊和新模型的投入,也同樣會惠及Hopper,甚至惠及Ampere。這就是為什麼A100在部署到世界上好幾年後,仍然感覺很新鮮、性能依然強勁的原因。架構相容性讓我們能夠做到這一點。它讓我們能夠在軟體工程和優化上投入巨大資源,並知道我們整個安裝基礎——無論是雲端、企業內部、各世代的GPU架構——全部都能受益。我們會繼續這麼做,這讓我們能夠延長產品的使用壽命、帶來創新、靈活性與速度,最終轉化為性能,更重要的是,為客戶帶來每美元性能(performance per dollar)和每瓦特性能(performance per watt)。
至於我們會如何處理Groq,你們到GTC就會看到了,但我們要做的是:就像當年我們用Mellanox擴展NVIDIA架構一樣,我們會把Groq作為一個加速器,來擴展我們的架構。
Stacy Rasgon, Bernstein Research:嗨,大家好。謝謝接受我的提問。Colette,我想稍微深入探討一下全年逐季成長的展望。這一季資料中心業務季增超過 100 億美元,而指引似乎暗示接下來季增的主要部分還是那 100 億美元左右的資料中心成長。你們如何看待今年剩下的時間,尤其是 Rubin 在下半年開始放量時?Blackwell 帶來了相當大幅的季增加速。我們是否能期待 Rubin 時也出現類似的幅度?另外也想請你評論一下對遊戲業務的預期。我了解記憶體問題和其他因素。你們認為遊戲業務在財年 2027 能否仍實現年增成長,還是會因為記憶體等因素而面臨更大壓力?就這兩個問題,謝謝。
Colette Kress:謝謝,Stacy。讓我先從未來的營收談起。我們還是會一季一季來看營收。至於全年來看,我們絕對會繼續銷售和提供 Blackwell,同時很可能也會看到 Vera Rubin 開始進入市場。這是一個非常棒的架構,今天就能快速站起來,而且我們已經在不同客戶那邊規劃了很多訂單來提供它。目前要判斷 Vera Rubin 的初期爬坡在下半年會有多少還太早,我們會持續觀察。需求強勁和客戶興趣這點是沒有疑問的。
我們預期幾乎每一位客戶都會購買 Vera Rubin。問題只在於我們什麼時候能大量出貨,以及他們什麼時候能在自己的資料中心快速部署起來。這是你的第一個問題。
第二個問題是關於遊戲業務。雖然我們很希望能有更多供應,但我們認為接下來幾季供應會非常吃緊。如果到年底情況有所改善,就有機會思考年增成長會是什麼樣子。但現在對我們來說還太早判斷,我們會盡快再跟大家更新。
Atif Malik, Citi 分析師: 謝謝您回答我的問題。Jensen,我想請您談談 CUDA 的重要性,因為現在 AI 投資資金越來越多來自於 inference(推論)工作負載。
Jensen Huang: 如果沒有 CUDA,我們根本不知道該怎麼處理 inference。整個軟體堆疊,從我們幾年前推出的 TensorRT-LLM 開始,到現在仍然是全球效能最強的 inference 堆疊。要針對 NVLink 進行優化,我們必須去發現和發明新的平行化演算法,這些演算法建立在 CUDA 之上,用來分散工作負載,讓 inference 能夠充分利用 NVLink Switch 跨所有連結的總聚合頻寬。
NVLink Switch 讓我們在世代間實現了每瓦效能提升 50 倍。這真的是令人難以置信的飛躍,而且是非常合理的發明。NVLink Switch 是一項偉大的發明,做起來非常困難。
交換技術的創造、將交換器解聚合、建構系統機櫃,所有這些我們都是公開透明地完成的,大家都知道這對我們來說有多難。結果卻是驚人的。你知道的,每瓦效能提升 50 倍,每美元效能提升 35 倍。inference 方面的躍進非常驚人。
很重要的一點要認識到:現在對我們的客戶來說,inference 就等於營收。因為 agent(代理)現在產生了非常大量的 token,而且結果非常有效率。當 agent 在寫程式碼時,它們會一口氣產生數千、數萬、甚至數十萬個 token,因為它們可能要連續執行幾分鐘到幾小時。這些 agentic 系統會衍生出不同的代理,組成團隊一起工作。
被產生的 token 數量已經呈指數級成長。我們需要以更高的速度進行 inference,而當你以更高速度 inference,每一個 token 都直接被「貨幣化」(dollarized),這就直接轉化成營收。對客戶來說,inference 效能 = 營收。對資料中心來說,每瓦 token 數直接轉化成雲端服務提供商(CSP)的營收。
原因是每個人都受限於電力。不管你有多少資料中心,每個資料中心可能是 100 兆瓦或 1 吉瓦,都有電力上限。擁有最佳每瓦效能的架構就會勝出,因為每個 token 的每瓦效能,最終每個 token 都被貨幣化。
每瓦 token 數 → 每瓦美元 → 在吉瓦級資料中心直接轉化成營收。 現在每個 CSP、每個超大規模業者都明白了這一點:資本支出(CapEx)轉化成運算能力,正確的架構能最大化運算能力,而運算 = 營收。如果今天不投資容量、不投資運算,就不可能有營收成長,這一點我想大家都理解。
運算就是營收。選擇正確的架構現在已經不只是策略性問題,而是直接影響他們的獲利。選擇擁有最佳每瓦效能的架構,幾乎就是一切。
Ben Reitzes, Melius Research 分析師: 是的,嘿,謝謝。首先我要讚揚你們把股票薪酬納入 non-GAAP 計算,這真的是很棒的做法,不過這不是我的問題。我的問題是關於毛利率,以及中長期維持在 70% 中段(mid-70s%)的可持續性。我們是否可以從供應能見度到 2027 日曆年這點來解讀,認為毛利率至少到那時候都是可持續的?Jensen,那之後呢?有沒有一些關於記憶體消耗的創新可以揭露,讓我們對長期維持這個毛利率水準更有信心?謝謝。
Jensen Huang: 我們毛利率最重要的單一槓桿,其實就是為客戶帶來「世代級的躍進」(generational leaps)。這是最重要的一件事。如果我們能夠在每一代產品上,提供遠遠超越摩爾定律的性能功耗比(performance per watt);如果我們能夠提供遠遠超越系統成本、超越我們系統售價的性能每美元比(performance per dollar),那我們就能持續維持毛利率。這是最簡單、也最重要的概念。
我們之所以動作這麼快,原因第一是:由於我們經歷的這些轉折點(inflection points),全球對 token 的需求已經完全呈指數級爆炸成長。我們大家應該都看得到這個現象,甚至連我們六年前的 GPU 在雲端都被完全用光,價格還在往上漲。
我們知道,現代軟體開發方式所需的運算量、所需的計算量,正在以指數級速度成長。我們的策略是每年推出一整套完整的 AI 基礎設施。今年我們推出了六款新晶片。下一代的 Rubin 也會推出很多新晶片。每一代,我們都承諾要帶來多個 X 倍的性能功耗比和性能每美元比。這樣的節奏,加上我們極端協同設計(extreme co-design)的能力,讓我們能夠為客戶帶來這樣的價值和好處。這就是我們所提供的價值中,最關鍵、最重要的一環。
Antoine Chkaiban, Analyst, New Street Research:嗨,非常感謝接受我的提問。我想問關於太空資料中心(space data centers),您的一些客戶正在考慮這件事。您認為這有多大的可行性?大概什麼樣的時間範圍?目前經濟性如何?您覺得未來會怎麼演變?謝謝。
Jensen Huang:嗯,目前的經濟性很差,但隨著時間推移會逐步改善。大家知道,太空運作的方式跟地球上完全不同。太空有非常豐富的能源,雖然太陽能板很大,但太空裡空間多得很,沒問題。散熱方面,太空很冷,但沒有空氣流動,所以唯一的散熱方式只能靠傳導(conduction),因此需要的散熱器(radiators)會相當大。液冷當然是不可能的,因為太重,而且會凍結。我們在地球上使用的方法,跟太空裡會採用的方式有些不同。
其實有很多不同的運算問題,非常適合在太空執行。NVIDIA 已經是全球第一個把 GPU 送上太空的公司,Hopper 已經在太空了。在太空使用 GPU 其中一個最好的應用場景就是影像處理(imaging)。能夠用極高解析度進行成像,當然搭配光學系統和人工智慧,然後進行不同角度的重投影(reprojection)、超解析度(up-res)、降噪等等,就能以非常大的尺度、極高的解析度、極快的速度來「看見」東西。要把數 PB 等級的影像資料全部傳回地球再處理,是很困難的。
在太空直接處理會容易得多。只需忽略所有蒐集和處理的資料,直到發現有趣的東西再傳回就好。人工智慧在太空會有非常好、非常有趣的應用。
Mark Lipacis, Evercore ISI 分析師: 嗨,謝謝接受我的提問。我想接續您在腳本中提到關於營收多元化的評論。我記得 Colette 您說過 hyperscalers(超大規模雲端業者)佔了我們總營收的 50% 以上,但成長主要是由其他資料中心客戶帶動。我想確認一下我是否理解正確。這是否意味著非 hyperscale 客戶的成長速度更快?如果是這樣,能否幫我們了解,非 hyperscale 客戶目前在做什麼不同的事情?他們是在做與 hyperscalers 不同的事情,還是做相同的事情但規模不同?您預期這個趨勢會持續下去嗎? 您是否預期客戶結構會演變到某個程度,讓非 hyperscale 客戶成為您業務中更大、甚至最大的部分?謝謝。
Colette Kress: 是的,讓我們來試著回答這個問題。當我們談到前五大客戶時,如我們先前所述,就是我們的 CSPs(雲端服務提供商)、也就是 hyperscalers,目前它們大約佔我們總營收的 50%。因此,剩下的是一個非常龐大且多元化的群體,涵蓋各種不同類型的公司,包括 AI 模型製造商(AI model makers)、企業客戶、超級運算(supercomputing)、主權客戶(sovereigns)等等,各種不同的面向都有。您說得沒錯,這是一個成長非常快速的領域。我們在所有不同的雲端提供商平台上都有很強的地位。現在我們也看到全球各地極度多元化的各種客戶。 這種多元性真的很有幫助,能夠服務所有這些不同的部分。讓我看看 Jensen 是否想再補充一些。
Jensen Huang: 是的,這正是我們生態系統的一大優勢,而整個生態系統都是建立在 CUDA 之上。我們是唯一一個在每一家雲端都有的加速運算平台,透過每一家電腦製造商都能取得、在邊緣運算(edge)也能使用,現在我們也正在耕耘電信領域。顯然,未來的無線電(radios)都會是 AI 驅動的無線電,未來的無線網路也將成為一個運算平台,這已經是必然的結論,但總得有人去發明讓這成為可能的技術。我們因此創造了一個叫做 Aerial 的平台來實現這一點。我們也幾乎出現在每一台機器人、每一輛自駕車上。 我們的優勢、CUDA 的優勢,在於一方面能享有專用處理器(specialized processors)的效能優勢,例如我們 GPU 裡的 Tensor Cores;另一方面,CUDA 的彈性讓我們能夠解決語言問題、電腦視覺問題、機器人問題、生物學問題、物理學問題,以及幾乎所有種類的 AI 和各種運算演算法。我們客戶基礎的多元性,是我們最大的優勢之一。 第二點,當然,如果沒有我們自己的生態系統,即使我們的處理器是可程式化的,如果我們沒有去耕耘這個生態系統——包括我們今天正在做的一些事情、對未來生態系統的投資,以及持續強化我們的生態系統——沒有這個生態系統,我們很難超越別人生態系統中我們拿到的設計訂單(design wins)來成長。我們之所以能夠自然地擴張我們的生態系統,正是因為我們創造了這個平台。 最後一點,非常重要的是我們與 OpenAI、Anthropic、xAI、Meta 的合作關係,當然還有全球幾乎所有的開源社群。Hugging Face 上有 150 萬個 AI 模型,全都運行在 NVIDIA CUDA 上。整體開源模型加起來,可能已經是世界上第二大的模型群(最大的是 OpenAI)。NVIDIA 能夠運行所有這些,讓我們的平台極具可替代性(fungible)、極容易使用,也讓投資變得非常安全。這創造了客戶的多元性、平台的多元性,並且在每個國家都能取得,因為我們支援了全世界整個生態系統。
Aaron Rakers,富國銀行分析師: 好的,謝謝接受提問。我想繼續談平台和極致共同設計(extreme co-design)的概念。這一季有些新聞明顯提到NVIDIA正在推動把Vera CPU以獨立解決方案的形式推向市場。 Jensen,我想請教,在未來的架構演進中,Vera到底扮演多重要的角色?這主要是受到推理工作負載的擴散(proliferation)或異質性(heterogeneity)所驅動嗎? 我很好奇您怎麼看NVIDIA在這方面的發展,特別是把它當作獨立CPU來看。謝謝。
Jensen Huang: 好的,謝謝。我會在GTC上再多講一些細節。但從最高層次來看,我們在CPU的架構設計上,做了跟全世界其他CPU完全不同的根本性決定。 Vera是目前唯一支援LPDDR5的資料中心CPU。它被設計成專注於極高的資料處理能力。原因在於我們最感興趣的絕大多數運算問題都是資料驅動的,人工智慧就是其中之一。而它的單執行緒效能與頻寬的比率,簡直是超乎想像地高。
我們之所以做出這些架構決定,是因為在整個AI的不同階段——從資料處理開始,甚至在訓練之前就必須先做資料處理。 有資料處理、前訓練(pre-training),現在還有後訓練(post-training),AI正在學習如何使用工具(tools)。而很多工具的使用環境是純CPU,或者是CPU搭配GPU加速的環境。
Vera就是被設計成在後訓練階段表現極為出色的CPU。在整條人工智慧管線中,有非常多的使用情境需要大量CPU。 我們當然也很愛CPU,就像愛GPU一樣。當我們把演算法加速到極限的時候,根據阿姆達爾定律(Amdahl’s law),你就必須要有非常、非常快的單執行緒CPU。 這就是為什麼我們把Grace CPU打造得在單執行緒效能上極為出色,而Vera在這方面又比Grace更誇張地強大。
Tim Arcuri,瑞銀分析師:非常感謝。Colette,我想請教您關於資本部署的問題。我知道貴公司大幅提高了股票回購承諾(purchase commits),但聽起來好像已經度過了最吃力的階段,今年大概會產生約1000億美元的現金。而且,不管業績有多好,股價其實都沒漲多少。我猜您們可能覺得現在這個價格是相當不錯的回購時機,在這裡大量買回股票。我想請您談談這一點,比如,為什麼不乾脆大動作宣示一下,來個超大规模的股份回購(huge share of repo)呢?謝謝。
Colette Kress:謝謝您的提問。我們非常謹慎地看待資本回報,我們確實認為最重要的事情之一,就是全力支持眼前這個極其龐大的生態系統。這個生態系統來自各個面向,從我們的供應商開始,我們需要做的工作是確保供應充足、協助他們提升產能,一路延伸到我們平台上那些早期AI解決方案的開發者。我們會繼續把這件事視為我們流程和策略投資中非常重要的一部分。當然,我們仍然持續在回購自家股票。我們也維持股利政策。我們會繼續在一年內尋找合適的、獨特的機會,來執行這些不同的購買動作。
Jim Schneider,高盛分析師:感謝您接受我的提問。您之前曾概述到2030年資料中心資本支出(CapEx)可能達到3兆到4兆美元,這意味著成長率可能加速,而您在本季也大致給出了這樣的指引。我的問題是,您認為最有可能驅動這個轉折點(inflection)的關鍵應用領域是哪些?是物理AI(physical AI)、代理式AI(agentic AI),還是其他東西?您對這個3兆到4兆美元的總額仍然感到樂觀嗎?謝謝。
Jensen Huang:好的,讓我們從幾個不同角度回頭來推理這件事。首先,從第一原理(first principles)出發,未來軟體的運作方式將是以token驅動的。我想大家都一直在談tokenomics(代幣經濟學),談資料中心如何產生token,推理(inference)就是產生token,我們就是在產生token。你知道,我們剛才還在談token,NVIDIA的NVLink Switch讓我們在單位能源下的token產生效能比上一代提升了50倍。token產生幾乎是未來所有與軟體、與運算相關事物的核心。
然而,如果你回頭看過去我們使用運算的方式,過去軟體對運算的需求只是未來所需的一小部分。AI已經來了,AI不會再退回去,AI只會從現在開始越來越好。如果你這麼想:好吧,過去全世界每年在傳統運算上投資大約3000億到4000億美元,現在AI來了,所需的運算量比過去的方式高出1000倍。運算需求就是大幅增加了。
如果我們繼續相信這其中有價值(我們等一下會談到這點),那麼全世界就會投資來產生這些token。全世界需要的token產生能力遠遠超過7000億美元。我相當有信心,我們會繼續產生token,從現在開始會繼續投資運算容量。根本原因在於,每一家公司都依賴軟體,每個軟體未來都會依賴AI,因此每家公司都會產生token,這就是為什麼我稱它們為「AI工廠」。無論你是雲端資料中心的公司,你都有AI工廠來為你的營收產生token。
如果你是企業軟體公司,你會為建立在你工具之上的代理式系統(agentic systems)產生token。如果你是一家機器人工廠,或是自駕車公司(這是第一個跡象),你會有巨大的超級電腦,這些基本上就是AI工廠,用來產生token,這些token進入你的車裡,就成為它的AI。你還必須在車內放入電腦,持續產生token。我們現在相當確定,這就是未來的運算方式。為什麼我們這麼確定這是未來的運算方式?原因是過去我們做軟體的方式是「預先錄製」的,一切都是事先捕捉好的。我們預先編譯軟體、預先寫好內容、預先錄製影片。
現在一切都是即時生成的(generative in real time),當它是即時生成時,就能考慮到使用者的情境、當下情況、查詢內容、意圖等等,所有這些都能被納入考量,來產生我們稱為AI、代理式AI的新軟體結果。所需的運算量遠遠大於預先錄製的內容。你知道,就像電腦的運算能力遠大於播放預錄DVD的DVD播放器一樣,人工智慧需要的運算能力遠大於過去做軟體的方式。
現在,第一層關於運算與永續性的問題,其實就是在電腦科學層面上,這就是未來的運算方式。
從產業層面來看,因為最終分析下來,我們所有的公司都是由軟體驅動的,雲端公司也是由軟體驅動的,如果新軟體需要產生token,而這些token是可以變現的,那麼邏輯上他們的資料中心擴建就直接驅動他們的營收。運算等於營收。我想他們都明白這一點。我想大家也越來越理解這件事了。
最後,AI為世界帶來的益處最終必須產生營收。我們現在正眼前看著、正在發展中,代理式AI已經到達一個轉折點,這真的就是在最近兩、三個月內發生的。
當然,在產業內部,我們已經看見一段時間了,大概有6個月左右。現在全世界已經醒悟到Agentic AI的這個轉折點。這些Agent非常聰明,它們在解決真實問題。程式碼撰寫現在明顯已經被代理式系統支援,我們NVIDIA這裡的所有工程師都在大量使用代理式系統,像是Claude Code或OpenAI的Codex,非常大量,有時候兩個都用,還有Cursor,有時候三個都用,視使用情境而定。他們有代理和共同設計夥伴、工程夥伴來幫助解決問題。你可以看到這些公司的營收暴增。像Anthropic,我認為他們的營收在一年內成長10倍,而且他們嚴重受限於產能,因為需求實在太驚人了。
token需求非常驚人,token產生速度呈指數成長。當然OpenAI也是同樣情況,他們的需求非常驚人。他們能上線的運算越多,營收成長就越快。這就回到我剛才說的,推理就是營收,在這個新世界裡,運算等於營收。在很多方面,這就是為什麼我們說這是一場新的工業革命。有新的工廠、新的基礎設施正在建造,這種新的運算方式不會再回頭。
只要我們相信產生token將是未來的運算方式(我相信,而且我認為產業大多數人也相信),那麼我們就會從現在開始持續建置這個產能,並繼續擴張。現在我們看到的這波浪潮就是代理式AI的轉折點,而下一個轉折點就是物理AI,我們把AI和這些代理式系統帶入實體應用,例如製造業、機器人。這是未來一個巨大的機會。




















