NVIDIA 26Q4 Earnings Call

Sean Hsiao-avatar-img
發佈於Investing 個房間
更新 發佈閱讀 47 分鐘
raw-image

Colette Kress,NVIDIA 執行副總裁暨財務長:謝謝 Toshiya。我們又交出了一個非常出色的季度,創下營收、營業利益與自由現金流的新紀錄。總營收達到 680 億美元,年增 73%,成長速度較第三季度進一步加速。季比成長同樣創下紀錄,我們在資料中心業務新增了 110 億美元的營收,客戶群多元且持續擴大,包括雲端服務提供商、超大型雲端業者、AI 模型開發商、企業客戶以及主權國家。

對我們 Blackwell 架構的需求持續增強,這款產品是針對資料中心規模進行極致共同設計(extreme co-design)的,不僅用於訓練,隨著推論(inference)部署的增加,需求也在同步成長。加速運算的轉型,以及 AI 全面滲透到現有超大型雲端工作負載,持續推動我們的成長。基於越來越聰明且多模態的模型所建構的 Agentic AI 與物理 AI 應用,正開始對我們的財務表現產生貢獻。

全年來看,資料中心業務產生 1,940 億美元營收,年增 68%。

自從 2023 財年 ChatGPT 出現以來,我們的資料中心業務規模已擴大近 13 倍。展望未來,我們預期在 2026 日曆年全程都會維持季比營收成長,成長幅度將超過我們去年所分享的 5,000 億美元 Blackwell 與 Rubin 營收機會。我們相信目前的庫存與供應承諾足以應對未來需求,包括出貨將延續到 2027 日曆年。

每個資料中心都面臨電力限制。客戶在這些限制條件下,會根據每瓦效能(performance per watt)做出關鍵的架構決策,以最大化 AI 工廠的營收。SemiAnalysis 稱 NVIDIA 為「Inference King」,而 InferenceX 最近的結果進一步強化了我們在推論領域的領導地位:GB300 與 NVL72 相較 Hopper 實現高達 50 倍的每瓦效能,以及 35 倍更低的每 token 成本

透過對 CUDA 軟體的持續優化,在短短 4 個月內,就讓 GB200 與 NVL72 的效能提升高達 5 倍。NVIDIA 提供了最低的每 token 成本,而運行 NVIDIA 平台的資料中心則產生最高的營收。我們的創新速度,特別是在我們這個規模下,是無與倫比的。

憑藉每年接近 200 億美元的研發預算,以及我們在運算與網路、晶片、系統、演算法與軟體之間進行極致共同設計的能力,我們計畫在每一代產品中實現每瓦效能的 X 倍躍升,並長期維持我們的領導地位。

第四季度資料中心營收達到 620 億美元,年增 75%,季增 22%,主要由 Blackwell 的持續強勢以及 Blackwell Ultra 的快速爬坡所驅動。由於 NVIDIA 基礎設施需求極高,即使是 Hopper 以及許多已推出 6 年的 Ampere 架構產品,在雲端市場上也已經全部售罄。

自從我們的 Grace Blackwell NVL72 系統發布以來,已經將近一年。今天,已有 9 吉瓦(gigawatts)的 Blackwell 基礎設施部署完成,並被主要雲端服務提供商、超大型雲端業者、AI 模型開發商以及企業客戶所消耗。本季表現最亮眼的,是我們資料中心規模基礎設施的核心之一——網路業務,產生 110 億美元營收,年增超過 3.5 倍。對我們 scale-up(垂直擴展)與 scale-out(水平擴展)技術的需求達到歷史新高,兩者皆實現雙位數季增,主要受 NVLink、Spectrum-X Ethernet 以及 InfiniBand 的強勁採用所驅動。

年比成長主要來自 NVLink 72 scale-up 交換器,因為 Grace Blackwell 系統在本季約佔資料中心營收的三分之二。NVLink scale-up 架構徹底革新了運算方式,展現了我們在超級電腦所有晶片以及全端堆疊(full stack)之間進行極致共同設計(extreme co-design)的強大威力。

在第四季度,我們宣布將為 AWS 啟用 NVLink,讓其與自家客製化矽晶整合。我們的 Spectrum-X Ethernet 在 scale-up 與 scale-across 網路領域的動能非常強勁,客戶正積極將分散式資料中心整合成一體化的吉瓦級(gigascale)AI 工廠。

全年來看,我們的網路業務營收超過 310 億美元,相較於 2021 財年(我們收購 Mellanox 的那一年)成長超過 10 倍。

我們的需求輪廓廣泛、多樣化,且正在超越單純的聊天機器人應用。首先,從傳統機器學習到生成式 AI 的基礎平台轉型正在發生。超大型雲端業者將大量傳統工作負載升級為生成式 AI(包括搜尋、廣告生成以及內容推薦系統),並展現出強勁的投資報酬率(ROI),這促使我們最大的客戶加速資本支出。

例如,在 Meta,GEM 模型的進步讓 Facebook 的廣告點擊率提升 3.5 倍,Instagram 的對話量增加超過 1%,直接轉化為顯著的營收成長。使用相同的 NVIDIA 基礎設施,Meta Superintelligence Labs 能夠訓練並部署他們的前沿 Agentic AI 系統。

前沿 Agentic 系統已經到達一個轉折點。Claude Code、Claude Cowork 以及 OpenAI Codex 已經展現出實用的智能。採用率正在暴增,token 也開始產生獲利,這帶來極大的迫切性來擴大運算規模。運算直接轉化為智能與營收成長。

分析師對 2026 年五大雲端提供商與超大型雲端業者的資本支出預期,自年初以來已增加近 1,200 億美元,接近 7,000 億美元,而這五大業者合計佔我們資料中心營收的略超過 50%

我們持續預期傳統資料中心工作負載轉向 GPU 加速運算,以及使用 AI 來強化當前超大型雲端工作負載,這兩者將共同貢獻我們長期機會的大約一半。就像今天的電力與網際網路一樣,每個國家都將自行建造並運營其部分 AI 基礎設施。在 2026 財年,我們的主權 AI 業務年增超過三倍,營收超過 300 億美元,主要由加拿大、法國、荷蘭、新加坡和英國的客戶所驅動。長期來看,我們預期主權 AI 機會的成長至少會與 AI 基礎設施市場同步,因為各國會按其 GDP 比例投入 AI 支出。

雖然美國政府批准了少量針對中國客戶的 H200 產品,但我們尚未產生任何相關營收,且我們不清楚是否會允許任何進口進入中國。我們在中國的競爭對手,受到近期 IPO 的助力,正在取得進展,並有潛力在長期內顛覆全球 AI 產業的結構。為了維持美國在 AI 運算領域的領導地位,美國必須接納每一位開發者,並成為包括中國在內的所有商業企業的首選平台。我們將繼續與美國和中國政府互動,並倡導美國在全球競爭的能力。

我們在上個月 CES 上推出了 Rubin 平台,包含 6 款新晶片:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 Ethernet Switch。

該平台將以僅四分之一的 GPU 數量訓練 MoE 模型,相較於 Blackwell,推論每 token 成本最高可降低 10 倍。我們在本週稍早已將首批 Vera Rubin 樣品出貨給客戶。我們仍按計劃在今年下半年開始量產出貨。Rubin 採用模組化、無纜線托盤設計,相較 Blackwell 將提供更好的韌性與維護便利性。我們預期每一家雲端模型建構者都會部署 Vera Rubin。

轉到遊戲業務。遊戲營收達到 37 億美元,年增 47%,主要受 Blackwell 強勁需求與供應改善所驅動。GeForce RTX 是 PC 遊戲玩家、創作者與開發者的領先平台。在第四季度,我們新增了多項技術與進展,包括 DLSS 4.5,它利用 AI 將遊戲視覺效果提升到全新境界。

G-SYNC Pulsar 帶來即使在動態畫面中也極為清晰的驚人圖像。在領先的 AI PC 框架中,大型語言模型(LLM)推論速度提升 35%。

展望未來,雖然我們產品的終端需求依然強勁,通路庫存水位也維持健康,但我們預期供應限制將成為第一季度及之後遊戲業務的逆風。

在專業視覺化領域,營收首次突破 10 億美元大關,本季達到 13 億美元,年增 159%,季增 74%。在本季度,我們推出了 RTX PRO 5000 Blackwell 工作站,搭載 72 GB 高速記憶體,專為運行 LLM 與 Agentic 工作流程的 AI 開發者設計。

汽車業務營收達到 6.04 億美元,年增 6%,主要受自駕解決方案的強勁需求所驅動。

在 CES 上,我們推出了 Llama Nemotron,這是全球首個開放式推理、視覺、語言、動作模型、模擬藍圖與資料集組合,讓車輛能夠「思考」。首款搭載基於 NVIDIA DRIVE 的 Llama Nemotron 的乘用車,將很快在全新 Mercedes-Benz CLA 上路。

物理 AI 已經到來,在 2026 財年已為 NVIDIA 貢獻超過 60 億美元營收。Robotaxi 乘車量呈指數級成長,Waymo、Tesla、Uber、WeRide、Zoox 等商業車隊,以及其他業者,預計將從 2025 年的數千輛擴大到未來十年的數百萬輛,創造出數千億美元規模的市場。這項擴張將需要數量級更高的運算,每一家主要汽車 OEM 與服務提供商都在 NVIDIA 平台上開發。

我們持續推進機器人開發,推出全新 NVIDIA Cosmos 與 Isaac GR00T 開放模型、框架,以及搭載 NVIDIA 技術的機器人與自主機器,服務於領先合作企業,包括 Boston Dynamics、Caterpillar、Franka Robotics、LG Electronics 與 Nuro Robotics。

為了加速工業物理 AI 的採用,我們也宣布與 Dassault Systèmes、Siemens 以及 Synopsys 擴大合作,將 NVIDIA AI 基礎設施、Omniverse 數位孿生、世界模型與 CUDA-X 函式庫帶給數百萬研究人員、設計師與工程師,共同打造全球產業。

接下來談談損益表其餘部分。GAAP 毛利率為 75%,非 GAAP 毛利率為 75.2%,隨著 Blackwell 持續爬坡而季比提升。GAAP 營業費用季增 16%,非 GAAP 基礎上季增 21%,主要與新產品推出以及運算與基礎設施相關成本有關。

第四季度非 GAAP 有效稅率為 15.4%,低於我們對本季的預期,主要受到一次性稅務利益的影響。庫存季比成長 8%,同時採購承諾也大幅增加。我們已策略性地確保庫存與產能,以滿足未來數季之後的需求。這比平常的時間範圍更長,反映出我們目前對需求的可見度更長。雖然我們預期先進架構的供應緊張情況將持續存在,但我們對憑藉自身規模、廣泛的供應鏈以及長期穩固的合作夥伴關係,持續把握未來成長機會充滿信心。

第四季度我們產生 350 億美元的自由現金流,全年 2026 財年則達到 970 億美元。

全年我們以股票回購與股利形式,向股東返還 410 億美元,相當於自由現金流的 43%。我們持續投資於技術與生態系統,以培養市場發展、驅動長期成長,並最終為股東帶來優於大盤或同業群的總回報。重要的是,我們將繼續以策略性且嚴謹的方式進行投資,並維持對股東返還資本的承諾。

接下來談談第一季度的展望。從本季度開始,我們將把股票基礎薪酬費用納入非 GAAP 結果中。股票基礎薪酬是我們薪酬計畫的核心組成部分,用以吸引並留住世界級人才。

首先談營收。總營收預計為 780 億美元,±2%。

我們預期大部分成長將由資料中心業務驅動。與上季度一致,我們的展望中不假設來自中國的任何資料中心運算營收。

GAAP 與非 GAAP 毛利率預計分別為 74.9% 與 75%,±50 個基點。全年來看,我們持續預期毛利率維持在 70% 中段。我們將持續更新 Vera Rubin 轉型的進展。

GAAP 與非 GAAP 營業費用預計分別約為 77 億美元與 75 億美元,其中包含 19 億美元的股票基礎薪酬費用。全年來看,我們預期非 GAAP 營業費用年比成長將落在 40% 低段,因為我們持續投資於不斷擴大的機會領域。

對於全年 2027 財年,我們預期 GAAP 與非 GAAP 稅率將介於 7% 至 19% 之間,不包含任何一次性項目或稅務環境的重大變化。

現在我將會議交給 Jensen,我想他有幾句話要跟大家說。

Jensen Huang,NVIDIA 總裁暨執行長: 本季度,我們大幅深化並擴展了與領先前沿模型開發者的合作關係。我們最近慶祝了 OpenAI 推出 GPT-5.2 Codex,這款模型使用 Grace Blackwell 和 NVL72 系統進行訓練與推理。GPT-5.2 Codex 能夠承擔涉及研究、工具使用和複雜執行的長時間任務。5.3 Codex 已在 NVIDIA 內部廣泛部署。我們的工程師非常喜歡它。我們持續與 OpenAI 朝向達成合作協議的方向努力,並相信我們已經非常接近了。我們對與 OpenAI 的持續合作感到非常興奮,這是一家世代難得一見的公司,我們從他們創立之初就有幸與之合作。

Meta Superintelligence Labs 正以閃電般的速度擴張。上週我們宣布,Meta 正在部署數百萬顆 Blackwell 和 Rubin GPU、NVIDIA CPU,以及 Spectrum-X Ethernet,用於訓練和推理。本季度,我們宣布與 Anthropic 達成合作夥伴關係,並對該公司投資 100 億美元。

Anthropic 將使用 Grace Blackwell 和 Vera Rubin 系統進行訓練與推理。Anthropic 的 Claude Cowork 代理平台具有革命性,已為企業 AI 採用打開了洪水般的閘門。在 Claude Cowork 和 OpenClaw 之間,運算需求正呈爆炸性成長。代理式 AI 的「ChatGPT 時刻」已經到來。

憑藉與 Anthropic、Meta、OpenAI 和 xAI 等公司的合作夥伴關係,NVIDIA 部署於每一個雲端,加上我們能夠從零開始打造完整堆疊的 AI 基礎設施,或在雲端提供支援的能力,我們在每個階段——訓練、推理以及 AI 工廠規模擴展——都處於獨特的位置,能與前沿模型建構者合作。

最後,我們最近與 Groq 簽署了一份非獨占授權協議,取得其低延遲推理技術,並歡迎一批傑出的工程師加入 NVIDIA。正如我們當初與 Mellanox 的做法一樣,我們將把 Groq 的創新融入 NVIDIA 架構,實現 AI 基礎設施、效能與價值的新等級。

我們期待下個月在 GTC 大會上分享更多內容。交還給你們。現在我們將進入問答環節。主持人,請開始提問。


Vivek Arya 美國銀行證券(Bank of America Securities) 謝謝接受我的提問。我記得你們提到現在已經能看到到 2027 日曆年的成長能見度,而且你們的採購承諾也反映了這種信心。 Jensen,我想問,當你看你們最大的雲端客戶時,今年雲端資本支出(CapEx)接近 7000 億美元,很多投資者擔心明年要維持這個水準會更困難,而且其中好幾家的現金流產生能力也在壓縮。 我知道你們對自己的路線圖非常有信心,採購承諾等等也是,但你對客戶持續成長 CapEx 的能力有多大的信心? 如果他們的 CapEx 不成長,NVIDIA 還能在這個框架內找到成長的方式嗎?謝謝。

Jensen Huang: 我對他們的現金流成長很有信心。原因很簡單。 我們現在已經看到「代理式 AI」(agentic AI)的轉折點(inflection point),以及代理(agents)在全球企業各處的實用性。 正因為如此,你會看到驚人的運算需求。 在這個新的 AI 世界裡,運算就是營收。沒有運算,就無法產生 token;沒有 token,就無法成長營收。 在這個新的 AI 世界,運算等於營收。 我現在非常確定,我們已經來到這個轉折點。 我們看到 Codex 和 Claude Code 的生產性應用,以及對 Claude Cowork 的極大熱情,還有對 OpenClaw 以及它們企業版本的巨大熱情。所有企業獨立軟體供應商(ISVs)現在都在他們的工具平台上開發代理式系統。 我現在可以確定,我們已經到達轉折點,我們正在產生對客戶有生產力、對雲端服務提供者有獲利的 token。 簡單的邏輯、簡單的思考方式是:運算已經改變了。 過去是軟體跑在電腦上,每年大概 3000 到 4000 億美元的資本支出規模,現在轉向 AI。 要產生 token,就需要運算容量,這直接轉化為成長,也直接轉化為營收。


Joe Moore,摩根士丹利分析師: 謝謝,恭喜你們的業績表現非常出色。你們提到了一些策略性投資,包括對Anthropic、可能還有OpenAI、CoreWeave的投資,同時也包括合作夥伴如Intel、Nokia、Synopsys等。你們顯然處於整個生態系的中心位置。 能否談談這些投資的角色?你們如何看待把資產負債表當作工具,來擴大NVIDIA在整個生態系中的地位,並參與這波成長?

Jensen Huang: 大家都知道,對NVIDIA來說,最核心、最根本的就是我們的生態系。這也是大家最喜歡我們這家公司的地方——生態系的豐富程度。 幾乎全球每一家新創公司都在NVIDIA的平台上開發。我們存在於每一家雲端服務商、每一個企業內部資料中心,我們也遍布全球邊緣運算和機器人系統。數以千計的AI原生公司都是建立在NVIDIA之上。

我們現在正處於一個全新運算時代的開端、全新運算平台的轉型期,我們希望趁著這個絕佳機會,把所有人都帶到NVIDIA平台上。 一切都已經建立在CUDA之上,所以我們的起點其實非常好、非常強大。

當我們打造整個AI生態系的時候,無論是語言AI、物理AI、AI物理、生物、機器人、製造業……我們希望所有這些垂直領域的生態系都建立在NVIDIA之上。 這對我們來說是極其珍貴的機會,讓我們能夠投資整個技術棧(stack)的生態系。

現在我們的生態系比過去更加豐富。過去我們主要是一家GPU運算平台公司,但現在我們是一家完整的AI基礎設施運算公司。我們在運算的每個面向都有平台,從運算本身、AI模型、網路,到我們的DPU,每一層都有完整的運算堆疊。

就像我之前提過的,無論是企業、製造業、工業、科學、機器人,每一個垂直生態系都有自己不同的技術堆疊,而我們希望持續投資,讓我們的生態系繼續擴大和深化。 我們的投資策略非常明確、非常聚焦,就是要擴大並深化NVIDIA生態系的覆蓋範圍與影響力。


Harlan Sur, J.P. Morgan 分析師:下午好。感謝接受我的提問。網路業務在你們整體資料中心產品組合中的占比持續上升,對吧?到財年 2026 年為止,你們的網路營收每個季度都呈現年比年加速成長,對吧?第四季度如你們所說,年比年成長達到 3.6 倍。顯然,這得益於你們的 scale-up 和 scale-out 網路產品組合的強勁表現,我記得去年上半年,你們 Spectrum-X Ethernet 交換平台的年化運行率(annualized run rate)大約是 100 億美元。看起來去年下半年可能已經提升到 110 億到 120 億美元左右。Jensen,從你們的訂單簿來看,特別是即將推出的 Spectrum-XGS,以及即將上市的 102T Spectrum-6 交換平台,現在 Spectrum 的成長跑道(runway)趨勢如何?你預期在今年(曆年)年底時會是什麼情況?

Jensen Huang:你知道的,正如你所了解,我們把自己定位為一家 AI 基礎設施公司,而 AI 運算基礎設施包括 CPU、GPU,我們發明了 NVLink 來將單一運算節點 scale up 成一個巨大的運算機架。我們發明了「機架級電腦」(rack scale computer)的概念。我們不是出貨單一節點的電腦,而是出貨整機架的電腦。那個 NVLink 交換 scale-up 系統,然後再透過 Spectrum-X 和 InfiniBand 來進行 scale-out。我們同時支持兩者。我們也使用 Spectrum-X scale-across 來跨資料中心擴展。我們對網路的思考其實就是一種延伸。我們提供一切都是開放的,讓人們可以自由決定如何混搭、在不同規模下使用,以及如何整合到他們客製化的資料中心中。

最終來說,這一切都是我們平台的一大組成部分。NVLink 的發明,真正讓我們的網路業務 turbocharged(渦輪增壓)。每個機架都配備九個節點的交換器,每個交換器裡面有兩顆晶片,未來還會有更多。我們每個機架的交換量真的非常驚人。我們現在也是全球最大的網路公司。如果你看 Ethernet 市場,我們大概兩年前才進入 Ethernet 交換市場,我認為我們現在很可能已經是全球最大的 Ethernet 網路公司,而且很快一定會是。Spectrum-X Ethernet 對我們來說真的是全壘打(home run)。你知道的,我們對人們想怎麼做網路都持開放態度。

有些人真的非常喜歡 InfiniBand 的低延遲和 scale-up 能力,我們當然會繼續支持。有些人喜歡用 Ethernet 來整合整個資料中心的網路。我們創造了一種 Ethernet 能力,將人工智慧的處理方式延伸到資料中心,我們在這方面表現得極為出色。我們的 Spectrum-X 性能真的證明了這一點。你知道,當你建置一個 100 億或 200 億美元的 AI 工廠時,如果網路的有效性和利用率能差 10%,甚至輕易達到 20%,那轉換成真金白銀是非常可觀的。

NVIDIA 的網路業務真的成長非常快,我認為這只是因為我們把 AI 基礎設施建得非常有效,而 AI 基礎設施業務本身正在以驚人的速度成長。


CJ Muse,Cantor Fitzgerald分析師:下午好。感謝接受提問。我想,隨著CPX針對大型上下文窗口,以及Groq很可能會推出專門針對解碼(decode)的解決方案,我很好奇我們該如何看待你們未來的路線圖。我們是否應該認為,NVIDIA會越來越重視客製化矽片(customized silicon),無論是按工作負載還是按客戶來客製,尤其是在你們轉向dielet架構後,這是否會成為更大的重點?非常感謝。

Jensen Huang:每個人都應該盡可能延長、推遲使用dielet的時機。原因在於,每次你跨越一個dielet邊界,就必須穿越一個介面。每次穿越介面,就會無謂地增加延遲、增加功耗。我們並不排斥dielet,我們已經在使用dielet,但我們只在絕對別無選擇的時候才使用。如果你看看Grace Blackwell架構和Rubin架構,我們使用了兩個巨大的、受reticle限制的晶粒(dies),把它們直接拼接(abut)在一起,這樣就能減少架構跨越的次數。競爭對手的架構效能上,就會明顯看到這種「dielet稅」(dielet tax)的影響。

如果你看NVIDIA,大家常說這是我們的軟體優勢,但你知道,軟體從哪開始、架構從哪結束,其實很難劃分。我們的軟體之所以有效,正是因為我們的架構非常優秀。CUDA架構無疑比市面上任何計算架構都更有效率、更高效,能在每flop、每瓦特下提供更高的性能,這完全歸功於我們架構設計的方式。

關於Groq以及低延遲解碼器(low latency decoder),我有一些很棒的想法,想在GTC上跟大家分享。最簡單的想法是:因為CUDA的存在,我們的基礎設施極其多功能,我們會繼續保持這種優勢。

你知道,我們所有的GPU在架構上都是相容的,這意味著當我今天針對Blackwell優化模型時,所有這些工作、所有對軟體堆疊和新模型的投入,也同樣會惠及Hopper,甚至惠及Ampere。這就是為什麼A100在部署到世界上好幾年後,仍然感覺很新鮮、性能依然強勁的原因。架構相容性讓我們能夠做到這一點。它讓我們能夠在軟體工程和優化上投入巨大資源,並知道我們整個安裝基礎——無論是雲端、企業內部、各世代的GPU架構——全部都能受益。我們會繼續這麼做,這讓我們能夠延長產品的使用壽命、帶來創新、靈活性與速度,最終轉化為性能,更重要的是,為客戶帶來每美元性能(performance per dollar)和每瓦特性能(performance per watt)。

至於我們會如何處理Groq,你們到GTC就會看到了,但我們要做的是:就像當年我們用Mellanox擴展NVIDIA架構一樣,我們會把Groq作為一個加速器,來擴展我們的架構


Stacy Rasgon, Bernstein Research:嗨,大家好。謝謝接受我的提問。Colette,我想稍微深入探討一下全年逐季成長的展望。這一季資料中心業務季增超過 100 億美元,而指引似乎暗示接下來季增的主要部分還是那 100 億美元左右的資料中心成長。你們如何看待今年剩下的時間,尤其是 Rubin 在下半年開始放量時?Blackwell 帶來了相當大幅的季增加速。我們是否能期待 Rubin 時也出現類似的幅度?另外也想請你評論一下對遊戲業務的預期。我了解記憶體問題和其他因素。你們認為遊戲業務在財年 2027 能否仍實現年增成長,還是會因為記憶體等因素而面臨更大壓力?就這兩個問題,謝謝。

Colette Kress:謝謝,Stacy。讓我先從未來的營收談起。我們還是會一季一季來看營收。至於全年來看,我們絕對會繼續銷售和提供 Blackwell,同時很可能也會看到 Vera Rubin 開始進入市場。這是一個非常棒的架構,今天就能快速站起來,而且我們已經在不同客戶那邊規劃了很多訂單來提供它。目前要判斷 Vera Rubin 的初期爬坡在下半年會有多少還太早,我們會持續觀察。需求強勁和客戶興趣這點是沒有疑問的。

我們預期幾乎每一位客戶都會購買 Vera Rubin。問題只在於我們什麼時候能大量出貨,以及他們什麼時候能在自己的資料中心快速部署起來。這是你的第一個問題。

第二個問題是關於遊戲業務。雖然我們很希望能有更多供應,但我們認為接下來幾季供應會非常吃緊。如果到年底情況有所改善,就有機會思考年增成長會是什麼樣子。但現在對我們來說還太早判斷,我們會盡快再跟大家更新。


Atif Malik, Citi 分析師: 謝謝您回答我的問題。Jensen,我想請您談談 CUDA 的重要性,因為現在 AI 投資資金越來越多來自於 inference(推論)工作負載。

Jensen Huang: 如果沒有 CUDA,我們根本不知道該怎麼處理 inference。整個軟體堆疊,從我們幾年前推出的 TensorRT-LLM 開始,到現在仍然是全球效能最強的 inference 堆疊。要針對 NVLink 進行優化,我們必須去發現和發明新的平行化演算法,這些演算法建立在 CUDA 之上,用來分散工作負載,讓 inference 能夠充分利用 NVLink Switch 跨所有連結的總聚合頻寬。

NVLink Switch 讓我們在世代間實現了每瓦效能提升 50 倍。這真的是令人難以置信的飛躍,而且是非常合理的發明。NVLink Switch 是一項偉大的發明,做起來非常困難。

交換技術的創造、將交換器解聚合、建構系統機櫃,所有這些我們都是公開透明地完成的,大家都知道這對我們來說有多難。結果卻是驚人的。你知道的,每瓦效能提升 50 倍,每美元效能提升 35 倍。inference 方面的躍進非常驚人。

很重要的一點要認識到:現在對我們的客戶來說,inference 就等於營收。因為 agent(代理)現在產生了非常大量的 token,而且結果非常有效率。當 agent 在寫程式碼時,它們會一口氣產生數千、數萬、甚至數十萬個 token,因為它們可能要連續執行幾分鐘到幾小時。這些 agentic 系統會衍生出不同的代理,組成團隊一起工作。

被產生的 token 數量已經呈指數級成長。我們需要以更高的速度進行 inference,而當你以更高速度 inference,每一個 token 都直接被「貨幣化」(dollarized),這就直接轉化成營收。對客戶來說,inference 效能 = 營收。對資料中心來說,每瓦 token 數直接轉化成雲端服務提供商(CSP)的營收。

原因是每個人都受限於電力。不管你有多少資料中心,每個資料中心可能是 100 兆瓦或 1 吉瓦,都有電力上限。擁有最佳每瓦效能的架構就會勝出,因為每個 token 的每瓦效能,最終每個 token 都被貨幣化。

每瓦 token 數 → 每瓦美元 → 在吉瓦級資料中心直接轉化成營收。 現在每個 CSP、每個超大規模業者都明白了這一點:資本支出(CapEx)轉化成運算能力,正確的架構能最大化運算能力,而運算 = 營收。如果今天不投資容量、不投資運算,就不可能有營收成長,這一點我想大家都理解。

運算就是營收。選擇正確的架構現在已經不只是策略性問題,而是直接影響他們的獲利。選擇擁有最佳每瓦效能的架構,幾乎就是一切。


Ben Reitzes, Melius Research 分析師: 是的,嘿,謝謝。首先我要讚揚你們把股票薪酬納入 non-GAAP 計算,這真的是很棒的做法,不過這不是我的問題。我的問題是關於毛利率,以及中長期維持在 70% 中段(mid-70s%)的可持續性。我們是否可以從供應能見度到 2027 日曆年這點來解讀,認為毛利率至少到那時候都是可持續的?Jensen,那之後呢?有沒有一些關於記憶體消耗的創新可以揭露,讓我們對長期維持這個毛利率水準更有信心?謝謝。

Jensen Huang: 我們毛利率最重要的單一槓桿,其實就是為客戶帶來「世代級的躍進」(generational leaps)。這是最重要的一件事。如果我們能夠在每一代產品上,提供遠遠超越摩爾定律的性能功耗比(performance per watt);如果我們能夠提供遠遠超越系統成本、超越我們系統售價的性能每美元比(performance per dollar),那我們就能持續維持毛利率。這是最簡單、也最重要的概念。

我們之所以動作這麼快,原因第一是:由於我們經歷的這些轉折點(inflection points),全球對 token 的需求已經完全呈指數級爆炸成長。我們大家應該都看得到這個現象,甚至連我們六年前的 GPU 在雲端都被完全用光,價格還在往上漲。

我們知道,現代軟體開發方式所需的運算量、所需的計算量,正在以指數級速度成長。我們的策略是每年推出一整套完整的 AI 基礎設施。今年我們推出了六款新晶片。下一代的 Rubin 也會推出很多新晶片。每一代,我們都承諾要帶來多個 X 倍的性能功耗比和性能每美元比。這樣的節奏,加上我們極端協同設計(extreme co-design)的能力,讓我們能夠為客戶帶來這樣的價值和好處。這就是我們所提供的價值中,最關鍵、最重要的一環。


Antoine Chkaiban, Analyst, New Street Research:嗨,非常感謝接受我的提問。我想問關於太空資料中心(space data centers),您的一些客戶正在考慮這件事。您認為這有多大的可行性?大概什麼樣的時間範圍?目前經濟性如何?您覺得未來會怎麼演變?謝謝。

Jensen Huang:嗯,目前的經濟性很差,但隨著時間推移會逐步改善。大家知道,太空運作的方式跟地球上完全不同。太空有非常豐富的能源,雖然太陽能板很大,但太空裡空間多得很,沒問題。散熱方面,太空很冷,但沒有空氣流動,所以唯一的散熱方式只能靠傳導(conduction),因此需要的散熱器(radiators)會相當大。液冷當然是不可能的,因為太重,而且會凍結。我們在地球上使用的方法,跟太空裡會採用的方式有些不同。

其實有很多不同的運算問題,非常適合在太空執行。NVIDIA 已經是全球第一個把 GPU 送上太空的公司,Hopper 已經在太空了。在太空使用 GPU 其中一個最好的應用場景就是影像處理(imaging)。能夠用極高解析度進行成像,當然搭配光學系統和人工智慧,然後進行不同角度的重投影(reprojection)、超解析度(up-res)、降噪等等,就能以非常大的尺度、極高的解析度、極快的速度來「看見」東西。要把數 PB 等級的影像資料全部傳回地球再處理,是很困難的。

在太空直接處理會容易得多。只需忽略所有蒐集和處理的資料,直到發現有趣的東西再傳回就好。人工智慧在太空會有非常好、非常有趣的應用。


Mark Lipacis, Evercore ISI 分析師: 嗨,謝謝接受我的提問。我想接續您在腳本中提到關於營收多元化的評論。我記得 Colette 您說過 hyperscalers(超大規模雲端業者)佔了我們總營收的 50% 以上,但成長主要是由其他資料中心客戶帶動。我想確認一下我是否理解正確。這是否意味著非 hyperscale 客戶的成長速度更快?如果是這樣,能否幫我們了解,非 hyperscale 客戶目前在做什麼不同的事情?他們是在做與 hyperscalers 不同的事情,還是做相同的事情但規模不同?您預期這個趨勢會持續下去嗎? 您是否預期客戶結構會演變到某個程度,讓非 hyperscale 客戶成為您業務中更大、甚至最大的部分?謝謝。

Colette Kress: 是的,讓我們來試著回答這個問題。當我們談到前五大客戶時,如我們先前所述,就是我們的 CSPs(雲端服務提供商)、也就是 hyperscalers,目前它們大約佔我們總營收的 50%。因此,剩下的是一個非常龐大且多元化的群體,涵蓋各種不同類型的公司,包括 AI 模型製造商(AI model makers)、企業客戶、超級運算(supercomputing)、主權客戶(sovereigns)等等,各種不同的面向都有。您說得沒錯,這是一個成長非常快速的領域。我們在所有不同的雲端提供商平台上都有很強的地位。現在我們也看到全球各地極度多元化的各種客戶。 這種多元性真的很有幫助,能夠服務所有這些不同的部分。讓我看看 Jensen 是否想再補充一些。

Jensen Huang: 是的,這正是我們生態系統的一大優勢,而整個生態系統都是建立在 CUDA 之上。我們是唯一一個在每一家雲端都有的加速運算平台,透過每一家電腦製造商都能取得、在邊緣運算(edge)也能使用,現在我們也正在耕耘電信領域。顯然,未來的無線電(radios)都會是 AI 驅動的無線電,未來的無線網路也將成為一個運算平台,這已經是必然的結論,但總得有人去發明讓這成為可能的技術。我們因此創造了一個叫做 Aerial 的平台來實現這一點。我們也幾乎出現在每一台機器人、每一輛自駕車上。 我們的優勢、CUDA 的優勢,在於一方面能享有專用處理器(specialized processors)的效能優勢,例如我們 GPU 裡的 Tensor Cores;另一方面,CUDA 的彈性讓我們能夠解決語言問題、電腦視覺問題、機器人問題、生物學問題、物理學問題,以及幾乎所有種類的 AI 和各種運算演算法。我們客戶基礎的多元性,是我們最大的優勢之一。 第二點,當然,如果沒有我們自己的生態系統,即使我們的處理器是可程式化的,如果我們沒有去耕耘這個生態系統——包括我們今天正在做的一些事情、對未來生態系統的投資,以及持續強化我們的生態系統——沒有這個生態系統,我們很難超越別人生態系統中我們拿到的設計訂單(design wins)來成長。我們之所以能夠自然地擴張我們的生態系統,正是因為我們創造了這個平台。 最後一點,非常重要的是我們與 OpenAI、Anthropic、xAI、Meta 的合作關係,當然還有全球幾乎所有的開源社群。Hugging Face 上有 150 萬個 AI 模型,全都運行在 NVIDIA CUDA 上。整體開源模型加起來,可能已經是世界上第二大的模型群(最大的是 OpenAI)。NVIDIA 能夠運行所有這些,讓我們的平台極具可替代性(fungible)、極容易使用,也讓投資變得非常安全。這創造了客戶的多元性、平台的多元性,並且在每個國家都能取得,因為我們支援了全世界整個生態系統。


Aaron Rakers,富國銀行分析師: 好的,謝謝接受提問。我想繼續談平台和極致共同設計(extreme co-design)的概念。這一季有些新聞明顯提到NVIDIA正在推動把Vera CPU以獨立解決方案的形式推向市場。 Jensen,我想請教,在未來的架構演進中,Vera到底扮演多重要的角色?這主要是受到推理工作負載的擴散(proliferation)或異質性(heterogeneity)所驅動嗎? 我很好奇您怎麼看NVIDIA在這方面的發展,特別是把它當作獨立CPU來看。謝謝。

Jensen Huang: 好的,謝謝。我會在GTC上再多講一些細節。但從最高層次來看,我們在CPU的架構設計上,做了跟全世界其他CPU完全不同的根本性決定。 Vera是目前唯一支援LPDDR5的資料中心CPU。它被設計成專注於極高的資料處理能力。原因在於我們最感興趣的絕大多數運算問題都是資料驅動的,人工智慧就是其中之一。而它的單執行緒效能與頻寬的比率,簡直是超乎想像地高。

我們之所以做出這些架構決定,是因為在整個AI的不同階段——從資料處理開始,甚至在訓練之前就必須先做資料處理。 有資料處理、前訓練(pre-training),現在還有後訓練(post-training),AI正在學習如何使用工具(tools)。而很多工具的使用環境是純CPU,或者是CPU搭配GPU加速的環境。

Vera就是被設計成在後訓練階段表現極為出色的CPU。在整條人工智慧管線中,有非常多的使用情境需要大量CPU。 我們當然也很愛CPU,就像愛GPU一樣。當我們把演算法加速到極限的時候,根據阿姆達爾定律(Amdahl’s law),你就必須要有非常、非常快的單執行緒CPU。 這就是為什麼我們把Grace CPU打造得在單執行緒效能上極為出色,而Vera在這方面又比Grace更誇張地強大。


Tim Arcuri,瑞銀分析師:非常感謝。Colette,我想請教您關於資本部署的問題。我知道貴公司大幅提高了股票回購承諾(purchase commits),但聽起來好像已經度過了最吃力的階段,今年大概會產生約1000億美元的現金。而且,不管業績有多好,股價其實都沒漲多少。我猜您們可能覺得現在這個價格是相當不錯的回購時機,在這裡大量買回股票。我想請您談談這一點,比如,為什麼不乾脆大動作宣示一下,來個超大规模的股份回購(huge share of repo)呢?謝謝。

Colette Kress:謝謝您的提問。我們非常謹慎地看待資本回報,我們確實認為最重要的事情之一,就是全力支持眼前這個極其龐大的生態系統。這個生態系統來自各個面向,從我們的供應商開始,我們需要做的工作是確保供應充足、協助他們提升產能,一路延伸到我們平台上那些早期AI解決方案的開發者。我們會繼續把這件事視為我們流程和策略投資中非常重要的一部分。當然,我們仍然持續在回購自家股票。我們也維持股利政策。我們會繼續在一年內尋找合適的、獨特的機會,來執行這些不同的購買動作。


Jim Schneider,高盛分析師:感謝您接受我的提問。您之前曾概述到2030年資料中心資本支出(CapEx)可能達到3兆到4兆美元,這意味著成長率可能加速,而您在本季也大致給出了這樣的指引。我的問題是,您認為最有可能驅動這個轉折點(inflection)的關鍵應用領域是哪些?是物理AI(physical AI)、代理式AI(agentic AI),還是其他東西?您對這個3兆到4兆美元的總額仍然感到樂觀嗎?謝謝。

Jensen Huang:好的,讓我們從幾個不同角度回頭來推理這件事。首先,從第一原理(first principles)出發,未來軟體的運作方式將是以token驅動的。我想大家都一直在談tokenomics(代幣經濟學),談資料中心如何產生token,推理(inference)就是產生token,我們就是在產生token。你知道,我們剛才還在談token,NVIDIA的NVLink Switch讓我們在單位能源下的token產生效能比上一代提升了50倍。token產生幾乎是未來所有與軟體、與運算相關事物的核心。

然而,如果你回頭看過去我們使用運算的方式,過去軟體對運算的需求只是未來所需的一小部分。AI已經來了,AI不會再退回去,AI只會從現在開始越來越好。如果你這麼想:好吧,過去全世界每年在傳統運算上投資大約3000億到4000億美元,現在AI來了,所需的運算量比過去的方式高出1000倍。運算需求就是大幅增加了。

如果我們繼續相信這其中有價值(我們等一下會談到這點),那麼全世界就會投資來產生這些token。全世界需要的token產生能力遠遠超過7000億美元。我相當有信心,我們會繼續產生token,從現在開始會繼續投資運算容量。根本原因在於,每一家公司都依賴軟體,每個軟體未來都會依賴AI,因此每家公司都會產生token,這就是為什麼我稱它們為「AI工廠」。無論你是雲端資料中心的公司,你都有AI工廠來為你的營收產生token

如果你是企業軟體公司,你會為建立在你工具之上的代理式系統(agentic systems)產生token。如果你是一家機器人工廠,或是自駕車公司(這是第一個跡象),你會有巨大的超級電腦,這些基本上就是AI工廠,用來產生token,這些token進入你的車裡,就成為它的AI。你還必須在車內放入電腦,持續產生token。我們現在相當確定,這就是未來的運算方式。為什麼我們這麼確定這是未來的運算方式?原因是過去我們做軟體的方式是「預先錄製」的,一切都是事先捕捉好的。我們預先編譯軟體、預先寫好內容、預先錄製影片。

現在一切都是即時生成的(generative in real time),當它是即時生成時,就能考慮到使用者的情境、當下情況、查詢內容、意圖等等,所有這些都能被納入考量,來產生我們稱為AI、代理式AI的新軟體結果。所需的運算量遠遠大於預先錄製的內容。你知道,就像電腦的運算能力遠大於播放預錄DVD的DVD播放器一樣,人工智慧需要的運算能力遠大於過去做軟體的方式。

現在,第一層關於運算與永續性的問題,其實就是在電腦科學層面上,這就是未來的運算方式。

從產業層面來看,因為最終分析下來,我們所有的公司都是由軟體驅動的,雲端公司也是由軟體驅動的,如果新軟體需要產生token,而這些token是可以變現的,那麼邏輯上他們的資料中心擴建就直接驅動他們的營收。運算等於營收。我想他們都明白這一點。我想大家也越來越理解這件事了。

最後,AI為世界帶來的益處最終必須產生營收。我們現在正眼前看著、正在發展中,代理式AI已經到達一個轉折點,這真的就是在最近兩、三個月內發生的。

當然,在產業內部,我們已經看見一段時間了,大概有6個月左右。現在全世界已經醒悟到Agentic AI的這個轉折點。這些Agent非常聰明,它們在解決真實問題。程式碼撰寫現在明顯已經被代理式系統支援,我們NVIDIA這裡的所有工程師都在大量使用代理式系統,像是Claude Code或OpenAI的Codex,非常大量,有時候兩個都用,還有Cursor,有時候三個都用,視使用情境而定。他們有代理和共同設計夥伴、工程夥伴來幫助解決問題。你可以看到這些公司的營收暴增。像Anthropic,我認為他們的營收在一年內成長10倍,而且他們嚴重受限於產能,因為需求實在太驚人了。

token需求非常驚人,token產生速度呈指數成長。當然OpenAI也是同樣情況,他們的需求非常驚人。他們能上線的運算越多,營收成長就越快。這就回到我剛才說的,推理就是營收,在這個新世界裡,運算等於營收。在很多方面,這就是為什麼我們說這是一場新的工業革命。有新的工廠、新的基礎設施正在建造,這種新的運算方式不會再回頭。

只要我們相信產生token將是未來的運算方式(我相信,而且我認為產業大多數人也相信),那麼我們就會從現在開始持續建置這個產能,並繼續擴張。現在我們看到的這波浪潮就是代理式AI的轉折點,而下一個轉折點就是物理AI,我們把AI和這些代理式系統帶入實體應用,例如製造業、機器人。這是未來一個巨大的機會。

留言
avatar-img
By Sean For Them
28會員
103內容數
For Roby, Molly, my family and friends just a place to jot down what I've seen, learned, felt and thought.
By Sean For Them的其他內容
2026/01/29
本文彙整了 Tesla 2025 年第四季財報電話會議的重點,涵蓋了其在太陽能、機器人(Optimus)、自動駕駛(FSD)、CyberCab, Model S/X 退役以及 AI5, AI6 晶片等多方面的未來發展策略與投資計畫。 AI 和機器人技術將是推動公司成長的核心動力。
Thumbnail
2026/01/29
本文彙整了 Tesla 2025 年第四季財報電話會議的重點,涵蓋了其在太陽能、機器人(Optimus)、自動駕駛(FSD)、CyberCab, Model S/X 退役以及 AI5, AI6 晶片等多方面的未來發展策略與投資計畫。 AI 和機器人技術將是推動公司成長的核心動力。
Thumbnail
2025/11/24
文章分析了 Tesla AI 晶片發展上的最新動態,以及其在效能、功耗與成本上的優勢。同時,文章同時剖析 FSD v14 的時程規劃、Supervised FSD 的全球部署藍圖,以及 AI5 晶片相較 AI4 的顯著性能提升,並點出 Tesla 在量產、法規批准與社會溝通上所面臨的挑戰。
Thumbnail
2025/11/24
文章分析了 Tesla AI 晶片發展上的最新動態,以及其在效能、功耗與成本上的優勢。同時,文章同時剖析 FSD v14 的時程規劃、Supervised FSD 的全球部署藍圖,以及 AI5 晶片相較 AI4 的顯著性能提升,並點出 Tesla 在量產、法規批准與社會溝通上所面臨的挑戰。
Thumbnail
2025/11/20
NVIDIA 公佈第三季財報,營收達到 570 億美元,年增 62%,創單季新高。Blackwell 和 Rubin未來潛在收入可達5000億美元。在 AI 發展的三大轉型加速運算、生成式 AI、Agentic AI ,預計2030年 AI 市場規模將達3至4兆美元。Q4營收預估為 650 億美元。
Thumbnail
2025/11/20
NVIDIA 公佈第三季財報,營收達到 570 億美元,年增 62%,創單季新高。Blackwell 和 Rubin未來潛在收入可達5000億美元。在 AI 發展的三大轉型加速運算、生成式 AI、Agentic AI ,預計2030年 AI 市場規模將達3至4兆美元。Q4營收預估為 650 億美元。
Thumbnail
看更多
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
本週(2026年1月13日至1月17日)標誌著全球經濟結構與地緣政治版圖經歷了數年來最為劇烈的一次震盪與重組。我們觀察到三個核心趨勢正在重塑未來的市場格局:「AI資本支出的實體化」、「地緣政治的極端化」以及「能源轉型的分歧化」。
Thumbnail
本週(2026年1月13日至1月17日)標誌著全球經濟結構與地緣政治版圖經歷了數年來最為劇烈的一次震盪與重組。我們觀察到三個核心趨勢正在重塑未來的市場格局:「AI資本支出的實體化」、「地緣政治的極端化」以及「能源轉型的分歧化」。
Thumbnail
誰說AI需求退燒?美光提早兩年引爆千億美元HBM商機,這場記憶體飢餓遊戲才正要開始 重點結論:記憶體超級週期確立,HBM供不應求加速化 股市基友先說結論:別被市場雜音騙了,AI基礎建設還在拼命趕進度。 為什麼敢這麼說? 因為春江水暖鴨先知,而數據中心裡的「水」——也就是記憶體(Memory),
Thumbnail
誰說AI需求退燒?美光提早兩年引爆千億美元HBM商機,這場記憶體飢餓遊戲才正要開始 重點結論:記憶體超級週期確立,HBM供不應求加速化 股市基友先說結論:別被市場雜音騙了,AI基礎建設還在拼命趕進度。 為什麼敢這麼說? 因為春江水暖鴨先知,而數據中心裡的「水」——也就是記憶體(Memory),
Thumbnail
前言:你看到的財報數字,在國家生存面前不值一提 近期美股市場震盪,關於「AI 泡沫化」的雜音再起。從甲骨文(Oracle)現金流的預警,到對科技巨頭資本支出(Capex)的質疑,投資人無不拿著放大鏡檢視每一份財報,深怕自己成為最後一隻白老鼠。 然而,如果我們將視角拉高,不再糾結於幾季的
Thumbnail
前言:你看到的財報數字,在國家生存面前不值一提 近期美股市場震盪,關於「AI 泡沫化」的雜音再起。從甲骨文(Oracle)現金流的預警,到對科技巨頭資本支出(Capex)的質疑,投資人無不拿著放大鏡檢視每一份財報,深怕自己成為最後一隻白老鼠。 然而,如果我們將視角拉高,不再糾結於幾季的
Thumbnail
在股市裡,許多人渴望短線的刺激與報酬,但真正能累積財富的,是那些懂得 耐心、紀律、長期視野 的人。這樣的能力比選股技術更難養成。今天我想跟你分享:我要怎麼修煉「長期持股的紀律」,以及如果把這些心法套到鴻海這檔股票上,該怎麼做檢驗與實踐。 --- 一、為什麼長期持股比頻繁交易難但重要?
Thumbnail
在股市裡,許多人渴望短線的刺激與報酬,但真正能累積財富的,是那些懂得 耐心、紀律、長期視野 的人。這樣的能力比選股技術更難養成。今天我想跟你分享:我要怎麼修煉「長期持股的紀律」,以及如果把這些心法套到鴻海這檔股票上,該怎麼做檢驗與實踐。 --- 一、為什麼長期持股比頻繁交易難但重要?
Thumbnail
外資 麥格理(Macquarie) 最新報告認為,鴻海在「主權 AI」(sovereign AI)與資料中心/機櫃的高度系統整合上具備競爭優勢,因此將鴻海 12 個月目標價由 205 元 調高到 300 元。 麥格理認為,若包含美國大規模「Stargate/星際之門」等主權級投資,鴻海
Thumbnail
外資 麥格理(Macquarie) 最新報告認為,鴻海在「主權 AI」(sovereign AI)與資料中心/機櫃的高度系統整合上具備競爭優勢,因此將鴻海 12 個月目標價由 205 元 調高到 300 元。 麥格理認為,若包含美國大規模「Stargate/星際之門」等主權級投資,鴻海
Thumbnail
Nvidia第二季營收年增56%達467億美元。AI基礎建設成為核心驅動力。主權AI、Networking業務也表現亮眼。Nvidia預期未來AI基礎設施投資將達到3-4兆美元,並強調年度產品週期策略
Thumbnail
Nvidia第二季營收年增56%達467億美元。AI基礎建設成為核心驅動力。主權AI、Networking業務也表現亮眼。Nvidia預期未來AI基礎設施投資將達到3-4兆美元,並強調年度產品週期策略
Thumbnail
內容重點一覽 鴻海第二季受惠 AI 伺服器需求爆發,淨利年增 27%(達新台幣 444 億元),AI 伺服器營收佔比更超越 iPhone 等消費性電子。 展望下半年,AI 伺服器出貨將 季季成長:第三季營收年增率預估 超過 170%,機櫃出貨季增料達 300%,全年 AI 伺服器營收有望 突破新
Thumbnail
內容重點一覽 鴻海第二季受惠 AI 伺服器需求爆發,淨利年增 27%(達新台幣 444 億元),AI 伺服器營收佔比更超越 iPhone 等消費性電子。 展望下半年,AI 伺服器出貨將 季季成長:第三季營收年增率預估 超過 170%,機櫃出貨季增料達 300%,全年 AI 伺服器營收有望 突破新
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News