NVIDIA 首席執行官黃仁勳(Jensen Huang)對於 AI 及其背後的基礎設施發展發表了許多見解。關於AI 計算成本,黃仁勳強調 NVIDIA 每代產品(硬件和軟件)的改進都在大幅提升每美元的性能,從而降低訓練和推理 AI 模型的成本。正如他所解釋的:“當我們通過每年持續的路線圖提升性能……我們降低了訓練的成本,降低了推理的成本,降低了 AI 的成本,使其能夠更容易獲得”。換言之,NVIDIA 每年的產品升級旨在通過效率提升來降低 AI 計算的總體擁有成本。這是關鍵所在,因為大型 AI 模型的訓練和推理非常耗費算力,企業十分關注其開銷。黃仁勳經常指出,NVIDIA 在芯片和軟件上的進步(如 CUDA 優化)幫助成倍地降低這些成本,從而讓更多行業負擔得起。他認為,每代 GPU 提供的更高性能實際上在長遠上降低了單位計算的價格。
關於訓練與推理: 黃仁勳也強調行業正從注重 AI 模型訓練轉向更多關注推理部署。這是因為訓練一個大型模型雖昂貴但屬於一次性投入,而推理(即模型為用戶提供服務)則是持續不斷的成本。他指出推理工作負載最終會遠遠大於訓練工作負載:“推理市場將會比訓練市場大很多倍”。事實上,過去一年 NVIDIA 明顯感受到推理需求的激增,黃仁勳透露推理現在佔據 NVIDIA 數據中心業務收入的 40%以上(而過去主要收入來自訓練)。這反映出像 ChatGPT 這樣的大模型在大規模上線服務用戶時,需要的推理算力可能總量上超過最初訓練所需算力。黃仁勳還提到,新興的 AI 技術如“推理式 AI”(reasoning AI,模型分步“思考”)將進一步增加推理計算量,這恰好發揮了 NVIDIA 在高性能計算方面的優勢。他預期,未來推理部署將無處不在(從雲端服務到手機邊緣設備),因此 NVIDIA 正投入大量精力提高推理效率。
各行業的市場需求: 黃仁勳認為當前我們正處於各行各業廣泛採用 AI 的浪潮中。他近日表示,“AI 正在改變每一個行業、每一家公司、每一個國家”。在短期內,需求主要由大型雲和互聯網公司引領(這些“核心技術構建者”正競相構建最先進的 AI 模型和服務)。2025 年初,黃仁勳提到每個人”都在“競相”採用 AI,從開發前沿模型的初創公司到面向消費者的 AI 應用企業。這使得科技領域內的 AI 採用速度“快得驚人”。他還強調企業現在也在採“代理型 AI”(Agentic AI)來革新工作流程,工業領域則在投資“實體 AI”,如機器人和自主設備。也就是說,在金融、醫療、製造、通信等幾乎所有領域,都出現了部署 AI 模型以改進預測、自動化流程和提升服務的興趣。黃仁勳常將這些行業的 AI 採用形容為一“波波相連”:首先是大科技公司和數字行業;接著是傳統企業引入 AI 助手和代理;最後是實體產業(汽車、工廠、機器人)**在現實世界中應用 AI。例如,NVIDIA 的汽車行業合作夥伴正將 AI 用於自動駕駛和智能工廠,而雲數據中心則被稱為“AI 工廠”,源源不斷地產出智能成果。值得注意的是,黃仁勳表示未來“每一家公司”都將擁有兩個工廠:一個生產其產品或服務,另一個是 AI 工廠。這是一個長期願景(大概 5 年以上),其核心是AI 將像今天的 IT 一樣無處不在,每家公司都將把 AI 生成的“Token”(模型輸出)視為重要資產。
黃仁勳的樂觀有目共睹:他將當前的 AI 浪潮比作新的計算機工業革命。當然他也意識到挑戰:如功耗限制(他提到數據中心規模正從百兆瓦邁向千兆瓦級,因此每瓦性能至關重要)、模型突破需要持續(若算法進展停滯,需求可能放緩)、以及來自其他公司自研芯片的競爭。不過到目前為止,他堅信對 NVIDIA 完整 AI 平台的需求在可預見的未來幾乎是無止境的,因為幾乎“每家公司”都在爭相部署 AI,沒人願意落後。
在全球對 AI 如此狂熱投入的背景下,一些行業領袖開始警告資本支出可能已超前於實際需求。近期,阿里巴巴集團高層就對 AI 基礎設施中出現的潛在泡沫發出了警示。在 2024 年 3 月的一次投資峰會上,阿里巴巴集團董事會主席蔡崇信提到,目前人工智能數據中心的建設熱潮已有些過度的苗頭。他坦言,“當人們在沒有明確需求的情況下開始建造數據中心時,我開始感到擔憂。”。蔡崇信指出,美國關於 AI 投資的數字之龐大令人驚訝—“人們字面上在談論 5,000 億美元、好幾千億美元。我認為這完全沒有必要。”
。他警告說,全球科技巨頭在 AI 上投入數千億美元,這種燒錢競賽讓他擔心數據中心建設可能正在形成泡沫。
蔡崇信的泡沫警示主要強調兩個問題:一是許多 AI 數據中心項目在動工時並沒有明確的客戶和需求;二是投資規模與當前看到的實際需求脫節,過度基於對未來巨大需求的假設。他說,“美國很多關於投資 AI 的數字讓我震驚……人們的投資走在了當下需求的前面,他們預測未來需求會大得多。”。換言之,他擔心現在各家公司蜂擁建設的算力,短期內可能無處完全用武,存在過剩風險。這與前文黃仁勳的樂觀形成了鮮明對比,但並非毫無依據—當市場過於狂熱時,確實需要冷靜評估需求匹配度。
大廠的 AI 資本開支熱潮: 蔡崇信的觀點放在當前各科技巨頭的投資浪潮中來看,頗具代表性。事實上,近年各大企業公佈的 AI 基建投資計劃可謂天文數字。例如,微軟宣佈計劃在 2025 財年投入大約800 億美元用於建設 AI 數據中心,用於訓練 AI 模型和部署雲端 AI 應用。Meta(Facebook 母公司)也表示將在 2025 年投資高達 650 億美元用於擴展 AI 基礎設施,包括建設一座超 2 吉瓦容量的數據中心(大到相當於曼哈頓一大塊面積)。相比之下,Meta 2024 年的資本開支預計是 380–400 億,這意味著2025年要大幅躍升。亞馬遜也在大舉增加投入—據報道其 2024 年資本支出約 $750 億,2025 年將更高,其中很大部分用於 AWS 雲基礎設施和 AI。谷歌(Alphabet)雖然具體數字略低於微軟和亞馬遜,但也在 2023–2025 年間投入估計750 億美元左右用於 AI 和雲基礎設施。甚至OpenAI也捲入了一項據稱由美國政府推動的宏大計劃(稱為“星際之門”項目),聯手軟銀和甲骨文計劃在全美投資 5,000 億美元建設 AI 基礎設施—這個數字極其誇張,顯示了市場對 AI 基建前景的想象。
這些數百億美元乃至數千億美元的投資計劃引發了一些與歷史相似的擔憂。高盛的最新研究指出,當前科技七巨頭(如蘋果、微軟、谷歌、亞馬遜、Meta 等)股票估值中的溢價有42% 來自於市場對“潛在 AI 應用場景”的預期—巧合的是,這一比例正好與2000年互聯網泡沫高峰時期投資者對未來遠景的定價水平相當。也就是說,如今大型科技公司的市值中,有相當部分是在押注 AI 未來的想象。這種投機熱度讓人擔心是否存在泡沫成分:即資本投入和公司估值高度依賴對未來的樂觀假設,而非當前現金流。
蔡崇信明確批評了美國競爭對手的這種燒錢行為。他形容很多項目在建設時並沒有確定的客戶,許多基金蜂擁而起籌集數十億資金投入 AI。他直言:“我開始看到某種泡沫的萌芽,”並補充說一些規劃中的項目在尚未獲得需求合同的情況下就開始融資建設。這種現象在中國投資人看來顯得有些盲目和冒進。他的話迅速引起市場關注,尤其是在港股科技板塊,相關 AI 基建概念股在這些言論和海外投行下調預期的雙重影響下出現下跌。
需要說明的是,蔡崇信等人的擔憂並非唱衰 AI本身,而是提醒大家注意投入與回報的節奏問題。他的觀點實際上也出於阿里巴巴自身經驗:阿里也在全力投入 AI(例如研發通義千問大模型,並宣佈未來三年投資 3800 億元人民幣),但阿里方面顯然希望這些投入是理性且可產生實際效益的,而不是為了追風口盲目砸錢。蔡崇信在警示泡沫的同時也相信 AI 前景廣闊,只是提醒不要一哄而上過度投資。他表示,儘管出現泡沫跡象,市場投資可能不會因此減少,但希望大家在投資時更審慎,關注需求落地。
與蔡崇信類似的謹慎聲音還有一些。例如今年年初,有消息稱微軟取消了在美國部分大型數據中心的租約(涉及“數百兆瓦”規模的容量),導致市場揣測微軟是否認為其 AI 基建擴張有些超前了。微軟隨後出面澄清,稱 2025 財年超過 $800 億的基礎設施建設計劃仍在推進,不希望外界過度擔憂 AI 產能過剩。不過券商 TD Cowen 分析認為,微軟此舉主要因為“預見到供過於求”—這表明業界開始質疑 AI 資本支出盛宴能否持續。另外,年初中國初創公司 DeepSeek 發佈了低成本的開源大模型,這也讓華爾街一些人士質疑巨額投資的合理性—如果低成本模型就能達到效果,那之前投的大錢是否有必要?批評者還指出,目前 AI 在現實世界中的落地應用依然匱乏,與投入不成比例。
綜上,阿里巴巴方面(蔡崇信)的警示代表了一種冷靜的觀點:在 AI 投資大潮中,可能潛藏著階段性過熱。當前各巨頭競相砸下巨資建設算力,但下游應用和需求是否能在短期跟上還有待觀察。如果供給遠超需求增長,就可能出現泡沫化跡象。這與黃仁勳的“需求永遠旺盛”論調形成對比,但兩者並不矛盾—一個從供給投資角度提醒理性,一個從需求潛力角度表達信心。最終,市場需要權衡這兩方面:既要抓住 AI 巨大發展機遇,又要確保投資節奏與現實回報相匹配,不至於過度超前。
接下來,我們將深入探討上述問題的核心——上游巨額投入是否帶來了下游產品和服務足夠的回報,即 AI 應用的變現現狀和前景。
在 AI 熱潮中,一個關鍵問題在於:巨額的上游算力投資是否轉化為了可觀的下游收益?換言之,終端用戶和企業為 AI 產品和服務付費的情況,能否支撐起前文所述的龐大投入?目前來看,情況有好有壞,對於AI應用的盈利和可持續性,業界存在一些擔憂。
一方面,AI 工具的用戶量增長極為迅速—例如 OpenAI 的 ChatGPT 在推出幾個月內就吸引了上億用戶,無數創業公司推出了各種 AI 驅動的應用(從編程助手到圖像生成,再到聊天夥伴)。龐大的用戶興趣正是推動算力投入的原因。但另一方面,許多 AI 服務的盈利模式尚不清晰,或者說變現遇到了挑戰。大量 AI 應用目前是免費提供或低價提供的,公司更關注搶佔市場和數據,而非立即盈利。這導致收入增長滯後於投入。
以 OpenAI 為例:儘管 ChatGPT 風靡全球,但由於基礎設施和研發成本高企,該公司的運營仍是巨額虧損。據《紐約時報》獲得的內部文件,OpenAI 預計 2024 年收入約 37 億美元,但支出可能高達 50 億美元,虧損數十億美元。其收入主要來自向開發者出售 API 訪問和 ChatGPT Plus 訂閱,但為數億用戶提供推理服務的算力成本極其驚人(據估計 ChatGPT 單日算力成本曾高達數百萬人民幣)。2023 年 8 月,OpenAI 單月收入約 3 億美元,同比暴增17倍,但仍未接近盈虧平衡。文件顯示,OpenAI 需要不斷融資來覆蓋不斷攀升的開支,因為用戶量激增帶來的成本也在同步上漲。這個例子凸顯一個普遍現象:為數百萬用戶運行大型 AI 模型非常燒錢,而如果用戶並未足夠付費,商業模式就很難平衡。(目前 OpenAI 約有 1000 萬用戶訂閱了每月 $20 的 ChatGPT Plus 服務—這相當於月收入 $2 億、年收入 $24 億,對營收貢獻不小,但仍不足以完全彌補成本。而且 OpenAI 計劃逐步漲價至每月 $22,五年內提高到 $44, 正是出於提高盈利能力的考慮。)
類似地,許多面向消費者的 AI 應用也面臨變現困境。AI 聊天機器人和虛擬伴侶類應用吸引了大量關注和投資,但收入有限。舉例來說,AI 聊天夥伴應用 Character.AI 在幾乎沒有任何營收的情況下融資1.5億美元,估值達到10億美元。它通過免費模式獲取了海量用戶,但直到近期才推出訂閱收費。據報道,該公司預計 2024 年營收約為 1,600 萬美元,相對於其估值和用戶規模來說非常微薄;更別提與其背後所消耗的雲計算資源相比。另一款較早的 AI 對話應用 Replika,主要通過應用內購買和訂閱盈利。數據顯示 2024 年1月至8月,Replika 的應用內收入約 900 萬美元,累計全球總營收近 9000 萬美元。雖然 9000 萬美元不算少,但相比該應用龐大的用戶基礎以及AI領域的投入規模,這一收入規模仍顯得很小—可以說很多2C的 AI 產品擁有千萬級用戶,卻只有千萬量級收入,投入產出嚴重不對稱,這也是一些人將其視為“零收入”或收入不足的原因。
在企業級軟件領域,各公司也在紛紛為其產品加入 AI 功能—但其中許多功能對用戶來說目前並非單獨收費(至少在初期)。例如,谷歌在 Gmail、Docs 中添加了生成式 AI 功能,但在試用期間對消費者免費開放,目的是先提升用戶粘性,並未直接帶來新的營收。Meta 的開源大模型 Llama 2 也是免費供大眾和企業使用,通過開放策略來擴大影響力,並不直接向用戶收費。Meta 正在把 AI 融入其核心產品(如 Instagram 的AI濾鏡、WhatsApp的AI助手等),希望借此增加用戶參與度、從而間接提高廣告收入,但這屬於間接變現。換句話說,很多科技公司把 AI 視為提升競爭力和留住用戶的必要投入,而不急於通過用戶付費來回本。
真正明確的變現目前更多出現在企業和生產力軟件領域。微軟是典型代表:它在 Office 365 全家桶中推出了 “Copilot” AI 助手,並針對企業客戶額外收費每用戶每月 $30。這個定價直接將 AI 的價值貨幣化—微軟有信心企業願意為 AI 功能買單,因為這些功能可大幅提高員工效率。如果廣泛被企業採用,這將帶來巨額的訂閱收入(畢竟 Office 365 企業用戶數以億計)。雖然 $30/用戶/月的價格起初引發一些“偏貴”的議論,但微軟認為由此帶來的效率提升是值得的,並且還為控制AI使用成本提供了相應機制。類似地,微軟旗下的 GitHub Copilot(用於代碼補全的 AI 助手)採用了訂閱制(個人每月 $10)。據報道,Copilot 用戶數量已破百萬,那麼年收入也過億美金—對微軟來說這只是皮毛,但卻證明開發者願意為 AI 輔助工具付費。這些案例表明,企業客戶願意為能顯著提升生產力的 AI 功能付費。其他軟件廠商也在跟進,例如 Adobe 將 AI 功能融入 Creative Cloud,一開始免費試用,後續計劃通過訂閱高級版或消耗額度來收費。
在生產力之外,別的變現探索還包括:提供高級版訂閱(例如 OpenAI 的 ChatGPT Plus、Midjourney 圖像生成服務的付費版等),按 API 調用量收費(這是OpenAI、微軟 Azure OpenAI等主要收入來源之一,開發者按調用次數或消耗的 token 付費),以及硬件+軟件結合銷售(如 NVIDIA 針對企業推出 AI Enterprise 軟件套件按 GPU 訂閱收費,本質上是將部分軟件價值從硬件售價中獨立出來,形成持續收入)。
儘管如此,目前許多 AI 應用仍處於“先燒錢獲客、後期再想盈利”的階段。這在新技術浪潮早期並不罕見(想想 2000 年前後的互聯網公司,或 2010 年前後的移動 App,大多也是先燒投資拓用戶)。關鍵在於這些服務能否做到 規模化的盈利。一種路徑是積累海量付費用戶(面向消費者,如未來是否可能有億級用戶願意為AI聊天或AI娛樂付費?現在仍未知);另一種是為企業創造明顯價值以贏得大額合同(面向企業,如幫助企業節省大量成本或增加收入,使其願意投入資金購買 AI 服務)。對於純消費者類AI應用而言,這一前景尚不明朗—比如 AI 虛擬朋友或 AI 內容創作工具,是否能長期讓足夠多用戶心甘情願付費?這還有待市場驗證。目前看,少數願意付費的“發燒友”用戶貢獻了主要收入,但大眾用戶大多停留在免費層面。而在企業方面,我們已經看到一些積極信號:企業採購 AI 服務/軟件、或使用雲廠商的 AI 算力,這直接產生營收。很多雲計算提供商就在通過出售 AI 算力本身盈利—如 AWS、Azure 向客戶出租 GPU 集群、谷歌雲提供 TPU Pod 服務等。最近各大雲廠商的財報電話會上也強調,因 AI 帶動的雲使用增長是其收入增長的重要動力之一。這樣看來,上游算力本身也是商品:NVIDIA 將硬件賣給雲公司;雲公司再將 AI 計算能力按需出售給終端客戶。這實質上已經產生收入流(儘管對於雲廠來說,先期是資本開支,後期隨著客戶用量逐步確認收入)。
可持續性與盈利前景: 短期內,許多 AI 服務可能還會處於虧損或微利狀態,因為公司選擇優先投入和擴張用戶,而非立即收回成本。這符合科技產業典型的“先期投入換市場”模式(早期互聯網、手機應用也類似)。問題在於,這些服務能否在合理時間內實現收入與投入的反轉:即要麼有龐大的用戶基礎開始付費,要麼為企業創造的價值足以轉化為大額付費。對於一些2C AI產品來說,目前盈利模式還在摸索,但對於2B領域,我們已經看到付費意願和預算在逐步落實(正如微軟的例子,以及很多公司現在都有 AI 項目預算)。雲服務商的AI收入也在穩步增長,以提供基礎設施的形式變現。
同時,也有觀點認為目前的AI投入依賴的是對未來收益的賭注,這帶來了風險—如果收益落地慢於預期,或者有些AI應用根本無法產生預期的價值,那這些投入可能面臨回報不足甚至打水漂的情況。這就是為何存在“AI泡沫”一說。如果大量資金提前布下,而盈利模式遲遲不成熟,那麼隨著市場預期變化,投資熱情可能冷卻,進而影響上游投入的可持續性。
然而,從更長遠看,大多數業內人士仍然看好 AI 終將帶來可觀回報。AI 提升效率的潛力巨大,這種價值終究會被各行各業吸收並願意付費。比如,某咨詢機構調查顯示 78%的企業領導者對未來1-3年其AI投資的ROI有信心。一些研究甚至稱,現在企業每投入1美元在AI上,平均可產生3.5美元的回報(當然這些數字可能過於樂觀)。生產力提升是AI價值變現的主要形式之一:例如 AI 幫助程序員提高50%編碼效率,相當於企業可以用更少的人力完成相同工作量,這對企業來說就是實實在在的成本節約,相當於AI在“間接賺錢”。很多企業正在試點這樣的應用(客服機器人減少人力客服成本、AI數據分析師輔助人類決策縮短週期等等)。這些效率收益雖然不會體現在AI公司的營收里,卻能證明AI的經濟價值,並推動企業更多采用AI服務,從而間接促進AI服務提供商的盈利。
在消費者領域,一些 AI 應用開始採用增值服務模型。比如部分 AI 攝影、AI 視頻應用基礎功能免費,高級功能需付費;又如一些遊戲公司探索在遊戲里加入 AI 導演或AI對手,可能通過遊戲內購變現。目前來看,To C的直接收費還比較有限,但To B的付費前景正在變好。
機器人和自動化系統(黃仁勳稱之為“實體 AI”)是另一個長期的變現難點。自動駕駛公司、機器人創業公司吸納了巨額投資,但多數尚未盈利。無人車現在在少數城市開始收費載客,但整體業務仍在燒錢。物流機器人、倉儲機器人等領域也在探索收費模式,但市場仍小。如果未來自動駕駛和機器人能規模落地,回報潛力巨大(想象無人駕駛車隊、無人倉庫帶來的效率提升),但目前它們更多還是研發項目,對短期利潤貢獻有限。
總的來說,目前AI 下游的變現仍處於早期階段。許多公司對 AI 的投入更像是戰略必需和未來押注,而非立即回報。這就造成了上游和下游暫時的不匹配。但這並不意味著投入打水漂—更可能的是,需要經過一段時間培育,盈利才會逐步顯現。如果未來幾年內沒有出現能大規模盈利的“殺手級”AI應用(或顯著節省成本的AI方案),那麼可能會出現一波投資降溫,資本會要求看到更明確的回報再繼續投入,這正是泡沫可能破裂的徵兆。但如果明後年開始,企業普遍因為AI而增收節支、消費者也願意為AI特性買單,那麼這些上游投入就會得到證明,甚至可能進一步加碼投入。
總而言之,目前業界在燒錢和賺錢之間尋求平衡。AI 應用的價值毫無疑問是巨大的,只是商業化兌現需要時間和創新。在未來一兩年,我們將看到企業將AI轉化為實實在在利潤的能力,這將決定現在這波AI投資是順利進入收穫期,還是經歷一次泡沫修正。
支撐這場 AI 浪潮的,不僅有終端應用公司本身的投入,還有遍布全球的計算基礎設施提供商。他們提供 GPU、AI 加速器以及數據中心設備與雲服務,是 AI 算力生態的中堅力量。在需求爆發的背景下,這些提供商迎來了巨大機遇,同時也面臨長期競爭和生存考驗。
超大規模雲服務商(Hyperscalers): 提供 AI 計算能力的主力無疑是那些耳熟能詳的科技巨頭—亞馬遜 AWS、微軟 Azure、谷歌雲 GCP。他們擁有全球規模最大的雲數據中心,可以整合成千上萬顆 AI 芯片,為各種 AI 任務提供算力。這些公司一方面自己大量使用 AI 基礎設施(如訓練內部的模型,運行自家產品的 AI 功能),另一方面也將這些算力以雲服務形式租給客戶。目前它們正處於容量擴張的軍備競賽中(正如前面提到的,資本開支動輒數百億美元)。一個突出現象是:為了降低對 NVIDIA 等供應商的依賴,雲巨頭們在嘗試開發自研 AI 芯片。例如,谷歌早在 2016 年就推出了 TPU(張量處理器),用於自身的 AI 業務。谷歌 TPU 目前已經發展到第五代,大量應用在谷歌搜索、Gmail、Bard 等產品的模型推理中(同時谷歌雲也開放 TPU 給客戶使用)。亞馬遜則開發了 Trainium(用於訓練)和 Inferentia(用於推理)芯片,提供給 AWS 客戶,號稱相對於 GPU 性價比更高。微軟雖然主要與 NVIDIA 合作,但據傳也在秘密研制自有 AI 芯片,同時還與 AMD 深度合作,支持 AMD 推出可與 NVIDIA 競爭的 GPU。中國的雲廠商(如阿里雲、騰訊雲、百度智能雲)也在擴建 AI 數據中心,不過由於美國對華高端 GPU 出口管制,它們開始更多采用國產替代方案或曲線獲取算力。
從長期看,這些超大規模雲公司在 AI 計算領域的地位依然穩固—它們擁有資金、數據中心規模和客戶渠道的巨大優勢。但它們也面臨複雜的競爭合作關係:既是 AI 硬件供應商(如 NVIDIA)的客戶,又在一定程度上成為這些供應商的競爭者(通過自研芯片)。未來5-10年,很可能這些大型雲公司仍將主導 AI 服務的交付,但硬件結構會更多元化。例如,同一個雲數據中心裡,可能既有 NVIDIA GPU 也有自研 ASIC,根據不同任務分配使用。這將減少對單一供應商的依賴,也可能逐步壓低 AI 算力的單位成本。對它們來說,另一個挑戰是保證投入有效利用:如果哪天 AI 需求增速放緩,它們巨額建設的算力資源可能出現過剩,需要調整節奏。不過目前來看,這個問題還不明顯,反而是供不應求。
專門的 GPU 雲服務商(“新雲”): 近年來出現了一批新興公司,專注於提供 GPU 算力雲服務,崛起速度驚人。其中最引人注目的是 CoreWeave。CoreWeave 通過提供按需使用 NVIDIA GPU 算力而快速崛起,針對的客戶是那些需要大量算力但可能無法從 AWS/Azure 等按時拿到足夠 GPU 配額的 AI 公司。2023 年,當許多公司在搶購 NVIDIA H100 時,CoreWeave 大舉採購了 GPU 並提供雲實例,吸引了像 OpenAI 這樣的大客戶。事實上,據報道 CoreWeave 與 OpenAI 簽訂了一份為期五年的供貨協議,總額高達 119 億美元—這一巨額合同既說明瞭 AI 算力需求之旺盛,也印證了這類專營 GPU 雲服務商的崛起。CoreWeave 的收入在 2024 年同比暴增了 737%,目前正籌備 IPO,估值目標據稱高達 320 億美元。對一家幾年前默默無聞的初創公司來說,這是驚人的成長。CoreWeave 將自己定位為“AI 超算(雲)”,或稱“新型雲商(neocloud)”—只聚焦於 GPU 加速的雲基礎設施,而不像 AWS 那樣提供全面IT服務。這類公司的出現彌補了市場空檔:當傳統雲的 GPU 供給緊張時,它們成為AI公司獲取算力的替代方案。
CoreWeave 及類似企業的前景很值得討論。短期內,它們受益於需求爆棚且供應不足的市場環境;許多 AI 團隊願意尋找專門服務商,只要能拿到算力。CoreWeave 也與 NVIDIA 建立了密切關係(NVIDIA 是其投資方之一),這可能幫助它在供應上獲得優先權。然而,從長期看,CoreWeave 將面臨多方挑戰:雲巨頭的反擊、技術更新的壓力等。一旦 AWS、Azure 等緩解了自身GPU供應瓶頸,可能會通過降價或服務綁定把用戶爭取回去。此外,CoreWeave 必須跟上硬件換代的節奏。它目前擁有大量 NVIDIA Hopper 架構 GPU(如A100/H100)。而 NVIDIA 新一代 Blackwell 正在推出,如果性能大幅提升,那麼 CoreWeave 現有的 GPU 資產價值可能迅速貶損,需要盡快升級。不久前有分析指出,AI 技術的飛速進步可能縮短 CoreWeave 所擁有 GPU 的使用壽命。亞馬遜就因為這個原因縮短了服務器的折舊週期—因為新的 AI 芯片出來後,舊設備可用性下降,它們不得不更快更新,進而一次性計提更多折舊。這對 CoreWeave 提了個醒:如果技術每隔1-2年飛躍,它們就必須不斷投入資金採購最新 GPU,否則客戶可能轉向性能更高的新硬件提供者。這需要極強的資本運作和預測能力。CoreWeave 準備 IPO,就是為了募集更多資金維持這種高強度滾動投資,但上市後也將面臨盈利壓力和季度業績考核的挑戰。
CoreWeave 並非唯一的專用算力雲提供商,儘管目前它最大最引人注目。其他還有例如 Lambda Labs(提供面向研究者的 GPU 雲),以及一些傳統托管商也開始提供 GPU 即服務。此外,一些電信運營商也在建設 AI 算力平台作為服務出售。例如中國電信、中國移動等宣佈建設“算力網絡”,將富余算力作為社會化服務輸出。這些專門算力提供商能否長期生存,取決於他們能否保持差異化優勢(如更靈活的租用模式、更低的價格或更好的客戶支持)。如果未來算力供應不再稀缺,大型雲廠商價格下調,小玩家可能被擠壓。不過,如果 AI 需求持續多年高速增長,即便巨頭擴容,也許市場仍有足夠空間讓這些新雲商存續——類似早年互聯網時代,除了AT&T等主幹運營商,也有許多獨立CDN和主機托管商找到各自市場,直到雲高度集成才逐步被收編。也不排除大型玩家未來直接收購這些新銳,以鞏固市場。
硬件供應商(芯片和整機): AI 基礎設施的核心在於芯片—GPU 及各類加速器,以及組裝這些芯片的系統廠商。當前NVIDIA 無疑是領頭羊,在 AI 訓練加速器市場佔據了超過 90%的份額。可以說,NVIDIA 已成為 AI 時代的“Intel”,其產品幾乎是行業標準。不過AMD正奮起直追,力圖挑戰 NVIDIA。在 GPU 領域,AMD 最新的 MI300 系列加速器已經推出,並獲得了如微軟等大客戶的青睞(據傳微軟會在部分內部部署 AMD MI300,用於OpenAI等項目)。AMD 正利用其收購 Xilinx(可編程芯片)的技術,以及自身 CPU/GPU 經驗,提供融合 CPU+GPU 的解決方案。雖然目前 AMD 在 AI 加速市場份額很小,但超大廠客戶有動力進行多元化採購,以避免過度依賴單一供應商。正如黃仁勳自己也承認的,各大雲廠都在開發自有加速器並引入 AMD 等其他選擇。未來幾年,AMD 有望在推理市場或某些特定場景上取得一些突破(尤其如果其性價比顯著優於 NVIDIA)。不過 NVIDIA 擁有龐大的生態系統(CUDA 軟件、開發者社區),這對 AMD 等競爭者來說是很高的進入壁壘。
除了 AMD,還有眾多初創公司投入 AI 芯片研發。據統計,全球有超過60家初創企業在開發 AI 加速器—包括知名的 Graphcore(英國)、Cerebras(美國硅谷,晶圓級芯片)、SambaNova、Groq,以及中國的寒武紀、燧原、壁仞、登臨等。這些公司的策略往往是尋找差異化優勢:比如降低功耗、專注於特定推理任務或創新架構。一些創業者的宣言頗具代表性:“NVIDIA 就像拿著鐵錘,並且打造更大的鐵錘……而我們可以做更輕量的專用工具”。例如,Untether AI 專注於存內計算提高能效,Mythic 嘗試模擬計算架構,Tenstorrent(由CPU名將Jim Keller參與創辦)設計靈活可擴展架構。這些新銳瞄准的往往是在效率和成本上擊敗 NVIDIA。然而,長期來看,大部分創業芯片公司的日子相當艱難。NVIDIA 提升性能和優化生態的速度非常快,它又享有巨大的規模優勢(量產規模攤低單位成本)和完善的軟件支持(CUDA、cuDNN等工具讓開發者用起來得心應手)。一款新芯片即便硬件性能不錯,但如果軟件生態不成熟或遷移成本高,很多客戶也不敢採用。目前已經有些負面案例:Graphcore 由於產品性能和實用性未達預期,遭遇訂單下滑和裁員;Cerebras 儘管技術上獨特(整片晶圓做成一顆芯片),但只在少數科研場景有用武之地,正在通過開源模型等方式尋求吸引客戶;國內一些初創的 AI 芯片公司在缺乏最先進制程支持的情況下,短期也難以與 NVIDIA 高端芯片抗衡。
不過,這些挑戰者並非全無機會。一些公司轉向特定細分市場可能取得成功。比如,有公司專注邊緣 AI 芯片,目標是將 AI 部署到功耗受限的設備上(這方面 NVIDIA 也有 Jetson 邊緣平台,但市場更分散,機會更多)。還有些專注於行業定制(如針對安防攝像頭的AI芯片、或者針對智能手機的AI加速器等)。此外,中國的 AI 芯片生態值得關注:由於美國限制,國內科技巨頭無法獲得頂級 NVIDIA A100/H100 GPU,不得不扶持本土方案。比如 華為昇騰、阿里含光、燧原、壁仞等芯片已在一些國內數據中心部署,用以替代無法獲取的 NIVIDA GPU。這些國產芯片與 NVIDIA 領先產品相比可能還有一兩代差距,但在中國市場有政策和市場需求的強力驅動。如果它們不斷迭代,在中國範圍內佔據主導,對 NVIDIA 等也形成一定競爭壓力(起碼在中國市場,NVIDIA 被限制後份額已經受損)。長遠看,全球可能形成雙生態:西方主流仍以 NVIDIA/AMD 體系為主,中文體系里國產AI芯片+開源框架形成另一個圈子。這對各硬件供應商而言既是挑戰也是新的競爭格局。
數據中心其他硬件與集成商: 除了芯片本身,AI 數據中心還需要高速網絡、存儲和特殊散熱電源方案,這些領域也有各自的供應商。網絡方面,對 AI 訓練集群來說,GPU 之間的通信帶寬非常關鍵。NVIDIA 通過收購 Mellanox 已經掌握了高性能網絡(InfiniBand,以及現在推出面向AI的 Spectrum-X以太網方案)。Broadcom、思科等公司也提供數據中心交換機,但 NVIDIA 正將網絡與GPU高度協同優化。存儲方面,大模型訓練涉及海量數據集,高速並行存儲廠商(如 Pure Storage、華為存儲等)在 AI 集群中扮演重要角色。傳統服務器廠商(如戴爾、惠普、浪潮、超微)則大量銷售 AI 服務器—實際上主要是將 NVIDIA 提供的 HGX GPU 板卡裝進自家機箱。這對他們短期是利好(AI 熱潮帶動服務器銷售),但他們的附加值有限,因為客戶看重的是 NVIDIA 的算力,整機廠更多扮演分銷和服務角色。所以,很多服務器廠商正在嘗試增加軟件服務配套,如提供預裝好的 AI 開發環境、管理套件等,以提高自身價值、吸引那些缺乏專業能力的企業客戶。如果未來 NVIDIA 自己提供越來越多完整系統(它有 DGX 專用機,還有今年推出 MGX 模塊化架構,方便自己或OEM快速造各種服務器),OEM 的差異化空間會被壓縮。換句話說,AI 時代傳統硬件商有點像進入了“代工模式”,利潤率恐怕不如賣通用服務器那麼高。
另一個趨勢是“AI 超算即服務”的興起—不僅像 CoreWeave 這樣的新雲在做,一些廠商合作也在推動。NVIDIA 與多家雲商合作推出 DGX Cloud,本質上是租用 NVIDIA 的AI超級計算集群。甲骨文(Oracle)雲在這方面和 NVIDIA 走得很近,讓 NVIDIA 在自己的數據中心架設集群按月租給客戶。這樣,NVIDIA 也部分角色化為服務提供商,如前節所述,這其實模糊了硬件供應商和雲提供商的界線**。如果 NVIDIA 未來直接為客戶運營越來越多算力服務,那對於純硬件買賣的玩家來說也是競爭壓力。
長期競爭格局展望: 在 AI 保持當前熱度並持續發展的情形下,我們可能會看到市場向少數強者集中,同時在某些領域也存在多元化的空間。NVIDIA 很可能會繼續處於中心地位,引領高端芯片的發展;大型雲廠商會繼續掌握算力分發的主要渠道,但他們內部會培養多樣化的硬件組合(自研+ NVIDIA + AMD)。類似 CoreWeave 這樣的專精玩家,如果順利上市並保持客戶關係,可能會在生態中佔據一席,特別是如果 AI 需求長期高漲,市場上容得下多個提供商。也存在被並購的可能—比如一家雲巨頭或大投資機構看中了 CoreWeave,就可能將其收編。
而眾多芯片初創公司中,預期只有少數能存活或被收購。那些手握核心技術且找到市場契合點的也許能堅持下來(比如專注低功耗邊緣AI的廠商在物聯網AI興起時可能走出一條路)。其餘的,不少會像過去PC、手機芯片創業潮一樣,要麼夭折要麼轉做細分、小規模市場。還有一種可能性是出現新的計算範式,對現有格局造成衝擊。例如,量子計算如果在 AI 領域取得突破,可極大提速某些AI算法,那麼現有 GPU/加速器可能被部分替代。黃仁勳認為量子有用武之地還很遠,但一些公司(如初創PsiQuantum,或谷歌在嘗試量子機器學習)在努力縮短這個距離。又比如光學計算、模擬計算等,如果哪種技術能實現在效率上數量級優於數字電路GPU,也會改變遊戲規則。當然,目前這些都在實驗階段,對 10年內格局的實質影響還不確定。
總的來說,AI 計算基礎設施領域既充滿機遇也充滿變數。現階段,NVIDIA + 超大雲構成了骨幹,但周邊有眾多“配套者”和“挑戰者”形成一個生態。大家都想從 AI 這場“淘金熱”中分得一杯羹。最終,誰能笑到最後,取決於幾方面:AI 需求的持續性、技術演進的方向、以及各自商業策略的成敗。如果 AI 需求某天飽和或下降,那只有最有競爭力、財務狀況最穩健的供應商才能挺住並整合他人;但如果 AI 真如預期般繼續滲透萬物,那麼市場空間足夠大,多種模式的提供商可能共存,一起分享這個巨大的蛋糕。目前看來,至少未來 3-5 年,需求高漲的大趨勢不會變,因此基礎設施提供商們仍將大乾快上,競爭與合作交織,推動整個行業向前。
在這場 AI 浪潮中,一個引人注目的變化是:NVIDIA 自身的角色定位正悄然發生轉變。過去 NVIDIA 給人的印象是一家 GPU 硬件製造商,而如今它越來越呈現出全棧平台提供商甚至軟件/服務提供商的特質。透過近期的財報和產品發佈,我們可以清晰地看到這種戰略轉型。
黃仁勳本人經常強調,NVIDIA 不只是賣芯片的,而是一家提供“全棧、全基礎設施”的計算公司。對於 AI 來說,NVIDIA 提供了從芯片(GPU、DPU、CPU)到系統、再到軟件庫甚至預訓練模型和雲服務的一整套方案。這種平台思路意在創造一種獨特價值鏈,並建立強大的生態鎖定效應,使客戶離不開 NVIDIA。舉例來說,NVIDIA 的 CUDA 以及各種 AI 庫(如深度學習的 cuDNN、推理優化的 TensorRT 等)都是關鍵軟件組件,全球無數開發者依賴它們—而這些軟件只能在 NVIDIA 的硬件上運行,實際效果就是將開發生態牢牢綁定在 NVIDIA 平台上。2025 年 GTC 上黃仁勳提到,CUDA 加速計算生態如今“無處不在”,加速計算的普及已達到拐點。這表明 NVIDIA 在軟件生態上已有巨大覆蓋,一旦開發者習慣了 NVIDIA 的平台,競爭對手就很難撬動這些用戶。
NVIDIA 戰略轉型的一個顯著標誌是出現了持續性的軟性收入來源,而不僅僅是賣硬件的一次性收入。NVIDIA 開始為以前免費提供的軟件組件收費,並推出訂閱服務。例如,NVIDIA 針對企業的 AI Enterprise 軟件套件(包含各種 AI 工具、框架的企業版及支持服務)現在按GPU授權收費,通常每 GPU 每年收費幾千美元,包括支持和更新。這已經帶來了逐漸增長的軟件/訂閱收入。分析人士指出,NVIDIA 的軟件和 SaaS 業務年營收規模在 2024 年底已接近20 億美元。雖然相對於 NVIDIA 總收入(2024 財年約 $609 億)佔比仍不高,但這是一個重要信號,說明 NVIDIA 開始獲得有意義的經常性收入,而非僅僅依賴賣設備。這些收入包括了 AI Enterprise 訂閱,也包括一些例如向汽車廠商授權 DRIVE 自動駕駛軟件、向企業銷售 Omniverse 仿真平台訂閱等。舉個例子,在汽車領域,NVIDIA 與多家車企的合作模式已轉變為硬件+軟件服務:車企購買 NVIDIA 的車載計算芯片(如 Orin),同時每輛車為搭載的 NVIDIA DRIVE 操作系統、地圖和輔助駕駛算法付訂閱費用。這樣隨著搭載 NVIDIA 平台的汽車上路,NVIDIA 將持續獲得軟件收入(這部分目前規模不大,但幾年後有望隨合作項目落地而增加)。
另一個跡象是 NVIDIA 正進軍雲服務領域。NVIDIA 開始直接通過雲提供自己的 AI 計算,讓客戶按需租用—這實際上讓 NVIDIA 某種程度上成為了“雲服務商”。例如前述 DGX Cloud,就是 NVIDIA 與 Oracle、微軟等合作,在雲上提供完整的 NVIDIA AI 超算集群租賃服務(按月收費)。NVIDIA 最近披露其手握113 億美元的多年度雲服務合同。這意味著有不少客戶簽訂了未來幾年使用 NVIDIA 雲 AI 服務的長期協議,把 NVIDIA 當作服務提供方來對待。這被分析師形容為NVIDIA 成為了亦客亦商的混合體—既是大型雲公司(如Oracle)的客戶,又以服務形式向終端客戶提供算力。本質上,NVIDIA 正在涉足其客戶(雲廠商)的領域,不過它採取了合作的方式,而非完全自己建數據中心去和 AWS 等競爭。長期來說,如果這種模式成功,NVIDIA 可能會進一步擴展服務內容,甚至可能自己投資運營更多數據中心資源。但即便現在,通過與 Oracle、Azure 的合作,NVIDIA 已經開始直接從終端客戶處獲得服務收入,而不只是賣硬件給雲公司再由後者服務客戶。這對 NVIDIA 的商業模式是重大改變。
NVIDIA 的財務表現也反映了這種轉型:公司收入仍主要來自硬件銷售(數據中心 GPU 等),但毛利率一直維持在高位(近期在 70% 左右),部分原因就在於其軟件價值的附加使其產品溢價很高。當客戶購買 NVIDIA GPU 時,他們同時獲得了 NVIDIA 豐富的軟件生態(競爭對手沒有這麼完善的軟件支持),因此 NVIDIA 能以高於硬件本身成本很多的價格出售產品而客戶覺得物有所值。這使得 NVIDIA 的業務並不只是硬件的低毛利,而是帶有軟件屬性的高毛利。未來如果軟件或服務收入佔比提高,NVIDIA 的業務穩定性會增強(不像純硬件週期性那麼強),估值也有望更接近軟件公司。
黃仁勳在 2024 財年 Q3 財報的總結髮言中,用非常廣闊的表述描述 NVIDIA 的定位:“AI 時代已經來臨且規模巨大而多元。憑借 NVIDIA 的專業能力、規模和提供全棧全基礎設施的能力,我們可以服務面前數萬億美元規模的 AI 和機器人機遇。從每一家超大規模雲,到企業私有雲,再到主權區域 AI 雲,從本地部署到工業邊緣。”。這段話顯示 NVIDIA 希望參與所有形式的 AI 部署,並通過完整方案來立足。這不是一家普通硬件公司會說的話,更像一家平台解決方案提供商。黃仁勳還提到雖然他們提供全棧一體的方案,但會根據客戶需要“解耦”組件並在全球客戶數據中心集成,這是他們擅長的工程服務。這實際上描述了 NVIDIA 如何與每個大客戶深度合作,把NVIDIA的技術嵌入對方的數據中心架構中。這有點類似於 IBM、思科那種解決方案供應商的做法,而不是傳統芯片廠商賣芯片出廠就完事。顯然,NVIDIA 希望以長期合作夥伴**而非一次性供應商的身份存在於客戶關係中。
NVIDIA 轉型為更全面的平台公司的另一個例子是 Omniverse 平台。Omniverse 是 NVIDIA 推出的3D仿真和協作平台,可用於構建數字孿生、模擬機器人環境等。本質上 Omniverse 是一款軟件平台(雖然需要 GPU 支持才能運行最佳效果),NVIDIA 通過企業訂閱等方式提供。這是 NVIDIA 進入軟件應用層的舉措,超出了傳統的“賣硬件+驅動”範疇。此外,還有 NeMo、BioNeMo 等模型即服務的平台,讓企業可以通過 API 使用 NVIDIA 提供的大型語言模型或生物分子模型。這些都是NVIDIA親自運營的雲軟件服務(托管在 NVIDIA 自有或合作的雲基礎設施上),進一步顯示出服務化傾向。
回顧 NVIDIA 的收入構成歷史:以前主要分為遊戲(GeForce 顯卡)、數據中心(GPU 加速卡)、專業可視化(工作站卡)、汽車電子、OEM 等。如今數據中心業務已佔絕對主導(例如2024財年Q1數據中心收入 $150 億,佔總營收超過70%),且增長最快。在數據中心業務內部,目前絕大部分仍是硬件銷售,但如前所述,已經開始包含一定的軟件訂閱和服務收入(比如企業購買了 NVIDIA 硬件同時打包 AI Enterprise 許可,後者可能遞延在未來幾年確認收入;或者 DGX Cloud 服務訂閱按月確認收入)。汽車業務目前體量小(季度營收 ~$3 億),但 NVIDIA 強調隨著與車企的合作深入,其中的軟件服務收入佔比會提高(例如每台車每年向 NVIDIA 支付地圖和自動駕駛升級費),未來幾年有潛力增長。因此未來我們或許會看到 NVIDIA 將軟件/服務作為單獨的財務類別公佈,如果其規模進一步擴大的話。
投資者對 NVIDIA 這種轉型非常關注,因為如果 NVIDIA 能成功轉變為兼具經常性收入的平台型公司,那麼市場會給予更高的估值溢價(畢竟軟件公司通常估值倍數高於硬件公司)。目前已有跡象表明市場認可了部分轉型:例如有人指出 NVIDIA 的 SaaS 和軟件收入已達數十億規模,AI “推理即服務”成為一個穩定的新業務。另外,NVIDIA 通過提供完整“AI 工廠”方案(包括網絡、存儲、管理軟件)等,鎖定客戶長期使用 NVIDIA 的架構,也增加了客戶黏性和未來收入可見性。
需要指出的是,NVIDIA 的競爭對手們也在嘗試複製這種軟硬結合的策略。比如 AMD 正大力發展 ROCm(對標 CUDA 的開放 GPU 計算生態),並與開源社區合作優化 PyTorch、TensorFlow 等框架對 AMD GPU 的支持。但 AMD 等在軟件生態方面落後 NVIDIA 很多年,要追趕不容易。NVIDIA 的領先優勢很大程度上源自其軟件生態先行,這也是它在轉型平台時的底氣所在。近期 NVIDIA 甚至宣佈開源部分軟件組件(如 cuOpt 優化庫)並推出新軟件(如 NVIDIA Dynamo,用於加速“推理式”大模型的開源軟件,被稱為 AI 工廠的操作系統),目的都是吸引開發者並牢牢控制 AI 基礎設施的軟件層。可以預見,未來 NVIDIA 將繼續免費或收費地提供各種軟件工具,只要能把開發者留在自己生態里,用硬件賺錢、也用軟件賺錢。
綜上所述,NVIDIA 正在經歷重要的戰略演進:從以銷售硬件為中心,轉向提供完備的 AI 計算平台和服務。這並不意味著 NVIDIA 會放棄硬件業務,恰恰相反,是在硬件基礎上向上下游拓展價值鏈。當前公司爆炸式的收入增長仍主要來自硬件(數據中心 GPU 熱銷),但背後支撐這種增長的是其全棧方案的獨特價值。通過軟件和服務,NVIDIA 能夠進一步夯實與客戶的關係,獲得持續收入,而不僅僅是一錘子買賣。近期的業績和動向已經證明瞭這一點:季度營收屢創新高固然因為賣出了更多 GPU,但同時超高的利潤率和延遲收入也說明軟件服務正在發力。如果這一趨勢持續,NVIDIA 的商業模式將更具韌性,不會像過去 PC 行業那樣高度依賴硬件升級週期,而是擁有訂閱式、合同式的收入源。
換一種說法,NVIDIA 正在做一種少數公司才能做到的轉型——從硬件供應商轉變為“雲時代的平台服務商”。這有點類似於蘋果將硬件和軟件融為一體創造生態(但 NVIDIA 針對的是企業和雲領域)。黃仁勳的願景很清楚:NVIDIA 要成為全球“AI 工廠”的操作系統和提供者。鑒於 NVIDIA 迄今為止的執行力(無論技術還是市場),這場轉型極有希望成功。一旦實現,NVIDIA 在未來 AI 經濟中的地位將不僅是“賣鏟子給淘金者”,更是參與分享金礦收益的一方——既賣工具,又參與運營,從而在 AI 價值鏈中佔據更加穩固和多元的位置。