NVIDIA與CoreWeave相繼公布財報:前者是技術制高點的掌控者,後者是目前成長最快的AI雲端基礎設施商,也是NVIDIA在雲端生態中最重要的合作夥伴。NVIDIA宣布對CoreWeave投資20億美元,並計劃將CoreWeave的自研雲端軟體堆疊納入面向雲端、企業與主權客戶的官方參考架構。將兩份財報並排閱讀,能看到同一股力量的兩個側面:一邊是季度自由現金流近350億美元的設備端,另一邊是以668億美元合約訂單為後盾、計劃舉債擴張的基礎設施端。
NVIDIA:數字創紀錄,但更重要的是結構

Q4 FY26總營收681億美元,年增73%,全年2159億美元,年增65%。毛利率75%,單季自由現金流349億美元。這些數字的量級本身已不是焦點,更值得關注的是成長結構的變化。
資料中心全年收益1937億美元,年增68%,自ChatGPT出現以來擴張了近13倍。其中,網路(Networking)業務季度收益110億美元,年增263%,全年突破313億美元,較NVIDIA收購Mellanox時成長逾10倍,使其正式成為全球最大網路設備供應商。
Blackwell Ultra相較於前一代Hopper,推理每瓦效能提升50倍,每token成本降低35倍,連六年前的Ampere架構產品在雲端也供不應求。這個現象說明需求並不是被新一代硬體的行銷炒作推動的,而是工作負載確實在成長。Q1 FY27指引為780億美元,季增約14.5%,管理層預期全年維持序列成長,能見度已延伸至2027年。
CoreWeave:先燒錢的那一方
CoreWeave 2025年全年營收51億美元,年增168%;Q4單季16億美元,年增110%。但財務的核心不在這裡,而在三個數字的組合:668億美元的合約積壓、2026年300至350億美元的資本支出計劃,以及全年僅9億至11億美元的調整後營業利潤指引。

這個組合的邏輯是:先建設、後收益。已簽署的合約積壓提供了長達五年的現金流能見度,而當前的虧損和高槓桿是對未來收益的預付。成熟合約的EBITDA利潤率約在70%區間,貢獻利潤率在中高20%,這說明底層商業模式本身是健康的,壓制利潤的是持續擴張的折舊與利息費用。Q4單季利息支出已達3.88億美元,而2026年Q1指引的利息支出預計進一步攀升至5.1億至5.9億美元之間。
客戶分散化是本季度的實質進展。Q4新增Reserved Instance客戶數量是歷史單季最高的兩倍,新客戶涵蓋Cognition、Cursor、Midjourney、Runway等AI原生與企業用戶。平台黏性也在提升:年消費逾100萬美元的客戶中,80%已採用CoreWeave的儲存產品。業務正從「賣GPU時間」向「賣完整AI雲端堆疊」演進,而CoreWeave的軟體授權潛力(SUNK平台)尚未反映在2026年指引中,管理層將其定性為「可觀的長期上行空間」。
AI算力的供需結構
理解這波AI投資週期,供需結構是最核心
需求端:不是單一爆發,是多層次的持續滲透。 過去兩年,資本支出的主力是Google、Microsoft、Meta、Amazon等超大規模雲業者的訓練基礎設施。
現在,推理工作負載正在成為主角:CoreWeave指出,舊世代H100和A100的需求主體就是推理,且A100定價在2025年全年呈上漲趨勢。訓練是週期性的,推理是持續性的,這個結構轉變意味著算力需求從脈衝式變成基載式。
與此同時,需求正在向企業和主權層次下滲:NVIDIA主權AI業務年增逾三倍突破300億美元,CoreWeave的新增企業客戶創歷史紀錄。Agentic AI是最新的需求催化劑:Agent在執行任務時會持續產生token,而且是多個並行子agent同時運作,token消耗量呈指數型成長。黃仁勳的直接數據是:Anthropic收入一年成長10倍,仍嚴重受算力供給限制。
供給端:短期緊張,中期可見,長期有變數。 目前,最先進的AI基礎設施仍處於供不應求狀態,CoreWeave幾乎已將2026年的全部新增容量預售完畢,且正積極簽署2027年的預訂合約。
NVIDIA表示已取得足以應對未來數季需求的庫存與產能承諾,Vera Rubin下半年量產後將進一步提升供給量能。然而長期供給端的最大變數是電力,每個資料中心都受電力限制,CoreWeave計劃2030年前部署超過5 GW的額外容量,但土地、電力許可與電網接入的取得速度才是真正的速率限制因子。遊戲GPU端的GDDR記憶體供應緊張也是一個側面訊號,說明整個半導體供應鏈仍然繃緊。
定價:穩定是比上漲更重要的訊號。
H100全年定價波動不超過10%,A100定價反而上漲。在新世代硬體持續推出的前提下,舊世代算力定價仍然堅挺,說明需求的廣度已超過純粹的新技術追逐,而是形成了跨世代的全面性短缺。這是需求真實性最有力的市場驗證。
Agentic AI與下一代基礎設施
黃仁勳在法說會中提出,Agentic AI的拐點在過去兩到三個月內正式到來,而NVIDIA內部感知到這一趨勢大約已有六個月。這個時序差本身是個重要訊息:AI產業的實際演進速度比外部觀察者所認知的快。
Agentic系統帶來的不只是token消耗量的成長,更是對AI基礎設施性質的根本性改變。訓練是批次計算,而Agent推理是延遲敏感的持續性工作負載,要求在記憶體中同時維持大量中間狀態、工具調用結果與對話歷史。
這正是Vera Rubin設計邏輯的核心:Vera CPU是市場上唯一支援LPDDR5的資料中心CPU,其記憶體頻寬針對資料密集型AI工作流程優化;Rubin GPU加上NVLink 6使得多GPU的HBM記憶體頻寬可以被聚合使用,從根本上解決大型上下文視窗的推理記憶體瓶頸。Vera Rubin訓練混合專家模型所需的GPU數量僅為Blackwell的四分之一,推理token成本降低10倍。
NVIDIA同期取得Groq的低延遲推理技術授權,黃仁勳暗示將以整合Mellanox的模式將其嵌入整體架構,針對解碼階段的速度瓶頸加入專用加速能力。這是NVIDIA應對自研推理晶片挑戰的技術路線之一,而非另起爐灶。















