NVIDIA 執行長黃仁勳2025年6月11日在巴黎宣布推出 DGX Cloud L400 這項新服務,無疑在 AI 算力市場投下了一顆震撼彈。這個服務被巧妙地比喻為 AI 算力的 Uber
,這個比喻精準地捕捉到了它顛覆性的本質。過去我們可能認為 AI 算力租賃市場終將走向殺價競爭的紅海,但 DGX Cloud L400 的出現,卻可能讓 NVIDIA 以一種全新的姿態,重新定義了遊戲規則。

什麼是 DGX Cloud L400?它如何運作?
首先,我們來釐清 DGX Cloud L400 到底是什麼。簡單來說,它就像是一個 AI 算力的中央調度平台。NVIDIA 作為總包商,整合了全球數百家 NPU 雲服務商,甚至包括 AWS、Azure 等大型雲服務提供商 (CSP)。這意味著,使用者只需要登入他們的 NVIDIA 帳號,就能使用模型相關服務,而 NVIDIA 會自動協助媒合最適合的算力資源。
白話科技|NPU是什麼?跟CPU、GPU差別是?圖解AI PC最重要關鍵字-數位時代這與 NVIDIA 過去透過 DGX Cloud 提供的服務有所不同。原來的 DGX Cloud 雖然也提供算力服務,但它更多是針對特定應用或小眾客戶,而 L400 則更進一步,它希望將 AI 算力的使用門檻降到最低,讓除了超大型企業之外,廣大的中小企業也能輕鬆使用;可以想像,它會自動尋找哪裡的算力最便宜,例如某個 NPU 雲服務商提供的即期價格 (Spot Price) 最低,然後大家可以隨時將任務調整部署到那裡。
這種模式最有趣的地方在於,NVIDIA 在其中扮演的角色。它不再僅僅是晶片供應商,而是搖身一變成為了類似 「叫車平台」,也就是算力 Uber。特別需要注意的是,NVIDIA將不僅可以向用戶收取平台費用,還能決定使用哪家雲服務商的算力,誰的價格更優,甚至誰與 NVIDIA 簽訂了更多合約、購買更多 NVIDIA 產品,都可能影響在推薦清單中的排序。這種掌控力,讓市場開始嗅到一絲「壟斷」的味道。
SemiAnalysis 曾說這是 AI 算力界的 Uber,個人覺得這個比喻非常貼切。因為 L400 的核心目標,就是整合大量的 NPU 雲服務商(NPU Cloud),每個都像是一台算力隨叫隨到服務的Uber。目前市場上已經有幾十甚至上百家 NPU 雲服務商,其中比較知名的當然包括 NVIDIA 的「親兒子」CoreWeave,還有像是 Lambda 等等,這些都是大家耳熟能詳的。當然,也有一些小型業者,雖然知名度不高,但在台灣也有一些公司投入部署 GPU,參與 AI 算力的提供。這些業者都可以歸類在 NPU 雲服務商這個範疇。
「AI 工廠」的成形與算力市場的「去差異化」
黃仁勳一直強調「Token Factory」,也就是 AI 工廠 的概念。他認為,未來所有的 AI 運算都將走向工廠化,負責產出 AI 的「Token」;隨著 L400 的加入,這個概念得到了更具體的實踐。
對於那些 NPU 雲服務商或提供 GPU 算力的 CSP 來說,這無疑是一記重擊。過去他們或許還能透過強調自身的獨特數據處理能力或服務來建立差異化,但加入了 DGX Cloud L400 平台之後,他們就像 Uber 平台上的計程車司機一樣,雖然可以強調自己的服務特色(例如車內提供水、充電),但對 NVIDIA 來說,這些雲服務商變成只是眾多「工廠」中的一個,NVIDIA 卻掌握了所有的數據、決定了價格,並從中獲利。看來這將加速算力市場的 「商品化」 與 「去差異化」。
原先那些小型 NPU 雲服務商,甚至一些大型業者,都可能因此被推向殺價競爭的深淵。我們已經看到 H100 的租賃費用持續下降,新的 GPU 問世時,舊的 GPU 就會面臨折舊減損。現在有了統一平台,這種價格下探的趨勢只會更加明顯。照這個趨勢看來,除非 AI 需求出現超乎想像的爆發性增長,否則算力租賃服務最終都將進入殺價競爭的環境。
現在就是個微妙的時候,很多分析師認為AI軟體服務,2025至2028年是AI爆炸期,算力需求將有爆炸性提升,但截至本篇文章發文為止,對於一般使用者來說除了LLM以外(ChatGPT等),真正殺手級的應用似乎還只在醞釀中的階段。
NVIDIA 的新商業模式:從硬體銷售到軟硬整合與服務抽成
DGX Cloud L400 的推出,揭示了 NVIDIA 商業模式的重大轉變。過去,市場主要將 NVIDIA 視為一家硬體供應商,其估值也常受景氣循環影響,因此現在其本益比 (PE Ratio) 相較於許多股價已經「飛天遁地」的 AI 概念股來說,仍算相對便宜;但現在,NVIDIA 的算盤打得更加精明。
NVDIA不僅打算賺取硬體銷售的錢,還透過回租賺取 軟硬整合和租賃的費用,再加上 軟體函式庫的訂閱費用和相關服務費用,透過NVDIA已經建立且目前獨霸市場的軟硬體整合生態系,將這一切都整合在一個平台上,形成了一個滴水不漏的商業閉環;這種模式的轉變,讓 NVIDIA 的收入曲線可能產生新的成長動能。如果短期內沒有其他競爭者能找到突破口(例如 AMD 崛起或有新的 ASIC 生態系出現),NVIDIA 將能賺取大量這種軟硬整合與服務的費用,這對於其估值來說,或許是一個巨大的利多。
過去,NVIDIA 賣晶片給 Google,Google 再售後回租給 NVIDIA,讓 NVIDIA 提供 DGX Cloud 服務,當時就有人覺得奇怪,這不是在搶 Google 的生意嗎?但黃仁勳巧妙地解釋說,他們做的是「不同層次」的生意,DGX Cloud 的價格比 Google 自己的雲服務貴很多,NVIDIA 透過結合自己的軟硬體生態系,做的是更高端的服務,目標是共同把市場做大;如今 L400 的策略則更為激進,它將這種「搶生意」的範圍擴大,直接「下場」與廣大雲服務供應商競爭。 只不過在 GPU 仍供不應求的情況下,客戶別無選擇,為了拿到貨源,只好選擇配合。
值得注意的是,NVIDIA 的合作夥伴名單裡也包含了 ODM (Original Design Manufacturer) 和 OEM (Original Equipment Manufacturer) 業者。這或許暗示著 NVIDIA 希望這些白牌業者也能直接參與到算力供應中;他們可能負責土地規劃、廠房建設和伺服器設定等「NVIDIA 不擅長」的事情,而 NVIDIA 則先賣給他們 GPU,再透過平台協助他們銷售建好的算力並從中抽成。這種模式進一步讓 NVIDIA 輕資產化,並將更多「工廠化」的環節交由合作夥伴完成,其商業算盤可謂非常漂亮。
消費者的福音與算力「自營業者」的夢魘
對於廣大 AI 應用開發者和中小企業來說,DGX Cloud L400 無疑是個 福音。它提供了一站式解決方案,你只需要在 NVIDIA 平台設定好需求,它就能提供軟體服務和資源,並調配算力;這讓 AI 算力的取得變得像使用 Uber 或 Lyft 一樣方便,而且還能以相對便宜的價格獲得服務,省去了挑選雲服務商的麻煩,也避免了被「敲竹槓」的風險。
然而,對於那些 NPU 雲服務商,或者說「算力自營業者」而言,這可能是一場 噩夢。就像前文所說,這個產業長期以來就面臨殺價競爭的壓力,現在 NVIDIA 的介入,更是加速了這種趨勢。算力租賃價格持續下降,GPU 的折舊速度也因為產品迭代太快而加快,這些都將讓算力供應商面臨巨大的經營壓力。
當初Lambda也曾被稱為算力界的Uber,但其實沒過多久,就將接受NVADIA DGX Cloud L400營運的衝擊。
未來展望:AI 基礎設施的集中化與挑戰
DGX Cloud L400 的推出,似乎預示著 AI 基礎設施將會越來越傾向於 雲端原生解決方案,並擁抱 混合雲架構。像 DGX Cloud 這樣的託管服務,將成為主流的部署模式,提供 AI 工作負載所需的擴展性、安全性和彈性。整合硬體、軟體和服務的 「AI 工廠」模式 也將迅速成為大規模 AI 開發和部署的事實標準。
儘管 DGX Cloud L400 強調「普及化存取 AI」並「降低障礙」,但值得深思的是,它同時也將底層基礎設施、技術控制和智慧財產權 集中在少數主導者手中,也就是 NVIDIA 及其合作的超大規模雲服務供應商。這形成了一個有趣的悖論:應用層面的創新變得更廣泛和易於存取,但對強大、集中式運算供應商的依賴卻在基礎設施層面增加。這種資源集中可能引發對供應商鎖定、定價權以及小型硬體創新者或替代開源 AI 基礎設施解決方案長期競爭格局的擔憂。
NVIDIA 正穩固地引領著這場 AI 基礎設施的變革之旅,塑造著下一代 AI 賴以建構的基礎。DGX Cloud L400 不僅是產品的升級,更是 NVIDIA 商業策略的全面進化,將其從單純的硬體巨頭轉變為掌握 AI 生態系關鍵命脈的「算力 Uber」。這場變革將如何影響未來的 AI 發展和市場競爭,值得我們持續關注。
延伸閱讀
如日中天的輝達,下個目標是搶走雲端廠商的生意? —2023 年 08 月 24 日,科技新報
自由開講》AI時代的重要進展 : 由位元(Bit)到 符元(Token)—2024年 06 月 8 日,自由評論網