一、總體 AI 雲端資本支出(CapEx)
三大雲服務供應商在2024年末均大幅增加針對AI的資本支出,以擴充雲端基礎設施:
- AWS:2024全年在雲基礎設施上的資本支出約為750億美元,第四季單季投入達263億美元。Amazon執行長表示,絕大多數CapEx都用於AWS的AI相關基礎建設。公司預計2025年每季CapEx與2024年Q4相當,全年將高達約1,000億美元,較2024年增加約33%。這是為滿足AI雲服務客戶需求所必須的投入。
- Microsoft Azure:Microsoft同樣投入巨額資本支出來擴充Azure的AI算力。截至2025財年年底(2025年6月)將為Azure雲端AI基礎設施投入約800億美元。財報會議上提到,公司本財年預計在支援AI的資料中心上花費約800億美元。這代表Microsoft對AI基礎設施的年度投資與Alphabet相當。近年來Azure擴充數據中心速度驚人,過去三年資料中心容量增加了超過一倍,單是2024年新增的容量就創歷史新高。
- Google Cloud (Alphabet):Alphabet在2024年Q4宣布2025年資本支出預算達750億美元,遠高於市場預期,這比2024年提高約43%,顯示對AI雲端需求前景的積極押注。2024年第四季,Alphabet單季資本支出達143億美元,較前季的131億增加,主要用於伺服器和數據中心以滿足激增的AI與雲端需求。執行長指出,近一年半以來客戶使用的運算資源增長了8倍,支持公司大舉擴充AI基礎設施。他強調新一代資料中心效率更高,每單位電力提供的算力是五年前的近4倍。
二、AI 相關營收成長
由於生成式AI服務需求旺盛,三家雲廠商的相關業務營收在2024年末均呈高速增長態勢:
- AWS:在AWS整體業務增速放緩的背景下,AI業務成為新的增長引擎。AWS的AI相關業務已達數十億美元規模,且年增長率達三位數(超過100%)。這使AWS雲端營收重拾動能:2024年Q4 AWS雲服務收入達288億美元,同比成長19%,為近八個季度最高增幅。管理層將此歸因於企業對生成式AI工作負載的強勁需求,以及AWS在機器學習服務上的領先功能。並指出,隨著模型推論成本下降,企業將在更多應用中內嵌AI,未來總體雲花費將隨AI普及而增加,而非減少。
- Microsoft Azure:Azure的雲服務營收在本季持續高成長,同比增長約31%。其中AI相關雲服務貢獻了明顯份額——有13個百分點的增長來自Azure的AI服務。換言之,若扣除AI驅動的用量,Azure基礎業務增幅僅約18%,凸顯AI對業績的巨大拉動作用。Microsoft並披露,其AI業務(主要指Azure OpenAI等雲AI服務)年營收跑率已達130億美元,增速達150%以上,顯示出爆發式成長。
- Google Cloud:Google Cloud在2024年Q4實現收入120億美元,同比增長30%。增速略低於上一季(35%)且未達市場預期,部分原因在於基礎設施供應趕不上市場需求。儘管如此,Google雲AI服務的採用率飆升:其企業AI平台Vertex AI本季客戶數同比增長5倍,全年激增20倍。管理層強調將持續強化AI產品(如推出更高效的Gemini和Flash模型)來刺激雲端使用。整體而言,雖然Google Cloud目前在AI雲市場收入規模仍落後於AWS和Azure,但其AI服務營收占比正快速攀升,隨著產能提升,成長動能有望進一步釋放。
三大業者的AI相關雲服務均呈現高速成長。AWS和Microsoft都透露AI雲業務年增幅達三位數。Azure約將近一半的增長來自AI;AWS也因AI需求帶動整體雲業績明顯改善;Google Cloud增速略放緩,但主要受限於供給因素,其AI產品的客戶採用率卻在快速攀升。總之,AI已成為雲業務增長的核心引擎,各家皆積極擴大AI服務產品線以鞏固收入增長。
三、CSP 間的比較與市場份額變化
在AI雲端市場的競逐中,AWS依然居於領先,但Azure和Google Cloud持續蠶食部分份額。估計顯示,2024年底全球雲基礎設施市場中,AWS約佔30%,Microsoft Azure約21%,Google Cloud約12%。與往年相比,AWS的領先優勢略有縮小,而Azure和GCP合計市占超過三分之一,反映後者近年高速成長。
值得注意的是,2024年下半年AWS的增長出現再加速,在生成式AI熱潮的帶動下可能奪回部分失地。Q4 AWS的19%增長率已接近Azure/GCP的水準,表明AWS在AI雲服務上重新發力。另一方面,生成式AI幾乎是當前雲市場增長的半壁江山。自2022年底以來,約一半的雲市場增量來自於生成式AI驅動的需求。Azure憑藉OpenAI合作早期獲益,GCP則透過自研模型與開源生態吸引特定客群。AWS雖然起步稍晚,但憑藉全面的產品組合(自研模型+第三方模型)和龐大客戶基礎,也成功將大量企業AI工作負載留在AWS上。預計未來幾季,各家在AI產品創新、基礎設施擴容和生態系統方面的布局,將持續左右市占格局的細微變動。
四、雲端基礎設施投資動態
因應AI工作負載對算力和效率的極高要求,三大雲服務商在硬體基礎設施上各有側重,涵蓋GPU伺服器擴充和專用AI晶片研發部署:
- AWS
採取雙軌策略,一方面大規模部署NVIDIA GPU(如最新H100晶片的算力集群),另一方面自行研製AI加速晶片。AWS已推出自研的Trainium(訓練用)和Inferentia(推論用)晶片,搭配其EC2雲主機供客戶選擇。這些晶片可為特定AI工作負載提供更高性價比。AWS將同時擴大NVIDIA GPU陣容和自有晶片的佈建,因為AI需求呈指數式增長,兩條路都持續增長。例如,AWS在2023年推出的P5機型配備H100 GPU,滿足大型模型訓練需求;同時AWS宣稱使用Trainium可將訓練成本降低至GPU的一半左右(內部測試數據)。為因應海量需求,AWS在2024年Q4就投入超過260億美元資本來擴建數據中心和伺服器。 - Microsoft Azure
Azure選擇與NVIDIA深度合作,打造頂尖的GPU超級計算集群,同時研發自家AI晶片以降低對第三方的依賴。雙方聯手建造了全球排名前三的AI超級電腦,內部配備14,400顆NVIDIA H100 GPU和高階Xeon處理器。Azure也推出多款針對AI的虛擬機(如ND H100 v5系列)以及使用AMD MI250 GPU的選項。在晶片研發方面,Microsoft正在開發代號“Azure Maia”的AI加速器,以及基於Arm架構的“Azure Cobalt”雲端CPU,顯示其在雲端晶片上的野心。報導稱Microsoft計劃在2024年底前部署多達35萬顆NVIDIA H100 GPU以滿足需求。Azure高管也提到,公司2023年新增的資料中心基礎設施為歷年之最。 - Google Cloud
Google走的是自研AI晶片 + 傳統GPU並行的道路。早在2016年就推出Tensor Processing Unit (TPU)晶片,用於加速機器學習工作負載,目前對外提供TPU v4。TPU已廣泛應用於Google內部以及部分Cloud客戶的大型模型訓練和推論。與AWS、Azure主要依賴GPU相比,TPU是Google差異化的利器。Google Cloud同時也提供NVIDIA A100、H100 GPU的虛擬機選項,以滿足市場需求。為應對2024年AI需求激增,Google一方面投入巨資提升TPU產能、研發新一代TPU,另一方面也不惜擴充GPU伺服器避免短板。2024年第四季,Google將資本開支的大部分用於伺服器和數據中心擴容,包含大量AI加速硬體(TPU板卡與GPU伺服器)。
在AI基礎設施競賽中,AWS、Azure、Google都在進行前所未有的硬體投入和創新:AWS自研Trainium/Inferentia降低成本,也持續大規模部署NVIDIA GPU;Azure與NVIDIA協作打造超級電腦並研發自有AI晶片;Google則深耕TPU並擴充GPU資源。這些舉措都是為了承載爆炸式增長的AI雲工作負載,確保提供給企業客戶足夠且經濟的算力支持。
五、企業 AI 採用趨勢
2024年,生成式AI在企業界的風靡直接帶動了雲服務的需求上揚,各主要雲供應商均觀察到企業AI採用的熱潮:
- 廣泛的跨產業採用
生成式AI正快速從試驗走向實用,預估2024年全球有75%的企業已在某種程度上使用生成式AI,高於前一年的55%。各行各業都在積極探索AI應用:金融服務業用AI提升風控與客服,醫療健康領域用AI輔助診斷與新藥研發,製造業導入AI優化生產流程,零售業透過AI改善推薦與供應鏈管理等。領先企業普遍將AI視為推動數位轉型的重要引擎。 - 上雲成為AI落地關鍵
若資料不在雲端,要在生成式AI上取得成功會相當困難。因此許多公司加速將本地數據和系統遷移上雲,以利用雲服務商提供的強大算力與AI工具,帶動新一波的雲遷移浪潮。企業為了部署AI訓練與推論工作負載而新增雲支出。隨著AI滲透進更多應用領域,未來雲端花費將隨之增加,而不會減少。 - 主要雲供應商的客戶增長
三大雲廠商都披露了企業客戶大量採用其AI服務的案例:超過60,000家客戶正在使用Azure的AI服務,包括大型企業和新創公司;Google的Vertex AI客戶在一年內暴增20倍;AWS也持續擴大其生成式AI服務組合,吸引各行各業在AWS上開發AI應用。這些努力轉化為可觀營收:以AWS為例,其AI相關業務已達數十億美元級別,年增長率逾100%。 - 雲端ROI與AI價值實現
隨著企業紛紛上雲部署AI,開始有越來越多AI實際落地的成功案例,例如金融、保險、製造等領域,大幅提升生產力或營運效率。雲服務商也在全技術棧上協助企業擴大AI的投資回報,這種“與企業共創價值”的模式進一步推動更多傳統產業安心投入AI與雲端。
六、算力供需狀況
面對前所未有的AI算力需求激增,雲服務商一度出現供不應求的局面,各家紛紛採取措施擴大供給並優化資源配置:
- 需求遠超預期,雲端算力一度吃緊
2024年下半年,Microsoft和Google均坦承他們的雲基礎設施出現容量瓶頸。這導致部分客戶的AI工作負載無法及時上線,也部分解釋了季營收增長未達預期的原因。市場猜測AWS也面臨類似供應緊張狀況,只是未在公開場合證實。然而,分析師普遍認為三家雲商都受限於高階GPU供貨週期與數據中心建設速度。 - 積極擴容以緩解壓力
針對算力供應不足,各雲商都在開足馬力擴建,宣布了史無前例的資本開支規模(750億~1000億美元)來興建新的數據中心和購置AI硬體。Microsoft指出已在全公司歷史上最快速度擴充雲端基礎設施;Google執行長也強調將持續加碼投資,因為客戶對AI算力的胃口遠未飽和;AWS預告2025年龐大的資本投入以避免任何瓶頸。 - 技術與合作創新紓解壓力
雲服務商也透過技術手段和合作來緩解供需矛盾:優化硬體與軟體效率、提升能源利用率、與晶片供應商深化合作關係等。這些舉措在一定程度上緩和了供給不足,使2024年末的算力短缺沒有演變成更嚴重的危機。
2024年第四季的市場特徵是AI算力需求極高,一度超出雲服務商的即時供應能力。三大巨頭迅速以加碼投資和效率提升來應對,預期2025年將有更多新建AI資料中心上線,GPU/TPU供貨穩定,供需緊張將逐步緩解。長期而言,AI應用仍可能保持高位增長,但雲服務商將以更成熟的供應鏈管理和基礎設施因應這場AI革命。管理層對中長期前景普遍保持樂觀,認為現在的投入將在未來轉化為更大的商業機會與市佔優勢。