今天是2025年11月13號,星期四。今天我們來聊一個,會決定未來 AI 發展速度的關鍵因素,就是運算力。
大家知道,AI 要跑得快、跑得好,真正最關鍵的,就是算力到底夠不夠。而提供算力的這些資料中心,也就是雲端供應商的機房,它們到底蓋在哪裡?哪些地方真的能跑 AI?
經濟合作暨發展組織 (OECD) 在 2025 年 10 月發布的一份研究要報告。這份報告叫做《衡量人工智慧在國內公共雲端運算可用性》英文全名是 Measuring Domestic Public Cloud Compute Availability for Artificial Intelligence。研究團隊在 2023 年,把全球所有能跑 AI 的雲端區域做了一次全面盤點。結果,他們發現了三個非常驚人的差距。我來用最簡單的方式講給你聽:
第一個差距:大多數國家連「AI 雲」都沒有
研究統計了六大雲端供應商,包含:Amazon Web Services(AWS)、Microsoft Azure、Google Cloud Platform(GCP)、Alibaba Cloud(阿里雲)、Oracle Cloud(OCI)、IBM Cloud,總共 187 個雲端區域。結果這些區域只分布在 39 個經濟體裡。更驚人的是,39 個裡面,真正有 GPU、能跑生成式 AI 的只有 30 個。剩下的 9 個,連 GPU 都沒有。
也就是說:世界上絕大多數國家,國內完全沒有可以跑 AI 的雲端運算能力。
第二個差距:運算能力高度集中在少數國家
我們剛剛提到,只有少數經濟體擁有雲端區域,但就算真的有,資源也非常不平均。雲端算力主要集中在兩個地方:美國和中國。
這兩國加起來有 49 個雲端區域,幾乎等於其他所有經濟體合計的 52 個,等於全球一半的雲端基礎都握在他們手上。
如果進一步看「能不能跑 AI」,差距更明顯:中國有 27 個 GPU 區域,美國有 22 個,幾乎全世界主要的 AI 運算來源都來自這兩個地方。
至於 OECD 成員國,雖然總共有 101 個雲端區域,但真正啟用加速器、能跑 AI 的只有 52 個,大概就是一半左右。換句話說,多數國家不是沒有雲,就是雲裡沒有 GPU。
第三個差距:不只比AI雲端區域的數量,晶片差好幾個世代
真正決定 AI 速度的,不是雲端區域多不多,而是裡面那顆晶片夠不夠力。現在最重要的三代晶片:V100、A100、H100,它們的性能差距其實是「跳級」的。H100 大約是 A100 的 2 到 3 倍;A100 又是 V100 的 2 到 3 倍;所以 H100 比 V100 快 5 到 6 倍以上。
那麼,誰擁有最多最新的晶片?答案很明顯,就是美國。
美國目前是全球唯一大量部署 H100 的經濟體,有 8 個雲端區域可以用到這顆最新、最強的加速器。相反地,中國目前仍以比較舊的 V100 為主,雖然部分地方有 A100,但完全沒有 H100。放眼全世界,能提供 A100 的經濟體也只有 15 個;而能提供最新 H100 的,除了美國之外,就只有荷蘭一個。這代表什麼?高階 AI 運算能力的差距,正在以驚人的速度被拉開。
今天楊老師想給大家的三個重要啟示,讓你Takeaway,就是
第一,AI 運算能力已經開始「分級」。只有少數國家達到可以訓練模型的最高級,其它國家最多只能做推論,甚至什麼都做不了。
第二,算力的「實體位置」變得超級重要。雲端雖然在網路上,但資料中心蓋在哪裡,決定了延遲、國安、供應鏈,甚至決定政府能不能管得到 AI。
第三,公共雲只是整個 AI 基礎建設的一部分。一個國家的算力還包括自己蓋的超級電腦、研究機構、企業自建的 GPU 集群。真正的 AI 國力,需要一起投入。
這是一場新的 AI 基礎建設軍備競賽。誰擁有最先進的晶片、誰能在本土部署最大的算力,誰就握有 AI 的未來。