當我們看著微軟、Google、Amazon 與 Meta 等科技巨頭在今年投入高達數千億美元的資本支出,瘋狂爭奪 AI 算力時,多數人腦中浮現的第一個問題通常是:我們距離通用人工智慧(AGI)還有多遠?然而真正的問題應該是:我們所在的地球,到底有沒有足夠的資源與製造能力,來支撐這樣龐大的運算需求?
近期知名半導體分析機構 SemiAnalysis 創辦人 Dylan Patel 在 Dwarkesh Podcast 中,針對 AI 算力擴展的未來進行了一場極度深入的探討。這場對話徹底拆解了阻礙 AI 發展的三大核心瓶頸:邏輯晶片製造、記憶體產能排擠,以及大眾最常討論的電力供應。Dylan Patel — The single biggest bottleneck to scaling AI compute
雲端巨頭與 AI 實驗室的算力經濟學
在探討硬體製造瓶頸之前,我們必須先理解當前的資本流向與算力需求規模。四大雲端巨頭(Amazon、Meta、Google、Microsoft)今年的預估資本支出合計高達 6000 億美元。若將整個供應鏈的上下游成本考量進去,總規模更是逼近一兆美元。這些資金不僅僅是用於購買今年的晶片,有極大比例是投入在未來的基礎設施,例如為 2027 年的資料中心建設進行預先投資、支付發電機組的訂金,或是簽署長期的購電協議(PPA)。
OpenAI 與 Anthropic 的策略分歧
目前全球算力需求最龐大的終端客戶,莫過於 OpenAI 與 Anthropic 這兩家頂尖 AI 實驗室。根據分析,以 Anthropic 幾個月前營收增長的速度來推算(例如每月新增數十億美元的經常性營收),他們在未來十個月內可能會增加高達 600 億美元的營收。以他們目前的毛利率來回推,這意味著 Anthropic 需要花費約 400 億美元在推論算力上。若以每 GW(吉瓦)算力租賃成本約 100 億美元計算,Anthropic 光是為了應付「推論」需求,就必須在今年底前增加至少 4 GW 的算力容量,這甚至還沒有將訓練下一代模型所需的資源計算在內。
面對如此龐大的算力缺口,兩家公司的策略出現了顯著差異。Anthropic 的執行長 Dario Amodei 採取了相對保守的財務策略,希望在確保營收成長的情況下穩健擴張,避免過度承諾導致破產風險。反觀 OpenAI,則是採取了極度積極的擴張策略,在市場上四處簽署長期的算力合約。OpenAI 不僅向微軟、Google、Amazon 等巨頭購買,甚至找上 Oracle、CoreWeave,以及從未建過資料中心的 SoftBank Energy 來獲取未來的算力容量。
這種策略差異導致了 Anthropic 在面臨模型營收爆發時,陷入了算力短缺的窘境。因為優質的長期合約大多已被 OpenAI 鎖定,Anthropic 現在只能被迫轉向尋求短期、價格更高、或是品質較次級的雲端供應商來補足缺口;或者必須與 Google、Amazon 進行利潤分享,透過 Vertex 或 Bedrock 平台來提供服務。在算力極度受限的時代,敢於提前簽署五年長期合約的公司,等於鎖定了極巨大的成本優勢。
為什麼使用了三年的 H100 晶片,今天反而更值錢?
傳統的硬體折舊模型認為,隨著新一代晶片效能翻倍,舊晶片的價值應該迅速下滑。例如當效能更強大的 Blackwell 或未來的 Rubin 架構上市時,Hopper 架構的 H100 應該會面臨價格崩跌。然而,現實市場卻呈現出完全相反的動態。
原因在於,定義晶片價值的依據,並非單純比較新舊晶片的硬體規格,而是看這顆晶片「今天能為模型產出多少經濟價值」。以 GPT-4 升級到後續更優化的版本(例如 GPT-5.4 級別的架構)為例,新一代模型往往採用稀疏專家混合(Sparse MoE)架構,不僅品質更好,推論所需的運算成本也更低。這表示同一顆 H100 晶片,現在能夠處理並生成更多、品質更高、單價更高的 Token。
在算力總量被物理製造能力嚴格限制的環境下,既然無限量供應最新晶片是不可能發生的事,舊晶片只要能運行最新、最具經濟價值的模型,其能創造的利潤空間就跟著水漲船高。這也是為何某些 AI 實驗室目前甚至願意以每小時 2.40 美元的高昂價格,簽署兩到三年的 H100 短期租賃合約,讓早期購入晶片的基礎設施供應商享有極為豐厚的利潤。
算力擴張的三大實體瓶頸
市場上經常討論電力不足或是資料中心建設速度太慢,但若將時間軸拉長至 2030 年,真正的硬傷會回歸到半導體供應鏈的最底層。
瓶頸一:邏輯晶片製造與 ASML 的物理極限
當 OpenAI 執行長 Sam Altman 提出未來每年需要增加高達數十 GW 算力的宏大願景時,多數人將焦點放在電力從何而來。但 Dylan Patel 指出,最終卡死算力擴張的天花板,是總部位於荷蘭的設備製造商 ASML,以及他們生產的極紫外光(EUV)微影設備。
製造一 GW 的最新 AI 算力(以 Nvidia 年底即將推出的 Rubin 架構為例),大約需要 55,000 片 3 奈米晶圓、6,000 片 5 奈米晶圓,以及 170,000 片 DRAM 記憶體晶圓。在最先進的 3 奈米製程中,一片晶圓需要經歷約 20 次的 EUV 曝光步驟。經過精密計算,製造這一 GW 的算力,總共需要進行約 200 萬次的 EUV 曝光。
一台造價高達 3 億至 4 億美元的 EUV 設備,每小時大約可處理 75 片晶圓,設備的稼動率約為 90%。經過換算,大約需要 3.5 台 EUV 設備全職運作,才能滿足一 GW AI 算力的晶片製造需求。有趣的是,一 GW 的資料中心建設與營運總成本大約是 500 億美元,而支撐這一切的 3.5 台 EUV 設備僅價值約 12 億美元。整個數百億美元的 AI 價值鏈,完全受制於這項相對低成本、卻極度難以擴展的製造設備。
ASML 目前每年僅能生產約 70 台 EUV,預計明年提升至 80 台,到 2030 年就算積極擴產,每年大約也只能生產 100 台。若計算到 2030 年,全球大約累積會有 700 台 EUV 設備上線服役。若將這些設備產能依比例分配,每年大約能夠支撐全球 200 GW 的 AI 算力產出。這代表著,人類製造 AI 晶片的物理極限,已經被這家公司的產能給明確框定了。
為何 ASML 不能單純投入更多資金來兩倍或三倍擴產?因為 EUV 是人類目前製造過最複雜的機械。它的光源系統需要精準地連續射擊正在墜落的錫滴來產生 13.5 奈米波長的光;它的光學透鏡系統需要完美平滑的多層反射鏡;它的晶圓平台與光罩平台在曝光時,必須以高達 9G 的加速度往反方向精準移動,且對齊誤差必須控制在幾奈米之內。這個供應鏈涵蓋了數以萬計的高度專業人員,無法靠著單純砸錢在短時間內複製或速成。
有人或許會問,既然先進製程卡在 EUV,我們能不能退回使用不需 EUV 的舊製程來大規模生產 AI 晶片?答案是實務上極度缺乏效率。晶片效能的提升不單單看浮點運算力(FLOPS)。現代模型需要跨越數百顆、甚至數千顆 GPU 進行分散式處理。晶片內部的資料傳輸速度高達每秒數十至數百 TB,同一個機櫃內的傳輸速度降至每秒數 TB,而跨機櫃的傳輸速度更是只剩每秒數百 GB。如果退回舊製程,代表需要將運算分散到更多顆實體晶片上,跨晶片與跨機櫃的通訊延遲將會摧毀整體的運算效率。以 DeepSeek 等模型在高度優化軟體下的推論表現來看,Blackwell 與早期晶片在推論速度上的差距高達 20 倍,這已經遠遠超越了單純的製程微縮,涵蓋了網路頻寬與記憶體架構的巨大代價。
瓶頸二:記憶體產能排擠效應與高昂的終端代價
AI 的長度脈絡(Long Context)推理能力,直接推升了對 KV Cache 的極大需求,這讓高頻寬記憶體(HBM)成為當前 AI 加速器最昂貴且最受限的元件之一。
然而,生產 HBM 所需的晶圓面積,大約是生產一般 DDR 記憶體的四倍。這意味著,為了滿足 AI 算力對 HBM 貪得無厭的需求,記憶體大廠(如 SK 海力士、三星、美光)必須大規模挪用原本用於生產消費性電子產品的產能。若想釋放出足夠的空間給 AI,就必須摧毀四倍的消費端記憶體需求。
為什麼 AI 不能將就使用一般的大容量 DDR 記憶體?核心問題在於「邊緣頻寬極限」。晶片與外部記憶體的資料傳輸,必須仰賴晶片邊緣的物理接口。同樣佔據 13 毫米寬的晶片邊緣,HBM4 可以提供高達 2048 位元的寬度,傳輸速度達到每秒 2.5 TB;若替換成 DDR,受限於介面寬度與傳輸協定,相同邊緣長度最多只能提供每秒約 64 GB 至 128 GB 的頻寬。兩者之間存在著數量級的巨大差異。沒有足夠的頻寬,晶片內部再強大的算力也只能處於閒置狀態,等待資料載入。
這引發了嚴重的排擠效應。分析指出,智慧型手機與個人電腦的記憶體價格已經面臨翻倍甚至三倍的漲幅。以蘋果的 iPhone 為例,原本 12 GB 記憶體的成本約為 50 美元,當價格暴漲後,再加上 NAND 儲存元件的同步上漲,整體物料清單(BOM)成本可能激增高達 150 美元。這對於高階手機來說或許還能轉嫁給消費者,但對於利潤微薄的中低階智慧型手機市場將帶來毀滅性打擊。
建造新的記憶體晶圓廠來緩解這個問題,需要至少兩年的無塵室建設時間。在這段空窗期內,我們將會看到消費性電子產品變得更昂貴、規格升級停滯。大眾為了成就 AI 的發展,將在無形中付出高昂的硬體購置代價。
瓶頸三:電力其實不是最無解的難題
相比於難以撼動的 ASML 設備產能與記憶體物理極限,電力供應問題反而能透過資本主義與人類的工程力來解決。
雖然傳統的天然氣聯合循環機組需要漫長的許可審查與排隊等待,但產業界已經開始採取「電表後」的自建發電策略。資料中心營運商正在探索各種發電可能,包含了航空用發動機改裝、船用大型往復式引擎、Bloom Energy 的固態燃料電池,甚至是太陽能搭配大規模電池儲能系統。
此外,美國電網的總容量大約在 1 Terawatt(太瓦)級別。電網的設計通常會預留約 20% 的備用容量來應付極端氣候。只要透過部署足夠的公用事業級電池與尖峰發電廠來吸收這些短暫的用電高峰,就能安全地將這 20% 的閒置容量釋放給資料中心使用。這足以提供高達 200 GW 的額外電力。
至於人力資源,雖然興建 100 GW 的資料中心可能需要數十萬名水電工與建築工人,但產業界正積極轉向模組化建設。未來的冷卻系統、電力轉換系統,甚至整個伺服器機櫃陣列,都將在亞洲的工廠預先組裝完畢,直接運送至美國的資料中心插入即可運作。這種作法將大幅減少現場配線與管線施工的需求,從而繞過勞動力短缺的限制。
半導體地緣政治與未來的運算型態
在各大企業瘋狂搶奪有限算力的同時,半導體產業的權力結構也正在發生劇變。
蘋果的台積電首發優勢動搖
過去,蘋果總是台積電最先進製程的第一個客戶,並包下絕大多數的產能。但在即將到來的 2 奈米(包含 A16)節點上,情況出現了轉變。由於記憶體價格飆漲侵蝕了蘋果的硬體利潤,加上手機銷量可能受到打擊,蘋果的下單量與議價能力正在下滑。
同時間,Nvidia、Amazon 與 Google 等 AI 玩家,願意支付更高的利潤,並且願意提前預付鉅額訂金來鎖定產能。對於台積電而言,能夠穩定預訂長期產能的高效能運算(HPC)客戶,其商業價值已經開始超越成長放緩的行動裝置客戶。未來的先進製程首發名單,AI 晶片將取代手機晶片成為絕對的主力。
太空資料中心為何在這十年內不可行?
針對 Elon Musk 提出將資料中心建立在太空以解決地球能源與土地限制的構想,Dylan Patel 提出了強烈的質疑。首先,地球的能源與土地空間依然充裕,去德州荒野建設資料中心的難度,絕對遠低於發射火箭。
更致命的問題在於「時間成本」與「網路可靠度」。當前出廠的頂級 GPU 仍有約 15% 需要送修或重新插拔。若要在地球上完成測試、拆解、打包,發射至太空後再重新部署,這個過程可能耗費長達半年的時間。對於一個使用壽命僅約五年的昂貴運算資產來說,浪費最初始、能產生最高價值的半年時間,在經濟效益上是完全不合理的。
另外,太空資料中心必須仰賴衛星間的雷射通訊技術。然而,要達到 AI 叢集內部每秒數 TB 的傳輸需求,目前的太空雷射技術無論在成本、頻寬還是可靠度上,都遠遠比不上地球上已經高度量產、且維護方便的可插拔光纖收發器。除非到了 2035 年,晶片製造不再是瓶頸,人類才可能去追求太空中那 10% 到 15% 的能源成本優勢。
機器人與邊緣運算的未來想像
如果未來有數以百萬計的人形機器人在街頭走動,這會消耗掉大量的 AI 晶片嗎?趨勢顯示,未來的智能架構將走向「極度中心化」。機器人本體並不需要內建最頂尖的 AI 晶片,這樣不僅耗電,也浪費了寶貴的矽資源。
合理的運作模式是,由雲端資料中心內部極度強大、且能進行批次處理優化的超大模型來負責高階的任務規劃與物體辨識。雲端大腦可能每秒發送數次指令給機器人,機器人端只需配備低功耗的晶片,負責執行具體的物理動作插值、重量感測與力道控制。運算的集中化,是應對硬體資源稀缺的最佳解方。
TN科技筆記的觀點
透過 Dylan Patel 剖析整個 AI 基礎設施供應鏈,我們得以跳脫純軟體層面的想像,
透視推動這波科技浪潮的物理限制。事實證明,AGI 的推進速度,最終是被機械工程的精密度所綁架。無論科技巨頭籌集了多少千億美元,他們都必須排隊等待物理上的製造限制。而記憶體產能排擠在接下來是否會發生,「AI 吃肉,消費者連湯都喝不到」的資源分配不均問題,也是一件相當令人憂心的問題。
支持TN科技筆記,與科技共同前行
我是TN科技筆記,如果喜歡這篇文章,歡迎留言、點選愛心、轉發給我支持鼓勵~~~也歡迎每個月請我喝杯咖啡,鼓勵我撰寫更多科技文章,一起跟著科技浪潮前進!!>>>>> 請我喝一杯咖啡
在此也感謝每個月持續請我喝杯咖啡的讀者以及新加入的讀者們,讓我更加有動力為各位帶來科技新知!
以下是我的 threads 也歡迎追蹤、回覆、轉發喔!
>>>>> TN科技筆記(TechNotes)
























