想要第一時間獲得市場上的最新資訊及分析嗎?
歡迎點擊下方連結訂閱【馬克觀點MKP】電子報,在即時更新資訊的同時,獲得最深入的分析~
當大家把焦點放在算力硬體供應與晶片技術時,真正限制AI時代發展的,很有可能是「電力」。
在未來,隨著人工智慧算力指數型成長,電力需求將也有指數成長趨勢,會是我們目前難以想像的水平,並且AI用電會是需要能「穩定」供電,沒有突波的系統,因為訓練和運行大型AI模型需要消耗驚人的電力,這些運算主要在資料中心進行,需要24小時不間斷、且高度穩定的電力,即使是短暫的電壓波動或斷電,都可能導致昂貴的運算中斷,甚至是資料損毀,因此類似特斯拉正在建構的大型儲能電網會有很大的發展潛力,它就像一個巨大的「電力緩衝區」,可以在發電量過剩時儲存電力,並在發電量不足或電網波動時釋放電力,從而確保資料中心能持續獲得穩定、高品質的電力供應,又不影響民生用電需求。
目前正在發生的事實是,大型AI科技公司紛紛向其電力供應商簽訂多年期的購電協議,以確保未來成長所需的能源,例如Brookfield Renewable Partners(代碼BEP)這家專營水力發電、太陽能、儲能和核能的公司,就剛與Alphabet(GOOGL)、微軟(MSFT)簽署了重大電力購買協議;微軟還另外與美國三哩島電廠簽了一份長約包下20年的電力。
面對聯合國所倡導的淨零碳排(Net Zero),許多科技巨頭也已承諾其資料中心要實現碳中和或使用100%再生能源;若沒有電力儲能系統,這項承諾幾乎不可能實現。儲能讓資料中心能夠真正有效利用再生能源,而不是在發電量不足時被迫依賴化石燃料或核分裂發電(目前核融合尚未能穩定商轉),這使得AI的進步能在更永續的基礎上進行。

2026~2040 預估AI之電力需求
根據國際能源總署(IEA)的數據,2026年至2040年間,人工智慧電力需求(包含機器人)預計將從37 GigaW成長到11,000 GigaW (1個GW代表十億瓦特),相當於CAGR(年複合增長率)50%!
這是什麼概念? 37 GigaW大約是美國2600萬個典型家庭的家戶用電量,或是某些國家全國用電需求(比如瑞典、阿根廷);11,000 GigaW則等效於73億個美國家戶的用電需求,重點美國人口也不過3.4億人。
換個角度計算,2040年時全球電力消耗可能有三分之一都用在AI上,屆時很有可能會需要大規模的電能貯存系統,正如同今天的水庫一樣,如果沒有先儲水,用水高峰時只靠河川湖泊根本緩不濟急,甚至某些地方會陷入無水可用的窘境,反觀目前,除了少數龍頭,大部分國家的貯能系統尚處萌芽階段,就有點像一百年前,多數未開發或開發中國家是沒有水庫、水壩系統的,當時就是看天用水,有多少用多少,旱季時就完蛋。而目前大多數貯能系統不發達的國家在用電策略上也正是如此:”發多少、用多少”,遇到電力高峰需求或發電出問題時只能用限電或提高電價等手段渡過,過往可能還可以,但在未來AI算力=國力的高峰用電時代,可能寸步難行,陷入民生或工商經濟兩難。
這也讓Mark想起,早前曾經看國一位美國教授的發言「我根本不關心什麼電動車;我會投資特斯拉,完全是因為其在能源領域的發展,大部分行外的人根本還不知道它在能源領域的發展究竟有多厲害!」,而這位教授正是研究能源領域的專家學者。
對於AI企業來說,電力絕對是未來擴張的限制因素;他們可以用錢買任何東西,諸如GPU、伺服器,甚至在海底建造資料中心(這當然是玩笑話),但沒有電,他們就賺不到錢。
在資源(電力)明顯有限的情況下,這就是為何每瓦效益也是企業追求的關鍵!關於這點,超大規模運算、推理的首要限制因素便是晶片功耗。
而優化晶片功耗,正是Nvidia主張的開發策略之一。
NVDA的策略:
- 在相同功率(即成本)下速度提高4倍。
- 相同效能下成本降低4倍。
- 速度提高2倍,功耗降低50%。
而這背後,又有賴於台積電(TSM)的BSPDN(Back Side Power Delivery Network)製程工藝來降低功耗(詳註一);甚至在未來使用GAAFET的下一代,CFET來增加電晶體密度,達到同時提升運算效能的目的。(具體TSM技術科普,參閱MKP第24期)
這也是Mark為什麼之前說台積電在沒有任何外部因素介入下,連續強至少十年是沒有問題的。(這個外部因素相信大家知道是什麼,據我的推理,若真的發生,會因為產能供應中斷導致晶片供應中斷至少3~5年,進而引發多米諾骨牌效應導致全球性的大熊市)
我的預測一向很保守,市場上也有更有樂觀一點的預測,如Fundstrat(一家獨立的金融研究公司,為全球頂級金融機構提供獨立的市場研究報告和分析服務,由前摩根大通首席股票策略師Tom Lee創立)認為:「科技熱潮在未來22年內不會結束,人工智慧和機器人技術的增長也將使NVDA開發的晶片、系統的需求呈指數級增長。」
需求帶動的增長,可以由其他公司的資本支出看出來;
舉例,META仍在持續建設算力中心,最新的一座佔地等於一個曼哈頓,會需要使用5 GigaW的電力,僅在硬體方面,建設經費的其中600億美就是支付給NVDA的,而軟體CUDA訂閱費另計,均價為4500 USD/per GPU,整個建案預計2030完工,等於至少五年內有理由支撐NVDA繼續成長;這還只是META一家的購買量。
特斯拉Grok4前陣子才剛商轉收費,目前正在訓練Grok5,但馬斯克已經開始規劃預計在今年(2025)年底前投入足夠數量的算力來訓練Grok6!這裡的算力指的就是Colossus超級計算集群,目前已整合了約10萬個輝達H100 GPU,並計劃擴展至100萬個GPU,其中包括H200以及搭載Blackwell架構的B200。
如果不看那麼遠的推測,至少NVDA預期第三季data center營收仍然可能繼續增長,因為它的客戶們在擴大資料中心基礎設施的計劃中仍然非常積極。
對比NVDA市值,其債務僅為100億美元,讓它的財務靈活性非常高,並且如果單看成長,在NVDA股價成長13倍的過程中,其自由現金流成長是16倍!至少目前在它身上不存在太多所謂「泡沫」。
很有可能未來至少五年(保守)到十年(樂觀)AI硬體需求不存在「空洞」,唯一有可能限制成長的因素是台積電的產能。
按照市場週期,目前比較像是大家在四月受過傷,有點害怕又有點期待,還在觀望,大家可以感受到最近的市場情緒是多空交錯,存在濃烈的不確定感,這點也可以從以下的數據看出來:根據調查,目前在美國對人工智慧持正面態度的人僅比持消極態度的人多7%。但如果接下來幾年持續上漲,就會開始有FOMO,那很可能十年一次的大熊市會在2030前後,假設上漲的速度完全失控超過基本面成長。
希望以上對大家有幫助
第24期電子報傳送門
〖註一〗
BSPDN(Back Side Power Delivery Network):傳統晶片的供電方式,是從晶片正面把電流分配進去,但這樣會佔據寶貴的設計空間,也容易造成「電阻壓降」(IR drop),影響效能。
所謂IR drop,我們可以這樣理解,因為電流要經過許多彎彎曲曲、細細的金屬線才能到達核心電路,就會產生像「水管太長、水壓不夠」的問題,即IR drop。水壓不足,水龍頭就出不來;同樣道理,電壓掉太多,晶片效能就上不去。
台積電最新研發的BSPDN晶背供電技術,則是直接在晶片背面打通通道,把電源線「搬到後面去」,不再繞遠路;晶片正面就能釋放出更多佈線空間給訊號傳輸,同時等效增加電晶體密度,等於延續摩爾定律之餘,效能與省電還一次兼顧。
背面電源線則供電更穩,像是直接從水塔拉一條短水管到家裡,水壓足、流量大!
這項工藝的突破在於:當電流不再與訊號線「搶位置」,晶片可達到更高的時脈、更低的功耗,對AI、HPC(High Performance Compute高效能運算)等需要龐大運算力的應用尤其重要,等於是同時解決了「塞車」和「缺電」兩個問題,能讓運算速度再推升、功耗再降低。
BSPDN對製程要求極高,需要在奈米等級下做矽晶片穿孔(即大家常聽到的TSV, Through Silicon Via)與晶背金屬化,良率難度高,也形成台積電的重要技術護城河。
簡單來說,BSPDN就像把鐵路/捷運地下化,讓地面馬路暢通,城市(晶片)運行更加順暢,未來晶片效能也因此能再推升一大步。