這兩年最熱門的議題是AI應用技術與相關產業,NVIDIA的股價飆漲已經廣傳到原本不知道什麼是顯卡的人都要跟買的程度。但AI技術背後的高耗能運算以及數據中心運作所帶來的能源負擔,也越來越多人注意到是個嚴重問題。
除了AI技術之外,隨著烏俄戰爭延燒,美國與歐洲在能源政策方面都持續有轉向更多核能的趨勢,無論是核電廠延役、投資新一代核能技術都是持續在發生的事。目前我國的政策宣示依然是燃氣、燃煤以及再生能源三者50/30/20的比例,只是在再生能源裝置容量未達目標的情況下,要怎麼調整的問題很顯著(背後接著的就是漲電價議題)。
這些環環相扣的議題可能牽一髮動全身,先從生成式AI技術的耗能報導開始吧。
生成式人工智慧模型,例如 OpenAI 的 ChatGPT、Anthropic 的 Claude 和 Alphabet 的 Gemini,極度耗電,且逐漸增加全球電力和碳排比例。這促使研究人員開始探索如何減少這項技術對環境的影響。
「我們當然希望能享用這些模型帶來的優勢,無論作為研究者還是用戶都受益良多。但同時,我們必須考量為此消耗的電力成本,」戴爾豪斯大學資訊工程系助理教授 Tushar Sharma 表示。他目前正在研究如何讓生成式 AI 模型更具能源效率。
根據高盛於五月發表的研究,一次 ChatGPT 查詢的耗電量是 Google 搜尋的十倍。AI 初創公司 Hugging Face 和卡內基美隆大學的研究人員在 2023 年 12 月的論文指出,使用高效率 AI 模型生成圖片所需的能源,等同於為一部智慧手機完全充電的電量,而生成文字所需電量約相當於手機充電到 16%。
隨著需求的增加,AI 使用的資料中心電力需求正迅速上升。高盛預測,這些資料中心的用電量在本世紀末將成長 160%,從目前佔全球用電需求的 1% 到 2%,將提升至 3% 至 4%。這些電力消耗轉化為大量溫室氣體排放。儘管少有 AI 公司公佈排放數據,但 Google 在 2024 年 7 月發表的永續報告中指出,2023 年的排放量達到 1,430 萬公噸二氧化碳當量,較前一年增長 13%,相比 2019 年增長了 48%,而資料中心的能源消耗是主要原因之一。「隨著我們將 AI 進一步融入產品中,減少排放將愈加困難,」報告指出。
Microsoft 公司在 2024 年永續報告中提到,由於需要建設更多針對 AI 工作負荷而優化的資料中心,自 2020 年以來其排放量增加了 29%。該公司目前已在多數企業產品中嵌入生成式 AI,並在 Bing 中推出 AI 生成摘要功能。
在蒙特婁工作的 Hugging Face AI 研究員兼氣候主管 Sasha Luccioni 共同撰寫了該公司 12 月的報告,她表示,AI 技術所依賴的高效圖形處理器供應鏈,是 AI 碳足跡中一個尚未深入探討的領域。她指出,生成式模型的電力需求「呈指數級上升」,遠超過早期 AI 模型,因為過去的「傳統」模型本質上是提取式的。傳統的提取式模型搜尋引擎會將查詢轉換成數字序列,然後找出與之相對應的文件或網頁;而生成式模型則需生成一連串可能的詞句來回應查詢,或在建構圖像時逐像素生成,反覆約 100 次,直至生成最終圖像。
Sharma 的研究著重於 AI 模型訓練的優化。他指出,目前大型語言模型( LLMs )需透過大量數據進行訓練,他則試圖識別哪些數據不那麼必要或品質較低,並將其從模型中剔除。「我們不見得需要所有數據,」他解釋道,「重點是要找到保留與淘汰的平衡……並且不影響模型的整體價值。」
他的另一項研究則專注於找出 AI 模型中耗電最多的程式碼「熱點」,並讓這些區塊以更高效率運行。「一個程式可能有 5,000 行程式碼,但並不是每行程式碼都同等耗能,」Sharma 指出。「我們可以對最耗能的 200 行程式碼投入更多的人力優化。」他還提到,希望能找到「具有實力的產業合作夥伴」來支持他的研究,目前正與幾家 AI 公司接洽中。
麻省理工林肯實驗室和麻州東北大學的研究人員也正在探討如何限制 GPU 的單次功率輸出。在測試中,他們在一個大型語言模型的訓練過程中加入功率限制,雖然延長了訓練三小時,但所節省的能源相當於美國普通家庭一週的用電量。
一些大型雲端服務商已經開始投資低碳能源來運行資料中心。 Google 在 10 月中旬宣布投入資金支持小型模組化核反應爐,而 Microsoft 則在 9 月底簽約重新啟用位於賓夕法尼亞州的三厘島核電廠。
Luccioni 表示,減少 AI 模型碳排放的一種方式是採用更小型的模型,因為它們比大型語言模型( LLMs )的能耗更低。根據她的研究,一個小型模型標記 1,000 篇電影評論為正面或負面,僅需 0.3 克二氧化碳,而使用 LLM 執行同樣任務則耗費 10 克二氧化碳。她指出在企業環境中,許多公司希望利用模型進行特定任務,例如情感分析或提供內部文件搜尋及摘要的工具。這些應用其實無需 LLM ,小型模型已能勝任。「在選擇工具時,應該仔細考慮所需的功能,」她說。「如果你需要做文本摘要,生成模型是可行的,但其實也有抽取式模型,可以直接從文本中取出關鍵詞並組成更短的版本。這種技術在 ChatGPT 出現之前就存在了,有時反而更具效率,也更適合特定需求。」
Luccioni 建議人們在使用生成式 AI 系統時保持克制,並反思查詢是否真的需要 AI 支援,例如用計算機解答數學問題,而不是使用 ChatGPT,或是在便條上寫「買牛奶」,而非依賴 Siri 。「 AI 不是無形的,它的存在非常具體,需要計算資源、冷卻資料中心的水資源和供電能源,這些成本都相當可觀,」她說。「只要停下來想一想,‘我即將使用 AI 的這個行為會帶來影響。我應該考慮這是否真有必要。’」
AI的方便性非常顯著,自然而然會越來越普及,但一般使用者會在意每次問答之間需要消耗多少能源嗎?由下到上的節約方式在運作上有太多窒礙難行之處了,尤其是相關AI產品的發布與目的都是希望使用者黏著度越高越好。
另一層次的上到下制度應該是比較可行的手段。電價必須完整反應出所有成本和溫室氣體排放量,所有資料中心都因為吃電怪獸以及高碳排熱點本質被重視了,就會非常合理地尋求節電以及降低碳排的方案。
環境議題的外部成本內部化,雖然是老生常談的舊概念,但也才是很多問題的治本之道。各種碳定價的根本原理在此,也是為何會比強制規範效果更好的原因。
歡迎留言分享,也期待你追蹤並加入沙龍,一起關心氣候變遷與碳移除。
與這個主題相關的文章連結整理如下: