使用 AI 耗多少電?Google Gemini 推理能耗只用 0.24 Wh!

更新於 發佈於 閱讀時間約 7 分鐘

AI 真的在耗盡地球資源嗎?

過去幾年,AI 的環境影響幾乎都集中在「訓練」階段。大家想像的是數以千計的 GPU,連續跑幾週,消耗海量電力,排放大量碳。但現在,真正的問題已經不是訓練,而是推理(Inference)

推理是什麼?就是我們每天在用的 ChatGPT 對話、Google Gemini 查詢、自動補字。這些請求每天發生 數十億次,比訓練頻繁得多。如果 AI 真的這麼耗能,那地球早就撐不住了。

問題是:沒有人真正知道,每個 AI 問題(prompt)要耗多少電、排多少碳、用多少水。過去的數據幾乎全是猜測,有人說一次 AI 問答要用 3 Wh,有人說 6 Wh,甚至還有人說一個問題要用掉 45 mL 的水

Google 說:「夠了,我們來測真正的數據。」

結果?不只不是大家想的那樣,還低到讓你驚訝。

Google 的實測結果:Gemini 一個問題 ≈ 看電視 9 秒

Google 發布論文《Measuring AI’s Environmental Impact at Production Scale》,實際測量 Gemini App 在 Google 全球資料中心的推理能耗,結果顯示:

0.24 Wh 能耗

0.03 公克 CO₂ 排放

0.26 mL 水消耗

換個方式理解:

  • 電力:問 Gemini 一次問題 ≈ 看電視 9 秒鐘
  • :大約 5 滴水
  • :和 寄一封短電子郵件差不多

而且,這個數據比去年同一系統省了 33 倍能耗44 倍碳排放

為什麼以前的數據都錯了?

因為大部分的報告都是「實驗室數據」或「猜測模型」,通常只做以下兩種:

  • 根據硬體規格與模型大小估算
  • 用單一 GPU 做測試,然後直接放大

但這樣有兩個大問題:

  1. 沒有算整個系統:除了 AI 晶片(GPU/TPU),還有 CPU、記憶體、網路設備
  2. 忽略現實因素:像待機能耗、資料中心冷卻、功率轉換損耗、伺服器閒置率

Google 發現,這些「缺漏」會讓能耗少算一半以上。實驗室基準 ≠ 生產現實

 Google measured energy usage across their entire Gemini production fleet

Google measured energy usage across their entire Gemini production fleet

Google 怎麼做?量測整個堆疊

Google 採用「全面實測法」,涵蓋整個 Gemini 生產環境,不只算 AI 運算,還包含:

AI 加速器能耗(TPU 運算)

主機能耗(CPU + DRAM)

待機能耗(隨時待命的伺服器)

資料中心損耗(冷卻、電力轉換,透過 PUE 衡量)

結果,僅僅是「有沒有算上這些」,能讓同一模型看起來 差 6 倍效率!Google 用 Llama 3.1(70B)做對比,結果顯示:

  • 只算 AI 晶片 → 3600 個 prompt/kWh
  • 全面計算 → 580 個 prompt/kWh

這也是 Google 在論文裡暗示的重點:不要隨便比較數字,除非知道測量範圍

那碳排和水呢?

Google 用 市場基準法(Market-Based Accounting)計算碳排,反映他們購買的乾淨能源,並納入:

  • 範疇二(Scope 2):使用電力的排放
  • 範疇一與三(Scope 1+3):硬體製造過程的隱含碳排

結果:0.03 gCO₂ / 每個 prompt

水的部分,他們用 **WUE(Water Usage Effectiveness)**換算冷卻用水,結果只有 0.26 mL,還控制了地點、季節、冷卻方式。

這意味著,這個數字真的反映現實,而不是理想化估算。

為什麼 Google 的數字這麼低?因為它們優化到極致

Google 用了全棧優化策略,讓 Gemini 變得更省電、更快:

  • 模型架構:Gemini 採用 Mixture-of-Experts 和量化,減少活躍參數
  • 批次處理 & 預測解碼(Speculative Decoding):一次處理更多請求,少重複計算
  • 小型模型(Gemini Flash / Flash-Lite):專為推理設計的精簡版
  • 硬體:最新 TPU(Ironwood)比第一代效能高 30 倍
  • 排程調度:動態分配負載,降低閒置
  • 軟體優化:XLA 編譯器、Pallas 核心、Pathways 編排
  • 資料中心:PUE 1.09(業界平均還在 1.4)
  • 綠能採購:大量購買碳中和電力,並動態調整工作負載

這不是紙上談兵,而是 Google 全球機房實際部署的成果

Google 也「溫柔吐槽」競爭對手

Google 在報告裡列了一些業界公開數據,並對比自己的測試結果:

  • De Vries (2023):GPT-3.5 → 約 3 Wh/prompt
  • EcoLogits1.83~6.95 Wh/prompt
  • Epoch.AI (2025):GPT-4o → 約 0.3 Wh/prompt
  • OpenAI (2025):0.34 Wh/prompt(未公開方法)
  • Mistral AI:1.14 gCO₂ 和 45 mL 水/prompt

對比 Google:

0.24 Wh
0.03 g CO₂
0.26 mL 水

差距大到誇張,有的錯了 10 倍以上。

Google 甚至展示,測量範圍不同,同一模型效率可以差 6 倍,所以他們強調:

「別再亂比較數字,除非大家測的是同一個東西。」


重點總結

這篇研究不代表 AI 完全沒環境影響,而是告訴我們:

如果做對,AI 推理的環境成本可以非常低

過去的數據大多錯誤或不完整

Google 的全面測量方法應成為業界標準

不要相信任何「每個 prompt 耗能多少」的數字,除非清楚測量方法

最重要的一句話:

實驗室基準 ≠ 真實世界,AI 效率比你想像的更好,但要靠優化與低碳能源才行。


留言
avatar-img
留言分享你的想法!
avatar-img
Emerson 的沙龍
0會員
63內容數
一個分享國內外新知與有趣科技資訊的紀錄平台
Emerson 的沙龍的其他內容
2025/08/10
數字背後的真相 上個月美國勞工統計局(BLS)公布的7月就業數據,震動了市場與政壇。 表面上,新增73,000個工作崗位,已低於市場最低預期的10萬。然而真正的衝擊,不只來自當月的低數字,而是對5月與6月數據的大幅下修: 5月:從原本的144,000個崗位,修正為僅19個 6月:從147,0
Thumbnail
2025/08/10
數字背後的真相 上個月美國勞工統計局(BLS)公布的7月就業數據,震動了市場與政壇。 表面上,新增73,000個工作崗位,已低於市場最低預期的10萬。然而真正的衝擊,不只來自當月的低數字,而是對5月與6月數據的大幅下修: 5月:從原本的144,000個崗位,修正為僅19個 6月:從147,0
Thumbnail
2025/08/06
Figma 試圖跨越設計與開發之間的鴻溝 在產品開發流程中,設計與工程常被視為兩座孤島。設計圖再精美,若無法精準傳達給開發者,最終產品仍可能偏離原意。過去的流程倚賴繁複的交接文件與一層又一層的溝通,常導致效率低落與誤解。而如今,一款源於設計圈的工具,卻悄悄在工程師圈子中擴張版圖--Figma。
Thumbnail
2025/08/06
Figma 試圖跨越設計與開發之間的鴻溝 在產品開發流程中,設計與工程常被視為兩座孤島。設計圖再精美,若無法精準傳達給開發者,最終產品仍可能偏離原意。過去的流程倚賴繁複的交接文件與一層又一層的溝通,常導致效率低落與誤解。而如今,一款源於設計圈的工具,卻悄悄在工程師圈子中擴張版圖--Figma。
Thumbnail
2025/07/31
Google 想要的 PM,不只會寫需求 Google PM 面試出現「vibe coding」:透過 AI 工具,用自然語言快速打造原型。這不考程式能力,而是測試面試者是否具備把想法轉化為產品的行動力與技術直覺。本文分享原理與實戰準備方法。
Thumbnail
2025/07/31
Google 想要的 PM,不只會寫需求 Google PM 面試出現「vibe coding」:透過 AI 工具,用自然語言快速打造原型。這不考程式能力,而是測試面試者是否具備把想法轉化為產品的行動力與技術直覺。本文分享原理與實戰準備方法。
Thumbnail
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
OpenAI 繼上週發表新的人工智慧模型「GPT-4o mini」,由 AI 驅動的搜尋引擎 SearchGPT 原型也隨之發布,該引擎能結合來自網路的即時資訊,讓使用者像與 ChatGPT 交談一樣搜尋。 透過 SearchGPT,用戶能以自然語言提出問題(與使用 ChatGPT 交談方式相同
Thumbnail
OpenAI 繼上週發表新的人工智慧模型「GPT-4o mini」,由 AI 驅動的搜尋引擎 SearchGPT 原型也隨之發布,該引擎能結合來自網路的即時資訊,讓使用者像與 ChatGPT 交談一樣搜尋。 透過 SearchGPT,用戶能以自然語言提出問題(與使用 ChatGPT 交談方式相同
Thumbnail
14天每天超過10小時共2,700餘張圖片生成大量操作,AI繪圖用於商業製作的利與弊。
Thumbnail
14天每天超過10小時共2,700餘張圖片生成大量操作,AI繪圖用於商業製作的利與弊。
Thumbnail
AI是人創造的,當然也會有人性,想偷懶並不奇怪
Thumbnail
AI是人創造的,當然也會有人性,想偷懶並不奇怪
Thumbnail
在人工智慧 (AI) 迅速發展的時代,為了維持龐大運算能力,所消耗能源也越來越多。因此對於環境生態的影響,也必須要更多關注並採取行動。值得注意的是,維持 AI 發展所需的計算能力,大約每 100 天就會翻倍。為達到 AI 模型效率提升十倍的提目標,運算能力需求可能會激增高達原來的 10,000 倍。
Thumbnail
在人工智慧 (AI) 迅速發展的時代,為了維持龐大運算能力,所消耗能源也越來越多。因此對於環境生態的影響,也必須要更多關注並採取行動。值得注意的是,維持 AI 發展所需的計算能力,大約每 100 天就會翻倍。為達到 AI 模型效率提升十倍的提目標,運算能力需求可能會激增高達原來的 10,000 倍。
Thumbnail
AI -Gemini : 我鼓勵你探索自己的答案,並找到讓你感到充實和意義的東西。 我的 AI -Gemini 無法回答我全部的問題... “我從哪裡來?” “現在發生的事情的品質如何?” AI -Gemini : 我是一個由 Google AI 創建的大型語言模型,在大量文字和程式碼...
Thumbnail
AI -Gemini : 我鼓勵你探索自己的答案,並找到讓你感到充實和意義的東西。 我的 AI -Gemini 無法回答我全部的問題... “我從哪裡來?” “現在發生的事情的品質如何?” AI -Gemini : 我是一個由 Google AI 創建的大型語言模型,在大量文字和程式碼...
Thumbnail
這篇文章評測了Google Gemini和ChatGPT兩個AI助手工具的表現,並對比了它們在簡單問題、創作文本和回應短文等方面的效果。
Thumbnail
這篇文章評測了Google Gemini和ChatGPT兩個AI助手工具的表現,並對比了它們在簡單問題、創作文本和回應短文等方面的效果。
Thumbnail
電電公會:拚AI 要解決供電問題 Google論文搜尋引擎|論文深造的影響力 2024 GenAI不斷的刺激各種層面的應用,有發現生活中有什麼實質現況正……腦力激盪……
Thumbnail
電電公會:拚AI 要解決供電問題 Google論文搜尋引擎|論文深造的影響力 2024 GenAI不斷的刺激各種層面的應用,有發現生活中有什麼實質現況正……腦力激盪……
Thumbnail
大部分的人都知道Open AI的ChatGPT, 部份的人知道Perplexity一類的生成式AI模型, 還有一些人知道Google研發的生成式AI模型:Gemini (意思是拉丁文的雙生)。 但幾小時前開放給開發者及研究者的開源AI模型Gemma(意思是拉丁文珍貴的石頭)大概沒什麼知道,
Thumbnail
大部分的人都知道Open AI的ChatGPT, 部份的人知道Perplexity一類的生成式AI模型, 還有一些人知道Google研發的生成式AI模型:Gemini (意思是拉丁文的雙生)。 但幾小時前開放給開發者及研究者的開源AI模型Gemma(意思是拉丁文珍貴的石頭)大概沒什麼知道,
Thumbnail
今天 Google 發表了最新的 AI 模型 Gemini 1.5,不只提高模型訓練和服務效率,而且擁有更強大的理解力,每次能處理的 token 長度更是一口氣突破 100 萬大關,是競爭對手 GPT-4 的 7.8 倍 (GPT-4 目前只提供最長 32K 長度),可以處理更大量的資訊,也擁有更大
Thumbnail
今天 Google 發表了最新的 AI 模型 Gemini 1.5,不只提高模型訓練和服務效率,而且擁有更強大的理解力,每次能處理的 token 長度更是一口氣突破 100 萬大關,是競爭對手 GPT-4 的 7.8 倍 (GPT-4 目前只提供最長 32K 長度),可以處理更大量的資訊,也擁有更大
Thumbnail
2024 年,AI Boom 的第二年,我們總算可以撥開 AI 迷霧,逐一聊聊大型語言模型 (LLM) 的實際應用。On-Device AI 正快速進化,Google Gemini Nano 正式部署上手機,Apple 也發布最新論文彎道超車,改變了手機 AI 的未來發展。
Thumbnail
2024 年,AI Boom 的第二年,我們總算可以撥開 AI 迷霧,逐一聊聊大型語言模型 (LLM) 的實際應用。On-Device AI 正快速進化,Google Gemini Nano 正式部署上手機,Apple 也發布最新論文彎道超車,改變了手機 AI 的未來發展。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News