AI 真的在耗盡地球資源嗎?
過去幾年,AI 的環境影響幾乎都集中在「訓練」階段。大家想像的是數以千計的 GPU,連續跑幾週,消耗海量電力,排放大量碳。但現在,真正的問題已經不是訓練,而是推理(Inference)。
推理是什麼?就是我們每天在用的 ChatGPT 對話、Google Gemini 查詢、自動補字。這些請求每天發生 數十億次,比訓練頻繁得多。如果 AI 真的這麼耗能,那地球早就撐不住了。
問題是:沒有人真正知道,每個 AI 問題(prompt)要耗多少電、排多少碳、用多少水。過去的數據幾乎全是猜測,有人說一次 AI 問答要用 3 Wh,有人說 6 Wh,甚至還有人說一個問題要用掉 45 mL 的水。Google 說:「夠了,我們來測真正的數據。」
結果?不只不是大家想的那樣,還低到讓你驚訝。
Google 的實測結果:Gemini 一個問題 ≈ 看電視 9 秒
Google 發布論文《Measuring AI’s Environmental Impact at Production Scale》,實際測量 Gemini App 在 Google 全球資料中心的推理能耗,結果顯示:
✅ 0.24 Wh 能耗
✅ 0.03 公克 CO₂ 排放
✅ 0.26 mL 水消耗
換個方式理解:
- 電力:問 Gemini 一次問題 ≈ 看電視 9 秒鐘
- 水:大約 5 滴水
- 碳:和 寄一封短電子郵件差不多
而且,這個數據比去年同一系統省了 33 倍能耗、44 倍碳排放!
為什麼以前的數據都錯了?
因為大部分的報告都是「實驗室數據」或「猜測模型」,通常只做以下兩種:
- 根據硬體規格與模型大小估算
- 用單一 GPU 做測試,然後直接放大
但這樣有兩個大問題:
- 沒有算整個系統:除了 AI 晶片(GPU/TPU),還有 CPU、記憶體、網路設備
- 忽略現實因素:像待機能耗、資料中心冷卻、功率轉換損耗、伺服器閒置率
Google 發現,這些「缺漏」會讓能耗少算一半以上。實驗室基準 ≠ 生產現實。

Google measured energy usage across their entire Gemini production fleet
Google 怎麼做?量測整個堆疊
Google 採用「全面實測法」,涵蓋整個 Gemini 生產環境,不只算 AI 運算,還包含:
✅ AI 加速器能耗(TPU 運算)
✅ 主機能耗(CPU + DRAM)
✅ 待機能耗(隨時待命的伺服器)
✅ 資料中心損耗(冷卻、電力轉換,透過 PUE 衡量)
結果,僅僅是「有沒有算上這些」,能讓同一模型看起來 差 6 倍效率!Google 用 Llama 3.1(70B)做對比,結果顯示:
- 只算 AI 晶片 → 3600 個 prompt/kWh
- 全面計算 → 580 個 prompt/kWh
這也是 Google 在論文裡暗示的重點:不要隨便比較數字,除非知道測量範圍。
那碳排和水呢?
Google 用 市場基準法(Market-Based Accounting)計算碳排,反映他們購買的乾淨能源,並納入:
- 範疇二(Scope 2):使用電力的排放
- 範疇一與三(Scope 1+3):硬體製造過程的隱含碳排
結果:0.03 gCO₂ / 每個 prompt。
水的部分,他們用 **WUE(Water Usage Effectiveness)**換算冷卻用水,結果只有 0.26 mL,還控制了地點、季節、冷卻方式。
這意味著,這個數字真的反映現實,而不是理想化估算。
為什麼 Google 的數字這麼低?因為它們優化到極致
Google 用了全棧優化策略,讓 Gemini 變得更省電、更快:
- 模型架構:Gemini 採用 Mixture-of-Experts 和量化,減少活躍參數
- 批次處理 & 預測解碼(Speculative Decoding):一次處理更多請求,少重複計算
- 小型模型(Gemini Flash / Flash-Lite):專為推理設計的精簡版
- 硬體:最新 TPU(Ironwood)比第一代效能高 30 倍
- 排程調度:動態分配負載,降低閒置
- 軟體優化:XLA 編譯器、Pallas 核心、Pathways 編排
- 資料中心:PUE 1.09(業界平均還在 1.4)
- 綠能採購:大量購買碳中和電力,並動態調整工作負載
這不是紙上談兵,而是 Google 全球機房實際部署的成果。
Google 也「溫柔吐槽」競爭對手
Google 在報告裡列了一些業界公開數據,並對比自己的測試結果:
- De Vries (2023):GPT-3.5 → 約 3 Wh/prompt
- EcoLogits:1.83~6.95 Wh/prompt
- Epoch.AI (2025):GPT-4o → 約 0.3 Wh/prompt
- OpenAI (2025):0.34 Wh/prompt(未公開方法)
- Mistral AI:1.14 gCO₂ 和 45 mL 水/prompt
對比 Google:
✅ 0.24 Wh
✅ 0.03 g CO₂
✅ 0.26 mL 水
差距大到誇張,有的錯了 10 倍以上。
Google 甚至展示,測量範圍不同,同一模型效率可以差 6 倍,所以他們強調:
「別再亂比較數字,除非大家測的是同一個東西。」
重點總結
這篇研究不代表 AI 完全沒環境影響,而是告訴我們:
✔ 如果做對,AI 推理的環境成本可以非常低
✔ 過去的數據大多錯誤或不完整
✔ Google 的全面測量方法應成為業界標準
✔ 不要相信任何「每個 prompt 耗能多少」的數字,除非清楚測量方法
最重要的一句話:
實驗室基準 ≠ 真實世界,AI 效率比你想像的更好,但要靠優化與低碳能源才行。