近年來,AI 用電量快速飆升的新聞層出不窮。從大型資料中心的擴建,到 GPU/TPU/NPU 叢集帶來的能源壓力,這些議題看似與個人開發者或工程團隊的日常距離甚遠。然而,隨著各種本地化開發工具逐漸成為工程流程的一環──例如 Antigravity、Kiro、Cursor 等輔助式 IDE 與 AI coding agent──我開始意識到一個被忽略的現象: AI 不只在雲端耗電,它逐漸改變了我們本地端的能源消耗模式。
從「雲端推論」到「本地協作工作流」的轉變
傳統的開發工作流中,個人電腦的運算負荷相對可控: 程式編譯、單元測試、簡單的靜態分析,基本上都是短週期的高負載,之後電腦便能回到低功耗或待命狀態。 但 AI 介入後,模式完全不同。 以我近期的使用情境為例,為了探索工程工作流的自動化極限,我在上述工具中反覆投入長 prompt、設定多階段任務,讓模型主導輸出、生成、修改、重跑流程。這些 AI-driven pipelines 帶來兩個顯著改變:
1. 長時間高負載運算成為日常
許多 AI 開發工具會: 調用本地 LLM runtime 持續監控檔案系統 自動生成、執行並反覆測試程式碼 跑高頻率的背景推論(例如 coding suggestion + plan refinement) 當這些任務啟動後,即便我離開電腦、睡覺或外出,工作機依然全速運作──CPU、GPU、NPU、記憶體長時間保持 Active。
2. 本地端不再允許休眠
過去電腦會隨著使用者 idle 自動進入 sleep mode,這對筆電與桌機的能耗管理非常有效。但 AI 工作流通常無法接受睡眠中斷,因此我被迫將設定調整為:
Never sleep
Never turn off display(部分工具視為 idle)
Prevent system idle state for long-running tasks
結果是,原本偶爾高負載的工作機,演變成了一台 長時間在線的準伺服器。
本地 AI 推論的能源成本:被低估的「個人邊緣運算」
當 AI 這種高運算密度工作負載普及到本地端,便產生一個有趣的現象: 全球 AI 用電量不只是資料中心變多,而是每一位使用者的電腦也開始成為小型推論節點。 以下是我觀察到的典型行為模式:
以前:我離開座位 → 電腦休眠 → 用電降到極低
現在:我離開座位 → AI 持續推論或生成 → 電腦風扇持續全速運轉
這意味著: 本地端能耗不再與「人」同步,而是與「AI 任務」同步 工作用電不再僅依賴雲端,而是雲端 + 本地雙向疊加 每位工程師都在無意間把自己的開發環境升級成 edge compute node 對生產力來說,這是一個巨大的進展; 但對能源管理來說,則是新的挑戰。
為什麼這個現象值得工程團隊與企業思考? 綜合觀察,我認為這個趨勢應該被納入未來的工程效能與成本模型:
1. 個人硬體正在成為 AI 基礎設施的一部分
越來越多工具開始支援: 本地 LLM (e.g. Llama, Deepseek, Phi 系列) GPU/NPUs on-device 推論 背景自動化工作流 也就是說,開發者的筆電正在被當成「邊緣伺服器」。
2. 能源成本必須被納入工程生產力的計算
過去工程效能提升主要看: 時間成本 人力成本 雲端運算成本 但接下來需要加進一項新的指標: AI-enhanced local development 的能源成本(Local AI Energy Cost, LAEC) 尤其是在大型團隊、硬體昂貴的內網開發環境下,這個成本會變得越來越有意義。
3. 電力規畫與設備散熱將成為 IT 部門的新課題
如果團隊大規模採用本地推論工具,將可能帶來: 插座用電負載提升 辦公室散熱需求增強 工作機壽命縮短(長期高負載運作) 這些都不是以往軟體 RD 需要面對的問題。
結語:AI 改變的不只是速度,而是整個工作環境的能耗模型
AI 確實讓開發者的生產力突破極限,但我在這段時間的親身經驗讓我深刻體會: AI 帶來的改變並不只在「雲端運算量變大」, 而是在「每個人的本地端也悄悄成為 24/7 運轉的運算節點」。 這不僅是一個技術現象,也是一個能源、硬體與工作模式轉型的訊號。 也許未來的工具與 OS 將會為此調整: 更智慧的 AI 任務節流 能源感知型推論模式 「AI-aware power management」成為標準功能 但在這些技術到位之前,工程師與組織可能都必須重新思考: 如何在 AI 驅動的高生產力和能源永續之間找到平衡。














