許多主管這一年都有個共同困惑:工具買了、帳號開了、團隊也開始使用,但「總工時並未顯著縮短」。表面上看似有效,實務上卻充滿摩擦:有時 AI 回覆品質不佳,無法直接採用;有時耗費半天輸入資料,最終仍需自行重寫;甚至感覺比以往更忙碌,因為新增了一項職責:管理 AI。
原以為 AI 能倍數提升任務速度,但實際感受到的效率增幅卻相當有限。原因不單是使用習慣改變或模型能力不足,而是 AI 引入了兩項新限制:第一,必須提供足夠的背景脈絡(Context);第二,必須檢查 AI 輸出的正確性。若這兩項沒做好,產出品質便無法達標;一旦執行,時間成本又隨之增加。
我近期設計的教育訓練課程多屬高度客製化,正是「時間被隱形成本吃掉」的典型案例。雖然初期能利用語音工具(如 Typeless)降低輸入負擔,但在後續階段,仍需備齊生成講義所需的資料來源、判斷與主題的關聯性、重新編排內容;產出後,還需決定採用哪套既有技能模組(Skill,例如 taiwan.md、deck.md)處理文字與版型,最後甚至連 RWD 介面的閱讀體驗、簡報模式的導覽錯誤都需修正。AI 節省的是中段的「寫作時間」,但大幅增加了前段的「脈絡整理」與後段的「驗證與上線」成本。一、為何研究數據顯示「省很多」,你卻感覺「省不多」
許多研究測量的是「單一任務執行時間」(Task-level time)——即從輸入指令到 AI 回覆的區段,而非端到端交付的總工時。
例如 Anthropic 於 2025 年 11 月發表的研究,分析 10 萬筆真實對話,估算任務「有 AI」與「無 AI」的時間差,發現對話層級的時間節省中位數約 84%。但該研究也明確指出:此估算未包含使用者在聊天視窗外,為將輸出修正至可交付狀態所投入的工作,亦未計算跨多次對話反覆修訂的成本。對話階段變快,不代表專案能提早結案。
較貼近職場現況的調查則呈現「有限但存在」的改善。倫敦政經學院(LSE)與 Protiviti 的報告指出,使用 AI 的受訪者自述每週平均省下 7.5 小時;但強調「訓練」才是關鍵:受過訓練者的使用率與節省時間皆顯著高於未受訓者。這對主管的意涵在於:購買工具不等於購買產能,訓練與流程設計才是提升產能的核心。
值得注意的是,部分場景甚至可能變慢。METR 在 2025 年 7 月針對資深開源開發者進行的隨機對照試驗顯示:允許使用 AI 工具時,完成任務平均多花 19% 的時間,儘管開發者主觀上仍認為變快了。此落差的主因,正如前述,在於「審查、修正、整合」的隱形成本被低估。
因此,主管需面對一項現實:AI 雖加速了某些執行步驟,但整體改善感不明顯,並非使用方式錯誤,而是工作流程本就不止於「生成」該階段。
二、AI 導入後的三段式工作流:前段脈絡、中段生成、後段驗證
可將 AI 視為一位聰明反應快、但缺乏判斷力的實習生:指令清晰,執行就快;指令模糊,則會「自信地產出錯誤內容」。為確保產出可用,主管需執行兩項新任務:第一,釐清並提供背景脈絡;第二,逐條檢查產出內容。這兩項即是新增的管理成本。
多數知識工作至少包含三階段:
- 前段:定義問題、蒐集資料、確認標準、補齊脈絡。
- 中段:生成(AI 擅長的環節)。
- 後段:驗證、整合、格式化、交付、上線後修正。
AI 主要改善的是「中段」,但也同時墊高了前後段的門檻:若要求品質,前段需提供更多脈絡;若要規避風險,後段需檢驗得更仔細。省下的生成時間,常被前後段的額外工時抵銷,甚至倒貼。
小結來說,AI 的價值不在於生成速度,而在於能否有效控管前後段的成本。
三、主管行動一:將「脈絡」轉化為組織資產
若每次任務都需重新整理脈絡,產能便難以大幅提升。必須將脈絡轉化為「可重複使用的資產」,避免同仁重複做白工。
將脈絡分層,避免雜亂輸入 主管可要求團隊採用統一結構整理資料,建議至少分為三層:
- 任務層脈絡:本次需處理的資料、事件、限制條件、交付形式。
- 類任務脈絡:此類工作的一貫格式、禁令、常見錯誤、評核標準。
- 組織層脈絡:公司策略、部門目標、合規要求、品牌語氣、責任邊界。
實務上,使用者常只提供「任務層」,卻期待 AI 自行推斷其他兩層,導致反覆補充與來回改稿。 以客製化講義為例,我針對後兩層的處理方式如下:taiwan.md 處理「類任務脈絡」(語法與用語規範);deck.md 詳述簡報切頁與 RWD 版型規格;而問題定義、參考資料與核心主張,則屬「組織層脈絡」。例如,對醫療管理者談治理與效率,而非工程技術;對房地產業務談合規與隱私,而非模型選擇。
建立「脈絡供應鏈」:定義維護者、更新頻率與版本規範 許多主管導入初期聚焦於「提示詞教學(Prompting)」,但很快會遇到瓶頸。關鍵不在於提示詞寫得好壞,而在於誰負責將資料與規範轉化為可用資產。 每份脈絡資產皆需標註「負責人、版本號、更新頻率、適用範圍」。否則脈絡檔案將隨時間增生雜亂,最終淪為「各自存檔、版本不一」。
語音加速輸入,需搭配「口語轉規格」機制 語音是降低輸入負擔的關鍵,能快速輸出想法,但口語通常鬆散、跳躍且冗長。要轉化為 AI 可用的脈絡,建議加入「將口語草稿整理成規格化指令」的步驟(即 Meta-prompting 概念):先讓模型反問補充問題或重整段落,再進入正式生成階段。
四、主管行動二:將重複工作封裝為 Skills/Promptbook,降低管理成本
主管的職責是將「AI 管理成本」從個人手工操作,轉化為流程化、版本化的工具。
定義 Promptbook 的最低標準:不只是範例,更是工作方法 許多團隊的 Promptbook 最終淪為「截圖集」或「靈感牆」,缺乏實用性。能有效節省時間的 Promptbook,應包含:
- 適用情境:明確定義適用與不適用的工作類型。
- 必填欄位:若缺漏關鍵資訊(如資料來源、受眾、交付格式)則暫停生成。
- 輸出格式:對段落、標題、表格、引用格式的強制要求。
- 驗證清單:必須人工核對的項目(如數字、法規、對外承諾語句、引用來源)。
- 失敗策略:系統不確定時的應對方式(如要求補件、標註不確定、拒絕臆測)。
利用工作流工具打造「多步驟流程」,強制執行檢核與回饋 若僅靠自我約束,容易發生跳過檢核、引用或回饋的情況。此時可利用如 Google Opal 這類工具,將提示詞、模型呼叫與工具串接為多步驟流程(Mini App):先定義問題與提供資料 → 生成 → 執行檢核 → 要求引用 → 提供回饋。這能建立持續改善的迴路。若涉及更複雜的自動化流程,則可考慮 n8n 或 make.com 等工具。主管有責任建構此類固化流程。
將 Skills 視為「知識資產」管理,而非個人秘笈 當團隊開始建立 Skills,隨之而來的問題是維護與擴充。我認同 Anthropic Agent Skills 的設計思路:將 Skills 視為檔案與資料夾的組合,將程序知識與組織脈絡模組化,待系統需要時才載入。對管理者而言,重點在於版本控管、變更追溯與版本回溯。需建立明確的回饋與改版機制,避免資產隨時間越趨混亂。
五、正視第二項限制:驗證成本無法消除,僅能降低
前述的第二項限制——檢查 AI 輸出正確性——在醫療、法務、財務等高風險情境中,重要性甚至高於生成本身。主管應避免將驗證視為「使用者自行負責」的個人任務,否則將導致事故發生,或因恐懼風險而不敢使用。
較務實的做法,是將驗證成本「制度化、工具化、可分工」:
- 制度化:明確規範需附來源或需二次覆核的輸出類型。
- 工具化:優先採用 RAG(檢索增強生成);利用差異比對工具;建立固定檢核表。
- 可分工:將「生成」與「驗證」職責分離,避免同一人邊生成邊修改,導致盲點。
同時,主管需考量資安風險。如提示詞注入(Prompt Injection)攻擊,即利用模型「指令與資料混合」的特性,誘導系統偏離規則。OWASP 將此列為 LLM 首要風險,因其直接影響輸出可信度與資料安全。這類風險使「驗證」成為常態成本,必須嵌入流程,而非僅依賴個人警覺。
六、給主管的導入建議:將節省的時間轉化為組織產能
主管若要對 AI 帶來的產能提升有感,通常需滿足兩項前提:
- 將「經驗與脈絡」轉化為數位資產:讓產出不再是每次重來的「手工活」,而是可持續累積、改善的資產。
- 將重複性工作「技能化」:將流程封裝為 Skills 或 Promptbook,並確保驗證與回饋機制融入日常工作流。
主管追求的生產力,不應是逼迫團隊與 AI 競速,而是透過 AI 改善協作邏輯,建立更精實、減少浪費的組織工作模式。














