你有沒有這種經驗:
同樣一件事,昨天 AI 幫你做得很好,今天換個時間問,結果完全走樣。或者同事問出來的效果,跟你問出來的差了一截,但你們用的明明是同一個工具。很多人第一直覺是:「AI 就是這樣,不穩定。」
但其實,問題通常不在 AI,而在我們給它的「工作條件」。
AI 不是在理解你,而是在猜測你的意思
要搞懂為什麼 AI 會不穩定,先要理解它實際上在做什麼。
當你輸入一段話,AI 並不像人類同事那樣真的理解你的背景、你的目的、你想要什麼樣的結果。它做的事情,是根據你給的文字,預測最可能的回應是什麼。
這意味著:你給的文字越模糊,它「猜」的空間就越大,結果就越難預測。
舉個例子。你叫新人幫我整理一下上週的會議紀錄,這句話對一個有脈絡、有背景知識的同事來說沒問題。但對 AI 來說,這句話裡有太多未定義的事:
- 整理是摘要、還是逐字稿?
- 格式是要條列、還是段落?
- 重點放在決議、還是討論過程?
- 語氣是正式報告、還是內部備忘?
每一個空白,AI 都會自行填補。填得準不準,就成了「看運氣」的來源。
指令越長,不代表越好,而且會讓你多花錢
發現 AI 不穩定之後,很多人的直覺是多寫一點。加更多說明、更多例子。
這個方向對,但方法常常是錯的。
堆疊大量文字的指令,往往反而讓 AI 更難抓到重點。就像你給新人一份二十頁的 SOP,他看完還是不知道最重要的三件事是什麼。
但這裡有個重要的區分:有些長,是必要的;有些長,是浪費。
必要的長,例如:指定 AI 只能從特定資料來源回答、限定它必須按照某個流程步驟執行、或者規範輸出要符合特定格式路徑。這些內容不寫清楚,AI 就會自行發揮,反而出錯。
不必要的長,則是各種重複說明、情緒性的語氣詞、或者同一件事換了幾種說法堆在一起。這些文字不只沒用,還會稀釋掉真正重要的指令,讓 AI 搞不清楚優先順序。
而且這件事有直接的成本含義。AI 的計費方式是按 Token(文字量)計算,每一次呼叫,指令裡的每個字都在計費。如果你的指令裡有三成是無效冗字,那等於每次執行都在白白付錢。當這套指令被封裝進助理、或整合進自動化流程大量觸發之後,這個浪費會快速放大。
真正有效的指令,不是多,而是每一句話都有它存在的必要性。具體來說,一個穩定的 AI 指令通常需要回答以下幾個問題:
1. 你是誰(能力與經驗設定) 很多人習慣給 AI 一個職稱:「你是一位資深 HR 主管」。但職稱其實很空洞。AI 對「HR 主管」的想像,不見得跟你預期的一樣。
更有效的做法,是描述能力與經驗的組合:「你熟悉勞動法規與績效管理制度,曾協助組織處理人員異動與跨部門溝通,習慣用條理清晰、避免情緒化的語言表達敏感議題。」
這樣的設定告訴 AI 的,不是一個頭銜,而是它應該從什麼知識背景出發、擅長處理什麼類型的問題、以及遇到模糊情境時應該如何取捨。這才是真正影響輸出品質的底層框架。
2. 你要做什麼(任務定義) 不是「幫我寫」,而是幫我寫一封給主管的週報信,說明這週的三個進度與一個待解決的問題。任務越具體,偏差越小。
3. 你給誰看(受眾設定) 同樣的資訊,給董事會看和給第一線員工看,呈現方式應該完全不同。很多人忽略這個環節,然後困惑為什麼 AI 的語氣不對。
4. 什麼不能做(限制條件) 很多人只寫要什麼,卻忘了寫不要什麼。事實上,反向限制往往比正向描述更有效。因為它直接封鎖 AI 最容易出錯的方向。
舉幾個常見的例子:「不要自行發明數據」、「不要使用第一人稱」、「不要給出建議,只整理事實」、「若資訊不足,請直接說不知道,不要猜測」。
最後一條尤其重要。AI 有一個根深蒂固的傾向:它不喜歡說我不知道。沒有明確禁止的情況下,它會傾向用聽起來合理的答案填補空白,而不是如實告訴你它沒有足夠資訊。這是 AI 應用裡最常被忽略、也最容易造成錯誤的風險點。在治理指令裡明確寫出不確定時請說明,不要猜測或捏造,是最基本的品質防線。
5. 你要什麼格式(輸出規格) 明確告訴 AI 你要的結構。要幾個段落、要不要標題、需不需要摘要。格式不說清楚,每次結果都長得不一樣。
治理指令的概念就是將 SOP 給 AI
理解了上面這些之後,AI 治理指令的概念就不難理解了。
治理指令,簡單說,就是為 AI 設計的工作規範。就像組織裡有 SOP、有職位說明書、有工作流程,AI 治理指令就是把這些東西翻譯成 AI 能接收的語言。
一個好的治理指令有幾個特點:
可重複使用:不是每次臨時想一段話,而是設計好一套模板,下次直接套用,結果高度一致。
可被複製:同一份指令,換同事來用,效果應該差不多。不能只有某個人用得順,換人就失靈。
可以調整:遇到不同的情境,知道要改哪個變數,而不是整段重寫。
這個概念在個人效率層次是讓自己用 AI 更穩定,在組織層次則是讓整個部門的 AI 應用有一致的品質基準。
指令穩定之後,下一步才是封裝成AI 助理
很多人設計好治理指令之後,還是每次手動貼一遍。這很可惜,因為有更好的做法。
現在主流的 AI 平台都提供「自訂助理」的功能,如:ChatGPT 的 GPTs、Google Gemini 的 Gems。這些工具讓你把治理指令存進去,變成一個有固定角色與行為規範的 AI 助理。你或你的團隊只要呼叫這個助理,它每次都在同樣的框架下工作,不需要重新說明背景,也不會因為使用者不同而產生偏差。
這一步的意義不只是省事。它代表你把個人的指令技巧變成了組織可共用的工具。部門裡不同人用的是同一套規範,輸出品質自然趨於一致。
然後,還有更進一步的可能。
當一個 AI 助理的指令邏輯穩定、輸出品質可預期之後,它就具備了轉為程式整合的條件。透過 API,同一套指令可以嵌入自動化流程。例如 Make 或 n8n 這類工具,讓 AI 不再需要人工觸發,而是在特定條件下自動執行任務,收到表單就自動整理、有新資料就自動摘要、完成分析就自動寄出報告。
這條路徑,是許多企業 AI 導入的基本流程:
手動測試指令 → 封裝成助理 → 穩定後接 API → 整合進自動化流程
每一步都建立在前一步的基礎上。而起點,是把指令設計好。
一個可以馬上試的練習
如果你現在想測試自己的指令品質,可以試試這個方法:
把你平常用的 AI 指令,拿給一個不了解你工作背景的人看,問他:你看完這段話,知道 AI 應該產出什麼嗎?
如果對方看完還是不清楚,那你的 AI 也不會清楚。
好的指令,是讓任何人(和任何 AI)看了都能執行的說明書,而不是只有你自己看得懂的備忘。
從會用 AI到管理 AI
AI 工具的普及,正在悄悄改變一個職場能力的標準。
以前,「會不會用 AI」是加分題。現在,這已經變成基本門檻。下一個階段的競爭,會是能不能穩定地用 AI 產出品質一致的結果、能不能讓AI產出更好更穩定的結果及能不能把這套能力擴散到整個團隊。
這不只是技術問題,而是一個管理問題。你如何設計工作流程,讓 AI 成為你可以信賴的協作者,而不是一個每次要重新磨合的工具。
治理指令,是這個問題的起點。