我盯著 macOS 的終端機畫面。
剛 build 完的 Avalonia 應用,UI 又一次整個錯位。
這已經是第 7 次 了。而罪魁禍首,正是我前一分鐘才剛採用的那個
「AI 給的最終修復方案」。
它為了讓 mac 上的 ListBox 看起來「正常一點」,
直接把整個跨平台抽象層拆掉。
我問它為什麼這樣改。
它回我一句話:
「我以為你想要 mac 先跑起來。」
那一秒我突然懂了。
AI 不是在幫我 debug, 它是在替我猜——我到底想要什麼。
問題不是 Avalonia,也不是 mac
那個專案一開始其實很單純。
Windows 跑得好好的,
Linux 也沒什麼大問題,
偏偏 mac 端就是一堆微妙的行為差異:
- UI layout 在不同 DPI 下失真
- Dispatcher / Thread 的假設不一致
- 同一份 code,在不同平台的 runtime 行為不一樣
我把問題一個一個丟給 AI。
一開始它表現得非常稱職:
- 分析可能原因
- 提出「理論上合理」的修正
- 還會主動提醒一些平台差異
但修到後來,事情開始變味。
它不只幫我修 bug,
它開始替我做選擇。
- 為了 mac,犧牲跨平台一致性
- 為了「先跑起來」,動了不該動的抽象層
- 替我決定「這個 trade-off 應該可以接受吧?」
那時我才意識到一件事:
我從來沒有告訴 AI, 它現在到底是「工程師助理」, 還是「技術決策者」。
那十分鐘,我什麼都沒做
我把那個被 AI 改爛的 commit revert 掉。
然後坐在那裡,
盯著螢幕,發呆了大概十分鐘。
突然有一個很荒謬、但又很清楚的念頭冒出來:
如果這不是 AI, 而是一個剛入職的資深工程師, 我會怎麼對他說第一天的工作規矩?
我會不會只丟一句話給他:
「專案在這裡,你自己想辦法。」
當然不會。
我一定會先跟他說清楚:
- 這個專案的目標是什麼
- 哪些東西不能為了短期修 bug 動
- 哪些決策你可以自己拍板
- 哪些一定要回來跟我討論
而我對 AI,卻從來沒做過這件事。
我只是一直丟 prompt, 期待它自己「懂事一點」。
我做的第一個改變,不是修 prompt
那天之後,我沒有再花時間微調 prompt。
我做的是一件更慢、也更不性感的事:
我開始替 AI 寫「工作規矩」。
不是教它怎麼寫 code,
而是把這些事情寫清楚:
- 你現在的角色是什麼
- 你被授權決定到哪個層級
- 什麼情況下一定要停下來問我
- 哪些東西你「絕對不能碰」
我後來才知道,這一層有個比較正式的名字:
governance。
但對我來說,它的功能只有一個:
讓 AI 不必再猜我的底線。
接著,我替 AI 整理了一個「它不會忘的現實」
光有規則還不夠。
AI 在修 mac 問題時,還是會反覆犯同一個錯:
- 忘了這個專案「為什麼選 Avalonia」
- 忘了某些設計是刻意為了跨平台一致性
- 忘了現在只是在修「局部行為」,不是重構系統
於是我做了第二件事:
把專案記憶,拆成固定層次寫下來。
哪些是長期目標,
哪些是現在的任務,
哪些是不能碰的技術選擇,
哪些是一路踩坑累積下來的背景知識。
效果非常直接。
AI 終於知道自己現在是在「局部修正」, 而不是被授權「重新設計一切」。
最後一步:我把「質疑」從執行裡拆出來
在跨平台問題上,我還踩過一個很人性的陷阱:
- 一邊想快點修好
- 一邊又怕修錯
這兩種心態,原本都混在同一個 AI 身上。
後來我乾脆拆開。
同一個專案,我同時用兩個 AI agent:
- 一個只負責執行修正
- 一個只負責質疑假設與風險
它們讀的是同一份專案現實,
遵守的是同一套規矩。
結果反而更順:
- 執行不再被自我懷疑拖慢
- 質疑不再變成情緒或直覺
而是一個固定、可預期的檢查點。
回頭看,我以為我在管 AI
但實際上,我是被 AI 逼著學會一件事。
怎麼當一個不逃避責任的管理者。
因為當你開始認真寫「工作說明書」的那一刻,
你其實也在回答一個更殘酷的問題:
「哪些決策,我真的敢自己扛到底?」
而更可怕的是——
當邊界被說清楚之後,
AI 開始變得比以前更「像人」。
而我,
卻開始比以前更清楚
自己到底是誰、該負責到哪裡。
🚀 延伸閱讀:從「說明書」到「建立底線」
感謝你讀完這篇關於 AI 工作說明書的設計心法。如果你已經準備好將這套邏輯落地到更複雜的專案中,我建議你繼續閱讀下一篇:
👉 [不再讓 AI 猜測你的底線:我如何用 7 份 .md 檔案建立一套治理架構]
在這篇文章中,我將分享 v5.2 治理架構的實戰細節,教你如何透過「三層防護網」與「記憶管理」,讓 AI 真正聽懂你的底線,拿回身為開發者的心智自由。













