Gavin Wu-avatar-img

Gavin Wu

10 位追蹤者

Gavin Wu

10 位追蹤者
avatar-img
Gavin Wu的沙龍
13會員
42內容數
資深工程師 / 奶爸 / INTJ 習慣用系統化思維,分析生活中的一切。這裡不提供標準答案,只分享一個工程師如何 Debug 自己的倦怠、焦慮與家庭戰場。
全部內容
由新到舊
我最近做了一個決定。 當時看起來完全合理,甚至可以說,是在讓系統變得更完整。 我在 ai-governance-framework 裡,加了一層新的檢查機制。 AI 幫我補齊了邏輯,邊界也變得更清楚,甚至連文件都一起長出來。整個過程沒有卡住的地方。 幾天後,我才意識到一件事: 這個功能,從
前三篇,我們建立了一條看似完整的推論:AI 會侵蝕架構,contract 無法約束生成過程,所以 governance 必須具備決策能力,甚至需要否決權。 這條推論本身沒有錯。真正有問題的,是它偷偷依賴了一個工程師很容易相信、但現實常常不買單的前提: 只要系統設計正確,它就會被持續使用。 實際
上一次,我們停在一個看似合理的結論: AI 與 codebase 之間,需要一個持續運作的 Governance Layer。 這一層的存在,是為了讓架構不再只是一份文件,而是能在開發過程中持續發生作用。 這個方向沒有錯。 但這裡其實有一個被忽略的前提: 如果 governance 只是另
最近在開發 Ashfall 的時候,我刻意組了一個極度危險的 build——高傷害、低血量,外加一個帶來致命副作用的機制。 我原本只是想做一個「Fallout + roguelite like」的遊戲。照理說,按下攻擊的瞬間,不是整排敵人被一波帶走,就是我自己當場暴斃。那種在按下去之前,會因為不知
我開始懷疑一件事。 就算你已經看見問題, 人,還是可能不會改變。 — Mirra 會定期產生一份分析報告。 那一週,我點開之後,其實只看了幾秒。 因為它寫的東西,我全部都知道。 它說: 我在做的 AI 治理框架,投入非常深。 甚至覺得「比玩遊戲還有趣」。 同一段文字裡,它也寫了另外兩
Thumbnail
上個月,我被自己寫的程式碼卡住了。 不是 bug,也不是效能問題,而是它讓我不知道該怎麼回應。 畫面上只有三段資料。 第一段,是我日記裡的一句話: 「這週末我不要再碰工作了,我想好好陪小孩。」 第二段,是我那兩天的決策紀錄。星期六晚上,我選擇回去改一個其實可以延後的 bug;星期天早上,我
上週我花了 40 分鐘 review 一段 AI 產生的 PR。功能正確、測試全過、CI 也是綠燈。從任何傳統指標來看,它都是一段「沒有問題」的程式碼。 但我盯著其中 12 行 code 看了很久,才意識到一件事——它把整個 service layer 繞過了。 這不是 bug,而是 AI 的預
AI Coding 的下一步:把架構變成 Machine-Readable Rules 在上一篇文章〈AI 寫程式三個月後,它開始忘記你的架構了〉裡,我提到一個很多工程師正在遇到的問題: 在長期專案中,AI 很容易逐漸偏離原本的架構設計。 它可能在 Repository 層加入 HTTP re
最近一年,AI coding 工具的進步速度非常快。 從 GitHub Copilot、Cursor,到各種 AI coding agent,現在很多工程師的工作流程都已經變成: 用 AI 產生程式 自己 review 再修改 對很多軟體工程師來說,這其實是一個很大的生產力提升。 但在實
AI Coding 的下一個問題不是 Prompt,而是 Context Governance AI 寫程式已經不再是問題。 現在的 AI(Claude、Cursor、Copilot)可以在幾秒內生成完整功能,甚至幫你重構整個模組。 但當一個專案持續兩個月、三個月之後,一個新的問題開始出現:
陳Solomen-avatar-img
2026/03/11