前言
2026 年 4 月初,Andrej Karpathy 在 X 上發了一篇「LLM Knowledge Bases」,描述怎麼用 AI 把原始素材編譯成一座個人知識 wiki。學習圈大熱,很多朋友來問我有沒有這樣做。
老實說我沒仔細去讀 Karpathy 的原文。但這件事我本來就介在想做跟拖延之間很久了,朋友們一直問,我就動手了。
兩天之後,我用 Claude Cowork 把散落在四個地方的十幾年筆記,整理成 51 張知識卡片和一座可搜尋的個人 Wiki。這篇是完整的實作紀錄,特別寫給跟我一樣「不是從零開始,而是要整理一堆舊檔案」的人。
為什麼「先清理」比「先做卡片」重要
Karpathy 的做法是從零開始收集新素材,丟進 raw/ 資料夾,AI 邊收邊編譯。但我的情境完全不同:我的素材已經存在十幾年了,散落在桌面、下載區、文件夾、Google Drive 四個地方,品質參差,有些根本過時了。
如果直接讓 AI 做卡片會怎樣?答案是 garbage in, garbage out。一堆品質參差的卡片混在一起,之後你要花更多時間回頭整理。
所以我多了一個 Karpathy 大概不需要的步驟:資料清理。而這個步驟反而花了最多時間(一天半),卻也決定了後面所有卡片的品質。
整個流程的底層邏輯,其實跟數據分析師的標準工作流一樣:資料清理 → 分析 → 解讀與洞察。
六步驟流程摘要
STEP 1 資料清理:請 AI 掃描四個存放區,設計分類邏輯,去重複,淘汰過時素材。AI 在過程中會給你一些意想不到的回饋:「你在經濟學領域一直在輸入但幾乎沒有輸出」、「這三份檔案只是檔名不同」。清理完的那一刻我覺得一陣清爽,難怪所有人跟龍蝦合作的起手式都是整理檔案。
STEP 2 知識點萃取:跟 AI 說一句白話「幫我把這些素材做成可以索引的卡片跟互相串聯的 wiki」,AI 會主動提議格式,你負責判斷。格式是聊出來的,不是規劃出來的。AI 從我自己寫的文章開始做,一個晚上不到跑完 39 張卡片。做完的時候我開心的不得了「我也是個有知識庫的人類了」,但想想這才是開始,沒有 CI/CD 只是 Lab,無法維護只是玩具。
STEP 3 補遺:你一定會發現少了什麼。我想起 Google Drive 裡還有一批讀書筆記和簡報,但 Google Drive 的搜尋有不少限制(搜不到 Slides 和上傳的 .pptx),最後是自己手動下載再讓 AI 處理。
STEP 4 再萃取:第二輪快很多,因為格式、分類、交叉引用都有了基礎。但會遇到格式限制,全圖片的簡報 AI 讀不動,就跳過。反正做了都比沒有多。
STEP 5 Dashboard:請 AI 做了一個儀表板,包含 KPI 總覽、主軸分佈、樞紐卡片排名、知識網絡圖(大家很喜歡的「點點宇宙」)、還有 AI 給我的功課(待補清單)。第一次看到自己的知識結構長什麼樣:平台經濟寫了一堆,醫療經濟只有 2 張卡。
STEP 6 排程維護:規劃中,AI 目前卡關中。但即使沒有自動排程,每週手動花 30 分鐘更新也比完全不維護好。
最有價值的不是卡片,是連結
51 張獨立的卡片只是 51 篇摘要。但 206 條雙向連結讓它變成一個網絡。
我因此發現:皮凱提的 r > g(資本收益率長期高於經濟成長率)跟平台經濟的抽成邏輯是同一個結構;明斯基的泡沫理論(技術樂觀 → 信貸寬鬆 → 集體健忘 → 估值指南針消失)跟內容護城河的崩塌速度有相似模式。
這些跨領域的連結,自己想不到,但 AI 幾秒鐘就能幫你找到。這才是知識 Wiki 真正的價值。
結語
Garbage in, garbage out。反過來說,如果你願意花時間把資料清乾淨,AI 給你的分析品質會超出預期。
如果你跟我一樣是要整理既有素材而不是從零開始建庫,我的完整版(含六個踩坑紀錄和五條給新手的建議)在這裡:
📌 本文首發於「許幼如|用數據拆解商業世界」,完整版含踩坑紀錄請見:https://yojuhsu.com/blog/karpathy-ai-wiki-claude-cowork
✉️ 訂閱我的電子報,每週收到一篇深度商業分析:https://yojuhsu.beehiiv.com
























