最近已經很習慣生活中有 AI 了,來分享一下把 AI 融入之後的學習方式有什麼新方法。
像我最近在看 Andrej Karpathy “How I use LLMs” 的影片,影片兩個多小時,我大概只能調整成 1.5 倍速,所以整個要看完還是很花時間,不確定自己看完會得到什麼知識
所以在看影片以前我就會把影片丟上 NotebookLM,請它提供 Q&A。
這樣掃視過 Q&A 一次,就可以知道他講的哪個問題我有興趣,提前暖身。
(搜尋 reasoning model 怎麼訓練)
真的看到他講的段落,我就會停下來慢慢思考
從卡片盒筆記裡頭學到,如果需要把一個知識記錄下來,最好的方式就是把它轉換成小卡片,作為靈感筆記或是日後變成永久筆記。
但是通常要轉譯的過程需要花力氣想,有時候不一定能馬上就懂。
所以我如果看影片看到喜歡的概念時,我會直接複製貼上逐字稿,請 GPT 幫我更正文法以及換句話說解釋。
用簡單一點的方式說明這個概念,減少吸收知識的阻力。
(幫忙解釋知識)
當有了基本的了解後,如果覺得概念不錯或是日後可能會用到,那我就會把這個知識放上一個簡易的座標,讓我日後回頭來看的時候知道當時的想法。
這時我會在 Notion 上面做筆記,記錄自己的想法,然後幫關鍵知識上色,這樣回頭來看才知道我當下的想法。
(小卡片的筆記長這樣,藍色代表自己的想法)
因為不一定所有的知識都是新知識,所以在筆記中我可能會篩選掉那些已知的訊息。
剩下留下來那些知識可能不一定符合原本影片的架構或邏輯。
這時候就需要打散重新分類 (利用 MECE),或是排序。
排序可能是按照發展時間軸,可能是由淺入深,也有可能是由大致小,基本上就是把資訊換成有邏輯的論述。
假設我整部影片看完後我截取這幾個概念,那我可能重新排序成學生學習的進程。
⚠️ 這邊我不會仰賴 AI,因為 AI 的思維鏈和自己的非常不同,我覺得這是人類少數可以保有的特色
想法 1,死記硬背的讀書方式就像是 LLM 達到 Context window 裡頭的 Token 上限,記得愈多,截取知識的速度愈慢
想法 2,Reasoning 超像系統二的思考方式,需要花很多時間想,更多腦力思考。但是不一定所有時候都需要系統二,像有些成績好的學生還是可以靠系統一記得答案輾壓那些慢慢想的人
想法 3,Memory 使用的方法就像是學生做了筆記,這樣下次在複習的時候就不用從頭開始讀書然後轉換知識
加上一些因果關係,解釋整個思維架構:讀書的時候也是這樣,有些人靠死記硬背一開始知識量少的時候可以考得很高分。但是當開始面對需要慢慢思考,強調邏輯的數學題目時就不太只能靠死記硬背。如果筆記做得好,那麼回頭學習的速度就會快又精準。
⚠️ 這邊也無法用 AI,因為 AI 的學習背景和自己不一樣,有些時候思維必須要納入生活體驗
最後請我會請 AI 根據我的思路幫忙寫說 Pre-training,Post-training,Reasoning RL 分別像什麼。
如果有其他已知的 reference 或是關係鏈可以加進來更好,等於觸類旁通找到新的 Knowledge Graph。
所以現在很少純手打文章了,通常是把大方向的想法丟進去 GPT 寫一篇文章。
等 GPT 寫出文章後,校稿讀一次,加深記憶,貼出去。
資訊之間都會有關聯,就像我們走進圖書館,如果書全部丟在地上疊成一堆那一定找不到自己想找的書。
但是如果能:
所以寫完的文章也是一樣,我最後會把這個輸出的知識放進 category 以及上 metadata label,方便之後由上而下透過巢狀方式找或是由下而上的搜尋關鍵字,如果資料庫是建立在強大一點的系統上還可以連結 API,讓 RAG 下來找資訊 (像 Notion AI)。
這樣方便以後要找靈感的時候可以更快的抽取相關的知識,加速整個學習的過程。
(上了標籤之後的文章,方便之後再利用)
這樣一來就完成了:
一整個循環,這個概念出自於 Tiago Forte 的打造第二大腦。