LLM 也要做功課?從學習過程看 AI 訓練的關鍵!

更新於 發佈於 閱讀時間約 3 分鐘

我們從小到大,經歷了十幾二十年的教育。你是否想過,訓練一個大型語言模型(LLM)與我們學習的過程其實非常相似?當我們打開一本課本,裡面的內容通常可以分為三種類型:

1. 背景知識:就像模型的「預訓練」

課本的主要內容通常是解釋概念、介紹背景知識。當我們閱讀這些內容時,大腦其實是在「訓練」自己,吸收資訊並建立對該領域的基本理解。對 LLM 來說,這就像預訓練(Pretraining),它們透過大量網路資料學習各種知識,就像我們讀書一樣。

2. 範例題與解答:等同於「監督微調」

課本裡經常會有範例題,老師或專家會一步步示範解題過程,讓學生可以模仿學習。這類學習方式對應到 LLM 的監督微調(Supervised Fine-tuning),也就是讓模型學習人類撰寫的「理想回答」,讓它們知道如何提供最佳回應。

3. 練習題:類似於「強化學習」

每一章通常還會有大量的練習題,這些題目通常沒有解答過程,頂多只提供最終答案。學生需要自己嘗試、犯錯、修正,最終才能掌握概念。這與**強化學習(Reinforcement Learning, RL)**非常類似 — — LLM 透過不斷嘗試,學習如何產生更好的回應。

LLM 也需要「做作業」

目前,我們已經讓 LLM 吸收了大量的背景知識(第一步)和範例解題(第二步),但「練習題」這一塊 — — 也就是讓模型透過試錯學習,仍然是一個正在發展的領域。這正是當紅的 DeepSeek 採用的重要技術。

當我們為 LLM 建立訓練數據集時,其實就像是在為它編寫一本教科書,我們需要提供知識、範例,並讓它進行大量練習。

未來,如果我們希望 LLM 變得更聰明、更接近人類的思考方式,就不能只讓它「讀書」,還要讓它真正「做作業」,透過不斷練習來精進自己。

於是,人類在這場 AI 革命中扮演的重要角色,就是如何將我們腦中的知識,轉化為適合 LLM 學習的教材。人工智慧科學家將華麗轉身為 AI 教育家,所思所想,不只要帶 LLM 上學,還要確保它真的學會了!

本文為 Andrej Karpathy 大神的文章拓展而成。[原文連結]

留言
avatar-img
留言分享你的想法!
avatar-img
Kyle的人文與科技
1會員
13內容數
把技術當畫筆,內容當橋梁,連結人與AI世界
Kyle的人文與科技的其他內容
2025/08/03
隨著AI輔助程式開發工具的興起,例如Vibe Coding,程式設計效率大幅提升,但也產生了技術債務問題。本文探討AI工具如何影響程式設計師,尤其針對資深工程師和新手工程師的不同影響,並呼籲程式設計師在享受AI帶來便利的同時,需注重程式碼的長期維護和系統設計,避免掉入技術債的陷阱。
2025/08/03
隨著AI輔助程式開發工具的興起,例如Vibe Coding,程式設計效率大幅提升,但也產生了技術債務問題。本文探討AI工具如何影響程式設計師,尤其針對資深工程師和新手工程師的不同影響,並呼籲程式設計師在享受AI帶來便利的同時,需注重程式碼的長期維護和系統設計,避免掉入技術債的陷阱。
2025/08/03
探討AI之間如何溝通協作的兩種協定:MCP(模型溝通協定)與A2A(智能體間溝通協定)。MCP如同AI助理祕書,負責協調不同AI模型完成任務;A2A則像AI群組聊天室,讓AI們自主分工合作。文章說明兩種協定的特性、應用場景,以及它們如何互補共存,最終提升AI協同效率,創造更大價值。
2025/08/03
探討AI之間如何溝通協作的兩種協定:MCP(模型溝通協定)與A2A(智能體間溝通協定)。MCP如同AI助理祕書,負責協調不同AI模型完成任務;A2A則像AI群組聊天室,讓AI們自主分工合作。文章說明兩種協定的特性、應用場景,以及它們如何互補共存,最終提升AI協同效率,創造更大價值。
2025/08/03
從傳統紙本字典到Google搜尋,再到AI時代的Vibe Research,學習方式不斷演進。本文探討在AI輔助下,如何提升「提問力」成為核心競爭力,並強調溝通能力、同理心和洞察力在精準提問中的重要性。
2025/08/03
從傳統紙本字典到Google搜尋,再到AI時代的Vibe Research,學習方式不斷演進。本文探討在AI輔助下,如何提升「提問力」成為核心競爭力,並強調溝通能力、同理心和洞察力在精準提問中的重要性。
看更多
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News