Prompting 知識養成 Day15

更新於 發佈於 閱讀時間約 4 分鐘

今天要來看Model Fine-tuning (模型微調) 與 Knowledge Distillation (知識蒸餾),兩個更深入了解LLM 系統的主題。

模型微調(Model Fine-tuning) 知識蒸餾(Knowledge Distillation) 這兩個技術在prompt工程中的主要用途是:讓LLM在特定任務的執行效能提升,以優化模型效率。它們的概念出發都是奠基在與prompting協作的基礎上,去促進模型的調整。

這裡想要強調的是:

  1. 這兩者與prompting的協作概念:很多時候,單靠prompting的優化已不足以滿足需求。
  2. 這兩者在做的事是「優化模型」。

也因此,了解這兩者屬於更深入去了解LLM 系統的主題。

之前已經學到模型微調(Fine-tuning),也理解其原理是:給予特定數據讓模型進行「特訓」,以培養提升能針對特定任務的能力。

而知識蒸餾(Knowledge Distillation)則算是:奠基在這樣的基礎上-意即,在已經具備一個「有特定任務執行能力」的LLM上-進行接力。**
**註:Knowledge Distillation 也直接用於原始大模型上;如果是特定(專業)領域,策略上就比較會搭配 Fine-tuning 過的大模型進行轉移。

這意思是說,我們基本上可以將知識蒸餾理解成是一種將特殊任務之能力從大型LLM轉移到較小的模型的技術。
這麼做的好處可想而知:更靈活、成本更低、更容易放到各個不同的環境中應用,甚至可以將關聯度高、相關領域的特殊任務能力集中到一塊,更大的發揮效用。


Fine-tuning Knowledge Distillation 做一些對比:

*共同點:
在既有LLM的基礎上,透過額外提供特定數據,進行模型訓練,使模型具備新的能力,以運用在特定任務(領域)中。


*不同之處:

▶︎目的:
Fine-tuning: 專注於養成特定任務的性能(最大化的概念)。
Knowledge Distillation: 專注於從大模型「轉移」至小模型。目的是「在盡可能維持差不多水平的情況下」,實現模型變小(以致於效率提升)

▶︎模型大小:
Fine-tuning: 基本是相同規模大小的模型(或可能更大)。
Knowledge Distillation: 大模型轉移至「小模型」。

▶︎訓練數據能力:
Fine-tuning: 主要訓練是達成「硬標籤 (hard labels)」的任務數據。
Knowledge Distillation:訓練上以達成「軟目標 (soft targets)」任務數據為主,不過通常會搭配使用硬標籤。

-這裡也再說明 硬標籤 (hard labels)軟目標 (soft targets) 兩種任務數據的差別:

  • 硬標籤 (Hard Labels):數據集中明確、唯一的正確答案或類別。
  • 軟目標 (soft targets):不是正確答案的概念,是正確答案的「概率」的概念。稍微展開來說,是幫助小模型學習大模型的「判斷邏輯」:判斷答案是A的機率是85%,是B的機率是10%,是C的機率是5%。

這是一組在Fine-tuning&Knowledge Distillation技術上使用的數據概念。

留言
avatar-img
留言分享你的想法!
avatar-img
不是雞湯,但是又如何
3會員
292內容數
不是雞湯,但 是又如何 不是雞湯,但是 又如何
2025/07/17
今天是第14天,要進到一個在大型語言模型應用中越來越重要的主題:Evaluation (評估) 和 Metrics (指標)。 - 在開始前想先小小說一下整個概念掌握後的理解。 雖說是對prompt進行評估(按字面上),但其實,要進行這樣的評估,也只能透過對「執行prompt後所得的結果」進行
2025/07/17
今天是第14天,要進到一個在大型語言模型應用中越來越重要的主題:Evaluation (評估) 和 Metrics (指標)。 - 在開始前想先小小說一下整個概念掌握後的理解。 雖說是對prompt進行評估(按字面上),但其實,要進行這樣的評估,也只能透過對「執行prompt後所得的結果」進行
2025/07/16
第13天的,延續與 Prompt Chaining 密切相關,更複雜強大的概念:AI Agents (人工智慧代理)。 2 Parts:我的白話理解/練習題「模擬 AI Agent 工作流程」(+GPT評點) - Part. 1 我的白話理解 - ▪︎ AI Agents 定義: 包含了L
2025/07/16
第13天的,延續與 Prompt Chaining 密切相關,更複雜強大的概念:AI Agents (人工智慧代理)。 2 Parts:我的白話理解/練習題「模擬 AI Agent 工作流程」(+GPT評點) - Part. 1 我的白話理解 - ▪︎ AI Agents 定義: 包含了L
2025/07/15
第12天:Prompt Chaining (提示鏈) 與複雜工作流程 今天是另一個複雜的應用...:Prompt Chaining (提示鏈) 與複雜工作流程 -- 我的大白話理解 Prompt Chaining 一、定義: 幫助LLM完成高度複雜任務的系統設計,由工程師設計「工作流程編排系
2025/07/15
第12天:Prompt Chaining (提示鏈) 與複雜工作流程 今天是另一個複雜的應用...:Prompt Chaining (提示鏈) 與複雜工作流程 -- 我的大白話理解 Prompt Chaining 一、定義: 幫助LLM完成高度複雜任務的系統設計,由工程師設計「工作流程編排系
看更多
你可能也想看
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News