少樣本/零樣本學習能力 (Few-shot/Zero-shot Learning)

更新於 發佈於 閱讀時間約 3 分鐘

「少樣本學習能力 (Few-shot Learning)」和「零樣本學習能力 (Zero-shot Learning)」是描述預訓練模型(如 GPT 系列)在應用到新的、未見過的任務時,所需訓練數據量的能力。這兩種能力都非常強大,因為它們減少了對大量標註數據的依賴。

零樣本學習能力 (Zero-shot Learning):

  • 定義: 零樣本學習指的是模型在沒有接收到任何針對特定任務的訓練樣本的情況下,僅僅基於對任務的自然語言描述(例如,指令或提示),就能夠完成該任務的能力。
  • 運作方式: 模型依賴其在預訓練階段學到的廣泛知識和語言理解能力。通過精心設計的提示,我們可以引導模型理解我們想要它執行的任務,並生成相應的輸出。
  • 例子: 假設我們想讓一個預訓練好的語言模型將英文翻譯成法文。在零樣本學習的設定下,我們可以直接給模型一個包含翻譯指令的提示,例如:「Translate the following English text to French: 'Hello, how are you?'」。模型可能會根據它在預訓練中學到的跨語言知識,直接輸出法文翻譯,而不需要我們提供任何英法翻譯的訓練樣本。

少樣本學習能力 (Few-shot Learning):

  • 定義: 少樣本學習指的是模型在僅接收到少量(通常是幾個到幾十個)針對特定任務的訓練樣本(這些樣本通常作為提示的一部分)的情況下,就能夠快速學習並完成該任務的能力。
  • 運作方式: 模型能夠利用這少量的示例來理解任務的模式和規則,並將其泛化到新的、未見過的輸入上。這些示例可以幫助模型更好地理解任務的具體要求和期望的輸出格式。
  • 例子: 延續上面的翻譯例子,在少樣本學習的設定下,我們可以給模型提供幾個英法翻譯的示例,例如:
    English: 'Thank you' -> French: 'Merci' English: 'Good morning' -> French: 'Bonjour' English: 'Good night' -> French: 'Bonne nuit' English: 'Hello, how are you?' -> French:
    模型可能會基於這些少量的示例,更好地理解翻譯的上下文和風格,並生成正確的法文翻譯。

總結來說:

  • 零樣本學習就像是在沒有任何指導的情況下,直接根據任務描述來完成任務。
  • 少樣本學習就像是先看幾個例子,然後根據這些例子來完成類似的任務。

這兩種學習能力都是大型預訓練語言模型(如 GPT-3、GPT-4 等)的重要特性,它們極大地提高了模型的靈活性和通用性,使其能夠在各種不同的任務上取得出色的表現,而無需大量的任務特定數據。這對於標註數據成本高昂或難以獲取的任務尤其有價值。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
18會員
480內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/05/24
是 OpenAI 開發的一系列語言模型的名稱,它和 BERT 一樣,也是基於 Transformer 模型架構。然而,GPT 的主要目標和訓練方式與 BERT 有一些關鍵的不同。GPT 家族以其強大的文本生成能力而聞名。 GPT 的主要特點和創新: 基於 Transformer 解碼器 (Dec
2025/05/24
是 OpenAI 開發的一系列語言模型的名稱,它和 BERT 一樣,也是基於 Transformer 模型架構。然而,GPT 的主要目標和訓練方式與 BERT 有一些關鍵的不同。GPT 家族以其強大的文本生成能力而聞名。 GPT 的主要特點和創新: 基於 Transformer 解碼器 (Dec
2025/05/24
是一種基於 Transformer 模型架構的預訓練語言模型,由 Google 於 2018 年提出,並在自然語言處理 (NLP) 領域產生了巨大的影響。BERT 的核心創新在於它能夠學習到詞語在句子中的雙向上下文表示,從而在各種下游 NLP 任務中取得了卓越的性能。 BERT 的主要特點和創新:
2025/05/24
是一種基於 Transformer 模型架構的預訓練語言模型,由 Google 於 2018 年提出,並在自然語言處理 (NLP) 領域產生了巨大的影響。BERT 的核心創新在於它能夠學習到詞語在句子中的雙向上下文表示,從而在各種下游 NLP 任務中取得了卓越的性能。 BERT 的主要特點和創新:
2025/05/24
是一種在自然語言處理 (NLP) 領域引起革命性突破的深度學習架構,尤其在處理序列到序列 (Seq2Seq) 的任務上表現出色。它完全依賴於注意力機制(特別是自注意力)來建模序列中元素之間的依賴關係,而不再像傳統的 RNN 那樣依賴於循環結構。 Transformer 模型的主要組成部分: Tr
2025/05/24
是一種在自然語言處理 (NLP) 領域引起革命性突破的深度學習架構,尤其在處理序列到序列 (Seq2Seq) 的任務上表現出色。它完全依賴於注意力機制(特別是自注意力)來建模序列中元素之間的依賴關係,而不再像傳統的 RNN 那樣依賴於循環結構。 Transformer 模型的主要組成部分: Tr
看更多
你可能也想看
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News