遷移學習 (Transfer Learning)

更新於 發佈於 閱讀時間約 4 分鐘

遷移學習 (Transfer Learning) 是一種機器學習技術,旨在將在一個任務上學習到的知識遷移到另一個相關但不同的任務上。這種方法尤其在目標任務的數據量有限時非常有用,因為它可以利用在一個擁有大量數據的源任務上預先訓練好的模型所學到的通用特徵。

核心思想:

遷移學習的核心思想是,如果在一個任務上學習到的某些特徵或知識對於另一個相關的任務也是有用的,那麼我們可以重用這些知識,而不是從頭開始訓練一個新的模型。這可以顯著減少目標任務所需的訓練數據量和訓練時間,並提高模型的性能。

為什麼需要遷移學習?

  • 數據稀疏問題: 在許多實際應用中,我們可能只有少量的標註數據來訓練特定的模型。從頭開始訓練一個複雜的模型(例如深度神經網路)在這種情況下往往會導致過擬合,並且模型性能不佳。遷移學習可以利用在大量數據上預訓練的模型所學到的通用特徵,來彌補目標任務數據不足的問題。
  • 加速模型訓練: 由於預訓練模型已經學習到了很多通用的圖像、文本或其他類型的特徵,因此在目標任務上只需要進行少量的微調 (Fine-tuning),即可達到較好的性能,從而大大縮短了訓練時間。
  • 提高模型性能: 在某些情況下,即使目標任務擁有足夠的數據,使用預訓練模型進行遷移學習仍然可以提高模型的性能,因為預訓練模型可能已經學到了更豐富、更魯棒的特徵表示。

遷移學習的常見方法:

在深度學習領域,遷移學習通常涉及到使用預訓練好的神經網路模型(例如在 ImageNet 上預訓練的 ResNet、VGG、EfficientNet 等)作為基礎,然後根據目標任務的需求進行調整。常見的方法包括:

  • 凍結部分層 (Feature Extraction): 將預訓練模型的部分層(通常是底部的卷積層,這些層學習到的是更通用的低級特徵,如邊緣、紋理等)的權重凍結起來,不參與目標任務的訓練。然後,在這些凍結的層之上添加新的層(通常是全連接層),並僅訓練這些新層的權重,以適應目標任務的特定類別。
  • 微調 (Fine-tuning): 使用預訓練模型的所有層或部分層的權重作為初始化,並在目標任務的數據上進行訓練,允許模型的權重進行微小的調整以適應新的任務。通常,會使用較小的學習率進行微調,以避免破壞預訓練模型已經學到的知識。
  • 訓練部分層: 介於完全凍結和完全微調之間,可以選擇性地訓練預訓練模型中的某些層,同時凍結其他層。

遷移學習的應用場景:

遷移學習被廣泛應用於各種機器學習任務中,尤其是在電腦視覺和自然語言處理領域:

  • 圖像分類: 使用在大型圖像數據集(如 ImageNet)上預訓練的模型,然後在只有少量標註圖像的新類別上進行微調。
  • 物件偵測: 使用在通用物件偵測數據集(如 COCO)上預訓練的模型,然後在特定的目標物體上進行微調。
  • 圖像分割: 類似於物件偵測,可以使用預訓練的模型作為分割模型的骨幹網路。
  • 自然語言處理 (NLP): 使用在大型文本語料庫上預訓練的語言模型(如 BERT、GPT)來處理特定的文本分類、情感分析、問答等任務。

總結:

遷移學習是一種強大而實用的技術,它允許我們利用在一個任務上學到的知識來幫助解決另一個相關的任務。通過重用預訓練模型的通用特徵,我們可以有效地應對目標任務數據不足的問題,加速模型訓練,並提高模型性能。這使得深度學習技術更容易應用於各種實際場景中。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
4會員
231內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News