2024-08-10|閱讀時間 ‧ 約 23 分鐘

AI說書 - 從0開始 - 125 | 第五章目錄

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運算資源、資料等等,於是想要做 Fine-Tuning。


這個章節會教導如何從 Hugging Face 抓 BERT 模型下來執行 Fine-Tuning,一旦這個學會,將能夠抓取其他在 Hugging Face 上的模型來執行 Fine-Tuning,例如 GPT、T5、RoBERTa 等模型。


BERT 模型全名為 Bidirectional Encoder Representations from Transformers,其只包含 Encoder Block 而不包含 Decoder Block。


本章節將包含:

  • BERT 模型架構
  • Encoder 模組、Bidirectional Attention 機制
  • 創造訓練資料、標籤、Token
  • 資料分割為 Training Set 與 Validation Set
  • 設定 Hugging Face 原始 BERT 模型
  • 設定訓練的 Hyperparameter
  • 執行訓練
  • 建立 Python 聊天介面
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.