2024-08-31|閱讀時間 ‧ 約 22 分鐘

AI說書 - 從0開始 - 160 | Pretrain 涵蓋範圍

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


第六章將包含以下重點項目:

  • RoBERTa 與 DistilBERT 模型
  • Byte-Level Byte-Pair 編碼
  • 訓練 Tokenizer
  • 定義模型的 Configuration
  • 初始化模型
  • 探索模型的參數
  • 建立資料集
  • 定義資料 Collator
  • 初始化 Trainer
  • Pretrain 模型
  • 建立語言模型的 Pipeline
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.