更新於 2024/09/14閱讀時間約 1 分鐘

AI說書 - 從0開始 - 176 | 初始化 Trainer

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


整理目前手上有的素材:


資料準備齊全,也做好 Tokenization,即可以來創建 Trainer,程式如下:

from transformers import Trainer, TrainingArguments

training_args = TrainingArguments(output_dir = "./KantaiBERT",
overwrite_output_dir = True,
num_train_epochs = 1,
per_device_train_batch_size = 64,
save_steps = 10000,
save_total_limit = 2)

trainer = Trainer(model = model,
args = training_args,
data_collator = data_collator,
train_dataset = dataset)


當中參數說明如下:

  • output_dir = "./KantaiBERT":檢查點目錄
  • overwrite_output_dir = True:輸出內容的覆蓋
  • Num_train_epochs = 1:整體數據訓練輪數
  • per_device_train_batch_size = 64:一次訓練資料筆數
  • save_steps = 10000:檢查點週期
  • save_total_limit = 2:資料刪除前需要累積的檢查點筆數
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.