更新於 2024/09/13閱讀時間約 1 分鐘

AI說書 - 從0開始 - 175 | Data Collator 建立

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


整理目前手上有的素材:


AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料 中準備好的資料,現在要來進一步整理一下,目標是整理成 Block Size 為 128,亦即限制最大的 Token 數:

from transformers import LineByLineTextDataset

dataset = LineByLineTextDataset(tokenizer = tokenizer,
file_path = "./kant.txt",
block_size = 128)


接著建立 Data Collator,目標是從 Dataset 中取樣,變成 Batch:

from transformers import DataCollatorForLanguageModeling

data_collator = DataCollatorForLanguageModeling(tokenizer = tokenizer,
mlm = True,
mlm_probability = 0.15)


當中的 mlm = True 請見 AI說書 - 從0開始 - 130

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.