2024-09-04|閱讀時間 ‧ 約 22 分鐘

AI說書 - 從0開始 - 166 | 保存訓練好的 Tokenizer

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


整理目前手上有的素材:


訓練完 Tokenizer 後,下一步就是存檔,先來看一下程式部分:

import os
token_dir = '/content/KantaiBERT'
if not os.path.exists(token_dir):
os.makedirs(token_dir)
tokenizer.save_model('KantaiBERT')


執行完之後,會跑出兩份檔案如下:


當中有兩份檔案,各別說明如下:

  • merges.txt:包含了 Tokenized Substring


  • vocab.json:包含了 Tokenized Substring 的 Index


分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.