2024-08-28|閱讀時間 ‧ 約 23 分鐘

AI說書 - 從0開始 - 152 | BERT 微調之保存微調後的模型

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


回顧一下目前手上有的素材:


歷經了 AI說書 - 從0開始 - 135AI說書 - 從0開始 - 151,好不容易進行微調 & 驗證新的模型,那要如何保存起來呢?以下來教學:

save_directory = "/content/model"

if isinstance(model, torch.nn.DataParallel):
model.module.save_pretrained(save_directory)
else:
model.save_pretrained(save_directory)

tokenizer.save_pretrained(save_directory)


在 /content/model 資料夾中,會出現以下檔案:

  • tokenizer_config.json:Tokenizer 的描述
  • special_tokens_map.json:特殊 Token 的映射
  • vocab.txt:Tokenizer 可以認得的文字
  • added_tokens.json:Tokenizer 被初始化後所加入的 Token


不要忘記,我們是在 Google Colab 環境中進行模型訓練,一旦 Colab 關閉,我們的訓練模型將消失,因此我們可以把這模型存在 Google Drive 中:

from google.colab import drive 
drive.mount('/content/drive')


下次在新的 Google Colab 環境中想再次載入模型來使用時,可以使用以下程式:

! mkdir -p /content/model/
! cp drive/MyDrive/files/model_C5/*.* /content/model
! pip install Transformers
from transformers import BertTokenizer, BertForSequenceClassification

load_directory = "/content/model/"
model = BertForSequenceClassification.from_pretrained(load_directory)
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased', do_lower_case = True)




分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

Learn AI 不 BI 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.