我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
既然保存好模型了,自然可以以 Pipeline 開始做使用,注意 Model 和 Tokenizer 分別在 AI說書 - 從0開始 - 178 | 保存訓練好的模型 以及 AI說書 - 從0開始 - 166 | 保存訓練好的 Tokenizer 中的保存名稱:
from transformers import pipeline
fill_mask = pipeline("fill-mask",
model = "./KantaiBERT",
tokenizer = "./KantaiBERT")
現在以一個句子來示範看看模型是否能回答類似 伊曼紐爾‧康德 的風格:
fill_mask("Human thinking involves human <mask>.")
結果為: