2024-08-21|閱讀時間 ‧ 約 23 分鐘

AI說書 - 從0開始 - 142 | BERT 微調之模型載入

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


現在我們要把 BERT 的 Pretrained 模型從 Hugging Face 上載入,程式為:

model = BertForSequenceClassification.from_pretrained("bert-base-uncased", num_labels = 2)
model = nn.DataParallel(model)
model.to(device)


可以看一下內部的結構是如何:


相關參數說明可以見:AI說書 - 從0開始 - 131AI說書 - 從0開始 - 141

分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

Learn AI 不 BI 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.