更新於 2024/08/29閱讀時間約 1 分鐘

AI說書 - 從0開始 - 153 | 製作文法正確與否的預測函數

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


回顧一下目前手上有的素材:


一切都完整後,準備來做一個聊天介面,但是我們先準備一個函數,以方便後續使用:

from transformers import BertTokenizer, BertForSequenceClassification 
import torch
model.eval()

def predict(sentence, model, tokenizer):
sentence = "[CLS] " + sentence + " [SEP]"
tokenized_text = tokenizer.tokenize(sentence)
indexed_tokens = tokenizer.convert_tokens_to_ids(tokenized_text)
segments_ids = [0] * len(tokenized_text) # 0 for Seq 1, and 1 for seq 2
tokens_tensor = torch.tensor([indexed_tokens])
segments_tensors = torch.tensor([segments_ids])

with torch.no_grad():
outputs = model(tokens_tensor, token_type_ids = segments_tensors)
logits = outputs.logits
predicted_label = torch.argmax(logits, dim = 1).item()
return predicted_label


分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

Learn AI 不 BI 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.