我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
model = ViTForImageClassification.from_pretrained('google/vit-base-patch16-224')
inputs = feature_extractor(images = image, return_tensors = "pt")
outputs = model(**inputs)
logits = outputs.logits
輸出的原始 Logits 將由控制此圖像分類流程的管道進行處理,可以先應用 Softmax 函數,或者先進行溫度調整,再使用 Softmax,然後依序套用 top_k 和 top_p,此管道會將原始輸出轉換為預測,並產生選擇的機率標籤:
predicted_class_idx = logits.argmax(-1).item()
print("Predicted class:", predicted_class_idx,": ", model.config.id2label[predicted_class_idx])
結果為:
