我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
- AI說書 - 從0開始 - 549 | Hugging Face 之 AutoTrain 前言
- AI說書 - 從0開始 - 550 | Hugging Face 之 AutoTrain 建立專案 & 上傳資料
- AI說書 - 從0開始 - 551 | Hugging Face 之 AutoTrain 上傳驗證集資料
- AI說書 - 從0開始 - 552 | Hugging Face 之 AutoTrain 任務 & 模型選擇
- AI說書 - 從0開始 - 553 | Hugging Face 之 AutoTrain 執行模型訓練
- AI說書 - 從0開始 - 554 | Hugging Face 之 AutoTrain 檢視訓練好的模型
- AI說書 - 從0開始 - 555 | Hugging Face 之 AutoTrain 檢視訓練好的模型
- AI說書 - 從0開始 - 556 | Hugging Face 之 AutoTrain 訓練好的模型執行推論
- AI說書 - 從0開始 - 557 | Hugging Face 之 AutoTrain 訓練好的模型執行推論
- AI說書 - 從0開始 - 558 | Hugging Face 之 AutoTrain 訓練好的模型執行推論
準備好影像後,以下展開 API 推論的程式:
!pip install transformers -qq
import transformers
f = open("drive/MyDrive/files/HF_TOKEN.txt", "r")
HF_TOKEN = f.readline()
f.close()
HF_TOKEN_Bearer = HF_TOKEN.strip() # remove newline from the token
token = HF_TOKEN.replace('Bearer ', '').strip() # Remove 'Bearer ' from the token
import requests
BASE_URL = “https://api-inference.huggingface.co/models/Denis1976”
headers = {"Authorization": HF_TOKEN_Bearer}
def query(filename, model_name, base_url = BASE_URL, headers = headers):
api_url = f”{base_url}/{model_name}”
with open(filename, "rb") as f:
data = f.read()
response = requests.post(api_url, headers = headers, data = data)
return response.json()
HF_TOKEN 使用 Bearer 前綴,後面加上你在 Hugging Face 平台上生成的 API Token,這通常用於存取私有儲存庫或運行某些 Hugging Face 功能所需的授權,另一方面,token 不需要 Bearer 前綴,只包含 Hugging Face API Token 本身。



























