我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
- 微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
- 微調 GPT 模型的前置步驟:AI說書 - 從0開始 - 230 | 微調 GPT 模型的前置步驟
- 微調 GPT 模型的函式庫安裝:AI說書 - 從0開始 - 231 | 微調 GPT 模型的函式庫安裝
- 微調 GPT 模型的資料集準備:AI說書 - 從0開始 - 232 | 微調 GPT 模型的資料集準備
- 微調 GPT 模型的資料集檢查:AI說書 - 從0開始 - 233 | 微調 GPT 模型的資料集檢查
- 微調 GPT 模型的資料集檢查:AI說書 - 從0開始 - 234 | 微調 GPT 模型的資料集檢查
- 微調 GPT 模型的必要檔建立:AI說書 - 從0開始 - 235 | 微調 GPT 模型的必要檔建立
- 微調 GPT 模型任務狀態查詢:AI說書 - 從0開始 - 236 | 微調 GPT 模型任務狀態查詢
- 微調 GPT 模型任務狀態查詢:AI說書 - 從0開始 - 237 | 微調 GPT 模型任務狀態查詢
- 微調 GPT 模型之推論:AI說書 - 從0開始 - 238 | 微調 GPT 模型之推論
- 微調 GPT 模型之推論:AI說書 - 從0開始 - 239 | 微調 GPT 模型之推論
- 微調 GPT 模型之推論:AI說書 - 從0開始 - 240 | 微調 GPT 模型之推論
- 微調 GPT 模型之模型管理:AI說書 - 從0開始 - 241 | 微調 GPT 模型之模型管理
我們自己微調了 GPT,那如果想看看原生 GPT4 的性能可以使用以下程式:
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(model = "gpt-4",
messages = [{"role": "user",
"content": ""},
{"role": "assistant",
"content": "Explain why space and time are important from Kant's point of view"},
{"role": "assistant",
"content": ""}],
temperature = 0.03,
max_tokens = 256,
top_p = 1,
frequency_penalty = 0,
presence_penalty = 0)