我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
- 微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
- 微調 GPT 模型的前置步驟:AI說書 - 從0開始 - 230 | 微調 GPT 模型的前置步驟
- 微調 GPT 模型的函式庫安裝:AI說書 - 從0開始 - 231 | 微調 GPT 模型的函式庫安裝
- 微調 GPT 模型的資料集準備:AI說書 - 從0開始 - 232 | 微調 GPT 模型的資料集準備
- 微調 GPT 模型的資料集檢查:AI說書 - 從0開始 - 233 | 微調 GPT 模型的資料集檢查
- 微調 GPT 模型的資料集檢查:AI說書 - 從0開始 - 234 | 微調 GPT 模型的資料集檢查
- 微調 GPT 模型的必要檔建立:AI說書 - 從0開始 - 235 | 微調 GPT 模型的必要檔建立
可以在 OpenAI 上微調多個模型,包括 GPT-3.5-turbo 和 GPT-4,也可以使用 GPT-3 架構微調模型,例如 Babbage-002:https://platform.openai.com/docs/guides/fine-tuning/what-models-can-be-fine-tuned,接著透過以下程式來進行微調:
from openai import OpenAI
client = OpenAI()
job_response = client.fine_tuning.jobs.create(training_file = file_id,
model = "babbage-002")
OpenAI 面臨有很多需求,我們提出的微調請求正在隊列中,工作完成後,通常會收到一封電子郵件,我們透過 Job ID 來檢視任務情況,其獲得方式為:
job_id = job_response.id
print(job_id)
job_details = client.fine_tuning.jobs.retrieve(job_id)
print(job_details)
status = job_details.status
print(f"Job status: {status}")