我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
答案很簡單,當 GPT-3 或 GPT-4 等通用模型未達到專案所需的準確度門檻時,我們該怎麼辦?我們必須做點什麼,在本章中,我們將探討微調,以了解我們可以為專案朝這個方向或不朝這個方向做出的選擇,我們將介紹風險管理的觀點。
在本章中,我們將微調 OpenAI GPT 模型來探索此選項,我們將微調一個具有成本效益的 Babbage-002 模型來完成任務,我們將以 OpenAI 要求的格式準備資料集,這一步看似簡單,然而,準備資料集可能非常具有挑戰性。
本章的涵蓋範圍為:
- OpenAI 上微調模型的改進與局限性
- 資料集準備
- OpenAI 的文件格式
- JSON 至 JSONL 的轉換
- OpenAI GPT 模型的微調
- 執行微調後的模型
- 微調後的結果和 GPT-4 比較