我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
我們透過和程式碼互動檢查了生成式 AI、通用技術,如果我們探索的所有技術都如此有效,為什麼不直接使用現成的解決方案而忘記學習、準備資料、配置參數和編寫文件呢?
答案很簡單,當 GPT-3 或 GPT-4 等通用模型未達到專案所需的準確度門檻時,我們該怎麼辦?我們必須做點什麼,在本章中,我們將探討微調,以了解我們可以為專案朝這個方向或不朝這個方向做出的選擇,我們將介紹風險管理的觀點。
在本章中,我們將微調 OpenAI GPT 模型來探索此選項,我們將微調一個具有成本效益的 Babbage-002 模型來完成任務,我們將以 OpenAI 要求的格式準備資料集,這一步看似簡單,然而,準備資料集可能非常具有挑戰性。
本章的涵蓋範圍為: