2024-10-25|閱讀時間 ‧ 約 0 分鐘

AI說書 - 從0開始 - 227 | 第八章引言

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


我們透過和程式碼互動檢查了生成式 AI、通用技術,如果我們探索的所有技術都如此有效,為什麼不直接使用現成的解決方案而忘記學習、準備資料、配置參數和編寫文件呢?


答案很簡單,當 GPT-3 或 GPT-4 等通用模型未達到專案所需的準確度門檻時,我們該怎麼辦?我們必須做點什麼,在本章中,我們將探討微調,以了解我們可以為專案朝這個方向或不朝這個方向做出的選擇,我們將介紹風險管理的觀點。


在本章中,我們將微調 OpenAI GPT 模型來探索此選項,我們將微調一個具有成本效益的 Babbage-002 模型來完成任務,我們將以 OpenAI 要求的格式準備資料集,這一步看似簡單,然而,準備資料集可能非常具有挑戰性。


本章的涵蓋範圍為:

  • OpenAI 上微調模型的改進與局限性
  • 資料集準備
  • OpenAI 的文件格式
  • JSON 至 JSONL 的轉換
  • OpenAI GPT 模型的微調
  • 執行微調後的模型
  • 微調後的結果和 GPT-4 比較
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.