AI說書 - 從0開始 - 227 | 第八章引言

更新於 發佈於 閱讀時間約 2 分鐘

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


我們透過和程式碼互動檢查了生成式 AI、通用技術,如果我們探索的所有技術都如此有效,為什麼不直接使用現成的解決方案而忘記學習、準備資料、配置參數和編寫文件呢?


答案很簡單,當 GPT-3 或 GPT-4 等通用模型未達到專案所需的準確度門檻時,我們該怎麼辦?我們必須做點什麼,在本章中,我們將探討微調,以了解我們可以為專案朝這個方向或不朝這個方向做出的選擇,我們將介紹風險管理的觀點。


在本章中,我們將微調 OpenAI GPT 模型來探索此選項,我們將微調一個具有成本效益的 Babbage-002 模型來完成任務,我們將以 OpenAI 要求的格式準備資料集,這一步看似簡單,然而,準備資料集可能非常具有挑戰性。


本章的涵蓋範圍為:

  • OpenAI 上微調模型的改進與局限性
  • 資料集準備
  • OpenAI 的文件格式
  • JSON 至 JSONL 的轉換
  • OpenAI GPT 模型的微調
  • 執行微調後的模型
  • 微調後的結果和 GPT-4 比較
留言
avatar-img
留言分享你的想法!
avatar-img
Learn AI 不 BI
236會員
771內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
Learn AI 不 BI的其他內容
2024/11/11
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 227 | 第八章引言 到 AI說書 - 從0開始 - 243 | 微調 GPT 模型與 GPT4 比較,我們完成書籍:Transfor
2024/11/11
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 227 | 第八章引言 到 AI說書 - 從0開始 - 243 | 微調 GPT 模型與 GPT4 比較,我們完成書籍:Transfor
2024/11/10
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 先列出目前擁有的材料: 微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言 微調 GPT 模型的前置步驟:AI說書 - 從0開始
Thumbnail
2024/11/10
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 先列出目前擁有的材料: 微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言 微調 GPT 模型的前置步驟:AI說書 - 從0開始
Thumbnail
2024/11/09
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 先列出目前擁有的材料: 微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言 微調 GPT 模型的前置步驟:AI說書 - 從0開始
2024/11/09
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 先列出目前擁有的材料: 微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言 微調 GPT 模型的前置步驟:AI說書 - 從0開始
看更多