Fine-Tuning GPT3 for free

更新於 發佈於 閱讀時間約 8 分鐘
raw-image

在您的數據上免費使用 GPT3

這是GPT3根據Reddit的一些笑話微調後生成的笑話之一。如需更多 AI 生成的笑話,請滾動至文章末尾,我會在其中寫一些我最喜歡的由 GPT3 生成的笑話。

GPT3 是新的最先進的語言模型。

當它在 2020 年發佈時,它被大肆宣傳。 它確實辜負了它的炒作。

Beta 版僅供極少數人和組織使用。 後來,幾乎每個人都可以使用遊樂場。

但是,即使那樣也無法進行微調。

即使模型權重尚未開源,我們現在至少可以根據我們的數據集對其進行微調。

當您創建一個帳戶以訪問 GPT3 時,OpenAI 會提供價值 18 美元的免費積分。

我們將使用此功能微調curie, babbage and ada這三個模型中的任何一個。

最大的模型達芬奇仍然無法進行微調。 其他一些限制包括每個月最多可以微調 10 個模型,每個數據集的大小最多可達 250 萬個tokens或 80–100MB。

要開始微調,我們首先需要在 OpenAI 中創建一個帳戶。

您可以使用此鏈接執行此操作。 創建帳戶後,下一步就是獲取 API 密鑰。 這對每個用戶都是唯一的。 現在我們將打開我們的 Jupyter Notebook。

有許多方法可以微調 GPT3:(i) 使用 OpenAI CLI,(ii) 使用 OpenAI package,以及 (iii) 使用requests

我將使用 OpenAI package,因為它最簡單。

使用 OPENAI 包進行微調
微調涉及的主要步驟是:

準備微調數據集。
微調模型。
使用微調模型進行推論。

!pip install openai

接下來,讓我們開始進行所需的導入。

import openaiimport pandas as pdimport stringopenai.api_key = 'YOUR API KEY'

現在讓我們閱讀數據集。 我使用了一個隨機數據集,它從 Reddit 上抓取了一些笑話。 您可以使用任何您喜歡的數據集。

df = pd.read_csv('jokes.csv')df.head()

理想情況下,用於微調 GPT3 的數據集應該是一個如下所示的 jsonl 文件。

{"prompt": "<text>", "completion": "<text to be generated>"}
{"prompt": "<text>", "completion": "<text to be generated>"}
{"prompt": "<text>", "completion": "<text to be generated>"}

對於text completion,我們將為其提供一些prompt text,但是對於text generation,我們將prompt blank

我已經嘗試了兩種方法,我意識到與completion相比,提供一些prompt可以提供更好的結果。

  1. 準備微調數據集
    但是,OpenAI 具有將 CSV、TSV、XLSX 和 JSON 轉換為 JSONL 文件的功能。 我已經預處理了數據集。 現在讓我們將其轉換為 jsonl 格式。
!yes | openai tools fine_tunes.prepare_data -f 'joke.csv'

yes 表示微調中的所有選項都應設置為 true。 準備好 jsonl 文件後,我們的下一步涉及從該文件創建文件 ID。 我們將使用此命令來執行此操作。

#write your file name instead of jokes_prepared.jsonl
with open("joke_prepared.jsonl") as f:
response = openai.File.create(file=f, purpose='fine-tune')
print(response)

2. 微調模型
現在我們的數據是所需的格式並且文件 ID 已經創建,下一個任務是創建一個微調模型。 這可以使用以下方法完成:

response = openai.FineTune.create(training_file="YOUR FILE ID", model='ada')

如果您想要更好的結果,請將模型更改為babbage or curie。 默認情況下,它運行 4 個 epoch 來微調模型。 微調將花費一些時間,具體取決於數據集的大小和您將使用的模型。 您可以使用以下命令繼續檢查微調過程。

response = openai.FineTune.retrieve(id="YOUR FINE-TUNE ID")

創建微調文件會創建一個id。 使用它來檢索微調的狀態。 微調結束後,您將在響應中看到狀態從處理中更改為已處理。

3. 使用微調模型進行推理
現在我們的模型已經過微調,我們可以使用它進行推理。 響應消息將包含微調模型的 ID。 我們將使用該 ID 來調用我們的模型。

# ft_model should have your model id
ft_model = "ada:ft-personal-2022-07-22-11-25-19"
res = openai.Completion.create(model=ft_model, prompt="I hate ... ", max_tokens=18, temperature=1)

您可以將 max_tokens 更改為您想要的生成文本的大小。 您還可以試驗溫度參數。 它取值從 0 到 2。

此處提供了微調的完整代碼。




現在,讓我向您展示一些由 GPT3 生成的其他笑話,它們可能不在我最喜歡的笑話列表中,但值得一看:

1.I hate … iphones !!!!!! Why do they have to have so many tones? (Wow super strong on punctuations)
2. What do you call 4 in the afternoon? Grease afternoon!

3. Knock Knock … -> Who’s there? cow ooooooooooo “Cow who? Cow, who loves you” -> “Cow has lost its voice” ooooooooooooo

4. How do you feed a friend with no mouth? you feed them a fork. (Flawed sense of logic by GPT3)

5. Why are ants not allowed at the party? Because they all have stings.

雖然大部分沒有意義,不過這篇文章展示了最先進的語言模型以及如何對其

進行客製化dataset的微調以符合特定需求,例如醫療相關的QA機器人法律相關的QA機器人,只要收集一些example提供給Model進行微調即可.

留言
avatar-img
留言分享你的想法!
avatar-img
于正龍(Ricky)的沙龍
39會員
65內容數
人工智能工作經驗跟研究
2025/03/05
你做錯了。你剛剛發給 ChatGPT 的「寫一個函式來……」的提示?刪掉它吧。這些通用提示就是為什麼你的編碼速度還跟其他人一樣的原因。 在與 AI 進行超過 3,000 小時的結對編程後,我發現了真正有效的方法——而這並不是你想的那樣。 真相是:85% 的開發者陷入了 AI 驅動的複製粘貼循環。
2025/03/05
你做錯了。你剛剛發給 ChatGPT 的「寫一個函式來……」的提示?刪掉它吧。這些通用提示就是為什麼你的編碼速度還跟其他人一樣的原因。 在與 AI 進行超過 3,000 小時的結對編程後,我發現了真正有效的方法——而這並不是你想的那樣。 真相是:85% 的開發者陷入了 AI 驅動的複製粘貼循環。
2025/03/05
簡介 — 我如何停止浪費時間的故事 幾年前,我意識到我花在“做事”上的時間比實際在專案上取得進展的時間要多。我醒來時有無休止的待辦事項清單、回復電子郵件、參加會議、審查檔,但到一天結束時,我覺得我實際上沒有在任何重要的事情上取得進展。 有一天,一個朋友告訴我: 忙碌並不等同於有效。 這讓
2025/03/05
簡介 — 我如何停止浪費時間的故事 幾年前,我意識到我花在“做事”上的時間比實際在專案上取得進展的時間要多。我醒來時有無休止的待辦事項清單、回復電子郵件、參加會議、審查檔,但到一天結束時,我覺得我實際上沒有在任何重要的事情上取得進展。 有一天,一個朋友告訴我: 忙碌並不等同於有效。 這讓
2023/09/30
看到滿多年輕工程師提問:工作時經常查 ChatGPT,感覺不太踏實,沒關係嗎? 讓我簡單談論一下這件事 --- 首先,讓我們把時間倒回 2000 年代 google 剛出來的時候 當時一定也是這樣, 年輕工程師遇到問題狂查 google 資深工程師則覺得 google 可有可無,
2023/09/30
看到滿多年輕工程師提問:工作時經常查 ChatGPT,感覺不太踏實,沒關係嗎? 讓我簡單談論一下這件事 --- 首先,讓我們把時間倒回 2000 年代 google 剛出來的時候 當時一定也是這樣, 年輕工程師遇到問題狂查 google 資深工程師則覺得 google 可有可無,
看更多
你可能也想看
Thumbnail
孩子寫功課時瞇眼?小心近視!這款喜光全光譜TIONE⁺光健康智慧檯燈,獲眼科院長推薦,網路好評不斷!全光譜LED、180cm大照明範圍、5段亮度及色溫調整、350度萬向旋轉,讓孩子學習更舒適、保護眼睛!
Thumbnail
孩子寫功課時瞇眼?小心近視!這款喜光全光譜TIONE⁺光健康智慧檯燈,獲眼科院長推薦,網路好評不斷!全光譜LED、180cm大照明範圍、5段亮度及色溫調整、350度萬向旋轉,讓孩子學習更舒適、保護眼睛!
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
ChatGPT 是 OpenAI 開發的大型語言模型,以其強大的生成能力和對話能力而聞名。 ChatGPT 的訓練過程主要分為兩個階段:預訓練和微調。 微調使用了 RLHF(Reinforcement Learning from Human Feedback)技術,可以有效地提高模型生成內容的質量。
Thumbnail
ChatGPT 是 OpenAI 開發的大型語言模型,以其強大的生成能力和對話能力而聞名。 ChatGPT 的訓練過程主要分為兩個階段:預訓練和微調。 微調使用了 RLHF(Reinforcement Learning from Human Feedback)技術,可以有效地提高模型生成內容的質量。
Thumbnail
OpenAI推出的Custom GPTs可以讓你自己量身製作符合你自己需求的AI助手,客製化AI工具喂給他不同的資料產生的結果好壞程度也差很多,好的AI工具能夠幫大家更有效率解決很多問題,不過因為製作門檻很低,有非常大量的客製化GPTs已經在OpenAI的ChatGPT上,這篇推薦給大家的是蒐集整理
Thumbnail
OpenAI推出的Custom GPTs可以讓你自己量身製作符合你自己需求的AI助手,客製化AI工具喂給他不同的資料產生的結果好壞程度也差很多,好的AI工具能夠幫大家更有效率解決很多問題,不過因為製作門檻很低,有非常大量的客製化GPTs已經在OpenAI的ChatGPT上,這篇推薦給大家的是蒐集整理
Thumbnail
ChatGPT是什麼?這篇文讓你簡單認識最熱門的AI工具,如何從基礎應用到高階玩法,徹底玩轉ChatGPT!你可能已經聽說過GPT-3.5 Turbo,這個由OpenAI開發的語言模型已經在AI界引起了不小的轟動。
Thumbnail
ChatGPT是什麼?這篇文讓你簡單認識最熱門的AI工具,如何從基礎應用到高階玩法,徹底玩轉ChatGPT!你可能已經聽說過GPT-3.5 Turbo,這個由OpenAI開發的語言模型已經在AI界引起了不小的轟動。
Thumbnail
Hi, 我是茶桁。 我们已经介绍了 OpenAI 的主要接口。这是基础知识系列的最后一讲,我们将讨论 OpenAI GPT 系列模型的其他接口。你可能不会经常使用其中一些接口,但了解它们不会有任何坏处,说不定你会在某些需求中用到它们。 在这篇文章中,我们将一起探讨 OpenAI 为文本改写和内容
Thumbnail
Hi, 我是茶桁。 我们已经介绍了 OpenAI 的主要接口。这是基础知识系列的最后一讲,我们将讨论 OpenAI GPT 系列模型的其他接口。你可能不会经常使用其中一些接口,但了解它们不会有任何坏处,说不定你会在某些需求中用到它们。 在这篇文章中,我们将一起探讨 OpenAI 为文本改写和内容
Thumbnail
大家好,我是茶桁。 在前两节课中,我们一起体验了 OpenAI 提供的 GPT-3.5 系列模型的两个核心接口。一个是获取文本的 Embedding 向量,另一个是根据提示语生成补全的文本内容。通过这两种方法,我们可以在零样本或少样本的情况下进行情感分析任务。然而,你可能会有两个疑问。首先,Emb
Thumbnail
大家好,我是茶桁。 在前两节课中,我们一起体验了 OpenAI 提供的 GPT-3.5 系列模型的两个核心接口。一个是获取文本的 Embedding 向量,另一个是根据提示语生成补全的文本内容。通过这两种方法,我们可以在零样本或少样本的情况下进行情感分析任务。然而,你可能会有两个疑问。首先,Emb
Thumbnail
不用问我都知道,你们一定是被ChatGPT的火热出圈导致的开始关注人工智能,也是由于此才看到我这篇文章。 放心,大家想要的我一定会给予,既然大家都想先认识ChatGPT,那么我们就从这个主题开始。 接下来,我们学学如何利用openAI的API来和其沟通。在整个使用过程中,我们都使用的是GPT-3
Thumbnail
不用问我都知道,你们一定是被ChatGPT的火热出圈导致的开始关注人工智能,也是由于此才看到我这篇文章。 放心,大家想要的我一定会给予,既然大家都想先认识ChatGPT,那么我们就从这个主题开始。 接下来,我们学学如何利用openAI的API来和其沟通。在整个使用过程中,我们都使用的是GPT-3
Thumbnail
1.GPT-4 API試用感想:更道德,更嚴格 日前,OpenAI開放了GPT-4 API的排隊申請,我不抱期待的填了單,理由還很誠實的寫:我沒有要開發什麼偉大的產品,我只是想玩而已。(前文:CHATGPT最新版的GTP-4語言模型公開!) 但想不到OpenAI很快就通知我可以開始使用GPT-4 A
Thumbnail
1.GPT-4 API試用感想:更道德,更嚴格 日前,OpenAI開放了GPT-4 API的排隊申請,我不抱期待的填了單,理由還很誠實的寫:我沒有要開發什麼偉大的產品,我只是想玩而已。(前文:CHATGPT最新版的GTP-4語言模型公開!) 但想不到OpenAI很快就通知我可以開始使用GPT-4 A
Thumbnail
今天終於可以揮別那些假的ChatGPT串接教學了! 在今天(2023/03/02)之後,終於可以串接真正的ChatGPT API了! 這是真正的GPT 3.5 API官方版本,內文提供簡介與python 串接教學。
Thumbnail
今天終於可以揮別那些假的ChatGPT串接教學了! 在今天(2023/03/02)之後,終於可以串接真正的ChatGPT API了! 這是真正的GPT 3.5 API官方版本,內文提供簡介與python 串接教學。
Thumbnail
OpenAI 開發的人工智慧聊天機器人,能理解自然語言,並生成符合上下文的回答(會記得上面的對話),善於了解文本結構和對話邏輯。近日 ChatGPT 的使用者持續增加,流量過載時甚至無法使用。這裡提供三個解決方案給讀者!
Thumbnail
OpenAI 開發的人工智慧聊天機器人,能理解自然語言,並生成符合上下文的回答(會記得上面的對話),善於了解文本結構和對話邏輯。近日 ChatGPT 的使用者持續增加,流量過載時甚至無法使用。這裡提供三個解決方案給讀者!
Thumbnail
在您的數據上免費使用 GPT3 這是GPT3根據Reddit的一些笑話微調後生成的笑話之一。如需更多 AI 生成的笑話,請滾動至文章末尾,我會在其中寫一些我最喜歡的由 GPT3 生成的笑話。
Thumbnail
在您的數據上免費使用 GPT3 這是GPT3根據Reddit的一些笑話微調後生成的笑話之一。如需更多 AI 生成的笑話,請滾動至文章末尾,我會在其中寫一些我最喜歡的由 GPT3 生成的笑話。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News