Fine-Tuning GPT3 for free

閱讀時間約 7 分鐘
在您的數據上免費使用 GPT3
這是GPT3根據Reddit的一些笑話微調後生成的笑話之一。如需更多 AI 生成的笑話,請滾動至文章末尾,我會在其中寫一些我最喜歡的由 GPT3 生成的笑話。
GPT3 是新的最先進的語言模型。
當它在 2020 年發佈時,它被大肆宣傳。 它確實辜負了它的炒作。
Beta 版僅供極少數人和組織使用。 後來,幾乎每個人都可以使用遊樂場。
但是,即使那樣也無法進行微調。
即使模型權重尚未開源,我們現在至少可以根據我們的數據集對其進行微調。
當您創建一個帳戶以訪問 GPT3 時,OpenAI 會提供價值 18 美元的免費積分。
我們將使用此功能微調curie, babbage and ada這三個模型中的任何一個。
最大的模型達芬奇仍然無法進行微調。 其他一些限制包括每個月最多可以微調 10 個模型,每個數據集的大小最多可達 250 萬個tokens或 80–100MB。
要開始微調,我們首先需要在 OpenAI 中創建一個帳戶。

您可以使用此鏈接執行此操作。 創建帳戶後,下一步就是獲取 API 密鑰。 這對每個用戶都是唯一的。 現在我們將打開我們的 Jupyter Notebook。
有許多方法可以微調 GPT3:(i) 使用 OpenAI CLI,(ii) 使用 OpenAI package,以及 (iii) 使用requests
我將使用 OpenAI package,因為它最簡單。
使用 OPENAI 包進行微調
微調涉及的主要步驟是:
準備微調數據集。
微調模型。
使用微調模型進行推論。
!pip install openai
接下來,讓我們開始進行所需的導入。
import openaiimport pandas as pdimport stringopenai.api_key = 'YOUR API KEY'
現在讓我們閱讀數據集。 我使用了一個隨機數據集,它從 Reddit 上抓取了一些笑話。 您可以使用任何您喜歡的數據集。
df = pd.read_csv('jokes.csv')df.head()
理想情況下,用於微調 GPT3 的數據集應該是一個如下所示的 jsonl 文件。
{"prompt": "<text>", "completion": "<text to be generated>"}
{"prompt": "<text>", "completion": "<text to be generated>"}
{"prompt": "<text>", "completion": "<text to be generated>"}
對於text completion,我們將為其提供一些prompt text,但是對於text generation,我們將prompt blank
我已經嘗試了兩種方法,我意識到與completion相比,提供一些prompt可以提供更好的結果。
  1. 準備微調數據集
    但是,OpenAI 具有將 CSV、TSV、XLSX 和 JSON 轉換為 JSONL 文件的功能。 我已經預處理了數據集。 現在讓我們將其轉換為 jsonl 格式。
!yes | openai tools fine_tunes.prepare_data -f 'joke.csv'
yes 表示微調中的所有選項都應設置為 true。 準備好 jsonl 文件後,我們的下一步涉及從該文件創建文件 ID。 我們將使用此命令來執行此操作。
#write your file name instead of jokes_prepared.jsonl
with open("joke_prepared.jsonl") as f:
response = openai.File.create(file=f, purpose='fine-tune')
print(response)
2. 微調模型
現在我們的數據是所需的格式並且文件 ID 已經創建,下一個任務是創建一個微調模型。 這可以使用以下方法完成:
response = openai.FineTune.create(training_file="YOUR FILE ID", model='ada')
如果您想要更好的結果,請將模型更改為babbage or curie。 默認情況下,它運行 4 個 epoch 來微調模型。 微調將花費一些時間,具體取決於數據集的大小和您將使用的模型。 您可以使用以下命令繼續檢查微調過程。
response = openai.FineTune.retrieve(id="YOUR FINE-TUNE ID")
創建微調文件會創建一個id。 使用它來檢索微調的狀態。 微調結束後,您將在響應中看到狀態從處理中更改為已處理。
3. 使用微調模型進行推理
現在我們的模型已經過微調,我們可以使用它進行推理。 響應消息將包含微調模型的 ID。 我們將使用該 ID 來調用我們的模型。
# ft_model should have your model id
ft_model = "ada:ft-personal-2022-07-22-11-25-19"
res = openai.Completion.create(model=ft_model, prompt="I hate ... ", max_tokens=18, temperature=1)
您可以將 max_tokens 更改為您想要的生成文本的大小。 您還可以試驗溫度參數。 它取值從 0 到 2。
此處提供了微調的完整代碼。
現在,讓我向您展示一些由 GPT3 生成的其他笑話,它們可能不在我最喜歡的笑話列表中,但值得一看:
1.I hate … iphones !!!!!! Why do they have to have so many tones? (Wow super strong on punctuations)
2. What do you call 4 in the afternoon? Grease afternoon!
3. Knock Knock … -> Who’s there? cow ooooooooooo “Cow who? Cow, who loves you” -> “Cow has lost its voice” ooooooooooooo
4. How do you feed a friend with no mouth? you feed them a fork. (Flawed sense of logic by GPT3)
5. Why are ants not allowed at the party? Because they all have stings.
雖然大部分沒有意義,不過這篇文章展示了最先進的語言模型以及如何對其
進行客製化dataset的微調以符合特定需求,例如醫療相關的QA機器人法律相關的QA機器人,只要收集一些example提供給Model進行微調即可.
即將進入廣告,捲動後可繼續閱讀
為什麼會看到廣告
人工智能工作經驗跟研究
留言0
查看全部
發表第一個留言支持創作者!
故事開始於2010年7月28日,「未來道具研究所」社團的兩人,岡部倫太郎和椎名真由理去秋葉原廣播會館參加中鉢博士的時間旅行理論發表會,見到了年僅18歲就在《科學》雜誌上發表學術論文的天才少女牧瀨紅莉栖。發表會結束不久後,在會館8樓深處,岡部發現了身上滿是鮮血的紅莉栖。驚慌失措的他帶著真由理立刻離開會
故事開始於2010年7月28日,「未來道具研究所」社團的兩人,岡部倫太郎和椎名真由理去秋葉原廣播會館參加中鉢博士的時間旅行理論發表會,見到了年僅18歲就在《科學》雜誌上發表學術論文的天才少女牧瀨紅莉栖。發表會結束不久後,在會館8樓深處,岡部發現了身上滿是鮮血的紅莉栖。驚慌失措的他帶著真由理立刻離開會
你可能也想看
Google News 追蹤
Thumbnail
接下來第二部分我們持續討論美國總統大選如何佈局, 以及選前一週到年底的操作策略建議 分析兩位候選人政策利多/ 利空的板塊和股票
Thumbnail
🤔為什麼團長的能力是死亡筆記本? 🤔為什麼像是死亡筆記本呢? 🤨作者巧思-讓妮翁死亡合理的幾個伏筆
回顧ChatGPT回答不是你要的怎麼辦?這篇文章,Chat GPT回答的結果常常不如人意,因此有個Facebook提出的技術,叫做RAG,它是提升Chat GPT回答品質的方式之一,詳細實作步驟可以參照自己做免錢Chat GPT吧。 這次我們來換個方法,今天要介紹Reinforcement Lea
Thumbnail
不知不覺今年也快到尾聲了,先預祝大家新年快樂! ░ deca Joins - 天堂與泥土 ░ 鄭宜農 - 咱 ░ 大象體操 - 快樂王子 Happy Prince (feat. YILE LIN 林以樂)░ ░ 傻子與白癡 - Fine Line ░ 溫蒂漫步 - story of more ░ S
Thumbnail
人的一生年日裡我們的腳總在不停奔跑,可以說留下一個個難忘的腳印。這其中,有著大段的酷寒冬天,有著大段的溫暖夏日,有著大段的平淡,有著大段不盡人意的遭遇。一站又一站,急急匆匆,一路有風景,一路有輝煌,
文、圖/Accucrazy肖準行銷提供   現代社會中,打開手機都是各種美食、美妝、旅遊的推薦文,為民眾帶來更多新的選擇,解放更多的壓力!但隨著AI時代來臨,產出有趣口吻、搞笑文字,擅長用:「真的是我的大愛!」、「內餡很豐富,吃得到鹹味,不會太甜」這些看得很習以為常的文字,真的是本人體驗所寫的
Thumbnail
今天要來說一部2009年上映的電影 <Everybody's Fine > (天倫之旅)。 影片內容講述的是一位退休的老父親在太太過世後,發現小孩從那之後都不再願意回家,頓時驚覺自己與四個小孩之間所存在的距離感....
★不要猜忌他人,不要疑慮重重,不要活在深深的自卑感,或者感傷悲苦的情緒當中,應該要開朗、樸實、單純。即使遭遇了背叛、遇見了騙子,也要泰然自若地說:「那點小事,何足掛齒。」此刻,開始過著沒有罣礙的清爽生活! ●清爽活出真實自己的七個步驟: 1.更簡單、更清爽。要有心無罣礙的人生態度。
Thumbnail
想念閔玧其。還有鄭號錫。2020年底現背衍生。祝我生日快樂+花開十週年快樂
Thumbnail
接下來第二部分我們持續討論美國總統大選如何佈局, 以及選前一週到年底的操作策略建議 分析兩位候選人政策利多/ 利空的板塊和股票
Thumbnail
🤔為什麼團長的能力是死亡筆記本? 🤔為什麼像是死亡筆記本呢? 🤨作者巧思-讓妮翁死亡合理的幾個伏筆
回顧ChatGPT回答不是你要的怎麼辦?這篇文章,Chat GPT回答的結果常常不如人意,因此有個Facebook提出的技術,叫做RAG,它是提升Chat GPT回答品質的方式之一,詳細實作步驟可以參照自己做免錢Chat GPT吧。 這次我們來換個方法,今天要介紹Reinforcement Lea
Thumbnail
不知不覺今年也快到尾聲了,先預祝大家新年快樂! ░ deca Joins - 天堂與泥土 ░ 鄭宜農 - 咱 ░ 大象體操 - 快樂王子 Happy Prince (feat. YILE LIN 林以樂)░ ░ 傻子與白癡 - Fine Line ░ 溫蒂漫步 - story of more ░ S
Thumbnail
人的一生年日裡我們的腳總在不停奔跑,可以說留下一個個難忘的腳印。這其中,有著大段的酷寒冬天,有著大段的溫暖夏日,有著大段的平淡,有著大段不盡人意的遭遇。一站又一站,急急匆匆,一路有風景,一路有輝煌,
文、圖/Accucrazy肖準行銷提供   現代社會中,打開手機都是各種美食、美妝、旅遊的推薦文,為民眾帶來更多新的選擇,解放更多的壓力!但隨著AI時代來臨,產出有趣口吻、搞笑文字,擅長用:「真的是我的大愛!」、「內餡很豐富,吃得到鹹味,不會太甜」這些看得很習以為常的文字,真的是本人體驗所寫的
Thumbnail
今天要來說一部2009年上映的電影 <Everybody's Fine > (天倫之旅)。 影片內容講述的是一位退休的老父親在太太過世後,發現小孩從那之後都不再願意回家,頓時驚覺自己與四個小孩之間所存在的距離感....
★不要猜忌他人,不要疑慮重重,不要活在深深的自卑感,或者感傷悲苦的情緒當中,應該要開朗、樸實、單純。即使遭遇了背叛、遇見了騙子,也要泰然自若地說:「那點小事,何足掛齒。」此刻,開始過著沒有罣礙的清爽生活! ●清爽活出真實自己的七個步驟: 1.更簡單、更清爽。要有心無罣礙的人生態度。
Thumbnail
想念閔玧其。還有鄭號錫。2020年底現背衍生。祝我生日快樂+花開十週年快樂