🔺前言:
ChatGPT是非營利組織OpenAI,所開發出來的一款,AI聊天機器人。
ChatGPT在2022年的11月30日推出,在上線兩個月以後,就已經擁有超過1億以上的用戶在使用。
本篇內容將會簡單的介紹,ChatGPT的運作原理,以及他的誕生過程。
GPT是一種大型語言模型(LLM),功能類似於一個高級的「文字預測機器」。
而ChatGPT,則是在GPT的基礎上,又加入了可以和人類進行互動,以及對話的聊天機器人。
前面有說到,GPT是一種文字預測機器,而類似的功能,其實我們一直都在使用,那就是手機的輸入法。
只是手機的輸入法,是一種比較低階的版本,它通常只能利用最後一個字,來預測下一個字。
例如:當你輸入「蔡英文是」的句子,那輸入法就會依照最後一個字『是』,來給你「(是)說」、「(是)不是」、「(是)否」的這些選項。
而GPT則是會分析完整的句子,接著給出:「蔡英文是台灣的總統。」
在生成完這個句子以後,GPT會把生成後的句子,再送進程式裡面做分析。藉由不斷的生成和分析,最後給出一個完整的答覆。
要製作GPT,需要經過兩個步驟:「預訓練(pre-trained)」和「微調(fine-tuning)」。
「預訓練」的過程是,AI會分析我們所提供的文本資料,來學習文字與文字之間,相互出現的機率。
接著AI就可以透過這些機率,來組合出讓我們覺得合理的句子。
至於「微調」呢,講簡單一點,就是工程師再手動的去調整,AI自己所訓練出來的結果。
原因是,AI所訓練出來的結果,不可能百分之百的,符合人類的需求。所以,我們才需要花時間,去修改掉我們不喜歡的答案。
在原本的製作架構中,微調是個需要花費大量人力的事情。
而GPT的製作團隊OpenAI,為了解決這個麻煩的問題,於是做出了一個有趣的嘗試:增加訓練的文本數量,以及參數的數量。
因此他們在開發GPT-2的時候,就把原本1.17億的參數量,調整成了15億的參數量。
結果他們發現,GPT-2居然可以在不用微調的狀況下,開始理解人類的問題。
最後,團隊依照這個原則,繼續開發了,擁有1750億個參數的GPT-3,這也就是風靡世界的ChatGPT,所搭配的大型語言模型。
我一直都會看到有人,拿著「正確性」來批評ChatGPT,也會有人拿它跟google來做比較。
但我覺得,ChatGPT一開始設計出來的功能,就不是要拿來找正確解答的,它應該只是一個「很會聊天的機器人」而已。
既然只是要拿來聊天的,那麼它會「畫虎爛」,我覺得也是正常的。
畢竟AI可能也無法理解,我們人類所謂的「正確」,到底是什麼東西,對吧?
🔔希望這篇內容對你有幫助,如果想收到最新的內容,歡迎追蹤我的方格子!🔔