ChatGPT是什麼?快速了解ChatGPT的原理和功能

2023/08/27閱讀時間約 2 分鐘

🔺前言:

ChatGPT是非營利組織OpenAI,所開發出來的一款,AI聊天機器人。

ChatGPT在2022年的11月30日推出,在上線兩個月以後,就已經擁有超過1億以上的用戶在使用。

本篇內容將會簡單的介紹,ChatGPT的運作原理,以及他的誕生過程。

看似無所不能的聊天AI機器人-ChatGPT

看似無所不能的聊天AI機器人-ChatGPT



📌GPT和ChatGPT,有什麼不一樣?

GPT是一種大型語言模型(LLM),功能類似於一個高級的「文字預測機器」。

而ChatGPT,則是在GPT的基礎上,又加入了可以和人類進行互動,以及對話的聊天機器人。


📌GPT的運作概念

前面有說到,GPT是一種文字預測機器,而類似的功能,其實我們一直都在使用,那就是手機的輸入法。

只是手機的輸入法,是一種比較低階的版本,它通常只能利用最後一個字,來預測下一個字。

例如:當你輸入「蔡英文是」的句子,那輸入法就會依照最後一個字『是』,來給你「(是)說」、「(是)不是」、「(是)否」的這些選項。

而GPT則是會分析完整的句子,接著給出:「蔡英文是台灣的總統。」

在生成完這個句子以後,GPT會把生成後的句子,再送進程式裡面做分析。藉由不斷的生成和分析,最後給出一個完整的答覆。


📌GPT是如何製作出來的?

要製作GPT,需要經過兩個步驟:「預訓練(pre-trained)」和「微調(fine-tuning)」。

「預訓練」的過程是,AI會分析我們所提供的文本資料,來學習文字與文字之間,相互出現的機率。

接著AI就可以透過這些機率,來組合出讓我們覺得合理的句子。

至於「微調」呢,講簡單一點,就是工程師再手動的去調整,AI自己所訓練出來的結果。

原因是,AI所訓練出來的結果,不可能百分之百的,符合人類的需求。所以,我們才需要花時間,去修改掉我們不喜歡的答案。


📌為何GPT會如此強大?

在原本的製作架構中,微調是個需要花費大量人力的事情。

而GPT的製作團隊OpenAI,為了解決這個麻煩的問題,於是做出了一個有趣的嘗試:增加訓練的文本數量,以及參數的數量。

因此他們在開發GPT-2的時候,就把原本1.17億的參數量,調整成了15億的參數量。

結果他們發現,GPT-2居然可以在不用微調的狀況下,開始理解人類的問題。

最後,團隊依照這個原則,繼續開發了,擁有1750億個參數的GPT-3,這也就是風靡世界的ChatGPT,所搭配的大型語言模型。


📌我對ChatGPT的看法

我一直都會看到有人,拿著「正確性」來批評ChatGPT,也會有人拿它跟google來做比較。

但我覺得,ChatGPT一開始設計出來的功能,就不是要拿來找正確解答的,它應該只是一個「很會聊天的機器人」而已。

既然只是要拿來聊天的,那麼它會「畫虎爛」,我覺得也是正常的。

畢竟AI可能也無法理解,我們人類所謂的「正確」,到底是什麼東西,對吧?



🔔希望這篇內容對你有幫助,如果想收到最新的內容,歡迎追蹤我的方格子!🔔

24會員
96內容數
用紀錄代替創作,覺得內容有用可以追蹤,或者,可以找我合作
留言0
查看全部
發表第一個留言支持創作者!