對於大型語言模型的兩種不同期待

更新於 2023/06/07閱讀時間約 7 分鐘
這文章其實也是李宏毅老師 2023 年機器學習課程的個人一些學習整理,李老師上課的內容&口吻很精彩,很建議大家直接看李老師的課程影片: 完整的所有課程在這裏

在 ChatGPT 爆紅以前,大型語言模型幾乎都是 BERT 的天下,而 ChatGPT 興起後,讓我們看到了大型語言模型另外一種發展方向的可能性。你知道它們的基本原理的不同,以及基於基本原理導致他們使用方式也不一樣嗎?
這篇文章就是在試著與大家說明這些。

GPT 與 BERT:兩種語言模型

在大型語言模型的世界中,GPT 和 BERT 是兩個重要的代表。GPT 的工作方式可以被視為是「文字接龍」,它會根據前文來預測下一個詞語。例如,給定「今天天氣真好,我想去」,GPT 可能會預測出「公園」作為下一個詞。相對的,BERT 的工作方式則像是「文字填空」,它會根據上下文來預測缺失的詞語。例如,給定「今天天氣真好,我想去___公園」,BERT 就會嘗試填入適合的詞語,如「附近的」。
而這兩個思路其實也逐漸發展出兩種我們看待大型語言模型的期待(路線)

專才與通才:語言模型的期待

對於大型語言模型,我們有兩種不同的期待。一種是期待它成為專才,另一種則是期待它成為通才。專才的語言模型,例如專門翻譯或專門做摘要的模型,需要特別的調教以達到最佳的效果,例如 BERT模型。
而通才的語言模型,例如 ChatGPT,則是讓使用者按照自己的提問來下指令(Prompt),讓模型執行不同的任務。

通才的早期想法

這種期待語言模型成為通才的想法並不是新的。在一篇名為"自然語言處理的通用任務"的論文中,作者們就提出了這種想法。他們提出了一種問答方式,其中包括問題、參考內文和答案。例如,問題可能是"誰是美國的第一任總統?",參考內文可能是一段關於美國歷史的文章,而語言模型則可以自動回覆答案: "喬治·華盛頓"。

專才與通才的優勢

專才與通才兩種方向各有其優點。專才模型由於專注於解決單一任務,因此通常在準確度上會有較佳的表現。例如,根據論文 "Is ChatGPT A Good Translator ? A Preliminary Study" 的研究,專才模型在特定的任務,如語言翻譯或文本摘要上,通常能夠達到更高的準確度。另一篇論文 "How Good Are GPT Models at Machine Tranlation? A Comprehensive Evaluation" 也指出,專才模型在特定的領域,如醫學或法律,能夠提供更精確的資訊,因為它們被訓練來理解並處理這些領域的專業知識。
然而,通才模型的優點在於其靈活性和多功能性。這種模型更接近我們人類的溝通模式,只需要透過不同的提問(prompt)就可以切換功能。例如,我們可以對模型說「對以下文句做摘要」,模型就會自動生成摘要。如果我們覺得摘要還是太長,只需要告訴模型「還是太長」,模型就會再次縮短摘要。這種方式不僅讓我們可以快速開發新的應用,甚至不需要寫程式,大大降低了開發的門檻。
總的來說,專才與通才兩種方向各有其優點,選擇哪種方向取決於我們的需求和目標。專才模型在特定任務上的高準確度使其在某些情況下更為實用,而通才模型的靈活性和多功能性則讓它在其他情況下更具優勢。

專才模型:BERT 的使用

理解了專才與通才兩種語言模型的不同思路與方向後,我們可以進一步探討如何改進這兩種基礎語言模型的使用方式。首先,我們來看看專才模型 BERT 的使用方式。
BERT 模型的訓練方式主要是進行文字填空,因此它本身並不具備生成完整句子的能力。為了充分利用 BERT 模型,我們需要根據具體需求進行改造。例如,如果我們的目標是建立一個翻譯專才,我們就需要針對這個應用來改造 BERT 模型。改造的方式包括添加外掛模型和微調模型參數。
添加外掛模型的方式就像在 BERT 模型的後方加上一個專門處理特定任務的模型。而微調模型參數則是在餵給模型一些目標任務的訓練資料的基礎上,調整模型的參數。例如,如果我們要訓練模型進行翻譯任務,我們就需要餵給它一些英翻中的示範資料。
此外,還有一種稱為 Adapter 的方式,它的基本運作原理是在原本的語言模型內插入一些額外的模型(也就是 Adapter)。我們只微調 Adapter 的參數,而不改變原本語言模型的所有參數。這樣可以最小化參數變動,並且如果我們需要處理 100 個專用任務,我們只需要有一個大模型和 100 個專用任務的 Adapter,避免了需要存儲 100 個大模型的問題。
接下來,我們來看看通才模型 GPT 的部分。

通才模型:GPT 的訓練

GPT 模型的訓練和改造主要是讓模型能夠理解題目和範例,這涉及到兩種學習方式:Instruction Learning 和 In-context Learning。
Instruction Learning 是讓模型理解題目的學習方式。我們只需要提供成對的題目和答案給模型,例如,我們提供了很多類似以下這樣結構的資料給 GPT 模型做訓練:
題目:對以下文句做翻譯:這堂課我們要講如何駕馭大型語言模型 ……
答案: This course is about ……

題目:對以下文句做摘要:這堂課我們要講如何駕馭大型語言模型 ……
答案: 本課程重點 為 ……
我們期待的是,GPT 語言模型可以做出與訓練資料相似但不完全相同的任務:
題目:請幫我編修以下文句:"How is you?” 
答案: "How are you?
GPT 模型的 Instruction Learning 就是類似這樣,我們提供給它 A, B, C 任務-答案的學習資料後,讓它可以進一步完成 D 任務的自動答案的回覆。
另一種重要的 GPT語言模型的學習方式是 In-context Learning。例如,我們想要訓練 GPT 模型進行情感分析,我們只需要在內文裏提供給 GPT類似下面的訓練資料:
今天天氣真好 分隔號 正面 分隔號
今天運氣真差 分隔號 負面 分隔號
這朵花真美 分隔號 正面 分隔號
我真的是累了 分隔號 負面 分隔號
之後,GPT 語言模型就可以在收到 "我感到非常高興" 這樣的文句後,主動幫你接上 "正面"。
我感到非常高興 分隔號 (後方為 GPT 自動接續) 正面 分隔號
至於這樣的訓練是讓 GPT 模型真正的學習情感分析,還是只是觸發 GPT 模型本來就具有的情感分析能力。李宏毅老師的課程內有詳細的分析說明,我們就不在此贅述,留個各位讀者自行觀看。

我們這篇文章內的圖表都是由李宏毅老師的課程投影片中選錄截取出來的,原始投影片可參考李老師課程首頁內連接: Machine Learning 2023 Spring

很感謝李宏毅老師同意使用。
即將進入廣告,捲動後可繼續閱讀
為什麼會看到廣告
avatar-img
18會員
19內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
Ted Chen的沙龍 的其他內容
本文介紹了生成式學習中的兩種策略:「各個擊破」和「一次到位」。這兩種策略在生成速度和品質之間達到平衡。為了提高速度,可以採用"N次到位"的Diffusion Model策略。在語音和影像生成中,可以結合這兩種策略以充分利用優勢。融合策略可以同時確保品質和速度,展現人工智慧的潛力。
本文深入探討機器學習的核心概念,包括迴歸、分類和生成式學習。我們解釋了如何使用特定函式來實現期望任務,並將此過程分為設定範圍、確立標準和實現目標三個階段。文章還介紹了如何使用機器學習來訓練和測試模型,並以寶可夢應用為例說明迴歸和分類問題。
這篇文章揭示了訓練GPT模型的三個核心技術:預訓練、微調及增強式學習。預訓練利用大量網路資料提供基礎能力;微調讓GPT更貼近人類思維偏好;增強式學習最終優化模型回答問題的方式。此外,多語言預訓練能讓GPT在一語言的任務學習後,自動掌握其他語言的同樣任務。
這篇文章介紹了ChatGPT,一種大型的語言模型,能以自然語言回答問題,但不透過搜尋罐頭文字或網路內容。其核心技術是自監督式學習,通過大量的網路資料進行訓練,讓模型能進行文字接龍。儘管GPT系列經歷了多次演進,並需用大量的訓練資料,它的問答能力仍有待提升。然而,透過不斷優化,我們已有了更進一步的版本
由于 ChatGPT 的出現讓我們看到了聊天機器人的新可能性,我們這篇文章的目的,就是要來製作第一個屬於自己的聊天機器人。 我們先來準備範例的程式碼,並且稍後會再跟大家介紹要設計自己的 ChatGPT 聊天機器人的重要概念。 初始專案與環境設定 下載程式碼 請先使用下面這一段指令下載我們的範例程式碼
這篇其實就是 Andrew Ng 大大與 OpenAI 合作的一門免費課程【Chatgpt Prompt Engineering For Developers - Guideline】章節的第二段筆記。很建議大家直接看原本的課程影片,內容蠻淺顯易懂的。 第一段筆記在這:開發者的 ChatGPT 提示
本文介紹了生成式學習中的兩種策略:「各個擊破」和「一次到位」。這兩種策略在生成速度和品質之間達到平衡。為了提高速度,可以採用"N次到位"的Diffusion Model策略。在語音和影像生成中,可以結合這兩種策略以充分利用優勢。融合策略可以同時確保品質和速度,展現人工智慧的潛力。
本文深入探討機器學習的核心概念,包括迴歸、分類和生成式學習。我們解釋了如何使用特定函式來實現期望任務,並將此過程分為設定範圍、確立標準和實現目標三個階段。文章還介紹了如何使用機器學習來訓練和測試模型,並以寶可夢應用為例說明迴歸和分類問題。
這篇文章揭示了訓練GPT模型的三個核心技術:預訓練、微調及增強式學習。預訓練利用大量網路資料提供基礎能力;微調讓GPT更貼近人類思維偏好;增強式學習最終優化模型回答問題的方式。此外,多語言預訓練能讓GPT在一語言的任務學習後,自動掌握其他語言的同樣任務。
這篇文章介紹了ChatGPT,一種大型的語言模型,能以自然語言回答問題,但不透過搜尋罐頭文字或網路內容。其核心技術是自監督式學習,通過大量的網路資料進行訓練,讓模型能進行文字接龍。儘管GPT系列經歷了多次演進,並需用大量的訓練資料,它的問答能力仍有待提升。然而,透過不斷優化,我們已有了更進一步的版本
由于 ChatGPT 的出現讓我們看到了聊天機器人的新可能性,我們這篇文章的目的,就是要來製作第一個屬於自己的聊天機器人。 我們先來準備範例的程式碼,並且稍後會再跟大家介紹要設計自己的 ChatGPT 聊天機器人的重要概念。 初始專案與環境設定 下載程式碼 請先使用下面這一段指令下載我們的範例程式碼
這篇其實就是 Andrew Ng 大大與 OpenAI 合作的一門免費課程【Chatgpt Prompt Engineering For Developers - Guideline】章節的第二段筆記。很建議大家直接看原本的課程影片,內容蠻淺顯易懂的。 第一段筆記在這:開發者的 ChatGPT 提示
你可能也想看
Google News 追蹤
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
真的要說我的自食其力,目前有在成長。 從原本的強烈刻板模式,認為到洗澡當天,才能換內褲,目前的彈性模式,有在提升。 我想,最重要的,是星星兒的彈性模式強度,要提升。 而我想說,在分析話中有話,其實,機會也是有的。 但,能否活用,不多。 我認為不多的原因 對我而言,大多時候,只是得到具體明
相信很多照顧者對於星星兒的情緒失控,感到無力。 反而,以我來說,有些時候,是一種自尊。 相對的,星星兒無法知道,表達,是怎麼開始,怎麼進行。 甚至,好不容易有理解的彈性思維,就有消失的感受。 當然,這是星星兒的正常模式。 問題是,照顧者的引導,如何做呢? 配合星星兒的世界,加入進行 我
Thumbnail
敞開,讓自己的生命擁有更多 每日喜悅練習是什麼呢? 你將想像力帶進你「事先描繪日子」,每天都能以更高的方式,來接受最深層的自己,你能在一整天的時間裡,與你的言語、思維、感受共振,並且,能表達最真實的自己。 每日喜悅練習,就是和內在的自己接觸的練習。
今日稍早針對目前的國會調查權法案等國會權限強化爭議,我國數十名法學者發表「立法院應將國會五法退回至委員會充分討論 法律學者聯合聲明」,聲明全文與名單如下: 對於此聯合聲明,敝人身為憲法學徒僅發表個人淺見如下。 我們作為法學者行動應該審慎考慮到拿自己身為法學者的權威背書時可能會產生的效果
Thumbnail
大俠武林的投資心法是,看好一檔投資標的,並分批佈局增加持股張數。長期的持有,就可以有效的壓低成本,將獲取的股息再投入,慢慢擴大持股張數。這樣的思維會受到賺取波段價差思維的挑戰。其實兩者間的相互交流,並不是什麼壞事,反而更能讓自己確認想要的是什麼。如果一檔個股可以從便宜價就買入,然後慢慢
Thumbnail
為什麼這麼在意他人? 語言傷害,來自兩個大前提--「社會文化」與「自我認知」。 一向很在意別人評價的我,有一天突然被主管問:「你為什麼這麼在意別人怎麼說你呢?」 相較於小時候的我,現在已經好多了,但在工作中,仍無法完全不管他人怎麼看,因此,讓我開始認真的思考,一個人說出來的話,對自己的影響究竟為何…
Thumbnail
在各種狀況下,我們的人說的諫言,多半採取「給予他人格性上的批判」,而不是「告知他們如何做得更好」或是「提醒他們做錯的地方」 但我們必須注意的是,我們的更好建議,都只是我們的判斷,我們不該因為自身是好意,就自大地認為我們的建議更好,或者認為「他人與你的道德觀不同」而產生不良印象
Thumbnail
會想念全家人坐在一起看電視互相討論的情景嗎?從什麼時候開始,我們的上一代和下一代已經沒有共通語言了?面對這個天大的文化危機,已經被體制化的我們還渾然不覺是很正常的,接下來的「雙語國家」會再製造更多的文化斷層…
Thumbnail
It's not a good idea to make a fear ad to scare people who haven't get vaccinated, and it's unsuitable to publish the terrible experience of those
Thumbnail
        在家用遊樂器主機的歷史中,可以說是一部不斷選擇的歷史。有錢的玩家當然可以通包,不管是PS、XBOX還是NS主機通通都買,所以強片大作出不管在哪台主機,都可以玩得到。但對月光這種時間和預算都有限的玩家而言,就會選擇其中一台主機,並從它所推出的遊戲片中選擇一
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
真的要說我的自食其力,目前有在成長。 從原本的強烈刻板模式,認為到洗澡當天,才能換內褲,目前的彈性模式,有在提升。 我想,最重要的,是星星兒的彈性模式強度,要提升。 而我想說,在分析話中有話,其實,機會也是有的。 但,能否活用,不多。 我認為不多的原因 對我而言,大多時候,只是得到具體明
相信很多照顧者對於星星兒的情緒失控,感到無力。 反而,以我來說,有些時候,是一種自尊。 相對的,星星兒無法知道,表達,是怎麼開始,怎麼進行。 甚至,好不容易有理解的彈性思維,就有消失的感受。 當然,這是星星兒的正常模式。 問題是,照顧者的引導,如何做呢? 配合星星兒的世界,加入進行 我
Thumbnail
敞開,讓自己的生命擁有更多 每日喜悅練習是什麼呢? 你將想像力帶進你「事先描繪日子」,每天都能以更高的方式,來接受最深層的自己,你能在一整天的時間裡,與你的言語、思維、感受共振,並且,能表達最真實的自己。 每日喜悅練習,就是和內在的自己接觸的練習。
今日稍早針對目前的國會調查權法案等國會權限強化爭議,我國數十名法學者發表「立法院應將國會五法退回至委員會充分討論 法律學者聯合聲明」,聲明全文與名單如下: 對於此聯合聲明,敝人身為憲法學徒僅發表個人淺見如下。 我們作為法學者行動應該審慎考慮到拿自己身為法學者的權威背書時可能會產生的效果
Thumbnail
大俠武林的投資心法是,看好一檔投資標的,並分批佈局增加持股張數。長期的持有,就可以有效的壓低成本,將獲取的股息再投入,慢慢擴大持股張數。這樣的思維會受到賺取波段價差思維的挑戰。其實兩者間的相互交流,並不是什麼壞事,反而更能讓自己確認想要的是什麼。如果一檔個股可以從便宜價就買入,然後慢慢
Thumbnail
為什麼這麼在意他人? 語言傷害,來自兩個大前提--「社會文化」與「自我認知」。 一向很在意別人評價的我,有一天突然被主管問:「你為什麼這麼在意別人怎麼說你呢?」 相較於小時候的我,現在已經好多了,但在工作中,仍無法完全不管他人怎麼看,因此,讓我開始認真的思考,一個人說出來的話,對自己的影響究竟為何…
Thumbnail
在各種狀況下,我們的人說的諫言,多半採取「給予他人格性上的批判」,而不是「告知他們如何做得更好」或是「提醒他們做錯的地方」 但我們必須注意的是,我們的更好建議,都只是我們的判斷,我們不該因為自身是好意,就自大地認為我們的建議更好,或者認為「他人與你的道德觀不同」而產生不良印象
Thumbnail
會想念全家人坐在一起看電視互相討論的情景嗎?從什麼時候開始,我們的上一代和下一代已經沒有共通語言了?面對這個天大的文化危機,已經被體制化的我們還渾然不覺是很正常的,接下來的「雙語國家」會再製造更多的文化斷層…
Thumbnail
It's not a good idea to make a fear ad to scare people who haven't get vaccinated, and it's unsuitable to publish the terrible experience of those
Thumbnail
        在家用遊樂器主機的歷史中,可以說是一部不斷選擇的歷史。有錢的玩家當然可以通包,不管是PS、XBOX還是NS主機通通都買,所以強片大作出不管在哪台主機,都可以玩得到。但對月光這種時間和預算都有限的玩家而言,就會選擇其中一台主機,並從它所推出的遊戲片中選擇一