
📌 為什麼我會上這門課?
這是 Google 數位人才探索計畫 關於 AI 的第二堂課,幫助行銷人更了解大型語言模型(LLM),並有基礎的認識
- 定義大型語言模型
- 說明LLM的用途
- 解釋如何調整提示以及介紹 Google 生成式 AI 開發工具
📚 課程資訊整理
所需時間: 30 分鐘
難易程度:入門
適合對象:設計師、PM、行銷、程式設計師
🧠 重點筆記
▋大型語言模型 Large Language Models(LLM) 是什麼?
LLM 是屬於深度學習的分支,是基於深度學習的生成式 AI 模型,透過大量語言資料訓練,具備強大的語言理解與生成能力。
具備廣泛用途(翻譯、文字分類、問答與生成摘要),並能透過預訓練(pre-trained),針對特定用途(醫療、法律)進行微調(fine-tuned),在特定領域達成更好的表現。
▋大型語言模型(LLM) 的三大特性
- Large:訓練資料量龐大,參數數量高達數十億甚至上千億,使模型具備強大的理解與預測能力。
- General-purpose:具備廣泛的應用能力,可處理跨領域的語言任務,並成為其他模型的基礎架構。
- pre-trained+fine-tuned:先進行大規模通用語言預訓練,再依任務使用較小資料微調,打造專屬模型。
▋大型語言模型(LLM) 的優勢
- 能處理多項工作,從翻譯、文字分類、問答與生成摘要等文字都可以進行。
- 可以用 few-shots(小樣本) 與 zero-shots(無樣本)就可以達成高校學習,能針對特定領域做應用。如:我們只需要少量的醫療文本就能讓模型去回答診療問題。
- 隨著資料與參數的增加,大型語言的模型成效也會持續增長。
▋大型語言模型(LLM) 的技術架構 - Transformer
目前語言模型的架構都是基於Transformer 架構,它是採用編碼器與解碼器組成,能高效處理序列資料。這種架構讓模型能掌握上下文關係,是現代語言模型的技術核心。
▋大型語言模型(LLM)開發與傳統機器學習(ML)開發差異
大型語言模型開發
- 不需要機器學習的專業:表示開發者不需要理解機器學習的底層原理、演算法與架構,就能利用 LLM的 API 進行開發。
- 不需要訓練範例:LLM 已經預訓練,因此不在需要投注大量的訓練數據。
- 不需要訓練模型:由於已經預訓練,開發者可以直接使用,而不需要密集的重新訓練模型。
- 著重提示設計:回答品質著重在輸入的提示,因此著重在如何設計有效的提示,引導輸出。
傳統機器學習開發
- 需要機器學習知識:須具備各種機器學習理論與開發知識,才能進行訓練與使用。
- 需要訓練範例與模型:需要大量的數據標記,才能讓模型進行學習與預測。
- 計算時間與硬體:需要花費大量時間與硬體去進行訓練
- 著重於最小化損失函數: 傳統機器學習模型訓練的目標是通過優化演算法,不斷調整模型參數,使其在訓練數據上的預測誤差(損失函數)最小化。
因此大型語言模型的開發優勢在於可以用更低技術門檻與資源,並能快速進行開發功能。
▋大型語言模型(LLM)的三種類型
- 語言模型(Language Model):這類型通常會根據訓練資料,依據上下文預測下一個詞。
- 指令調整模型(Instruction-tuned Model):經由訓練後,可根據明確指令,預測回覆。
- 對話調整模型(Dialogue-tuned Model):能展開自然對話,像 ChatGPT 一樣互動。
▋讓大型語言模型回覆品質更高的關鍵 Prompt Design 與 Prompt Engineering
大型語言模型能回答我們任何問題,都要歸功於提示設計(Prompt Design)與提示工程(Prompt Engineering),兩者都需要建立提示,內容需要簡單扼要且資訊充足,但他們兩個還是有所差異:
提示設計(Prompt Design) :是根據使用者要求系統執行的特定工作,來建立相應的提示,如:我們請 AI 將我們的中文翻譯成英文,使用者需要先用中文寫提示, 並指定翻成英文,它才會進行動作。
提示工程(Prompt Engineering) :是指為提升回覆成效,建立相應提示的過程,過程中可能需要運用特定領域知識,或提供理想輸出結果範例,或使用能在特定系統中發揮良好成效的關鍵字,以便讓大型語言模型的回覆更加。比如透過給範例的方法、採用醫療領域的關鍵字去詢問,去提高回覆質量。

📋 總結
本課程幫助我們能更了解大型語言模型的相關術語、理解其技術核心與其他開發方式的差異,使用簡單的方式理解大型語言模型領域的大概內容。進一步去學習其他領域。
課程連結:
https://www.cloudskillsboost.google/paths/118/course_templates/539/video/517246?locale=zh_TW