【Goolge 課程筆記】Introduction to Large Language:快速掌握 LLM 基礎概念與應用

更新 發佈閱讀 4 分鐘
raw-image

📌 為什麼我會上這門課?

這是 Google 數位人才探索計畫 關於 AI 的第二堂課,幫助行銷人更了解大型語言模型(LLM),並有基礎的認識

  1. 定義大型語言模型
  2. 說明LLM的用途
  3. 解釋如何調整提示以及介紹 Google 生成式 AI 開發工具

📚 課程資訊整理


課程名稱:Introduction to Large Language Models

所需時間: 30 分鐘

難易程度:入門

適合對象:設計師、PM、行銷、程式設計師


🧠 重點筆記


▋大型語言模型 Large Language Models(LLM) 是什麼?


LLM 是屬於深度學習的分支,是基於深度學習的生成式 AI 模型,透過大量語言資料訓練,具備強大的語言理解與生成能力。

具備廣泛用途(翻譯、文字分類、問答與生成摘要),並能透過預訓練(pre-trained),針對特定用途(醫療、法律)進行微調(fine-tuned),在特定領域達成更好的表現。


▋大型語言模型(LLM) 的三大特性


  1. Large:訓練資料量龐大,參數數量高達數十億甚至上千億,使模型具備強大的理解與預測能力。
  2. General-purpose:具備廣泛的應用能力,可處理跨領域的語言任務,並成為其他模型的基礎架構。
  3. pre-trained+fine-tuned:先進行大規模通用語言預訓練,再依任務使用較小資料微調,打造專屬模型。


▋大型語言模型(LLM) 的優勢


  1. 能處理多項工作,從翻譯、文字分類、問答與生成摘要等文字都可以進行。
  2. 可以用 few-shots(小樣本) 與 zero-shots(無樣本)就可以達成高校學習,能針對特定領域做應用。如:我們只需要少量的醫療文本就能讓模型去回答診療問題。
  3. 隨著資料與參數的增加,大型語言的模型成效也會持續增長。


▋大型語言模型(LLM) 的技術架構 - Transformer

目前語言模型的架構都是基於Transformer 架構,它是採用編碼器與解碼器組成,能高效處理序列資料。這種架構讓模型能掌握上下文關係,是現代語言模型的技術核心。


▋大型語言模型(LLM)開發與傳統機器學習(ML)開發差異


大型語言模型開發

  1. 不需要機器學習的專業:表示開發者不需要理解機器學習的底層原理、演算法與架構,就能利用 LLM的 API 進行開發。
  2. 不需要訓練範例:LLM 已經預訓練,因此不在需要投注大量的訓練數據。
  3. 不需要訓練模型:由於已經預訓練,開發者可以直接使用,而不需要密集的重新訓練模型。
  4. 著重提示設計:回答品質著重在輸入的提示,因此著重在如何設計有效的提示,引導輸出。


傳統機器學習開發

  1. 需要機器學習知識:須具備各種機器學習理論與開發知識,才能進行訓練與使用。
  2. 需要訓練範例與模型:需要大量的數據標記,才能讓模型進行學習與預測。
  3. 計算時間與硬體:需要花費大量時間與硬體去進行訓練
  4. 著重於最小化損失函數: 傳統機器學習模型訓練的目標是通過優化演算法,不斷調整模型參數,使其在訓練數據上的預測誤差(損失函數)最小化。


因此大型語言模型的開發優勢在於可以用更低技術門檻與資源,並能快速進行開發功能。


▋大型語言模型(LLM)的三種類型


  • 語言模型(Language Model):這類型通常會根據訓練資料,依據上下文預測下一個詞。
  • 指令調整模型(Instruction-tuned Model):經由訓練後,可根據明確指令,預測回覆。
  • 對話調整模型(Dialogue-tuned Model):能展開自然對話,像 ChatGPT 一樣互動。


▋讓大型語言模型回覆品質更高的關鍵 Prompt Design 與 Prompt Engineering


大型語言模型能回答我們任何問題,都要歸功於提示設計(Prompt Design)與提示工程(Prompt Engineering),兩者都需要建立提示,內容需要簡單扼要資訊充足,但他們兩個還是有所差異:

提示設計(Prompt Design) :是根據使用者要求系統執行的特定工作,來建立相應的提示,如:我們請 AI 將我們的中文翻譯成英文,使用者需要先用中文寫提示, 並指定翻成英文,它才會進行動作。

提示工程(Prompt Engineering) :是指為提升回覆成效,建立相應提示的過程,過程中可能需要運用特定領域知識,或提供理想輸出結果範例,或使用能在特定系統中發揮良好成效的關鍵字,以便讓大型語言模型的回覆更加。比如透過給範例的方法、採用醫療領域的關鍵字去詢問,去提高回覆質量。


raw-image


📋 總結

本課程幫助我們能更了解大型語言模型的相關術語、理解其技術核心與其他開發方式的差異,使用簡單的方式理解大型語言模型領域的大概內容。進一步去學習其他領域。

課程連結:

https://www.cloudskillsboost.google/paths/118/course_templates/539/video/517246?locale=zh_TW




留言
avatar-img
吱吱喳喳
114會員
71內容數
專注於研究 UX、行銷領域,用文字作為心得分享。
吱吱喳喳的其他內容
2025/04/20
本文整理 Google 數位人才探索計畫課程「Introduction to Generative AI」的重點,介紹生成式 AI 的定義、運作原理與應用範疇,並釐清 AI、機器學習與深度學習關聯。課程涵蓋大型語言模型(LLM)、Transformer 架構,並說明在文字、圖像、程式、語音領域應用。
Thumbnail
2025/04/20
本文整理 Google 數位人才探索計畫課程「Introduction to Generative AI」的重點,介紹生成式 AI 的定義、運作原理與應用範疇,並釐清 AI、機器學習與深度學習關聯。課程涵蓋大型語言模型(LLM)、Transformer 架構,並說明在文字、圖像、程式、語音領域應用。
Thumbnail
2025/04/05
在競爭激烈的市場中,降價策略並非長久之計。本文介紹藤村正宏的體驗行銷理念,強調創造顧客價值、建立情感連結的重要性,而非單純銷售產品。透過鎖定顧客、重新編輯產品、維持顧客關係等方式,建立獨特品牌體驗,讓顧客在有需要時優先想到你。本文適用於經營社群、開店創業、經營品牌的人士。
Thumbnail
2025/04/05
在競爭激烈的市場中,降價策略並非長久之計。本文介紹藤村正宏的體驗行銷理念,強調創造顧客價值、建立情感連結的重要性,而非單純銷售產品。透過鎖定顧客、重新編輯產品、維持顧客關係等方式,建立獨特品牌體驗,讓顧客在有需要時優先想到你。本文適用於經營社群、開店創業、經營品牌的人士。
Thumbnail
2025/03/22
一個週末!打造千萬事業,為暢銷書作者諾亞.凱根(Noah Kagan)提出的創業方法公式。文中強調創業需要勇氣、行動力以及找到具有商業價值的點子,並分享了尋找點子、驗證點子及計算利潤的方法。
Thumbnail
2025/03/22
一個週末!打造千萬事業,為暢銷書作者諾亞.凱根(Noah Kagan)提出的創業方法公式。文中強調創業需要勇氣、行動力以及找到具有商業價值的點子,並分享了尋找點子、驗證點子及計算利潤的方法。
Thumbnail
看更多
你可能也想看
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News