【Goolge 課程筆記】Introduction to Large Language:快速掌握 LLM 基礎概念與應用

更新於 發佈於 閱讀時間約 4 分鐘
raw-image

📌 為什麼我會上這門課?

這是 Google 數位人才探索計畫 關於 AI 的第二堂課,幫助行銷人更了解大型語言模型(LLM),並有基礎的認識

  1. 定義大型語言模型
  2. 說明LLM的用途
  3. 解釋如何調整提示以及介紹 Google 生成式 AI 開發工具

📚 課程資訊整理


課程名稱:Introduction to Large Language Models

所需時間: 30 分鐘

難易程度:入門

適合對象:設計師、PM、行銷、程式設計師


🧠 重點筆記


▋大型語言模型 Large Language Models(LLM) 是什麼?


LLM 是屬於深度學習的分支,是基於深度學習的生成式 AI 模型,透過大量語言資料訓練,具備強大的語言理解與生成能力。

具備廣泛用途(翻譯、文字分類、問答與生成摘要),並能透過預訓練(pre-trained),針對特定用途(醫療、法律)進行微調(fine-tuned),在特定領域達成更好的表現。


▋大型語言模型(LLM) 的三大特性


  1. Large:訓練資料量龐大,參數數量高達數十億甚至上千億,使模型具備強大的理解與預測能力。
  2. General-purpose:具備廣泛的應用能力,可處理跨領域的語言任務,並成為其他模型的基礎架構。
  3. pre-trained+fine-tuned:先進行大規模通用語言預訓練,再依任務使用較小資料微調,打造專屬模型。


▋大型語言模型(LLM) 的優勢


  1. 能處理多項工作,從翻譯、文字分類、問答與生成摘要等文字都可以進行。
  2. 可以用 few-shots(小樣本) 與 zero-shots(無樣本)就可以達成高校學習,能針對特定領域做應用。如:我們只需要少量的醫療文本就能讓模型去回答診療問題。
  3. 隨著資料與參數的增加,大型語言的模型成效也會持續增長。


▋大型語言模型(LLM) 的技術架構 - Transformer

目前語言模型的架構都是基於Transformer 架構,它是採用編碼器與解碼器組成,能高效處理序列資料。這種架構讓模型能掌握上下文關係,是現代語言模型的技術核心。


▋大型語言模型(LLM)開發與傳統機器學習(ML)開發差異


大型語言模型開發

  1. 不需要機器學習的專業:表示開發者不需要理解機器學習的底層原理、演算法與架構,就能利用 LLM的 API 進行開發。
  2. 不需要訓練範例:LLM 已經預訓練,因此不在需要投注大量的訓練數據。
  3. 不需要訓練模型:由於已經預訓練,開發者可以直接使用,而不需要密集的重新訓練模型。
  4. 著重提示設計:回答品質著重在輸入的提示,因此著重在如何設計有效的提示,引導輸出。


傳統機器學習開發

  1. 需要機器學習知識:須具備各種機器學習理論與開發知識,才能進行訓練與使用。
  2. 需要訓練範例與模型:需要大量的數據標記,才能讓模型進行學習與預測。
  3. 計算時間與硬體:需要花費大量時間與硬體去進行訓練
  4. 著重於最小化損失函數: 傳統機器學習模型訓練的目標是通過優化演算法,不斷調整模型參數,使其在訓練數據上的預測誤差(損失函數)最小化。


因此大型語言模型的開發優勢在於可以用更低技術門檻與資源,並能快速進行開發功能。


▋大型語言模型(LLM)的三種類型


  • 語言模型(Language Model):這類型通常會根據訓練資料,依據上下文預測下一個詞。
  • 指令調整模型(Instruction-tuned Model):經由訓練後,可根據明確指令,預測回覆。
  • 對話調整模型(Dialogue-tuned Model):能展開自然對話,像 ChatGPT 一樣互動。


▋讓大型語言模型回覆品質更高的關鍵 Prompt Design 與 Prompt Engineering


大型語言模型能回答我們任何問題,都要歸功於提示設計(Prompt Design)與提示工程(Prompt Engineering),兩者都需要建立提示,內容需要簡單扼要資訊充足,但他們兩個還是有所差異:

提示設計(Prompt Design) :是根據使用者要求系統執行的特定工作,來建立相應的提示,如:我們請 AI 將我們的中文翻譯成英文,使用者需要先用中文寫提示, 並指定翻成英文,它才會進行動作。

提示工程(Prompt Engineering) :是指為提升回覆成效,建立相應提示的過程,過程中可能需要運用特定領域知識,或提供理想輸出結果範例,或使用能在特定系統中發揮良好成效的關鍵字,以便讓大型語言模型的回覆更加。比如透過給範例的方法、採用醫療領域的關鍵字去詢問,去提高回覆質量。


raw-image


📋 總結

本課程幫助我們能更了解大型語言模型的相關術語、理解其技術核心與其他開發方式的差異,使用簡單的方式理解大型語言模型領域的大概內容。進一步去學習其他領域。

課程連結:

https://www.cloudskillsboost.google/paths/118/course_templates/539/video/517246?locale=zh_TW




留言
avatar-img
留言分享你的想法!
Peter Lu-avatar-img
2025/04/27
謝謝分享~ 簡單易懂的資訊!
avatar-img
吱吱喳喳
73會員
48內容數
專注於研究 UX、行銷領域,用文字作為心得分享。
吱吱喳喳的其他內容
2025/04/20
本文整理 Google 數位人才探索計畫課程「Introduction to Generative AI」的重點,介紹生成式 AI 的定義、運作原理與應用範疇,並釐清 AI、機器學習與深度學習關聯。課程涵蓋大型語言模型(LLM)、Transformer 架構,並說明在文字、圖像、程式、語音領域應用。
Thumbnail
2025/04/20
本文整理 Google 數位人才探索計畫課程「Introduction to Generative AI」的重點,介紹生成式 AI 的定義、運作原理與應用範疇,並釐清 AI、機器學習與深度學習關聯。課程涵蓋大型語言模型(LLM)、Transformer 架構,並說明在文字、圖像、程式、語音領域應用。
Thumbnail
2025/04/05
在競爭激烈的市場中,降價策略並非長久之計。本文介紹藤村正宏的體驗行銷理念,強調創造顧客價值、建立情感連結的重要性,而非單純銷售產品。透過鎖定顧客、重新編輯產品、維持顧客關係等方式,建立獨特品牌體驗,讓顧客在有需要時優先想到你。本文適用於經營社群、開店創業、經營品牌的人士。
Thumbnail
2025/04/05
在競爭激烈的市場中,降價策略並非長久之計。本文介紹藤村正宏的體驗行銷理念,強調創造顧客價值、建立情感連結的重要性,而非單純銷售產品。透過鎖定顧客、重新編輯產品、維持顧客關係等方式,建立獨特品牌體驗,讓顧客在有需要時優先想到你。本文適用於經營社群、開店創業、經營品牌的人士。
Thumbnail
2025/03/22
一個週末!打造千萬事業,為暢銷書作者諾亞.凱根(Noah Kagan)提出的創業方法公式。文中強調創業需要勇氣、行動力以及找到具有商業價值的點子,並分享了尋找點子、驗證點子及計算利潤的方法。
Thumbnail
2025/03/22
一個週末!打造千萬事業,為暢銷書作者諾亞.凱根(Noah Kagan)提出的創業方法公式。文中強調創業需要勇氣、行動力以及找到具有商業價值的點子,並分享了尋找點子、驗證點子及計算利潤的方法。
Thumbnail
看更多
你可能也想看
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News