大型語言模型常用的提詞框架 | Coursera 課程回顧(下)

更新於 發佈於 閱讀時間約 8 分鐘

Overview-What is LLM?

大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。

雖然大型語言模型在理解和生成文本方面表現驚人,但它們並非真正理解語言,也缺乏世界運作的知識,模型可能學到偏見或生成不準確的信息。

除了在上篇介紹的 Prompt Design Pattern 可以協助我們在使用 LLM 時給予指示,以更好的執行我們期望中的工作之外,今天我們會介紹其他的技巧,確保生成的輸出擁有特定的品質,包括:

  1. Chain of Thought Prompting
  2. One-shot/Few-shot
  3. ReAct Prompting

what you need to know when using a LLM?

  1. LLM 的數學很糟。LLM 是在大量文本上進行訓練,而解決數學問題可能需要其他模型。
  2. 使用英文來提詞你會的得到更好的回答。論文🔗
  3. 偏見與幻覺。LLM 在回應中基於它的訓練資料集可能展現偏見;在回答不知道答案的問題時可能產生“幻覺”或生成虛假信息。
  4. 耐心。LLM 透過精準的對話,基於對話的上下文,可以提供更精確的生成結果。
  5. 平庸的輸入導致平庸的輸出。請使用 Prompt Pattern… 等等方法提高生成輸出的品質。

Chain of Thought Prompting

Chain of Thought Prompting 是一種與大型語言模型(LLM)互動的方式,旨在通過建立連貫的思維過程,引導模型生成更深入、更有邏輯結構的回答,通常都會提高 LLM 生成答案的準確度

在使用 Chain of Thought Prompting 有幾個特點:

  1. 首先, Chain of Thought Prompting 允許模型將多步驟問題分解為更多的中間步驟,這意味著需要更多運算資源處理推理步驟的問題。
  2. 其次, Chain of Thought Prompting 為模型的行為提供了一個可解釋的窗口,表明它可能如何獲得特定的答案,並提供調試推理路徑錯誤的機會
  3. 第三, Chain of Thought Prompting 可用於諸如數學單字問題常識推理符號操作等任務,並且原則上適用於人類可以透過語言解決的任何任務。
  4. 最後,只需將 Chain of Thought Prompting 推理的範例配合使用少量提示(One-shot/Few-shot Prompting),就可以輕鬆地在的現成大型語言模型中引出 Chain of Thought Prompting 的推理。
context, information, conditions

input:1
reasoning:1
output:1
input:2
reasoning:2
output:2
input:3
reasoning:3
output:3

input: your question?
raw-image


One-shots/Few-shots

One-shots 和 Few-shots 是一種強大的大型語言模型(LLM)使用框架。One-shots 和 Few-shots 指的是提供模型一些的範例就能夠學會新事物的能力。

這種學習方法的優勢在於其高效性和適應性。One-shots 和 Few-shots 更能夠迅速適應新的任務或情境,並在短時間內生成合理的回答。這種方式使得LLMs可以更靈活地應對各種問題,而不需要龐大的訓練數據集。

One-shots 和 Few-shots 的差別在於提供的範例數量為一個還是多個。

context, information, conditions

input:1
output:1
input:2
output:2
input:3
output:3

input: your question?
output:


ReAct Prompting

ReAct Prompting是一種與大型語言模型(LLM)互動的框架,其中大型語言模型(LLMs)以交替的方式生成推理軌跡和特定任務的操作,以達到更精確和符合期望的回應。

提供範例並要求模型生成推理軌跡使能夠誘導 LLM 追踪和更新行動計劃。操作步驟甚至允許LLMs 與外部資源(如知識庫或環境)進行串接互動,檢索附加信息,從而產生更可靠和事實準確的回應。

Task:
Think:
Action: Use Tools (SEARCH WEB, Video, other tools)
Result:
Think:
Action: Use Tools (SEARCH WEB, Video, other tools)
Result:
Think:
Action: Use Tools (SEARCH WEB, Video, other tools)
Result:
---
Task: [your task]


補充資料:其他框架技巧

延伸閱讀

三大大型語言模型工具

參考引源和學習資源整理



留言
avatar-img
留言分享你的想法!
avatar-img
Marcos的方格子
20會員
44內容數
歡迎來到「Marcos的方格子」!目前在「Marcos談科技」撰寫在職涯上學習到的知識,在「Marcos談書」分享我在日常的閱讀和心得,歡迎您的到來!!
Marcos的方格子的其他內容
2024/12/21
可觀測性(Observability)是現代架構中的核心能力,透過指標、日誌和分散式追蹤三大支柱,幫助開發者深入理解系統狀態並快速定位問題根源。本篇文章回顧 DevOps Taiwan Meetup 的精彩內容,解析可觀測性與監控的差異、建置流程的四大階段,以及實務應用中的工具選擇與導入時機!
Thumbnail
2024/12/21
可觀測性(Observability)是現代架構中的核心能力,透過指標、日誌和分散式追蹤三大支柱,幫助開發者深入理解系統狀態並快速定位問題根源。本篇文章回顧 DevOps Taiwan Meetup 的精彩內容,解析可觀測性與監控的差異、建置流程的四大階段,以及實務應用中的工具選擇與導入時機!
Thumbnail
2024/12/14
本篇文章針對 CKA 認證考試中常見的實作題目,提供詳細解題流程與指令範例。內容基於 examtopic 題目解析,幫助考生掌握實作技能與應試技巧,快速提升 Kubernetes 操作能力,為通過 CKA 考試做好萬全準備!
Thumbnail
2024/12/14
本篇文章針對 CKA 認證考試中常見的實作題目,提供詳細解題流程與指令範例。內容基於 examtopic 題目解析,幫助考生掌握實作技能與應試技巧,快速提升 Kubernetes 操作能力,為通過 CKA 考試做好萬全準備!
Thumbnail
2024/09/17
如何一年內考取 Google Cloud 所有雲端證照
Thumbnail
2024/09/17
如何一年內考取 Google Cloud 所有雲端證照
Thumbnail
看更多
你可能也想看
Thumbnail
介紹朋友新開的蝦皮選物店『10樓2選物店』,並分享方格子與蝦皮合作的分潤計畫,註冊流程簡單,0成本、無綁約,推薦給想增加收入的讀者。
Thumbnail
介紹朋友新開的蝦皮選物店『10樓2選物店』,並分享方格子與蝦皮合作的分潤計畫,註冊流程簡單,0成本、無綁約,推薦給想增加收入的讀者。
Thumbnail
當你邊吃粽子邊看龍舟競賽直播的時候,可能會順道悼念一下2300多年前投江的屈原。但你知道端午節及其活動原先都與屈原毫無關係嗎?這是怎麼回事呢? 本文深入探討端午節設立初衷、粽子、龍舟競渡與屈原自沉四者。看完這篇文章,你就會對端午、粽子、龍舟和屈原的四角關係有新的認識喔。那就讓我們一起解開謎團吧!
Thumbnail
當你邊吃粽子邊看龍舟競賽直播的時候,可能會順道悼念一下2300多年前投江的屈原。但你知道端午節及其活動原先都與屈原毫無關係嗎?這是怎麼回事呢? 本文深入探討端午節設立初衷、粽子、龍舟競渡與屈原自沉四者。看完這篇文章,你就會對端午、粽子、龍舟和屈原的四角關係有新的認識喔。那就讓我們一起解開謎團吧!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
隨著人工智慧和大型語言模型(LLMs)的快速發展,AI Singapore與Google Research合作推出的SEALD計畫旨在收集和加強東南亞九種語言的多語言數據集,提升這些語言大型語言模型的文化意識和應用能力,推動東南亞語言和文化敏感性的LLMs的發展。
Thumbnail
隨著人工智慧和大型語言模型(LLMs)的快速發展,AI Singapore與Google Research合作推出的SEALD計畫旨在收集和加強東南亞九種語言的多語言數據集,提升這些語言大型語言模型的文化意識和應用能力,推動東南亞語言和文化敏感性的LLMs的發展。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(LLM)是基於深度學習的自然語言處理模型,而多模態模型(LMM)能處理多種資料型態。這些模型將對未來帶來重大改變。LLM 專注於理解和生成自然語言,LMM 能夠處理跨模態的內容,並整合多種資料的能力,有望成為未來趨勢。
Thumbnail
大型語言模型(LLM)是基於深度學習的自然語言處理模型,而多模態模型(LMM)能處理多種資料型態。這些模型將對未來帶來重大改變。LLM 專注於理解和生成自然語言,LMM 能夠處理跨模態的內容,並整合多種資料的能力,有望成為未來趨勢。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」。 Prompt Pattern 是給予LLM的指示,並確保生成的輸出擁有特定的品質(和數量)。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」。 Prompt Pattern 是給予LLM的指示,並確保生成的輸出擁有特定的品質(和數量)。
Thumbnail
大語言模型(LLMs)對於任何對人工智能和自然語言處理感興趣的人來說都是一個令人興奮的領域。 這類模型,如GPT-4, 透過其龐大的數據集和複雜的參數設置, 提供了前所未有的語言理解和生成能力。 那麼,究竟是什麼讓這些模型「大」得如此不同呢?
Thumbnail
大語言模型(LLMs)對於任何對人工智能和自然語言處理感興趣的人來說都是一個令人興奮的領域。 這類模型,如GPT-4, 透過其龐大的數據集和複雜的參數設置, 提供了前所未有的語言理解和生成能力。 那麼,究竟是什麼讓這些模型「大」得如此不同呢?
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News