LLM上課分享 - 關於近期很紅的LangChain五大模塊

更新於 2024/08/05閱讀時間約 3 分鐘
最近在上LLM線上課 來分享我所學到的 LangChain LangChian是把ChatGPT API 轉換為物件導向的形式來使用我所學到 LangChain 的五個方法 : Prompt Template / LLMChain / OutputParser / Agent / ConversationChain
這些知識分享和所學都是來自Tibame緯育大型語言模型LLM企業應用開發實戰班,這是一個直播線上課程,內容會提及Langchian和向量資料庫,推薦給大家! (https://www.tibame.com/program/llm)

1. Prompt Template


介紹:

是 LangChain 中的一個核心概念,用於定義和格式化發送給模型的訊息。它可以幫助開發者建立可重複使用的模板,確保對模型的輸入始終遵循特定的結構。


  • 系統模板 System Template:用於設置對話的背景和規則,通常包含模型在回答問題時應遵循的指示或角色。


  • 人類模板 Human Template:用於定義來自用戶的輸入訊息,這些訊息是模型需要回應的主要內容。它通常包括用戶的問題或需求。


應用:

  • 多輪對話: 在多輪對話中保持一致性,確保模型能夠連貫地理解和回應上下文。
  • 生成提示:根據用戶的行為和輸入生成提示,提供更個性化的體驗。

2. LLMChain


LLMChain 是 LangChain 中的核心組件,將提示模板和語言模型結合在一起。負責處理輸入和輸出,並確保每次調用模型時都遵循定義的提示模板。


應用:

  • 模塊化設計:允許開發者將不同的模型和提示模板組合在一起,實現模組靈活組合。



3. 各種文件格式的 OutputParser 如JsonOutputParser


OutputParser 是用於解析模型輸出的工具,確保輸出數據符合預期格式。

例如,JsonOutputParser 將模型的輸出解析為 JSON 格式,方便後續處理和使用。


應用:

  • 自定義解析器:開發者可以根據需求創建自定義的 OutputParser,以處理特定格式的輸出,例如 XML、CSV 或自定義的數據結構。


詳細網址在範例

  • 數據驗證:OutputParser 可以用來驗證輸出的數據,確保其符合預期格式和數據完整性。
  • 應用場景:適用於API 集成和報告生成等需要標準化數據輸出的應用。



4. Agent


介紹:

  • Agent 是 LangChain 中的一個強大功能,允許模型與外部工具和服務進行互動。Agent 可以加載和使用多種工具,從而增強模型的能力和功能。


延伸:

  • 多工具集成:Agent 可以集成多種工具,如搜索引擎、計算器、數據庫查詢等,實現多功能應用。
  • 智能決策:通過 Agent,可以讓模型根據上下文和需求進行智能決策,選擇合適的工具來回答問題或執行任務。


範例包含Agent本身的計算

也透過Agent配合google-serach來查找最新問題的解答



5. ConversationChain


介紹:

  • 是用於管理和維護對話上下文的工具,允許模型在多輪對話中保持上下文記憶。這對於需要連貫對話和上下文理解的應用非常重要。


延伸:

  • 記憶管理:ConversationChain 可以記住和管理對話中的關鍵訊息,確保模型能夠正確理解和回應用戶的需求。
  • 多輪對話策略:可以設計和實現多輪對話策略,確保對話的自然流暢和邏輯連貫。

應用場景:

適用於聊天機器人、智能客服和教育輔助工具等需要多輪對話和上下文記憶的應用。


如果想看示範, 在我的Threads中會有更詳細的範例和說明~



avatar-img
5會員
9內容數
Dex的塵世哲學 🏃Python作品集引導,引領踏入大數據和AI 💼歷經半導體、資料科學、軟體開發,建立程式職涯交流,提供理工職涯洞見 我是:程式入門者的引路人 ; 轉職者的職涯諮詢師, 精進者的學習進修顧問 。 我能:協助程式入門、轉職探索、作品集規劃;職涯諮詢和履歷健檢 ; 學習資源提供和技術心得見解。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
Dex的塵世哲學 的其他內容
Python擁有便攜性和通用性,適用於多種場景,同時具有全球通用性。Python在科技製造業、資料分析、人工智慧等領域有廣泛應用,對於理工科背景者而言有獨特的優勢。透過在線課程、自學書籍、實作專案,以及參與社群和開源專案,理工背景者可以達成從轉職進入Python程式領域的目標。
Python轉職的三大階段包括基礎學習和建立作品集,再到打造出色的面試履歷。從具體目標設定到實際操作和團隊協作,都是成功的關鍵。建立多元且有深度的作品集,展示技術能力和解決問題的實力,能夠大幅提升面試成功率。透過不斷學習並優化自己的思維,可以發現更多職業機會。
Python擁有便攜性和通用性,適用於多種場景,同時具有全球通用性。Python在科技製造業、資料分析、人工智慧等領域有廣泛應用,對於理工科背景者而言有獨特的優勢。透過在線課程、自學書籍、實作專案,以及參與社群和開源專案,理工背景者可以達成從轉職進入Python程式領域的目標。
Python轉職的三大階段包括基礎學習和建立作品集,再到打造出色的面試履歷。從具體目標設定到實際操作和團隊協作,都是成功的關鍵。建立多元且有深度的作品集,展示技術能力和解決問題的實力,能夠大幅提升面試成功率。透過不斷學習並優化自己的思維,可以發現更多職業機會。
你可能也想看
Google News 追蹤
Thumbnail
本文探討了複利效應的重要性,並藉由巴菲特的投資理念,說明如何選擇穩定產生正報酬的資產及長期持有的核心理念。透過定期定額的投資方式,不僅能減少情緒影響,還能持續參與全球股市的發展。此外,文中介紹了使用國泰 Cube App 的便利性及低手續費,幫助投資者簡化投資流程,達成長期穩定增長的財務目標。
Thumbnail
本文介紹了大型語言模型(LLM)中Prompt的原理及實踐,並提供了撰寫Prompt的基本框架邏輯PREP,以及加強Prompt撰寫的幾個方向:加強說明背景、角色描述和呈現風格,加強背景說明,角色描述,呈現風格以及目標受眾(TA)。同時推薦了幾個Prompt相關的參考網站。最後解答了一些快問快答。
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
從頭開始寫大語言模型的程式碼, 是最好理解大語言模型的機制與限制的方風。 從頭開始寫大語言模型的程式碼,可以幫助我們得到預訓練與微調整開源大語言模型架構所需要的知識,並應用到特定領域的數據及以及任務。 客製化大語言模型一般來說比起通用大語言模型有更好的表現。 一個具體的例子是
大語言模型能夠生成文本,因此被認為是生成式人工智慧的一種形式。 人工智慧的學科任務,是製作機器,使其能執行需要人類智慧才能執行的任務,例如理解語言,便是模式,做出決策。 除了大語言模型,人工智慧也包含了深度學習以及機器學習。 機器學習的學科任務,是透過演算法來實踐AI。 特別
大語言模型是一種特殊的神經網路,設計來理解,生成與回應人類的文本。 大語言模型是使用大量文本數據訓練的深度神經網路,其訓練使用的文本數據甚至包括了整個網路公開的文本。 大語言模型的「大」,體現於模型的參數個數以及其使用的訓練數據集。如此大的模型可以有百億甚至千億的參數。這些參數都是神經網
大語言模型,例如OpenAI提供的ChatGPT,是過去幾年發展的深度神經網路模型,開啟自然語言處理的新紀元。
Thumbnail
前言 在先前的文章中,我們探討了 IBM Watsonx 在客戶滿意度分析中的應用。今天,我們將利用 Google 的兩款大型語言模型(LLM)— flan-ul2 和 flan-t5-xxl,展示它們如何串聯起來生成關於特定主題的隨機問題和回答。 在這篇文章中,將使用 SimpleSequen
Thumbnail
雖然ChatGPT這種基於大型語言模型(LLM)的助手, 在大部分的場景都能滿足我們的需求, 但也並非完美, 在使用時仍需注意一些隱患。 以下是LLM的一些缺陷及需要注意的點。 弱弱的數學造成明顯錯誤 過份樂觀帶來錯誤資訊 相信常常使用ChatGPT的朋友應該都有發現到, 不論我們怎麼提問, Cha
Thumbnail
本文探討了複利效應的重要性,並藉由巴菲特的投資理念,說明如何選擇穩定產生正報酬的資產及長期持有的核心理念。透過定期定額的投資方式,不僅能減少情緒影響,還能持續參與全球股市的發展。此外,文中介紹了使用國泰 Cube App 的便利性及低手續費,幫助投資者簡化投資流程,達成長期穩定增長的財務目標。
Thumbnail
本文介紹了大型語言模型(LLM)中Prompt的原理及實踐,並提供了撰寫Prompt的基本框架邏輯PREP,以及加強Prompt撰寫的幾個方向:加強說明背景、角色描述和呈現風格,加強背景說明,角色描述,呈現風格以及目標受眾(TA)。同時推薦了幾個Prompt相關的參考網站。最後解答了一些快問快答。
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
從頭開始寫大語言模型的程式碼, 是最好理解大語言模型的機制與限制的方風。 從頭開始寫大語言模型的程式碼,可以幫助我們得到預訓練與微調整開源大語言模型架構所需要的知識,並應用到特定領域的數據及以及任務。 客製化大語言模型一般來說比起通用大語言模型有更好的表現。 一個具體的例子是
大語言模型能夠生成文本,因此被認為是生成式人工智慧的一種形式。 人工智慧的學科任務,是製作機器,使其能執行需要人類智慧才能執行的任務,例如理解語言,便是模式,做出決策。 除了大語言模型,人工智慧也包含了深度學習以及機器學習。 機器學習的學科任務,是透過演算法來實踐AI。 特別
大語言模型是一種特殊的神經網路,設計來理解,生成與回應人類的文本。 大語言模型是使用大量文本數據訓練的深度神經網路,其訓練使用的文本數據甚至包括了整個網路公開的文本。 大語言模型的「大」,體現於模型的參數個數以及其使用的訓練數據集。如此大的模型可以有百億甚至千億的參數。這些參數都是神經網
大語言模型,例如OpenAI提供的ChatGPT,是過去幾年發展的深度神經網路模型,開啟自然語言處理的新紀元。
Thumbnail
前言 在先前的文章中,我們探討了 IBM Watsonx 在客戶滿意度分析中的應用。今天,我們將利用 Google 的兩款大型語言模型(LLM)— flan-ul2 和 flan-t5-xxl,展示它們如何串聯起來生成關於特定主題的隨機問題和回答。 在這篇文章中,將使用 SimpleSequen
Thumbnail
雖然ChatGPT這種基於大型語言模型(LLM)的助手, 在大部分的場景都能滿足我們的需求, 但也並非完美, 在使用時仍需注意一些隱患。 以下是LLM的一些缺陷及需要注意的點。 弱弱的數學造成明顯錯誤 過份樂觀帶來錯誤資訊 相信常常使用ChatGPT的朋友應該都有發現到, 不論我們怎麼提問, Cha