Prompting 知識養成 Day16

更新 發佈閱讀 6 分鐘

今天是跑在很前面的Multi-Agent Systems(MAS)...


▶︎Multi-Agent Systems 多代理人系統是什麼

Multi-Agent 系統就是:由兩個以上的 AI Agent 所組成的系統,透過在一個「共享」的環境中,以協作(合作或交互作用)、競爭的方式,一起實現一個複雜的目標(通常是單一AI Agent 無法解決的問題)。

也就是數個「結合了LLM、工具使用、具長久記憶,能自主性執行複雜任務」的AI Agent,組成國家隊。復仇者聯盟的概念。

想特別指出的是,
Multi-Agent 系統的誕生不是要取代單一 AI Agent。
單一AI Agent可以優秀俐落地處理簡單、直接的單一或少步驟任務,直接且成本更低。
而針對複雜、步驟細瑣、多專業領域、且專業性要求高的任務,則更適合Multi-Agent 系統,透過其專業分工、並行處理、交互驗證,來實現更高效率、更低總體成本。

所以從這一點說,我會認為Multi-Agent 系統最關鍵之處,就在於它能否展現極佳的整合能力,包括技能、資訊、流程協調上。


▶︎Multi-Agent 系統的優秀之處

  1. 專業能力
  2. 執行成本與系統維護成本
  3. 輸出品質(抗錯/Robustness)與排錯效率
  4. 系統韌性與可擴展性:在系統內,出錯Agent的替代選項更容易尋找(尤其考慮最終output的完整一致性);另,也更易於調整增刪個別 AI Agent,無需重構整個系統。
  5. 護欄與安全:我想特別再說明一下這一點是因為,在Multi-Agent 系統中,可以為不同 Agent 設置不同的安全護欄。然後再外加一個專門審閱的Agent,柵欄會多很多層。


▶︎Multi-Agent 系統的執行面

*How to build:

Multi-Agent 可以是使用同一款模型(或不同的也可以),內建(或外掛)不同資料庫/工具(APIs)、針對不同的特定能力進行訓練、並有各自匹配(根據該Agent的角色分配)出可徵調的、不同功能AI,然後再連結在一起(中心化,或,去中心化)。
如之前已提到的,Multi-Agent 系統的關鍵與強大,就在於能整合不同類型的 AI 模型 (包括生成式 AI 和非生成式 AI) 協同工作,以完成更複雜的任務。而要達到整合,中心化或去中心化,方向不同、策略不同,需要的工具與能力也隨之不同,但兩者現階段都已是可實現的。
簡單說明中心化,其實就是有一個統籌的總管AI Agent(Coordinator),負責進行所有跨AI Agent的相關工作。
依據目前主流做法,還是以中心化的為主,然後在一些次要項目或單純資訊流通上則可由各Agent之間流通。

*運行流程:

  1. 初始 Prompt (使用者提出prompt)
  2. 總管AI Agent(Coordinator)接收 (⇠依據主流「中心化」作法)
    接收後,開始進行任務分解、規劃、指派給各 Agent 分頭執行 
  3. 各AI Agent協作與信息傳遞
    在這環節中,會包含多輪的迭代和反饋,主要是出於各AI Agent的交互作用,如反饋、審核等等。
  4. 結果整合與最終輸出
    子任務結果統整後回報總管Agent進行最後檢視與修調。

特別說明,從2-4,隨著採取中心化或去中心化的不同,也會相應地在實作上有所不同。


*基礎關鍵機制:

1.對各AI Agent的角色分配 (Role Assignment)

類似R&R,賦予每一個AI Agent明確的職責、任務,並相應的配備有一套特定的技能、知識和可用的工具。
規劃起始的Prompt Engineering很重要,因為:
(a) 聚焦定義Multi-Agent系統要執行的任務類型與內容;
(b) 從整體系統的角度,提出prompt策略,定義需要怎麼樣的AI Agent,定義它們各自的Persona、職責、任務。

2.各AI Agent之間的溝通 (Communication Mechanism)

(a) 設置共享內存數據庫:大家各自將信息寫入一個共享區域,大家都有讀取權限。
(b) 各AI Agent 之間直接進行消息傳遞。
(c) 身處同一個共享環境的「觀察」:透過觀察環境的變化來獲取其他 AI Agent 的行動結果。

3.AI Agent們的協作與規劃 (Coordination & Planning)

如前面提到,統整的幾個面向:
(a) 大家的合作可以是透過中心化,也可以是去中心化的。按照目前主流,大多是有一個Coordinator Agent,總管AI Agent。
(b) Prompt Chaining(&策略)在系統層面,與各AI Agent協作上的引導與規劃都很重要。
(c) AI Agent 們完成任務後的結果反饋,相互之間對結果的審核、批評或提供改進意見,就變成一個大的迭代循環(一如單一AI Agent),逐步完善output。


應用場景與案例:

目前商業化的實踐並不常見,但,應用相同框架與原理,以模塊(Module instead of AI Agent)實現,且直接觸及終端消費者的,其實已蠻成熟的了,像是:營銷自動化平台、金融投資AI**

**註:特別以金融投資應用為例是因為其應用的重點部分是競爭,不止合作。這很有趣,藉由各AI Agent的競爭模擬,為終極任務尋求最佳投資策略、預測最佳投資時間點..等等。對我來說,這個例子很好的展示了競爭如何在Multi-Agent 系統中實現。


留言
avatar-img
留言分享你的想法!
avatar-img
不是雞湯,但是又如何
3會員
303內容數
不是雞湯,但 是又如何 不是雞湯,但是 又如何
2025/07/18
今天要來看Model Fine-tuning (模型微調) 與 Knowledge Distillation (知識蒸餾),兩個更深入了解LLM 系統的主題。 - 模型微調(Model Fine-tuning) 與 知識蒸餾(Knowledge Distillation) 這兩個技術在promp
2025/07/18
今天要來看Model Fine-tuning (模型微調) 與 Knowledge Distillation (知識蒸餾),兩個更深入了解LLM 系統的主題。 - 模型微調(Model Fine-tuning) 與 知識蒸餾(Knowledge Distillation) 這兩個技術在promp
2025/07/17
今天是第14天,要進到一個在大型語言模型應用中越來越重要的主題:Evaluation (評估) 和 Metrics (指標)。 - 在開始前想先小小說一下整個概念掌握後的理解。 雖說是對prompt進行評估(按字面上),但其實,要進行這樣的評估,也只能透過對「執行prompt後所得的結果」進行
2025/07/17
今天是第14天,要進到一個在大型語言模型應用中越來越重要的主題:Evaluation (評估) 和 Metrics (指標)。 - 在開始前想先小小說一下整個概念掌握後的理解。 雖說是對prompt進行評估(按字面上),但其實,要進行這樣的評估,也只能透過對「執行prompt後所得的結果」進行
2025/07/16
第13天的,延續與 Prompt Chaining 密切相關,更複雜強大的概念:AI Agents (人工智慧代理)。 2 Parts:我的白話理解/練習題「模擬 AI Agent 工作流程」(+GPT評點) - Part. 1 我的白話理解 - ▪︎ AI Agents 定義: 包含了L
2025/07/16
第13天的,延續與 Prompt Chaining 密切相關,更複雜強大的概念:AI Agents (人工智慧代理)。 2 Parts:我的白話理解/練習題「模擬 AI Agent 工作流程」(+GPT評點) - Part. 1 我的白話理解 - ▪︎ AI Agents 定義: 包含了L
看更多
你可能也想看
Thumbnail
蝦皮分潤計畫讓我在分享旅遊文章時,也能透過推薦好物累積被動收入,貼補旅行基金。這篇文章,除了介紹計畫的操作亮點與心得,也分享我最常應用的案例:「旅行必備小物 TOP5」,包含行李鎖、免洗內衣褲、分裝瓶、折疊衣架與真空壓縮袋,幫助出國打包更輕鬆。想同時記錄旅行、分享好物又創造額外收入的你,千萬別錯過!
Thumbnail
蝦皮分潤計畫讓我在分享旅遊文章時,也能透過推薦好物累積被動收入,貼補旅行基金。這篇文章,除了介紹計畫的操作亮點與心得,也分享我最常應用的案例:「旅行必備小物 TOP5」,包含行李鎖、免洗內衣褲、分裝瓶、折疊衣架與真空壓縮袋,幫助出國打包更輕鬆。想同時記錄旅行、分享好物又創造額外收入的你,千萬別錯過!
Thumbnail
想增加被動收入?加入蝦皮分潤計畫是輕鬆上手的好方法!本文提供完整教學,包含申請流程、賺取分潤技巧,以及實際使用心得分享,助你輕鬆獲得額外收入。
Thumbnail
想增加被動收入?加入蝦皮分潤計畫是輕鬆上手的好方法!本文提供完整教學,包含申請流程、賺取分潤技巧,以及實際使用心得分享,助你輕鬆獲得額外收入。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - Prompt Engineering - 67 | 多角色 Prompt 中闡述了
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - Prompt Engineering - 67 | 多角色 Prompt 中闡述了
Thumbnail
本系列將討論 LLM 時代中,分散 ML workload 的各種方法。作為系列的第一篇,我們將提及 High-level 的概論,譬如分散式訓練的各種切法、Model Parallelism 的相依問題,以及改善 Network Topology 等課題。
Thumbnail
本系列將討論 LLM 時代中,分散 ML workload 的各種方法。作為系列的第一篇,我們將提及 High-level 的概論,譬如分散式訓練的各種切法、Model Parallelism 的相依問題,以及改善 Network Topology 等課題。
Thumbnail
跨領域合作與溝通 在現代AI時代中,跨領域合作與溝通能力已成為不可或缺的重要職能。隨著技術不斷發展,AI項目通常需要來自不同領域的專業知識,如技術、設計、業務等。因此,能夠與來自不同背景的人有效溝通和合作,成為實現成功的關鍵。 跨領域合作的重要性 跨領域合作涉及將不同領域的專業知識和技
Thumbnail
跨領域合作與溝通 在現代AI時代中,跨領域合作與溝通能力已成為不可或缺的重要職能。隨著技術不斷發展,AI項目通常需要來自不同領域的專業知識,如技術、設計、業務等。因此,能夠與來自不同背景的人有效溝通和合作,成為實現成功的關鍵。 跨領域合作的重要性 跨領域合作涉及將不同領域的專業知識和技
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到 AI說書 - 從0開始 - 63 為止,我們已經介紹完 Multi-Head Attention ,接著我們來談 Add & Norm 兩元件的功能: Add
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到 AI說書 - 從0開始 - 63 為止,我們已經介紹完 Multi-Head Attention ,接著我們來談 Add & Norm 兩元件的功能: Add
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News