記得在ChatGPT剛發表那個時候,
就出現了一門手藝稱為「提示工程 Prompt Engineering」。
那時候用戶們分享各種技巧,可以讓ChatGPT的輸出內容品質更高,更穩定。
然而,試多了就會發現,提示工程能做的還是很有限,
而且提示工程需要不斷迭代,反思,迭代,反思。
逐漸把這些經驗自動化,就成為了第一代的「代理人系統 Agent Systems」:AutoGPT [1]。
根據Micheal Lanham 的著書,《AI Agents in Action》[2]的圖1.8,
AutoGPT作為第一代「自動代理人系統 Autonomous Agent Systems」,
Agent 被設計成根據用戶的目標,來迭代出一串任務序列。
Agent 會根據任務的每一步迭代,評估任務完成後是某有達到用戶的目標。
如果任務沒有完成,Agent會基於新的知識或「人類回饋 Human Feedback」,
重新規劃任務序列,再試一次。基本上,背後的機制是:
人類用戶:設定目標
AI Agent:定義任務排序任務 (Defining and Sequencing Tasks),執行任務 (Task Execution),評估 (Evaluation)
而這途中,AI Agent可以使用大語言模型,可以使用網路,可以使用其他工具。
然而,自動代理人系統真的要運作,需要「信任 Trust」。
而我們人類對自動代理人系統還了解的不多,也因此還難以產生信任。
Reference
[1] https://news.agpt.co/
[2] https://www.manning.com/books/ai-agents-in-action