更新於 2024/12/15閱讀時間約 4 分鐘

檢索增強生成 RAG 簡介

1. 什麼是檢索增強生成(RAG)?

檢索增強生成(Retrieval-Augmented Generation, RAG)是一種方法,可為您公司的私有資料提供客製化的 ChatGPT,使您更容易找到並使用所需的知識。它可以幫助您快速有效地與大量資訊互動。

RAG 系統分兩個步驟運作:

  1. 檢索:系統搜尋您的私有資料以找到有用的資訊片段。
  2. 生成:生成式人工智慧模型使用檢索到的資訊來創建清晰準確的答案回應您的問題。

補充:RAG 和 LLM 有什麼區別?大型語言模型(LLM)是生成文字的模型(例如 ChatGPT 使用的模型)。RAG 結合了兩個系統:從資料來源檢索資訊的檢索系統,以及生成回應的 LLM。LLM 是 RAG 系統的一部分。

2. 如何使用 RAG?

對於個人而言,RAG 充當一個人工智慧助理,有效地瀏覽私有資料以回答查詢或協助撰寫客製化內容,如電子郵件或摘要。在團隊環境中,RAG 成為管理共享知識的寶貴資產,結合各種資料來源的輸入,為團隊提供快速見解、一致的常見問題答案,並在新成員之間分享知識。

常見使用案例

  • 問答:RAG 在回答問題時表現出色,它可以從相關來源獲取必要的詳細資訊,並製作清晰且資訊豐富的回應,同時引用資訊來源。
  • 文件摘要:面對冗長的文件,RAG 可以識別主要觀點並將其濃縮成簡短易懂的摘要。
  • 內容生成:在撰寫文章或報告時,RAG 透過將各種來源的相關資訊整合成一個連貫的作品來提供協助。您甚至可以用它來撰寫電子郵件。

這些例子只是 RAG 可能應用的冰山一角。隨著人們不斷實驗和創新,更多應用正在出現,擴展了我們使用這項技術的方式。

3. RAG 有哪些優勢?

每個人都想要「自己資料的 ChatGPT」,但僅使用 LLM 建立可靠的系統可能具有挑戰性。RAG 透過增強 LLM 的額外資訊來提供幫助。這有助於它們提供優於純生成模型的情境敏感回應。對於知識系統,RAG 相較於「裸」LLM 系統有幾個優勢:

  • 準確性:RAG 減少了「幻覺」,即 LLM 可能給出看似合理但不正確的資訊。它透過將 LLM 的回應「接地」到從您團隊的資料來源檢索的準確資料,以生成可靠的回應。
  • 透明度:優秀的 RAG 系統可以提供參考資料,讓使用者檢查資訊來源,為 RAG 模型提供的答案增加一層信任和問責。
  • 客製化:RAG 系統可以使用您公司或領域的特定資料(例如,命名慣例),使其具有適應性並確保回應與您的獨特情境相關。

4. RAG 系統如何運作?

RAG 系統結合了兩個部分:檢索和生成。
檢索:當使用者輸入提示時,檢索部分負責尋找相關資訊。它使用使用者提示搜尋知識庫(例如文字語料庫、知識圖譜或資料庫)以找出最相關的資料。



檢索有許多方法,通常使用「向量搜尋」(又稱「語義搜尋」)來將資訊與使用者提示匹配,但這裡有很多選擇。有時也會使用 LLM 來設置向量搜尋。

生成:一旦檢索到資訊,LLM 就會介入進行生成。它接收使用者提示並嘗試回應,同時使用檢索到的資訊(又稱「情境」)。基本上,LLM 得到的指示是:「使用這些文件回應使用者提示」。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.