檢索增強生成(Retrieval-Augmented Generation, RAG)是一種方法,可為您公司的私有資料提供客製化的 ChatGPT,使您更容易找到並使用所需的知識。它可以幫助您快速有效地與大量資訊互動。
RAG 系統分兩個步驟運作:
補充:RAG 和 LLM 有什麼區別?大型語言模型(LLM)是生成文字的模型(例如 ChatGPT 使用的模型)。RAG 結合了兩個系統:從資料來源檢索資訊的檢索系統,以及生成回應的 LLM。LLM 是 RAG 系統的一部分。
對於個人而言,RAG 充當一個人工智慧助理,有效地瀏覽私有資料以回答查詢或協助撰寫客製化內容,如電子郵件或摘要。在團隊環境中,RAG 成為管理共享知識的寶貴資產,結合各種資料來源的輸入,為團隊提供快速見解、一致的常見問題答案,並在新成員之間分享知識。
常見使用案例
這些例子只是 RAG 可能應用的冰山一角。隨著人們不斷實驗和創新,更多應用正在出現,擴展了我們使用這項技術的方式。
每個人都想要「自己資料的 ChatGPT」,但僅使用 LLM 建立可靠的系統可能具有挑戰性。RAG 透過增強 LLM 的額外資訊來提供幫助。這有助於它們提供優於純生成模型的情境敏感回應。對於知識系統,RAG 相較於「裸」LLM 系統有幾個優勢:
RAG 系統結合了兩個部分:檢索和生成。
檢索:當使用者輸入提示時,檢索部分負責尋找相關資訊。它使用使用者提示搜尋知識庫(例如文字語料庫、知識圖譜或資料庫)以找出最相關的資料。
檢索有許多方法,通常使用「向量搜尋」(又稱「語義搜尋」)來將資訊與使用者提示匹配,但這裡有很多選擇。有時也會使用 LLM 來設置向量搜尋。
生成:一旦檢索到資訊,LLM 就會介入進行生成。它接收使用者提示並嘗試回應,同時使用檢索到的資訊(又稱「情境」)。基本上,LLM 得到的指示是:「使用這些文件回應使用者提示」。