大型語言模型中的幻覺問題

更新於 2024/12/07閱讀時間約 3 分鐘

大型語言模型(Large Language Model, LLM)中的幻覺通常指模型產生不真實、錯誤、不一致或無意義的內容。我認為幻覺可以分成兩種類型:

  1. 上下文內幻覺:模型輸出不與輸入上下文中的內容一致。
  2. 外在幻覺:模型輸出不以預訓練資料集為基礎。我們可試圖確保模型輸出是基於事實的,並可以通過外部世界知識進行驗證。同樣重要的是,當模型不知道某個事實時,它應該表現出來。


為了避免幻覺,大型語言模型需要(1)基於事實,(2)在合適的情況下承認不知道答案。


什麼導致幻覺?

常見的原因存在兩個地方:1. 預訓練資料問題 2. 微調新知識


預訓練資料問題

預訓練資料集的資料數量很大,因為這些資料集被假設代表世界上所有可用形式的知識。從網路擷取的資料是最常見的資料來源,因此不可避免的會出現過時、缺失或不正確的訊息。由於模型可能通過簡單地最大化對數相似性來錯誤地記憶這些訊息,因此我們會預期模型會犯錯。


微調新知識

通過監督微調和RLHF(基於人類反饋的強化學習)來微調預訓練的LLM是提高模型某些能力(如遵循指令)的常見技術。在微調階段引入新知識是難以避免的。微調通常消耗的計算資源要少得多,這使得模型是否能通過小規模微調可靠地學習新知識成為一個值得討論的問題。Gekhman等人(2024年)[1] 研究了微調LLM以學習新知識是否會鼓勵幻覺的問題。他們發現:(1)與模型已有知識一致的例子相比,LLM學習包含新知識的微調例子的速度更慢;(2)一旦最終學習了包含新知識的例子,它們會增加模型產生幻覺的傾向。


避免幻覺

了解產生幻覺的原因後,學者們開始思考如何避免或減少幻覺的產生。

GopherCite(Menick等人,2022年)[2] 使用搜索引擎取得佐證材料並教導模型提供參考考資料。其進行監督式微調來引導模型,並且應用基於人類偏好的強化學習來訓練。但與依賴複製人類示範行為的WebGPT不同,GopherCite透過少量樣本提示來生成示例,每次生成都使用相關文件填充上下文,然後使用獎勵模型來評比哪些模型輸出是最佳的。

FAVA(「使用增強知識進行事實性驗證」;Mishra等人,2024年)[3] 檢索相關文檔,然後編輯模型輸出以避免幻覺錯誤。FAVA模型由檢索器 $\mathcal{M}\text{ret}$ 和編輯器 $\mathcal{M}\text{edit}$ 組成。


Reference

  1. https://arxiv.org/abs/2405.05904
  2. https://arxiv.org/abs/2203.11147
  3. https://arxiv.org/abs/2401.06855
avatar-img
0會員
31內容數
心繫正體中文的科學家,立志使用正體中文撰寫文章。 此沙龍預計涵蓋各項資訊科技知識分享與學習心得
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
風清揚的沙龍 的其他內容
以流為基礎的深度生成模型藉助正規化流這一強大的統計工具來解決密度估計這個困難問題。對 p(x) 的良好估計使得有效完成許多下游任務成為可能:取樣未觀察到但真實的新數據點(數據生成)、預測未來事件的稀有程度(密度估計)、推斷潛在變量、填補不完整的數據樣本等。
擴散模型受非均衡熱力學啟發。非均衡熱力學定義了一個擴散步驟的馬可夫鏈,逐步向資料添加隨機資訊,然後學習如何逆轉擴散過程,從隨機資訊中建構所需的樣本資料。與變分自編碼器(VAE)或以流為基礎的模型不同,擴散模型是通過固定程序學習的,且其潛在變量具有高維度(與原始資料相同)。
深度學習是什麼? 簡單來說,深度學習是大型且多層的人工神經網路。我們可以想像神經網路("Neural Nnetwork, NN")是一種有向無環圖,此圖可拆分成三個部分來看: 1. 輸入層接收信號向量;2. 一個或多個隱藏層處理前一層的輸出; 3. 輸出層統合之前所有隱藏層的處理結果。神經網路的初
3GPP官方網站和工具 這些是獲取3GPP(第三代合作夥伴計劃)最新資訊的主要來源。對於研究人員和業界專業人士來說,3GPP官方資訊可供理解、實作和測試3GPP標準。另一方面,對於進行移動通訊研究的學者和學生來說,這些資源是深入了解最新技術標準和發展趨勢的重要途徑。
以流為基礎的深度生成模型藉助正規化流這一強大的統計工具來解決密度估計這個困難問題。對 p(x) 的良好估計使得有效完成許多下游任務成為可能:取樣未觀察到但真實的新數據點(數據生成)、預測未來事件的稀有程度(密度估計)、推斷潛在變量、填補不完整的數據樣本等。
擴散模型受非均衡熱力學啟發。非均衡熱力學定義了一個擴散步驟的馬可夫鏈,逐步向資料添加隨機資訊,然後學習如何逆轉擴散過程,從隨機資訊中建構所需的樣本資料。與變分自編碼器(VAE)或以流為基礎的模型不同,擴散模型是通過固定程序學習的,且其潛在變量具有高維度(與原始資料相同)。
深度學習是什麼? 簡單來說,深度學習是大型且多層的人工神經網路。我們可以想像神經網路("Neural Nnetwork, NN")是一種有向無環圖,此圖可拆分成三個部分來看: 1. 輸入層接收信號向量;2. 一個或多個隱藏層處理前一層的輸出; 3. 輸出層統合之前所有隱藏層的處理結果。神經網路的初
3GPP官方網站和工具 這些是獲取3GPP(第三代合作夥伴計劃)最新資訊的主要來源。對於研究人員和業界專業人士來說,3GPP官方資訊可供理解、實作和測試3GPP標準。另一方面,對於進行移動通訊研究的學者和學生來說,這些資源是深入了解最新技術標準和發展趨勢的重要途徑。
你可能也想看
Google News 追蹤
Thumbnail
本文探討了複利效應的重要性,並藉由巴菲特的投資理念,說明如何選擇穩定產生正報酬的資產及長期持有的核心理念。透過定期定額的投資方式,不僅能減少情緒影響,還能持續參與全球股市的發展。此外,文中介紹了使用國泰 Cube App 的便利性及低手續費,幫助投資者簡化投資流程,達成長期穩定增長的財務目標。
生活實驗 八四六    想要提前說出正確的事的那種症狀,是不是一種直覺力的培養與實踐。但猜錯了的話,不是輸了,就是必須要道歉。
在這篇文章中,我們探討了在當今社會中,如何分辨虛擬與真實之間的界線。透過直覺和感受,我們需要挑戰媒體呈現的假象,並仔細觀察周圍的細節。文章強調選擇與自己價值觀一致的劇本,並明白善惡的相對性,使每個人都能在這個複雜的世界中找到自己的立場。無論你選擇扮演哪種角色,重要的是掌握選擇與操控的權力。
HAI (Human-AI Integration) 阻礙我們認識真理的,不是事物的假象,也不是我們推理能力的缺陷,而往往是我們心中積累的偏見。這些偏見讓我們陷入困境,因為真相往往與我們所認為的不同。我們甚至會給這些偏見披上合理的外衣,使自己相信它們是正確的。 我們經常在重複過去的錯誤時,自以為
跳脫一下跟工作相關的思緒,來撰寫一些不一樣的東西,相信諸君都聽過[事情的發生往往來自於溝通不足],然而真的只是溝通不足產生的嗎?在下覺得並非如此,當今社會與科學所教的皆是懷疑,造成了[話中虛幻多有詐,人本不信只為安]的現況,舉凡話語中所參雜的真實與否,真幻交織,根本無法認清,只能回歸到最初謊言與真實
Thumbnail
光是看到那還沒被理解的、感覺可以被理解的,我就恨不得立馬把那層魔法扯下來
面對了一個假設 卻也只是個假設 裝載了不可思議的幻想 加入誰才可以實現 如果一切成真 那些念頭 要努力的想要讓自己快樂 從黑變成白的超能力 攤開手掌 空無一物 卻也擁有了世界 像是這樣的話語 掌握了腦海 沒有比對想像中的快樂 只是比想像
Thumbnail
本文探討了複利效應的重要性,並藉由巴菲特的投資理念,說明如何選擇穩定產生正報酬的資產及長期持有的核心理念。透過定期定額的投資方式,不僅能減少情緒影響,還能持續參與全球股市的發展。此外,文中介紹了使用國泰 Cube App 的便利性及低手續費,幫助投資者簡化投資流程,達成長期穩定增長的財務目標。
生活實驗 八四六    想要提前說出正確的事的那種症狀,是不是一種直覺力的培養與實踐。但猜錯了的話,不是輸了,就是必須要道歉。
在這篇文章中,我們探討了在當今社會中,如何分辨虛擬與真實之間的界線。透過直覺和感受,我們需要挑戰媒體呈現的假象,並仔細觀察周圍的細節。文章強調選擇與自己價值觀一致的劇本,並明白善惡的相對性,使每個人都能在這個複雜的世界中找到自己的立場。無論你選擇扮演哪種角色,重要的是掌握選擇與操控的權力。
HAI (Human-AI Integration) 阻礙我們認識真理的,不是事物的假象,也不是我們推理能力的缺陷,而往往是我們心中積累的偏見。這些偏見讓我們陷入困境,因為真相往往與我們所認為的不同。我們甚至會給這些偏見披上合理的外衣,使自己相信它們是正確的。 我們經常在重複過去的錯誤時,自以為
跳脫一下跟工作相關的思緒,來撰寫一些不一樣的東西,相信諸君都聽過[事情的發生往往來自於溝通不足],然而真的只是溝通不足產生的嗎?在下覺得並非如此,當今社會與科學所教的皆是懷疑,造成了[話中虛幻多有詐,人本不信只為安]的現況,舉凡話語中所參雜的真實與否,真幻交織,根本無法認清,只能回歸到最初謊言與真實
Thumbnail
光是看到那還沒被理解的、感覺可以被理解的,我就恨不得立馬把那層魔法扯下來
面對了一個假設 卻也只是個假設 裝載了不可思議的幻想 加入誰才可以實現 如果一切成真 那些念頭 要努力的想要讓自己快樂 從黑變成白的超能力 攤開手掌 空無一物 卻也擁有了世界 像是這樣的話語 掌握了腦海 沒有比對想像中的快樂 只是比想像