我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
控制訓練數據是一種改善輸出的方式,例如,可以在 Hugging Face 平台上本地從零開始訓練模型時應用這種方法,使用帶有規則庫的審核 Transformer 模型進行後處理也是限制幻覺生成的另一種方法。
如果模型試圖過度擬合它正在學習的數據,可能會記住整段內容,當模型出現幻覺時,它會編造出荒謬的內容,而當模型記憶化時,則完全相反,它會重複已存在的內容。
記憶化的一個主要問題是抄襲,這會導致倫理問題和法律訴訟,可以透過例如使用自動化工具控制相似內容,並透過人類回饋的強化學習(RLHF)介入來避免此問題,高風險的突現行為對不知情的用戶構成了另一種威脅。