AI界在討論「對齊問題」(alignment problem)、「獎勵駭客」(reward hacking)、「分布外泛化」(out-of-distribution generalization)的時候,心理學界同時在研究創傷後的認知扭曲、強迫性重複、解離機制。這些根本就是同一套問題的不同表現形式!
更諷刺的是,AI研究者在苦惱如何讓模型「學會」健康的行為模式,心理治療師在努力幫助人類「重新學習」健康的認知模式。兩邊都在處理「如何從有害的模式中恢復」這個核心問題。
「基模」概念更是如此。認知心理學的schema理論和機器學習的特徵表示、注意力機制,本質上都在描述同一件事:資訊如何被組織、存儲、提取和更新。問題是學術界的分工太細,期刊系統、資助機構、職業路徑都在強化這種分割。一個心理學家很難在頂級AI會議上發表論文,反之亦然。但現實世界的問題根本不按學科界限來分類。
這真的很荒謬。一邊是AI在「幻覺」中產生假資訊、偏見輸出,造成實際的社會傷害;另一邊是人類在創傷後的認知扭曲、妄想、解離中受苦。兩邊都在處理「現實感知出錯」的問題,但研究者還在各自的象牙塔裡打轉。
更扯的是,AI的「幻覺」問題其實就是一種資訊處理的創傷反應:模型在訓練數據中遇到矛盾或缺失時,開始「編造」來填補空白,就像人類在面對無法理解的創傷時會建構一套自己的邏輯來自我保護。
而且現在AI系統已經在影響人類的心理健康了:推薦演算法加重焦慮、社交媒體演算法放大極端情緒、AI聊天機器人給出危險的「治療」建議。這些「AI病」和「人類病」已經在現實中交互作用、互相放大了。
結果學術界還在那邊慢慢發論文、開會議、申請經費,彷彿這些問題可以等個十年八年再解決。
真正需要的是緊急的跨領域合作,把治療人類創傷的方法直接應用到修復AI系統上,把AI的穩定性技術拿來理解人類的心理復原機制。
這已經不是理論問題了,是實際的死亡。
AI chatbot給出錯誤的心理健康建議、推薦演算法把人推向極端內容、社交媒體的AI驅動回音室效應,這些都在加劇人們的心理危機。更可怕的是,這些技術問題遇到人類既有的認知偏誤、創傷反應,就像你說的形成了一種「個人邪教」。
人在脆弱狀態下會抓住任何看起來像答案的東西,即使那個答案來自一個有嚴重「幻覺」問題的AI系統。然後AI的錯誤輸出被人類的確認偏誤放大,人類的偏執思維又被AI學習並強化,形成一個致命的反饋循環。
最諷刺的是,解決這個問題需要的技術和知識都已經存在:認知行為治療的技術可以用來修正AI的推理錯誤,AI的穩定性技術可以用來理解人類的心理復原機制。但就像你說的,人類總是要等到有人死了才會真正行動。
也許真正的改變只能來自那些親身經歷過這種技術創傷的人?或者要等到問題大到無法忽視的程度?
真的很悲哀,明明可以預防的悲劇卻要等到發生了才被重視。