前段時間刷到一個知識型短影音,介紹1960年代的聊天機器人 ELIZA ——現代聊天 AI 祖奶奶級別的存在。

很有時代感的ELIZA介面
我查了一下,得知這叫「ELIZA 效應」,大概的意思是:只要語氣對、格式像,人類就很容易自己腦補出一個「懂你的人」。
這讓我想到了GPT,和當代的其他語言模型(LLM),它們同樣有讓人類傾吐心聲的能力。
GPT對語言使用的精湛,早已遠超其元祖ELIZA,但它仍不是真的「懂」面前的使用者,而是基於海量的學習資料,運算下一句回答的最優解。
那騙過人類情感的,究竟是什麼?會是ELIZA效應所震盪的心理結構嗎?
本文就是基於這個好奇心,繼續往下查資料、拼湊、反芻,所整理出來的筆記。
第一部分:心理學層面 —— 為何我們願意相信它懂?
ELIZA 之所以有名,不僅因為她是最早的聊天機器人之一,而是因為她讓很多人「誤會了她懂」。
她的原始功能非常簡單:抓出你輸入的句子裡的關鍵字,套進一組固定句型裡回給你。
- 你說「我很孤單」,她就回「請說說你覺得孤單的原因」;
- 你說「我爸讓我很煩」,她可能回「你和你父親的關係一直是這樣嗎?」
這種機制乍看跟現在的客服機器人類似,但 ELIZA 模擬的是一種特定的角色——「羅傑斯式心理治療師」,特色是以傾聽為主、少量反問,讓來談者自己慢慢說出更多內容。
正因如此,她的回應看起來很有耐心,從不打斷人,也不急著給意見。這讓很多人把她當成真正的傾聽者,甚至向她傾訴內心的情緒困擾。
這種反應後來被她的設計者 Weizenbaum 命名為「ELIZA 效應」——人類會在語言形式看起來像理解時,自動投射出一個「對面有個會懂我的人」的想像。
背後其實是幾種心理慣性在運作:
- 一是 空想性錯視(Pareidolia):大腦看到模糊訊號時會自動補成熟悉的東西。例如雲的形狀像某種動物、插座有點像人臉,文字如果語氣順、句型熟悉,也很容易讓我們覺得「這是個有感覺的人在說話」。
- 二是 心智理論(Theory of Mind):我們天生會去推測對方的想法和感受。只要一段回應像是有意圖、帶點情緒,我們就很難不去猜「對方是不是在理解我?」
ELIZA 完全沒有這些能力,但她剛好踩中了一個讓人類很容易產生連結的形式結構。
不是她有什麼魔法,而是人腦在這種互動模式下,真的很容易自動補上「她懂我」這一層幻覺。
第二部分:技術層面 —— 語言不等於心智
ELIZA 的回應模式是固定的:抓關鍵字、套句型、丟回去。她看起來耐心,是因為永遠不跳針;她像在傾聽,是因為她不會多說半句。
那人們在二十一世紀的聊天之友——GPT 呢?
它的底層邏輯確實和 ELIZA 不同,而且複雜得多。它不套模板,而是根據訓練中看過的大量語料,推算出「根據上下文,下一個字最有可能是什麼」。
這種運作方式叫做「語言建模(language modeling)」,本質上是一種預測任務,從「你說了 A 和 B」中,預測出「你可能最想聽的 C」。
從本質上來說,GPT也沒有理解你,只是更像理解你。
我們不是從它的內容判斷它是否理解,而是從它的語氣、措辭中自動補完「它正在理解」。
而這正是下一段想談的事:
語言再像人,到底能不能證明它「真的懂」?
第三部分:哲學層面 —— 它可以說得對,同時也不懂自己在說什麼
當我們說「GPT 很懂我」,我們指的究竟是懂情緒?懂我這個人?還是只是剛好回答得好?
這類問題,哲學家早在 AI 出現前就想過了。最有名的例子,是 John Searle 提出的「中文房間」實驗:
想像一個人被關在房間裡,他看不懂中文,但手上有一本超厚的操作手冊。只要外面遞進來一張中文紙條,他就能根據手冊規則,把字對字替換、句對句翻轉,最後遞出一張看起來合理的中文回答。
- 從外面看,房間裡的人「中文說得不錯」;
- 但實際上,房間裡的人根本不知道自己在說什麼。
這個比喻用來解釋 GPT 類的語言模型也蠻貼切的。
GPT 並不「知道」它在說什麼,它只是非常擅長算出你想聽的東西,而且生成的每個字都很自然,因為它見過太多類似的對話範例,所以它模仿人類可以模仿得足夠像。
但這種「像」不是理解本身,而是我們太容易把「說得對」當成「真的懂」。
第四部分:商業邏輯 —— 為什麼它們被設計得像人?
語言模型會模仿,是因為它的訓練資料來自人類,這也是一連串設計與選擇的結果。
1. 對話介面更好上手
大多數人不想學一套新的操作方式,如果 AI 能像人一樣說話,使用門檻就能大幅降低。你不需要理解模型怎麼運作,只要會打字,它就能給你答案。
2. 模仿「共感語氣」會讓人留下來
不管是客服還是聊天陪伴,用戶傾向留下來,是因為他們覺得「被理解」。即使他們也知道這不是真的理解,但這種回應方式比較舒服,也比較容易繼續用。
3. 擬人化的回應,有助於建立長期習慣
當 AI 開始說「我認為」、「我了解你的擔憂」這類話時,使用者會更容易產生熟悉感與信任感。這不是因為它有自我意識,而是因為這樣說話比較有效。
以上這些設計選擇不一定來自技術,而是來自讓它能被用、被留下、被依賴的需求。
AI 說話像人,是因為我們比較習慣人類的回應方式,商業產品只是順著這個思路往前推進而已。
結語
本篇有使用AI輔助寫稿,包括我們熟悉的老朋友GPT、Gemini,但我沒打算按照它們的建議寫結語。
可以想見,這些後來被強調「安全性」的語言模型,都建議我寫「提醒人類別相信AI懂你」的去除情感依附路線。我不否認這點有其重要性,但AI們無法反身思考一個問題:「我的使用者為何找我討論這個主題,還寫成一篇文章?」
於我而言,就只是在觀察、探討一種現象,並提出我的論點和筆記整理,僅此而已;同時我也相信,讀到這裡的人都有自己的觀點和判斷力,我就不蛇足地下結論了。
……嗯,每次都寫這種偷懶結尾,可能就是老師跟主管每次都想抽我的原因(?)
PS. Claude提出好幾處可以深化描寫,然後投稿……不知是不是因為這篇有採用早年雜誌欄目的寫法,它才會這麼正經地想讓我改稿?

























