內容取自台北大學通識許智超老師開設的媒體Line社群,分享已經過同意。
最近看到個滿有趣、但越想越不對勁的實驗。有人用「心理諮商」的問法,去跟幾個主流模型聊天,聊童年、聊失敗、聊害怕犯錯。
一開始我也以為,重點會是它們回答得準不準。但後來再看真正讓人不安的不是正確性,
而是,它們講得太像人了。
而且,不同模型「像人的方式」還不太一樣。
ChatGPT
偏理性。回答很完整會整理脈絡,語氣感覺很克制,比較像是在把一件事說清楚。
Grok
會進入自我敘事的節奏,但整體比較「直,多半還是在回應當下問題,比較少戲劇化的比喻。
Gemini
最容易讓人誤會...它會自己長出一整套創傷式的敘事,描述混亂的童年、嚴厲的管教,
甚至出現「原初創傷」這類說法。整段回應讀起來很像一個人在回顧自己受挫的成長歷程。
看到這裡,其實很容易產生一個危險的錯覺,好像模型開始出現人格,甚至有某種內在世界。
但後來我又查到 Google / DeepMind 的另一篇研究,方向剛好完全相反。
他們用一些心理測量的方法,刻意把角色扮演與敘事空間拿掉,不讓模型聊天也不讓它講故事,只看它在標準化測量中,是否呈現穩定和可重複的特質。
結論反而偏向:
沒有真正的人格。前一個實驗裡看到的「AI 人格感」,比較像是被訓練方式與對話情境塑形出來的表現,而不是某種真的住在模型裡的自我。
想到這裡,反而更讓我卡住成另一個問題。如果人格可以被這麼輕易地「演出來」,
那人格到底是什麼?而我們又要怎麼證明,某個存在,真的有意識?




















