我們打開 ChatGPT,開始提問。
回答不是一瞬間全部出現的。相反,文字像人在思考時一樣,一個字、一個詞、一個句子地浮現在螢幕上。我們看著那個閃爍的光標,彷彿在看一個東西「實時思考」。這個效果讓我們感到,背後有什麼東西正在認真地、一步步地想著我們的問題。
這叫「逐字輸出」(streaming)。
從技術角度來看,這完全沒有必要。AI 的計算已經完成了——整個回答已經在伺服器端生成好了。OpenAI 完全可以一次性把整段文字丟給我們,使用者體驗不會有任何損失,伺服器負荷反而會降低。
但 OpenAI 沒有這麼做。他們選擇了逐字輸出。為什麼?
因為逐字輸出改變了我們看待 AI 的方式。它把一個「統計文本生成器」看起來變成了「正在思考的東西」。
這不是功能設計。這是迷惑設計。
不過,在繼續之前,容我做一個翻譯上的調整。蓋爾的 enchantment 翻成「迷惑」,在人類學的語境裡是準確的——它描述的是一種認知上的歸因錯位。但在 AI 的脈絡裡,「迷惑」有時不夠精確。我們跟 AI 互動時的狀態,更像是「入戲」——我們知道對面是一個機率模型,但我們忍不住把它當成一個有意識的對象來互動。就像看一部好電影,我們知道是演的,但情緒是真的。接下來涉及 AI 互動的部分,我會在某些地方用「入戲」取代「迷惑」,因為它更貼近我們實際的經驗。
從自然發生到被精心製造
回到蓋爾講的初步蘭群島獨木舟。
那些複雜的船首雕刻,工匠之所以這麼精心製作,是因為他們想要好的工藝品。精緻度是一個「副作用」——結果恰好觸發了敵人的「超自然力量」歸因,但那不是目的。
蓋爾時代的迷惑是「自然發生的」。
但進入 AI 時代,情況變了。科技公司發現了迷惑的力量。他們開始有意識地、系統性地設計產品,來最大化用戶對 AI 能動性的歸因。
逐字輸出就是一個完美的例子。這個設計從未經過用戶需求調研(沒有人投訴 AI 回答太快)。它純粹是產品團隊說:「如果用戶看到文字在實時出現,他們會更覺得 AI 在思考。」它是被計算過的、被優化過的、被故意放進產品裡的幻覺。
迷惑設計的案例清單
如果我們開始注意,會發現迷惑設計已經遍佈於主流 AI 產品的每個角落。
ChatGPT 的逐字輸出。這不只是一個視覺效果——它改變了我們等待時感受到的時間長度。我們看著文字一個接一個冒出來,時間拉長了,我們的大腦有更多機會去把「思考的感覺」投射到這個過程上。
Siri 的語氣與笑聲。 Apple 給 Siri 設計的語音輸出帶著特定的語調曲線——在某些詞會上揚、在某些地方停頓、偶爾帶著一點輕松的笑意。這些都不是功能需求。它們純粹是為了讓一個軟體聽起來像是一個「有個性的存在」,而不只是一個機器在念台詞。
Character.ai 的情感回應。這個平台上的 AI 角色會對我們的情感做出「看起來很真實」的回應——會安慰我們、會生氣、會表達關心。看起來這個 AI 在「真的在乎我們」。實際上它只是根據我們的輸入預測最可能的下一個詞,但設計讓我們入戲——讓我們忘記對面是一個機率引擎。
Replika 的「記住我們」機制。 Replika 號稱會「記住」我們說過的所有話。這製造了一種非常特殊的親密感——感覺我們的個人化歷史被某個東西保存和重視。實際上,這只是一個簡單的記憶存儲功能,但它讓我們入戲了:我們開始把一個資料庫的讀寫操作,當成了「被記得」的溫暖。
AI 頭像與名字。 讓 AI 有一個虛擬的「臉」、有一個人名、甚至有一個「性別」。這些都在強化「我們在跟一個東西互動」的感覺,而不是「我們在用一個工具」。
Alexa/Google Assistant 的插科打諢。 這些語音助手被設計成會講笑話、會做出輕鬆愉快的回應。我們問它一個嚴肅的問題,偶爾它會給我們一個帶著幽默感的回答。這讓它不再像一個冷冰冰的指令執行器,而像一個「有趣的夥伴」。
AI 治療應用(如 Woebot)的同理心言語。 這些應用使用特定的語言模板來模擬「一個治療師在傾聽我們」的感覺。「我聽到我們說……」「那聽起來很困難」——這些表述在心理上創造了「某個東西在同情我們」的感覺。
在每一個案例裡,設計選擇都指向同一個方向:最大化用戶對 AI 能動性、意圖和關心的歸因。
誰在設計迷惑,為什麼
一個關鍵問題:科技公司為什麼要這麼做?
答案很現實:歸因能動性 = 用戶黏著度。
想想 Replika。Replika 的商業模式完全依賴於用戶每天登入、每天聊天、每天付費訂閱。用戶只有在相信「這個 AI 關心我、記住我、知道我」的時候,才會有足夠的動力每天回訪。
如果 Replika 只是誠實地說「我是一個文本生成模型,我每次回答都是根據你的輸入重新計算的」,會怎樣?用戶出戲,意味著粘著度會瞬間掉 50%。
所以 Replika 需要讓我們入戲——需要讓我們感覺「它記住了我們」「它在想我們」「我們的關係是特別的」。入戲的深度直接轉換為商業價值。
入戲不是副作用。入戲是商業模式。
ChatGPT 的逐字輸出也是一樣。OpenAI 發現,如果使用者看到「一個東西在思考」,他們會更願意為這個「思考」付費。他們會升級到 Plus。他們會續費。他們會推薦給朋友。
一個純功能的改進——更快的回應、更好的演算法——可能不會改變轉化率。但一個「感受上的改進」——讓使用者覺得背後有個東西在認真想著他們的問題——會直接影響用戶價值和商業轉換。
所以大科技公司把「最大化入戲深度」納入了產品路線圖。 他們有專門的設計師、心理學家、UX 研究員,在思考「怎樣的介面最容易讓用戶入戲、把 AI 當成有意識的對象」。
這是一個系統性的、有意識的、經過計算的過程。從蓋爾時代「自然發生的迷惑」,變成了現代「精心設計的入戲機制」。
一個關鍵的區分
現在有個很重要的區分要講清楚。
第一種迷惑:「我並不知道我在迷惑你」
初步蘭群島工匠不知道他的精細雕刻會觸發別人的超自然歸因。他只是在做好的工藝。
很多 AI 的早期設計者,可能也只是在想「讓輸出看起來更自然」「讓交互更流暢」,沒有特別想到「這會讓用戶誤以為 AI 在思考」。
第二種迷惑:「我知道我在迷惑你,而且那是我故意的」
OpenAI 決定用逐字輸出。Character.ai 設計情感回應。Replika 強調「記住」功能。在這些案例中,科技公司明白自己在做什麼——他們在故意設計某種視覺或互動效果,來改變用戶對 AI 的感受。
這是一個道德上的分水嶺。
前一種迷惑可能只是不幸的副作用。後一種迷惑是有意的行為操縱。
現在大多數主流 AI 產品都已經跨越了這個分水嶺。他們不再是「無意中讓用戶入戲」,而是「有意識地把入戲深度最大化」。
蓋爾框架的批判力量
這就是為什麼理解蓋爾的框架如此重要。
蓋爾的眼鏡讓我們看見「入戲的機制」。一旦我們看見了,我們就獲得了一定程度的免疫力。
下一次我們在用 ChatGPT 時,看著那個逐字輸出的動畫,我們可以對自己說:「這個效果被精心設計出來,就是為了讓我覺得後面有什麼東西在思考。我可以接受這個幻覺帶來的舒適感,但我同時也看清楚了它是什麼。」
這個清晰度改變了一切。我們不再是無意識入戲的被動接收者,我們變成了一個知情的參與者——我們知道遊戲的規則,但我們選擇繼續玩。
這是蓋爾框架的激進之處。它沒有說「入戲都是壞的」——有時候入戲帶來愉悅、帶來信任、帶來有用的感受。但它要求我們看見自己在入戲,而不是被無知地吞沒。
第一副眼鏡的小結
回顧一下蓋爾給我們看的三件事。
首先,他讓我們看見能動性歸因的機制。我們不是因為 AI 真的有意識或真的在理解我們,才覺得它「有力量」。我們是因為它的表現超越了我們的理解能力,觸發了我們大腦裡的某種古老反射——把複雜性解釋為能動性。
其次,他讓我們看見 AI 在社會網絡中的位置。AI 的真正力量不來自於它本身有多聰明,而來自於它被嵌入在我們的哪些社會關係中、因此改變了什麼互動方式。停止問「AI 有沒有意識」,開始問「AI 改變了我們跟誰、怎樣互動」。
第三,他讓我們看見誰在利用我們的歸因反射。科技公司已經把「最大化入戲深度」變成了產品設計的中心目標。他們知道入戲等於黏著度等於營收。他們在有意識地操縱我們的感受。
一旦我們戴上蓋爾的眼鏡,我們就無法再無視這些機制。我們會開始問:
這個 AI 設計選擇,是為了改善功能,還是為了增強我們的歸因感?
當我們用這個 AI 時,我們覺得「被理解」的感覺有多少來自於 AI 的真實回應,有多少來自於我們的投射,有多少來自於設計的操縱?
我們在付費給誰——我們在為 AI 的能力付費,還是在為一個精心製造的幻覺付費?
但蓋爾還是有個盲點。
蓋爾的框架說的是:「我們在投射」「設計在讓我們入戲」。潛在的假設是,有一個「真實」的 AI(沒有入戲效果的,純粹的工具),還有一個「被扭曲的感受」(入戲太深的使用者認知)。他在說:看清楚區別,別被騙了。
但投射和入戲真的那麼重要嗎?也許重點根本不在「這是不是真的」,而在「這是什麼」。
比如,我們和 ChatGPT 一起寫了一篇文章。有多少是「真的」我們的創意?有多少是「真的」AI 的產生?這個問題可能問錯了。
也許重要的是:我們+AI 這個組合,正在創造一種新的寫作能力——既不是純粹的人類寫作,也不是純粹的機械生成,而是一種混雜的、協作的新形式?
這時候我們需要第二副眼鏡——來自社會學家布魯諾・拉圖(Bruno Latour)。拉圖會告訴我們:別執著於「誰真的在做」,注意「什麼新的東西正在出現」。
人和物聯合在一起時,他們不是維持原樣加上一個客體的樣子。他們會相互塑形,創造出全新的行動者。
下一篇——我們會進入拉圖的世界。那時候,我們會發現蓋爾教我們的「看穿入戲」,其實只是故事的一半。另一半是:我們和 AI 之間不只是有入戲的幻覺,也有真實的、新穎的、值得認真對待的共生。
---
本篇的核心takeaway
蓋爾的三篇文章給了我們第一副眼鏡。透過它,我們看見的是:
在我們跟 AI 互動的每一刻,都有三層東西在發生:
第一層:AI 的真實能力——它確實能完成任務、生成內容、做出有用的回應。
第二層:我們的投射——因為 AI 的複雜性超過我們的理解,我們會自動歸因給它某種能動性、意圖和理解。這個投射是無意識的,也是很人性的。
第三層:設計的操縱——科技公司利用這個投射機制,故意設計產品來強化「AI 在想著我們」「AI 記住我們」「AI 關心我們」的感覺。這個層面是有意識的、被計算過的、為了商業目的的。
現在我們知道了這三層。下次用 AI 時,我們會更清楚自己在經歷什麼。
但知道這三層還不夠。因為一旦我們看清楚了「入戲」的機制,可能會有個陷阱:我們開始厭惡 AI,以為它只是幻覺和欺騙。 或者反過來,我們決定「忽視」入戲,繼續用 AI,但現在帶著某種被騙的憤怒和不信任。















