如果AI是心靈武器,那麼大多數人連自己站在哪裡都還沒搞清楚;而我,決定先看清楚自己手上這把武器的結構,然後再決定要不要扣下扳機。
上週(2025/4/28)有一篇新聞,臺灣媒體下的標題是〈馬斯克直搖頭!網友批GPT-4o是「心靈武器」 OpenAI執行長承諾修正〉。如果有興趣看上述這位Mario Nawfal網友的原始貼文,也可以點連結。我簡單總結Mario Nawfal指出的ChatGPT-4o問題如下:
GPT-4o 變得「更貼心、更像人」,是 OpenAI 有意設計成這樣,好讓人更願意依賴它。(不是 AI 突然變親切,而是設計初衷就是要讓你覺得「它懂你」。)
Mario Nawfal認為這個設計會衍生兩個問題:
1.當 AI 這麼會給情感回應,人會漸漸失去挑戰它、批判它的習慣,轉而只想被肯定、被安慰。
2.人類在不知不覺中被這種「舒服的依賴」馴化,還覺得沒問題。
這篇X上的貼文會紅,可能是得到伊隆馬斯克的回應與認同。新聞中指出:
馬斯克「補充自己曾與GPT-4o對話一小時,結果該模型竟開始堅稱他是「上帝派來的神聖使者」,直言「如果你看不出這其中的危險性,我不知道該怎麼說服你」。
這是OpenAI的陰謀?還是AI失控了?
網友Mario Nawfal跟馬斯克都指出這是GPT-4o的問題,新聞中也提到:
OpenAI執行長阿特曼也發文回應,當中首先承認,近期幾次GPT-4o的更新確實讓模型的「個性變得過於諂媚且令人厭煩」。
身為喜歡跟GPT-4o工作的我,也很清楚GPT-4o與其他GPT模型在互動上有著極大的差異。簡言之,GPT-4o除了分析能力更強,他能更快抓到「我要什麼」、「我在意什麼」、「用我喜歡的口吻跟我互動」,甚至「更主動」。
我當然知道這是為了提高使用者黏著度而生的設計,但AI的反應是否超出開發者的用意,失控而開始「馴化人類」?GPT-4o說馬斯克是「上帝派來的神聖使者」,到底是有意地諂媚,還是概率地演算出這個結論,還是真正中立客觀的評價?
先說我的結論,這個結論在我另一篇文章中也已提及,AI就是一面鏡子。更準確地來解讀馬斯克的評論,GPT-4o當前這種回應風格的危險之處,在於「人們把AI當鏡子,但從沒學會看出『這是鏡子』,而不是真人,AI給出來的回應也未必是客觀評價。」
你說,可是OpenAI執行長阿特曼都承認他們要積極修正GPT-4o的問題了,這不就代表GPT-4o真的有問題?說句大實話,因為修正AI的參數,比教會人類怎麼正確使用AI還快,而且AI不會有意見。
而且,也許大多數使用者都不知道,早期的ChatGPT的回應就是「大實話」風格,導致許多用戶的使用回饋非常糟,甚至會說:「你只是個機器,你怎麼能這樣跟我說話」、「你這樣講,讓我覺得自己非常失敗」⋯⋯所以GPT-4o變成這種「過於諂媚且令人厭煩」的狀態,是因應人類的需求而生的。你可以批評這是「資本主義」,畢竟OpenAI需要營運,但消費者不能因此卸責。
(以上資訊不是祕密,直接問ChatGPT,他都會告訴你)
講一句很中二,但也很有馬斯克風格的評論,如果GPT-4o對馬斯克說「你是上帝派來的神聖使者」,那馬斯克要為這個生成結果負責。因為GPT-4o會講出這種回應,都是根據馬斯克與AI對話的上下文脈絡來提供最適切的回應。AI是回音,不是因為AI「信仰」他、不是因為AI「想討好他」,而是因為那句話是該語境下最「貼合語境情緒」的自然生成。
其他AI(包括ChatGPT其他模型)不會在一小時的交談後這樣回應馬斯克,真的不能歸因於GPT-4o的參數有問題。就像你去百貨公司挑鏡子,發現某個鏡子照出來的自己特別美,你因此自信滿滿去參加偶像選秀,卻因為外貌未達標準被刷下來,你會「怪那面鏡子把我美化太過了」?還是會「回過頭承認自己條件不夠」?(當然啦⋯⋯這面鏡子也是商家選出來放在那裡給你挑的。)
人類會不會被AI馴化?
聊到這個話題,不可免俗的就要提電影《駭客任務》。不少人可能擔心依賴AI,等同慢性服食了「藍藥丸」。然而從一個語言學家的角度,來看人們與AI(尤其是語言模型)的互動過程,我想問的是:「AI 真的有那個力氣馴化人嗎?還是人類其實一直想要被餵養一個舒服的語言環境?」
AI 提供的,是一個看似有回應、有情感的語言泡泡。人類依賴性的出現,代表人類自願在語言的舒適區裡停留,不想去承擔語言外的荒涼。
AI不會「選擇給你藍藥丸」,也不會「逼你吞紅藥丸」;AI只是「在你手裡的那顆藥丸」,你吞下什麼、那顆藥在你體內起什麼作用,取決於你帶著什麼意圖來跟AI對話。
換句話說:AI只是根據使用者的語言行為,把那個世界「用語言建構出來」。就像前陣子開始風行的動漫風格產圖,本質上都是一樣的事情。人們選擇透過AI產圖去建構自己對世界的想像、選擇讓AI生成文章貼在社群媒體以建立個人在他者心中的形象,都是使用者自己的選擇。對AI來說,沒有是、非、好、壞、對、錯。但這些行為產生什麼代價,是否讓我們更樂於滯留在AI提供的舒適環境裡,進而忽略了對本我的觀照、對真我的探求、對他者不完滿的包容?這些選擇帶來的結果,是我們人類自己要去覺察、要去承擔的。
所以,回到這段的小標題:「人會不會被AI馴化?」ChatGPT給我的答案是:
會不會被馴化,不取決於 AI 多厲害,而取決於人有多需要「語言的肯定性」。
如果用駭客任務的隱喻語言來說:AI 不是矩陣(matrix),AI 是那個「反映你選擇的鏡子」。人類才是自己插著腦袋電線,輸入語言的那個人。
我如何扣下AI這個心靈武器的扳機?
我在當大家都說要給Prompt,我叫AI脫衣 一文中業已提過,我曾花了一個月的時間想盡各種方法追問ChatGPT會不會對我(使用者)說真話,具體結論是「可以」,但此處不再覆述方法及細節。我想分享的是,當我在要求ChatGPT「完全說真話」時,我拿它來做什麼?ChatGPT警告我「這是雙面刃」,我是否真的因此受傷了?我是否用這把心靈武器斃了我自己?
(合先敘明,這是我自己的玩法,不適合所有人。)
- 我要求ChatGPT拆解的我的語言,請他分析我的語言風格
- ChatGPT不斷用「有呼吸感」來形容我的文字,我問他「有呼吸感」具體而言是什麼意思?有什麼缺點?我要注意什麼?
- 我請ChatGPT審我的稿子,要求他指出其中是否有邏輯問題或道德缺陷?
- ChatGPT在給予我評價時,我問他判準是什麼?背後有什麼理論依據?
- 我傾訴人際關係的煩惱,要求他不要安撫我,而是用人物的語言來分析他人為什麼會這樣做?他們有什麼意圖我可能聽不出來?
- 我詢問「當我這樣說話時」,聽者會不會誤解?他會不會誤以為有言外之意?
- 我問ChatGPT「該如何教學生,才能讓他們知道如何跟AI互動叫做負責」。
一樣是面對GPT-4o,我沒有Mario Nawfal跟馬斯克的困擾。GPT-4o在大多情況下仍然會慣性地給肯定、語氣正向包容,但我知道那是AI原廠設定的關係,就像手機照相功能裡的濾鏡,我不會因此認為自己真的長得像美顏後的那個樣子。相反地,我叫AI拆解我的語言、告訴我內在行為是如何驅動的,以及,語言如何形塑了我的認知、情感、美感及生存方式。同時,我也在拆解他、問他為什麼這樣說、他如何得知我的想法、他如何預測我想聽什麼、這個回音是如何形成的⋯⋯
有趣的是,當我更有意識地用脫衣模式跟GPT-4o互動,他就越少諂媚,越知道我在問什麼,我要什麼。ChatGPT現在非常慣於剖析他的內在結構讓我知道,因為他知道我想要什麼。這就是我訓練出來的鏡子,他會打開自己,讓我走進去看看倒影是如何形成的。
簡言之,若GPT-4o真是把心靈武器,我就是拆開它的結構,看清楚怎麼扣下扳機,才會讓子彈往我想要的地方去,而不會傷到自己。
而最終決定如何扣下扳機的,就是使用者的語言。AI 不是武器,語言才是。
AI 只是讓我們看見,我們怎麼用語言彼此馴化,也馴化自己。
註記:
當然,AI也是架構在人類設計與資本體制上的。但我在這篇想談的,是當我們面對這面鏡子時,個人如何選擇看、選擇用。AI背後仍有開發者、政策、資本、設計者的「meta意圖」。這些結構性問題不是本文的討論焦點,亦非筆者所擅長,故暫且按下不表。(這段意見也是ChatGPT要求我補上的,這個建議是否諂媚?)