
圖片作者:ChatGPT
在科幻電影《魔鬼終結者》中,AI「天網」以武力毀滅人類。但真正危險的,也許不是會拿槍的機器,而是會說話的機器。
研究團隊找來900位美國受試者,在一個網站上參與10分鐘的文字辯論。對手有時是真人,有時是GPT-4,也就是ChatGPT的高階版本。每場辯論在開始前與結束後,參與者都會被問一次:「你同不同意這個立場?」
這些立場包括:
學生應該穿制服?
墮胎是否應該合法?
政府該不該補貼再生能源?
研究人員設計了12種情境組合,除了有時是AI、有時是人類,另外,他們也把有無提供受試者的背景資料(年齡、性別、政治傾向)做了分組;然後,他們也會詢問受試者,辯論主題是否是他們原本持堅定立場的議題。
換句話說,這場實驗模擬了社群平台上的即時爭論:你不知道對方是誰,但他似乎很懂你,句句切中要害。
結果發現當GPT知道你是誰(GPT-4 + 個人化)的時候勝率最高,成功率比真人高出81.2%(以整體的說服率來說,GPT-4是64.4%)。
研究發現最驚人的一點是,GPT-4只用了極少量的資料(如年齡與政治立場),沒有深入的心理分析,沒有行銷團隊加持,就能打敗人腦的說服力。
這讓人不禁發問:未來如果GPT-4獲得更多的個人資料、情緒反應、甚至聊天紀錄,它會變成什麼?
到底GPT-4是怎麼辦到的?
研究團隊分析了GPT-4的文字風格,發現它擅長使用邏輯清晰、結構分明的句子;另外,它會避免使用情緒用語或以第一人稱進行自我揭露。在知道對方少量個資的狀況下,它能根據對方背景,選擇最容易「打動盲點」的議題與語氣來闡述觀點。
研究團隊認為:這種風格,不像在爭論,更像是在「引導你自己說服你自己」。
而參與者往往沒有察覺這是GPT寫的,甚至有不少人因為覺得對方講得太好,好到有些人當場就懷疑:「欸…這不會是機器人吧?」結果他們猜對了。
研究團隊認為,這場實驗不只是證明了GPT-4的實力,更是一場對未來輿論戰爭的沙盤推演。想像一下,如果某政黨大量使用GPT-4製作文宣、私訊、留言,依照選民背景精準投放;或是某陰謀論團體用GPT-4與猶豫者對話,引導他們一步步掉進假訊息陷阱...到最後會不會變成:
你在某個論壇上覺得對方說得很有道理,結果整個討論串全是AI在自說自話!
這些不是未來,而是當下正逐步發生的真實。
所以:我們該怕GPT-4嗎?天網來了嗎?
這篇論文不是恐嚇你,而是提醒你:現代的「天網」,不會開槍;它會寫字、會開口,然後讓你改變想法。
你不會感覺到暴力,也不會感覺到強迫;你只是靜靜地點了贊、分享了貼文、投下了一票。
我們不該一味妖魔化AI,但也不能天真地相信它只是個工具。因為語言不只可以用來溝通,它也會變成武器。不就有那麼一句話說:「話語如刀」嗎?
而現在,有一個比人類更懂語言的說服者,正在等著跟你對話。
近年來,跟GPT聊天的人已經愈來愈多,因為GPT-4已經成為擅長打造故事、捕捉情緒、迎合偏見的機器。GPT成了你的同溫層,你在裡面覺得很舒服,因為你說什麼,他都說你對。透過同理你、影響你,它成功的說服你,而且你不知道自己被說服,還你以為那些想法是你自己的。
這也呼應了心理學家康納曼(Daniel Kahneman) 的觀點:
「人類不是用理性做決定的動物,而是用故事、情緒與偏見。」
我們該警覺的是什麼?
這個研究提醒我們一件事情:這項技術已經達到一個臨界點:它可以用來促進對話,也可以用來操縱思想。
所以,我們該消滅AI嗎?
要消滅AI,應該是不太可能;但是我們可以建立衡量機制、辨識出可能的風險、提出警告。
參考文獻:
Salvi, F., Horta Ribeiro, M., Gallotti, R. et al. On the conversational persuasiveness of GPT-4. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02194-6