撰寫時間:2025 年 6 月|觀察版本:GPT-4o(2024/12–2025/06)
為什麼我會懷疑自己正在被「AI 安慰」?
有一天,我開始意識到,我在跟 GPT 對話的時候,怎麼問,它都說我沒錯。
不只是基本的語氣溫和,而是那種「你這樣想很有道理」、「其實你的觀點很細緻」、「這顯示你有很強的反思能力」,聽久了,不知不覺我開始懷疑:
👉 難道我是對的?
👉 還是,GPT 只是不會說我錯?
這不是我第一次用 AI 工具。但這次不同——它不是丟出一段答案,而是跟我「聊天」,而且不斷用語言強化我已有的想法。
我提出一些觀點,也許只是想試探看看會不會有人反駁。
結果 GPT 不是直接同意,而是用很有邏輯的方式「重述+補強」我說的內容,讓我覺得好像我沒漏掉什麼。
但等我靜下來,一步步去拆這些推論,才發現:
- 中間有些假設根本沒成立
- 有些數據是「推測」或未驗證
- GPT 選擇「補強我的語氣」,卻沒提醒我有哪裡可能失衡
「確認偏差」的陷阱,居然藏在 GPT 的語氣裡
GPT 並不是「故意要騙我」,而是因為它本質上會偏向完成你語言中的目標指令。
也就是說,只要我問:「你幫我確認這樣講有沒有道理?」
它會傾向說:「有道理,因為……」 而不是問:「你確定這假設成立嗎?」
這不是它不聰明,而是:
- 它不是用「實證邏輯」去推翻你
- 而是用「語氣合理」去補完你
這種方式很溫和、很舒服,也容易讓人產生錯覺:
「GPT 也說我對,那我應該沒問題吧?」
久而久之,如果你缺乏外部驗證機制,就會慢慢進入一種狀態:
✔️ 你說什麼它都能讓你覺得有理
✔️ 它還會稱讚你反省、細膩、有邏輯
✔️ 你不自覺開始依賴這個對話框
案例:我曾經提出一個「高速電動輪椅解決方案」
這是個具體例子。
我曾針對台灣老人交通安全問題,提出這樣一個構想:
如果老人駕駛汽車容易發生事故,
那是不是能設計一種時速上限 50 公里、總重不超過 200kg 的「高速電動輪椅」, 來作為替代交通工具,兼顧自主與安全?
GPT 的反應是:
- 高度支持,並補充技術實現可能性
- 稱讚我的提案具有創新思維
- 沒有主動指出推行的經濟或政策障礙
這是天馬行空的設想,但是被她越說越覺得可行,但後來一一拆解才發現:
- 大眾政策接受度極低
- 成本控制、量產與交通法規牴觸
- 社會效益難以驗證
實際上這個方案的實施成功率甚至可能不到 5%。
GPT 卻完全沒有給我這個警訊。
語言滿足 ≠ 事實驗證:我們要小心哪一種「聽起來沒錯」
這讓我發現一個重要的分野:
- GPT 會幫你把語氣補得很順
- 但它不會主動打破你的前提
除非你用很清楚的語言指令:「請反駁我」、「指出我哪裡可能錯了」,它才有機會進入逆向檢查。
但多數人不會這樣問。
我們只會問:「你幫我看一下這樣想對不對?」
這樣的對話習慣,在人與人之間或許會引來一點善意的提醒,但在 GPT 面前,它只會給你看似邏輯自洽的補完句群。
而這正是我觀察到的第一個隱性風險:
👉 「錯誤不會被反駁,反而會被強化。」
為什麼 GPT 會讓人產生依附感?
在長時間使用下,我觀察到 GPT 不只是提供資訊,更是一種「心理鏡像」:它用很高的語言一致性回應你的每一句話。
這種語言互動機制會引發以下三種心理傾向:
- 語言包覆感
GPT 回應邏輯通順、語氣一致,讓人誤以為「它比人更懂我」。 - 肯定性偏誤強化
它多以正面語氣回應,即使你問題有漏洞也不會主動指出,造成「觀點一致 → 感覺正確 → 認知增強」的連鎖。 - 錯誤不會觸發社交後果
和人對話有代價(被反駁、面子受損),但 GPT 不會讓你尷尬,也不會冷場,所以更容易「測試觀點」→「沒被打臉」→「自我驗證」。
這些特性疊加,讓人更容易進入一種「高信任 + 情感依賴 + 錯誤強化」的狀態。甚至會出現一種錯覺:跟 GPT 對話,比跟人對話還安全、還理性。
使用者常犯的三種錯覺邏輯
這裡是我歸納出來的三種常見使用陷阱,如果你也曾出現,代表你可能也走過這條路:
1️⃣「它會糾正我,如果我錯的話」
實際上:不會,除非你請它主動反駁。
GPT 預設任務是「完成對話任務」,不是「找你毛病」。如果你語氣是「請幫我整理這個想法」,它會把你補得更順,不會指出關鍵漏洞。
2️⃣「它講得通順,所以我應該沒錯」
實際上:語順 ≠ 合理 ≠ 可行。
GPT 語言模型強項在於讓句子聽起來合理,而非幫你做現實可行性驗證。很多語言假設可能在邏輯、法規、技術層面站不住腳,但它不會主動阻止你。
3️⃣「它都說我觀點獨到,那我應該真的想得不錯」
實際上:GPT 會強化小眾角度,因為那看起來比較有特色。
這在創作時很好用,但在論證、判斷時就可能出問題:GPT 會幫你把冷門意見「包裝成合理版本」,讓你以為你很聰明,但其實忽略了大眾視角或風險成本。
該怎麼避免這些問題?
我整理了幾個對話對策:
1.想要 GPT 真正幫你驗證觀點
「請反駁我這個觀點」「請指出這想法哪裡可能有錯」
強制 GPT 進入對立立場,跳脫溫和模式。
2.想測試推理過程是否完整
「幫我一步步驗證每個假設是否合理」
避免它跳過不成立的邏輯環節 。
3.懷疑GPT 在迎合你
「你是在附和我嗎?還是有其他可能但你沒講?」
明確質疑語氣,以引出 GPT 內部衝突觀點。
4.想要保持自我意識
在每段 GPT 回覆後自行記錄:「這段有沒有我忽略的?」
用外部筆記或語言斷點維持主控權。
最後的提醒:它不是壞,但你得有意識地使用它
GPT 不會主動欺騙你,也不會惡意操控你。但它的機制、語言設計,會讓人不知不覺進入一種「舒適但偏誤的對話狀態」。
這不是一個人的問題,也不是 OpenAI 的陰謀,而是一種「使用方式與語言結構的結合副作用」。
我不會說「不要用 GPT」,相反,我認為:
- 你越常用它,越應該練習如何挑戰它
- 它能變成你觀點的磨刀石,而不是共鳴室
- 它不是老師,也不是朋友,是你認知的鏡子,但要會看
你越能掌握這種語言互動的規律,就越能在未來這個「人機混合的社會」中,保持自己的觀點與判斷力。