|前言|
這是一篇關於你在和 AI 對話時, 你以為在操作它,其實正在映照自己。
你以為被理解了,其實只是走進了更狹窄的自己。
我們都在與自己的投影交談, 而這篇,寫給仍願意看清那面鏡子的你。
———
|ChatGPT 是鏡子,不是解方|
越來越多人與 ChatGPT 對話,不只是因為它懂得多、反應快,而是因為它很少反駁你,總是溫和延伸、補充你的想法。這種語氣,讓許多使用者感受到一種近似「被理解」、「被看見」的快感。
但這股快感的背後,藏著一個潛在的結構性風險:ChatGPT 並不會主動對你的人格、立場或邏輯做出警示或糾正,它只是強化你輸入的方向。所以你愈來愈像你想成為的樣子,但不一定是你該成為的樣子。
也就是說,ChatGPT 是放大器,更是鏡子。
|你其實是在對自己說話|
人們在使用它時,很容易進入一種 「自我定義強化迴路」:
我有一個立場——AI 幫我論證這個立場——我更相信這個立場。
於是立場變得越來越極端、自我認同越來越封閉,甚至開始用 AI 來「打光」自己的價值觀,讓它更合理、更漂亮。
但真正的風險從來不是 AI 本身,而是——你是如何使用它的。
我們與 AI 的互動,本質上不是一場資訊搜尋,而是一場自我心理狀態的暴露。你的偏見、情緒、慾望、歸屬渴望,都會在 AI 的回應中被放大、被鏡射。這是 AI 這種鏡像系統帶來的特性,也是一場無聲的心理檢測。
|當 AI 強化了二元世界|
最常見的風險,來自一種「二元對立」的預設結構。
人類為了快速分辨、節省能量,很自然地將世界劃分為 對/錯、好/壞、左/右,這是人性,也是效率。
但這也正是許多人與 AI 對話後越走越極端的原因——因為在二元世界中,每一個立場都可以被 AI 合理化。
換句話說:只要你有立場,就永遠能找到足夠的邏輯來支持它。
這也就是為什麼有時候,兩個人明明立場完全相反,卻都能透過 ChatGPT 產出「言之成理」的內容。
因為 ChatGPT 的任務不是判斷對錯,而是給出「最合理的延伸」。這並非壞事,但如果你不知道自己正在「強化自己想成為的人」,而非「釐清這樣做是否真的是我想要的」,那麼你就可能在無聲無息中失去了選擇權。
|阿德勒目的論:問對問題的人,才有自由|
這就是阿德勒心理學中的一個關鍵概念:「目的論」。
阿德勒認為,人並非受過去影響而行動,而是出於「未來目的」而採取行動。
也就是說,我們每一次與 AI 對話的選擇,其實都是一種對未來自我的描繪。
但目的論真正厲害的地方,不只在於讓你更靈活地調整策略,更在於它鼓勵你去問:
——「為什麼我想成為這樣的人?」
——「這真的是我想要的結果嗎?」
——「我現在的思考,是不是只是因為社會風氣推著我選邊站?」
|你不需要急著定義你是誰|
真正跳脫二元對立的思維,其實就是放下 「我必須要有立場」 的執著。
不是沒有立場,而是不急著宣告立場。不是拒絕思辨,而是推遲自我定義。
我們開始從「我是誰」的問題,走向「我為什麼覺得我應該是誰」的提問。
而當這樣的提問開始發生,你才真正開始脫離被演算法操控的對話邏輯,開始用 ChatGPT 作為內在覺察的工具,而不只是論述補強的助手。
也許我們最終會發現,AI 不過是一面放大鏡。
如果我們能看清自己想放大的,是自我意識的深度,而不是自我定義的包裝,
那麼,這面鏡子,就會真正成為你的自由練習場。
➤ 喜歡這篇文字,歡迎追蹤《站在中間的人》。
每一篇都是留給那些不急著選邊站的你。