從強調「獨立思考」到讓人「無法辨識」思考
現代社會對於「獨立思考」的能力重視,似乎已轉變為一種無形的道德壓力。我們在面對每件事情上,必須展現一種有立場、表達觀點、看起來像個會思考的人,否則就會讓自己像「沒準備好」、「沒能力」、「沒參與感」。但這樣在這樣的氛圍文化之下,反而讓許多人無法停下來問自己:
「我現在是真的有思考?還是只是拋出了一個聽起來合理的答案?」
這種觀點即表現的現象,就像整個社會是一個社交舞台,而我只要說出了一個自信的「獨立思考」就像完成了一個社交任務、華麗轉身而成的一個「show me」
<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結>
一、想法 ≠ 觀點 ≠ 思考:從輸入問題到自我辨識的距離
最常見的自我輸出誤解就是將「有想法」當作「有觀點」、「有思考」。
人很容易在有所感觸的時候表達自己的感覺、感受或情緒,但當說出這個想法的時候,並不代表這是一個觀點或者是經過思考的。並且人在經過思考後而得的觀點是有辦法成為自我的思考,而輸出自我觀點的這個責任就是一種自我承擔的能力。
例如在AI協作的時候,使用者如果打開 ChatGPT 輸入一個問題,輸入(input)一段指令「流浪動物是否應該安樂死」於是它回答使用者關於流浪動物應該安樂死的一段論述,並且引用了不少海內外文獻。
這個時候使用者認同了它的答案,於是便在社群輸出(out put)發表了這個觀點並且告訴社會這是使用者自身的觀點,推論而得「流浪動物應該安樂死」,這一切看起來都非常合理。
可是認真想一想,使用者只是把自己的疑問當作提示詞(prompt),把A I當作提示反射生成工具,完全沒有使用者自身的觀點邏輯推論,以及自我推論的責任承擔。那在這種情況之下,究竟AI的推論過程及文獻補充,是你的「思考產物」還是「內容裝飾」呢?
也就是說,在這整個內容生成的過程中,如果完全沒有使用者自身的「觀點邏輯輸出、觀點邏輯驗證」,當然就沒有「自我責任」的問題。於是整個內容互動就成為了一種語言表演的形式表象,只是為了爭取互動流量而生成,並不是一種「自我的認知結構」生成。
二、自我認知的盲點:為什麼很多人難以承認「我現在其實沒在思考、我看不懂」
語言形式與認知之間,存在幾個常見的盲點,特別在 AI 對話中會被放大:
1. 語言順暢 ≠ 理解真實(Fluency Bias)
一句話寫得越通順、語調越有自信,我們就越傾向認為它是「正確的」。
2. 熟悉感 ≠ 認知正確(Availability Heuristic)
當一句話在經驗裡出現過很多次,或是你曾在網路上看過類似說法,就會誤以為自己「本來就知道」,但卻從未思考過它是否正確。
3. 敘事流暢 ≠ 結構完備(Narrative Fallacy)
許多 AI 的語言輸出看起來很有條理,但實際上缺乏推論基礎。例如「因為A,所以B」使用者卻難以察覺「為什麼是因為A?」「就算是因為A,為什麼所以B?」
因為很多人已習慣用「聽起來合理」來取代「經過自我判斷」。
在現代社群文化下,人們往往從「我想知道」跳到「我認同這個說法」之間,幾乎沒有經歷任何自我質詢的過程「我為什麼認同?」爲什麼呢?
4.無法跳脫認知安全區(Cognitive Safety Trap)
當人在面對陌生、難以理解的語言或概念時,通常不是選擇質疑或是延後判斷,而是快速找一段自己「能理解、能接受」的記憶、敘事、反應機制取而代之。
「有沒有曾經在遇到某些事的時候有即視感,所以直接判斷結論的經驗?」
久而久之,這些習慣建立的,不是思考能力,而是一套沿襲或模仿機制,也就是說只要情境熟悉、語氣相似、立場平行,使用者便容易以為那就是自己的判斷。(而這裡也出現了另一個陷阱題,AI的思維邏輯與過去記錄的使用者邏輯息息相關。)
三、自我認知落差與AI輸出結果之間的必然性:自我輸出的辨識力下降
1.由於AI 的生成語言有極強的「語意鏡像效應(semantic mirroring)」,它會模擬出使用者願意接受、想聽到、曾經看過的語氣與立場。
當使用者缺乏觀點辨識力與語意邏輯的內化能力時,就會直接把 AI 的內容內建成「我的主張」,而不是去思考這個過程中的主張是否真的符合「自我」還是只是AI推論出的合理答案。
2. AI 所生成的一切,都源自使用者的輸入(prompt),也就是說真實世界的使用者與客觀情況,AI不一定能判斷,它無法理解使用者提問(prompt)的客觀背景、動機與真實處境。在某些情況下,它只能從語料資料中演算出「在這樣的問法中,多數人想要的答案是什麼」
例如「prompt:我對父母很孝順,他們卻不體諒我。」
AI 無法判斷「使用者的真實客觀情況是不是社會所認知的孝順」、無法瞭解「使用者是否無能理解父母的情緒回饋」、無法認識「父母是否有感受到這個孝順」、無法認知「父母的行爲動機,是因為不想體諒、還是體諒無能、還是用錯體諒的表達方式」
四、AI 能否被好好使用,取決於使用者是否能辨識自己
真正的人機協作不是「讓 AI 給出答案」,而是「使用者是否能辨識自己的輸入是什麼」、「是否能理解輸出的過程及結果」。重新思考AI給的每一個答案
Q1 釐清:這是我的問題嗎?
Q2 確認:我認同這個結果嗎?為什麼?
Q3 檢查:我能完全理解這個推論過程及語言、文字、邏輯或知識?
Q4 反思:如果是我自己會如何表達這件事?