那場令人不安的 Zoom 訪談
這幾個月來,我見過太多這樣的場景:一個年輕、看起來聰明有為的求職者,在 Zoom 鏡頭前被問到一個關於策略的深度問題時,眼神開始飄向螢幕的右上角或左下角。
然後,是一段不自然的靜默。
接著,他們會給出一個結構完美、用詞華麗,但卻透著一股不屬於人類溫度的答案。你心裡會隱隱浮現一個不安的猜測:「他們是在讓 AI 幫忙『即時代打』嗎?」
如果答案是肯定的,那麼問題就來了:「他們本人到底理解了多少?」
這個場景,與 MIT 媒體實驗室研究員娜塔莉亞·科斯米娜(Nataliya Kosmyna)的親身觀察不謀而合。她開始收到許多陌生人的郵件,他們憂心忡忡地問:「自從用了 ChatGPT,我的記憶力是不是變差了?我的腦子是不是在萎縮?」
當科斯米娜與她的同事進行實驗,用腦電圖(EEG)監測學生寫作時的大腦活動,結果顯示的畫面,比任何擔憂都更令人心寒。
大腦正在享受「認知空檔」的危險
科斯米娜的研究發現了一個驚人的事實:參與者使用外部輔助越多,他們大腦的連結程度就越低。
具體來說,使用 ChatGPT 寫作的學生,在與「認知處理、注意力、創造力」相關的腦網路中,活動明顯減少。
用一個更直白的說法:「他們感覺自己在『思考』,但大腦掃描顯示『那裡什麼都沒發生』」。
最讓人不安的是,當實驗結束,要求這些學生「引用」他們剛剛寫下的內容時,「ChatGPT 組幾乎沒人能記住任何一句話。」
這是一個深層次的警訊。寫作、辯論、整合資訊、構建論點,這些技能是我們在日常生活中處理複雜問題的基礎。如果我們習慣性地將這些有摩擦、需要努力的認知任務外包給 AI,我們失去的將不只是「正確答案」,而是「形成答案的能力」。
科斯米娜說得極好:「我們的大腦熱愛走捷徑,這是我們的天性。但你的大腦需要摩擦才能學習,它需要挑戰。」
當代科技不斷承諾給我們一個「無摩擦」(Frictionless)的使用體驗——從一個 App 滑到下一個螢幕,絲毫不會遇到阻力。然而,正是這種「摩擦力」的缺失,讓我們不知不覺地將越來越多的記憶、計算、甚至是思考,外包給了數位設備。
這讓我們陷入了一個矛盾:「科技讓我們得以處理更複雜的任務,但為什麼我們卻花了更多時間在感覺『變笨』?」
從「腦爛」到「愚蠢生成社會」的溫水煮青蛙
在我們的生活被無摩擦的數位便利包圍後,那個充滿摩擦的真實世界就變得越來越難以應對。
我們避免打電話、使用自助結賬、事事都從 App 下單。本來心算就能解決的數學題,習慣性地拿出手機。在 Google 地圖輸入目的地後,就自動進入了從 A 點到 B 點的「自動駕駛」模式。
這是不是正如教育專家戴西·克里斯托多羅(Daisy Christodoulou)所說,我們正在迎來一個「愚蠢生成社會」(Stupidogenic Society)?就像「肥胖生成社會」一樣,在這種環境裡,因為機器可以替你思考,「變笨」成為了最容易的選項。
請注意,這個問題不只發生在學生身上。
「連續部分注意力」(Continuous Partial Attention)——這個由科技顧問琳達·斯通(Linda Stone)提出的詞彙,精準地描述了我們大多數人的生活狀態。一邊看 Netflix,一邊線上買菜,還不時分神看訊息。我們感覺自己在「高效多工」,但事實是:「我們對任何一件事情都無法達到深度,只是一種『假裝掌控一切,卻從未掌握任何底層邏輯』的錯覺」。
當你處在這種認知超載(Cognitive Overwhelm)的邊緣時,你就不會再抗拒數位的轟炸,而是讓大腦在網路溫暖、渾濁的淺灘中「休息」。這就是「腦爛」(Brain Rot)被牛津大學出版社選為年度詞彙的深層原因。
不是網路把你變成白痴,而是它讓你處在一個「更容易表現得像白痴」的狀態。
而在這個背景下,生成式 AI 帶著它全新的「外包思考」功能,優雅地走入了我們的生活。我們不再只是消費低價值、超加工的資訊,而是消費「被預先消化過」的資訊,繞過了人類評估、篩選、摘要,以及真正去「考慮一個問題」的關鍵功能。
從蠟燭到燈泡的「錨定效應」陷阱
資深企業策略專家邁克爾·格里希(Michael Gerlich)注意到了教室討論品質的下降。他發現,越頻繁使用 AI 的人,在批判性思考上的得分越低。
他提出了一個非常關鍵的洞察:「錨定效應」(Anchoring Effect)。
當你向 AI 提問,它給你的第一個答案,會立即將你的大腦「錨定」在某條特定的心智路徑上,讓你變得不太可能去考慮其他的解決方案。
格里希用「蠟燭」的比喻來說明:「AI 可以幫助你改進蠟燭。它會是最亮的、燃燒最久的、看起來最棒的蠟燭。但它永遠不會發展出『燈泡』。」
從蠟燭到燈泡,需要的是一個擅長批判性思考的人,一個敢於採用混亂、非結構化、不可預測的方式來解決問題的人。
如果一家公司在沒有提供足夠訓練的情況下推行 AI 工具,他們冒的風險,就是在一個需要「高效燈泡」的世界裡,產出一隊平庸的「蠟燭製造者」。
我們不能否認 AI 在藥物發現、癌症檢測等領域帶來的巨大突破,那是「智慧人類與智慧機器合作」的正面案例。但當我們只是把它當作一個無需付出認知成本的作弊器時,我們就從合作者,變成了被動的「使用者」(User)。
科斯米娜半是憤怒地嘟囔了一句:「只有軟體開發者和毒販才會稱呼別人為『使用者』。」這句話的重量值得我們所有人細細品味。
在那個不斷擴張、無摩擦的線上世界中,你首先是一個「使用者」:被動、依賴。
給自己的大腦設定「最低阻力原則」
回顧歷史,蘇格拉底曾擔心書寫會削弱記憶力,只會帶來「智慧的虛榮」。每一次科技革命,都伴隨著對人類心智衰退的擔憂。但書寫、印刷術、網路最終讓我們變得更聰明,因為它們改變了我們的「思考方式」,幫助我們進行「認知卸載」(Cognitive Offloading),從而解決更複雜的問題。
但這次不同。這次,我們外包的不再是「記憶」或「計算」,而是「思考本身」。
當我們的世界充斥著 AI 產生的誤導資訊和深度偽造(Deepfake),我們最需要的恰恰是「懷疑精神」和「知識獨立性」。
如果我們不再具備足夠的知識基礎去質疑一個可疑的資訊——「等等,這與我所知道的一切知識是矛盾的!」——我們就會成為那些相信「地球是平的」的、毫無抵抗力的「愚人」。
AI 真正的風險,不是它讓我們變笨,而是它讓我們愛上那種「不用思考的舒適」。當你覺得自己越來越離不開科技協助才能思考清晰時,剩下的「你」,還有多少力量可以去抵抗?










