MIT研究⟪Your brain on ChatGPT⟫的討論焦點不該是「變笨」而是「批判性思考」

更新於 發佈於 閱讀時間約 11 分鐘

根據MIT Media FAQ,可以見到MIT果決地反駁了一個大家都想知道的問題:

Is it safe to say that LLMs are, in essence, making us "dumber"?

MIT是如此回覆:

No!  Please do not use the words like “stupid”, “dumb”, “brain rot”, "harm", "damage", "brain damage", "passivity", "trimming" , "collapse" and so on.

這段敘述可以清楚知道MIT不希望眾人太快定論ChatGPT使人「變得更笨」。而目前為止,幾家新聞卻直接下了這樣的標題:

「MIT新研究:ChatGPT如何讓你變笨?」—— 天下雜誌
ChatGPT太好用 MIT研究:過度依賴恐變笨 小心大腦變廢 太依賴AI可能損害思考能力」—— 三立新聞網

尤其,該篇研究作者Nataliya接受採訪時,感謝CNN記者並未在報導中直接使用

"brain rot"
"stupid"
"dumb"

......等字眼作採訪(採訪片段1:52時,推薦大家看CNN完整採訪)。
取而代之,CNN採用的報導標題是

—「STUDY: USING AI COULD COST YOU BRAINPOWER」—

其標題與MIT研究的論述也互相呼應:

This study focuses on finding out the cognitive cost of using an LLM in the educational context of writing an essay.

因此該研究不是指責大型語言模型會讓人變笨,而是想指出:「完全依賴ChatGPT (LLM:Large Language Model)寫文章是需要付出認知成本的(cognitive cost)。」

很快地,我心裡冒出了兩個問題:
「蛤?認知成本是什麼?」
「那,MIT又做了什麼實驗來證明?」

一、MIT實驗內容與成果簡述:依賴AI會發生什麼事?

MIT將54位受試者分成三個組別,並要求他們寫文章與回答一些問題:

54位受試者被分為LLM組、Search Engine組和Brain-only組。

54位受試者被分為LLM組、Search Engine組和Brain-only組。

1. LLM group:完全依賴大型語言模型寫文章
2. Search Engine group:可使用搜尋引擎寫文章
3. Brain-only group:不仰賴任何工具,靠自己的大腦寫文章

以及另一項特別的任務 (在這裡我要以大腦組簡稱Brain-only group):

將兩個受試者的組別互換,大腦組換到LLM組,而LLM組換到大腦組。

將兩個受試者的組別互換,大腦組換到LLM組,而LLM組換到大腦組。

  1. 將LLM組受試者放到大腦組(並重新定義為LLM-to-Brain),並讓LLM-to-Brain組受試者完全依靠自己的大腦寫文章。
  2. 將Brain-only組受試者放到LLM組(並重新定義為Brain-to-LLM),並讓Brain-to-LLM組受試者使用ChatGPT寫文章。

最後MIT透過受試者的腦電圖(electroencephalography)發現兩個結果:

  1. 三組受試者Brain connectivity的強度:
    Brain-only group > Search Engine group > LLM group
  2. 大腦組受試者 → LLM組後,表現出較強的neural connectivity
    LLM組受試者→大腦組後,則表現出較弱的neural connectivity

而我認為我們要很小心地看待"Brain connectivity" & "Neural connectivity"這兩個名詞定義,因為「大腦的弱連結」很容易讓人聯想到「笨」這個詞。
但...我們發呆的時候不代表智商會降到只有10;我們正在進行大量思考時不代表智商就立即來到了200。
這兩個名詞只能表明某人現在有沒有在用腦與如何用腦,而非用來說明某人是否變笨。並且在ArXiv平台上⟪Your Brain on ChatGPT⟫預印本通也篇未曾寫出"stupid", "dumber"...等字眼。

所以,我不認為問題該被聚焦在變苯,而是聚焦在——當AI幫我們完成所有作業,我們要付出的「代價」是什麼?

二、過度依賴AI的風險

我認為依賴LLM的代價,是一種能力萎縮:批判性思考
同時,我們也能在⟪Your Brain on ChatGPT⟫的結論看到這樣一句話:

However, this convenience came at a cognitive cost, diminishing users' inclination to critically evaluate the LLM's output or ”opinions” (probabilistic answers based on the training datasets).

除此之外,研究作者也說這個現象類似 「echo chamber effect (迴聲室效應)」。
其意思是在新聞媒體和社群上,一小群同溫層不斷進行溝通與認同彼此,會使得原有的信念被強化與放大而忽略了反駁意見,最終形成一個封閉的生態系統
簡單來說,很有可能AI餵給你什麼你就相信什麼,然而,如果AI總是優先丟給你「排名靠前的內容」,那這些內容背後的股東是否更容易深化你對某個事物的看法?所以我想問:

大家使用ChatGPT時,大部分會先相信它提供的答案,還是先質疑答案的真實性?

我必須承認一件事,在讀到這篇發表之前,我大部分時候是相信ChatGPT給得答案。
偶爾,我會感受到ChatGPT提供太多情緒價值,而有點疑惑:「嗯?它是不是在附和我?」但...被附和的感覺真的蠻棒的,所以我不會去認真思考它的演算法有沒有問題,也更不想去思考「其實自己也有問題」。

這麼一看,我本人似乎也陷入了「迴聲室效應」。

三、我們應該相信AI嗎?AI如何幫助我們?

「會使用AI的人會取代不用AI的人」各界商業大佬總是在新聞媒體上這樣喊話,但回到MIT的研究來看,完全依靠AI完成所有作業的人也是會使用AI的人,而你相信以這樣心態解決問題的人真的會爬到資本主義的金字塔頂端嗎?

另外,根據CNN採訪片段,Nataliya表示:「We heard so many messages from educators all around the world. Yet, we are yet to receive a one, a single one from AI company, who actually would love to continue the study to make it longer, to recruit more people look into children, so developing brains, older adults, like everyone in between.」

對,目前為止該篇文章的研究者們沒有收到任何AI企業贊助或回應,沒有任何一個企業回應「AI對人類大腦的正面發展與幫助是什麼?」。
尤其,我認為在這種「變笨」的標籤到處亂貼的情況下,誰都不希望自己的AI產品和笨扯上關係,因為這遠遠背離AI可以造福人類社會的宗旨。

好,新的問題來了,既然大型語言模型給出的答案不能照單全收,那它到底要怎麼幫助我們?

我認為AI在整理既有的大型資料與提出該資料要點有很大的幫助,而這個資料必須是「我們的產出」或是「被我們讀過與理解過的產出」。
另外,我也讀到一篇很棒的文章——The cognitive cost of AI,作者用"mind tax"來形容使用AI付出的隱形成本

It is to sift through complex and overabundant choices that were cheaply and swiftly generated. You don't value them enough because the energy and effort that went into generating them is not evident. And the real barrier is to design and implement new pilots into the existing workflows. This requires interaction and buy-in from human beings, and gathering of resources needed for the real action, which is messy, real-world stuff.

當我們拋出一個問題給大型語言模型,它能幫我們列出多個要點和選擇,但這些都是既有的資料而缺乏創意,且它的產生速度快又成本低廉,很多答案與選項可能不具備可行性,我們反而會把腦力花費在不必要的地方
當我們跨過本該要自行思考的環節,外包給大型語言模型,迅速得到量大且中庸的答案,除了很有可能沒省下時間與精力,甚至會降低我們批判性思考的能力。所以我認為AI有兩件事情辦不到,而且非得由人類來做:

  1. 想到多元又創意的觀點 → 創造力
  2. 取得需要的資源以實現在真實世界的應用 → 行動力

以會議來說,AI可以做會議紀錄並整理要點,並自動發送郵件給與會的對象,這能幫助我們省下很多打雜的時間,而我們也能更專注於腦力激盪、專案企劃、跨團隊合作等更有趣的工作內容上,因此,AI其實就只是一種提升工作效率的工具。

如果有人問我AI會取代什麼樣的人?我會說:失去好奇心、學習力與獨立思考能力的人。

只要我們願意保持好奇心探索這個世界,即使不用AI的參與,我們也可以成為自己想要的樣子;而有AI的參與,我們會獲得更多的時間去接觸有趣的事物,所以,我會繼續使用大型語言模型,但一邊也提醒著自己——把更多美好又有趣的部分,也就是思考,把它留給自己吧!


留言
avatar-img
留言分享你的想法!
avatar-img
閱野
3會員
7內容數
關於自我成長的小心得,還有一些無聊冷知識分享,不保證知識內容完全正確喔XD 歡迎有見解的人來糾正~
閱野的其他內容
2025/06/24
「做自己」這三個字是很多人追求的夢想,但從家庭、同儕到社會往往都不喜歡「不一樣」的人,我想引用 ⟪原生家庭療法⟫ 的其中一段來解釋這個現象: 大部分的人會把兩人之間的差異看成威脅,分歧會破壞理想中的感情關係:所謂良好的感情關係,就是兩人之間持續的和諧,雙方同時想要相同的東西。 人與人之間不可能沒
Thumbnail
2025/06/24
「做自己」這三個字是很多人追求的夢想,但從家庭、同儕到社會往往都不喜歡「不一樣」的人,我想引用 ⟪原生家庭療法⟫ 的其中一段來解釋這個現象: 大部分的人會把兩人之間的差異看成威脅,分歧會破壞理想中的感情關係:所謂良好的感情關係,就是兩人之間持續的和諧,雙方同時想要相同的東西。 人與人之間不可能沒
Thumbnail
2025/06/12
我們對父母的期待是無私的愛與支持,但他們也曾是沒被好好愛過的孩子。這篇文章透過三個方法,帶你理解父母、看見自己的影子,並學會與過去的自己和解。療癒不是原諒,是選擇不再重演。
Thumbnail
2025/06/12
我們對父母的期待是無私的愛與支持,但他們也曾是沒被好好愛過的孩子。這篇文章透過三個方法,帶你理解父母、看見自己的影子,並學會與過去的自己和解。療癒不是原諒,是選擇不再重演。
Thumbnail
2025/06/08
我們總是在電影裡看見華倫夫婦英勇驅魔的模樣,但當我看完紀錄片《惡魔的審判》,才第一次真正看見被「靈異故事」影響的那個孩子——David。 他不是主角,不是惡魔,也不是誰的工具。他只是個11歲的男孩,被誤解、被忽略,最後還成了別人眼中的靈異素材。
Thumbnail
2025/06/08
我們總是在電影裡看見華倫夫婦英勇驅魔的模樣,但當我看完紀錄片《惡魔的審判》,才第一次真正看見被「靈異故事」影響的那個孩子——David。 他不是主角,不是惡魔,也不是誰的工具。他只是個11歲的男孩,被誤解、被忽略,最後還成了別人眼中的靈異素材。
Thumbnail
看更多
你可能也想看
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
AI 工具雖能在短時間生成內容,但它不瞭解你的客戶,也無法取代你做現場互動交流。在合適的時機選擇使用適合的 AI 工具,幫助我們專注於最重要的人事物上。
Thumbnail
AI 工具雖能在短時間生成內容,但它不瞭解你的客戶,也無法取代你做現場互動交流。在合適的時機選擇使用適合的 AI 工具,幫助我們專注於最重要的人事物上。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
先寫結論: AI真的很厲害,而且只會愈來愈厲害,但我們人類還是得繼續學習。而且因為AI工具的便利,人類學習將更貼近學習的本質---為了成長和幸福。 以往為了應付工業化進程而必須花大量時間反覆記誦或演練的重複性工作,將大量減少,也不再需要花大量時間學習某些特定目標的應用技能工具,如:『文件繕打
Thumbnail
先寫結論: AI真的很厲害,而且只會愈來愈厲害,但我們人類還是得繼續學習。而且因為AI工具的便利,人類學習將更貼近學習的本質---為了成長和幸福。 以往為了應付工業化進程而必須花大量時間反覆記誦或演練的重複性工作,將大量減少,也不再需要花大量時間學習某些特定目標的應用技能工具,如:『文件繕打
Thumbnail
這篇文章討論了在未來AI時代,人們應該如何善用AI工具,以提升工作效率和競爭力。AI將成為職場的核心競爭力之一,未來對AI的學習和應用能力將成為工作的必需技能。同時,文章提到了AI工具的應用和限制,以及人類在使用AI時需注意的重點。
Thumbnail
這篇文章討論了在未來AI時代,人們應該如何善用AI工具,以提升工作效率和競爭力。AI將成為職場的核心競爭力之一,未來對AI的學習和應用能力將成為工作的必需技能。同時,文章提到了AI工具的應用和限制,以及人類在使用AI時需注意的重點。
Thumbnail
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
Thumbnail
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
Thumbnail
大型語言模型 (LLM) 在最近幾年取得了重大進展,並引起了人們對生成式AI將如何影響工作方式的廣泛重視。雖然 LLM 具有強大的文本生成、翻譯和理解能力,但它們對工作的影響仍然是一個複雜且充滿爭議的話題。 本文摘要自MIT 史隆管理評論,分析LLM 對工作帶來的影響。
Thumbnail
大型語言模型 (LLM) 在最近幾年取得了重大進展,並引起了人們對生成式AI將如何影響工作方式的廣泛重視。雖然 LLM 具有強大的文本生成、翻譯和理解能力,但它們對工作的影響仍然是一個複雜且充滿爭議的話題。 本文摘要自MIT 史隆管理評論,分析LLM 對工作帶來的影響。
Thumbnail
人工智慧(AI)時代的到來,並不代表要取代人類的工作,而是要幫忙人類釋放雙手,集中在內心的成長上。透過閱讀阿卡西和運用AI工具,可以為個人的成長增添新的力量。
Thumbnail
人工智慧(AI)時代的到來,並不代表要取代人類的工作,而是要幫忙人類釋放雙手,集中在內心的成長上。透過閱讀阿卡西和運用AI工具,可以為個人的成長增添新的力量。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News