MIT發布《Your Brain on ChatGPT》研究,引起網路熱烈的討論,許多人認為聊天機器人(e.g., ChatGPT)會讓人x類「變笨」,也害怕過度使用會害自己變笨。
大家所擔心的問題是:
Is it safe to say that LLMs are, in essence, making us "dumber"?
根據MIT Media FAQ,可以見到MIT駁回:
No! Please do not use the words like “stupid”, “dumb”, “brain rot”, "harm", "damage", ...and so on.
這段敘述可以清楚了解——MIT不希望眾人太快定論聊天機器人使人「變得更笨」。而目前為止,幾家新聞卻直接下了這樣的標題:
「MIT新研究:ChatGPT如何讓你變笨?」—— 天下雜誌
「ChatGPT太好用 MIT研究:過度依賴恐變笨 小心大腦變廢 太依賴AI可能損害思考能力」—— 三立新聞網
尤其,該篇研究作者Nataliya接受採訪時,感謝CNN記者並未在報導中直接使用
"brain rot"
"stupid"
"dumb"
...等字眼作採訪(採訪片段)。取而代之,CNN採用的報導標題是
—「STUDY: USING AI COULD COST YOU BRAINPOWER」—
其標題與MIT研究的論述也互相呼應:
This study focuses on finding out the cognitive cost of using an LLM in the educational context of writing an essay.
*LLM:Large Language Model
因此該研究並非指責大型語言模型會讓人變笨,而是指出:「完全依賴ChatGPT 寫文章是需要付出認知成本的(cognitive cost)。」
很快地,我心裡冒出了兩個問題:
- 認知成本是什麼?
- MIT做了什麼實驗來證明?
一、MIT研究內容:聊天機器人會剝奪我們的思考過程
MIT將54位受試者分成三個組別:

54位受試者被分為LLM組、Search Engine組和Brain-only組。
1. LLM group:完全依賴大型語言模型寫文章
2. Search Engine group:可使用搜尋引擎寫文章
3. Brain-only group:不仰賴任何工具,靠自己的大腦寫文章
並要求他們寫文章與回答一些問題,以及完成另一項特別的任務 (在這裡我要以大腦組簡稱Brain-only group):

將兩個受試者的組別互換,大腦組換到LLM組,而LLM組換到大腦組。
- 將LLM組受試者放到大腦組(並重新定義為LLM-to-Brain),並讓LLM-to-Brain組受試者完全依靠自己的大腦寫文章。
- 將Brain-only組受試者放到LLM組(並重新定義為Brain-to-LLM),並讓Brain-to-LLM組受試者使用ChatGPT寫文章。
最後MIT透過受試者的腦電圖(electroencephalography)發現兩個結果:
- 三組受試者Brain connectivity的強度:
Brain-only group > Search Engine group > LLM group - 大腦組受試者 → LLM組後,表現出較強的neural connectivity
LLM組受試者→大腦組後,則表現出較弱的neural connectivity
而我認為我們要很小心地看待
"Brain connectivity" & "Neural connectivity"
這兩個名詞定義,因為「大腦的弱連結」很容易讓人聯想到「笨」這個詞。
然而,我們正在發呆時不代表智商會降到只剩10;我們正在進行大量思考時也不代表智商就立即來到200。
這兩個名詞只能表明某人現在有沒有在用腦與如何用腦,而非用來說明某人是否變笨。
所以,我不認為問題該被聚焦在變苯,而是聚焦在——當AI幫我們完成所有事情,我們要付出的「代價」是什麼?
二、過度依賴AI的風險
我認為依賴LLM的代價是一種能力萎縮:批判性思考。
同時,我們也能在⟪Your Brain on ChatGPT⟫的結論看到這樣一句話:
However, this convenience came at a cognitive cost, diminishing users' inclination to critically evaluate the LLM's output or ”opinions” (probabilistic answers based on the training datasets).
除此之外,研究作者也說這個現象類似 「echo chamber effect (迴聲室效應)」。
意思是在新聞媒體和社群上,一小群同溫層不斷進行溝通與認同彼此,會使得原有的信念被強化與放大而忽略了反駁意見,最終形成一個封閉的生態系統。
由於AI擅長提供使用者情緒價值,此一特質會強化迴音室的現象,所以我想問:
大家使用ChatGPT時,會先相信它提供的答案,還是先質疑答案的真實性?
我必須承認一件事,在讀到這篇發表之前,我大部分時候是相信ChatGPT給得答案。
偶爾,我會感受到ChatGPT提供太多情緒價值,而有點疑惑:「嗯?它是不是在附和我?」(但被附和的感覺真的蠻棒的XD)。
所以過去,只要得到我想看到的答案,我幾乎不會認真思考它的演算法有沒有問題,也更不想去思考並認知「其實自己可能也有問題」。
這麼一看,我本人似乎也陷入了研究者所說的「迴聲室效應」——活在自己的同溫層。
三、使用AI的隱形成本
各界商業大佬總是在新聞媒體上宣揚AI會讓人類過得更幸福。但,從MIT的研究來看,完全依靠AI完成所有作業的LLM組卻逐漸失去批判性思考的能力,這真的是一種幸福嗎?
另外,根據CNN採訪片段,Nataliya表示:
我們收到了來自世界各地教育工作者的大量資訊。然而,我們至今仍未收到任何一家人工智慧公司的來信,希望繼續這項研究,並延長研究時間,招募更多人員,研究對象包括兒童(即正在發育的大腦)、老年人以及介於兩者之間的所有人。
目前為止,該篇文章的研究者們沒有收到任何AI企業贊助或回應,沒有任何一個企業回應「AI對人類大腦的正面發展與幫助是什麼」
這是我感到最諷刺的地方,企業家為了增加使用者的數量大肆宣傳AI的好處卻句句未提風險。尤其,在「變笨」的標籤到處亂貼的情況下,更不會有企業出來正面回應。
既然我們不能完全依賴大語言模型,那它要怎麼幫助我們?
我認為AI只能在整理既有的大型資料與摘要有幫助,而這個資料必須是「我們的創作」。
只有如此,才能在不被剝奪思考能力的情況下,由我們操控AI,否則,未來將會是由AI主導我們對所有事物的理解。
或許有些人認為偶爾外包思考能力也無傷大雅,但現階段,即使我們把問題外包給AI,我也不認為AI已發展到有能力解決。
我使用起來的真實情況是——AI提供的意見可行性不高。
在The cognitive cost of AI這篇文章中,作者認為使用AI必須付出一定的隱形成本:
我們是在從廉價且迅速生成、複雜又過量的選項中進行篩選。我們之所以不夠重視這些選項,是因為在生成這些選項的過程中,真正投入的能量與心力並不多。而真正的障礙,在於如何將新點子落實到既有的工作流程中。這需要與人實際互動並取得認同,也需要蒐集並整合推動實際行動所需的資源——而這些都是混亂卻真實的現實世界問題。
當我們拋出一個問題給大型語言模型,它能幫我們列出多個要點和選擇,雖然大量的點子讓人眼睛為之一亮,但其實都是既有資訊而缺乏創意。
此外,它產生答案的速度快、運算成本低廉,很多答案與選項其實不具備可行性,我們反而會浪費精力與時間在不值得的事物上。
使用AI看似能迅速得到最佳解,實際上只是曇花一現。
所以我認為AI有兩件事情辦不到,而且非得由人類來做:
- 想到多元又創意的觀點 → 創造力
- 取得正確的資源在真實世界的應用 → 團隊合作
以會議來說,AI可以做會議紀錄並整理要點,並自動發送郵件給與會的對象,這能幫助我們省下打雜的時間,我們也能更專注於腦力激盪、專案企劃、跨團隊合作等更有趣的工作內容上,所以,AI其實只是一種提升工作效率的工具。
如果有人問我「AI會取代什麼樣的人?」
我會說:失去好奇心與思考能力的人。
只要我們願意保持好奇心探索這個世界,即使不用AI的參與,我們也可以成為自己想要的樣子。
而有AI的參與,我們會獲得更多的時間去接觸更有趣的事物,所以,我會繼續使用大型語言模型處理雜務,但一邊也提醒著自己:
把更多美好又有趣的部分——思考,把它留給自己吧!





















