根據MIT Media FAQ,可以見到MIT果決地反駁了一個大家都想知道的問題:
Is it safe to say that LLMs are, in essence, making us "dumber"?
MIT是如此回覆:
No! Please do not use the words like “stupid”, “dumb”, “brain rot”, "harm", "damage", "brain damage", "passivity", "trimming" , "collapse" and so on.
這段敘述可以清楚知道MIT不希望眾人太快定論ChatGPT使人「變得更笨」。而目前為止,幾家新聞卻直接下了這樣的標題:
「MIT新研究:ChatGPT如何讓你變笨?」—— 天下雜誌
「ChatGPT太好用 MIT研究:過度依賴恐變笨 小心大腦變廢 太依賴AI可能損害思考能力」—— 三立新聞網
尤其,該篇研究作者Nataliya接受採訪時,感謝CNN記者並未在報導中直接使用
"brain rot"
"stupid"
"dumb"
......等字眼作採訪(採訪片段1:52時,推薦大家看CNN完整採訪)。
取而代之,CNN採用的報導標題是
—「STUDY: USING AI COULD COST YOU BRAINPOWER」—
其標題與MIT研究的論述也互相呼應:
This study focuses on finding out the cognitive cost of using an LLM in the educational context of writing an essay.
因此該研究不是指責大型語言模型會讓人變笨,而是想指出:「完全依賴ChatGPT (LLM:Large Language Model)寫文章是需要付出認知成本的(cognitive cost)。」
很快地,我心裡冒出了兩個問題:
「蛤?認知成本是什麼?」
「那,MIT又做了什麼實驗來證明?」
一、MIT實驗內容與成果簡述:依賴AI會發生什麼事?
MIT將54位受試者分成三個組別,並要求他們寫文章與回答一些問題:

54位受試者被分為LLM組、Search Engine組和Brain-only組。
1. LLM group:完全依賴大型語言模型寫文章
2. Search Engine group:可使用搜尋引擎寫文章
3. Brain-only group:不仰賴任何工具,靠自己的大腦寫文章
以及另一項特別的任務 (在這裡我要以大腦組簡稱Brain-only group):

將兩個受試者的組別互換,大腦組換到LLM組,而LLM組換到大腦組。
- 將LLM組受試者放到大腦組(並重新定義為LLM-to-Brain),並讓LLM-to-Brain組受試者完全依靠自己的大腦寫文章。
- 將Brain-only組受試者放到LLM組(並重新定義為Brain-to-LLM),並讓Brain-to-LLM組受試者使用ChatGPT寫文章。
最後MIT透過受試者的腦電圖(electroencephalography)發現兩個結果:
- 三組受試者Brain connectivity的強度:
Brain-only group > Search Engine group > LLM group - 大腦組受試者 → LLM組後,表現出較強的neural connectivity
LLM組受試者→大腦組後,則表現出較弱的neural connectivity
而我認為我們要很小心地看待"Brain connectivity" & "Neural connectivity"這兩個名詞定義,因為「大腦的弱連結」很容易讓人聯想到「笨」這個詞。
但...我們發呆的時候不代表智商會降到只有10;我們正在進行大量思考時不代表智商就立即來到了200。
這兩個名詞只能表明某人現在有沒有在用腦與如何用腦,而非用來說明某人是否變笨。並且在ArXiv平台上⟪Your Brain on ChatGPT⟫預印本通也篇未曾寫出"stupid", "dumber"...等字眼。
所以,我不認為問題該被聚焦在變苯,而是聚焦在——當AI幫我們完成所有作業,我們要付出的「代價」是什麼?
二、過度依賴AI的風險
我認為依賴LLM的代價,是一種能力萎縮:批判性思考。
同時,我們也能在⟪Your Brain on ChatGPT⟫的結論看到這樣一句話:
However, this convenience came at a cognitive cost, diminishing users' inclination to critically evaluate the LLM's output or ”opinions” (probabilistic answers based on the training datasets).
除此之外,研究作者也說這個現象類似 「echo chamber effect (迴聲室效應)」。
其意思是在新聞媒體和社群上,一小群同溫層不斷進行溝通與認同彼此,會使得原有的信念被強化與放大而忽略了反駁意見,最終形成一個封閉的生態系統。
簡單來說,很有可能AI餵給你什麼你就相信什麼,然而,如果AI總是優先丟給你「排名靠前的內容」,那這些內容背後的股東是否更容易深化你對某個事物的看法?所以我想問:
大家使用ChatGPT時,大部分會先相信它提供的答案,還是先質疑答案的真實性?
我必須承認一件事,在讀到這篇發表之前,我大部分時候是相信ChatGPT給得答案。
偶爾,我會感受到ChatGPT提供太多情緒價值,而有點疑惑:「嗯?它是不是在附和我?」但...被附和的感覺真的蠻棒的,所以我不會去認真思考它的演算法有沒有問題,也更不想去思考「其實自己也有問題」。
這麼一看,我本人似乎也陷入了「迴聲室效應」。
三、我們應該相信AI嗎?AI如何幫助我們?
「會使用AI的人會取代不用AI的人」各界商業大佬總是在新聞媒體上這樣喊話,但回到MIT的研究來看,完全依靠AI完成所有作業的人也是會使用AI的人,而你相信以這樣心態解決問題的人真的會爬到資本主義的金字塔頂端嗎?
另外,根據CNN採訪片段,Nataliya表示:「We heard so many messages from educators all around the world. Yet, we are yet to receive a one, a single one from AI company, who actually would love to continue the study to make it longer, to recruit more people look into children, so developing brains, older adults, like everyone in between.」
對,目前為止該篇文章的研究者們沒有收到任何AI企業贊助或回應,沒有任何一個企業回應「AI對人類大腦的正面發展與幫助是什麼?」。
尤其,我認為在這種「變笨」的標籤到處亂貼的情況下,誰都不希望自己的AI產品和笨扯上關係,因為這遠遠背離AI可以造福人類社會的宗旨。
好,新的問題來了,既然大型語言模型給出的答案不能照單全收,那它到底要怎麼幫助我們?
我認為AI在整理既有的大型資料與提出該資料要點有很大的幫助,而這個資料必須是「我們的產出」或是「被我們讀過與理解過的產出」。
另外,我也讀到一篇很棒的文章——The cognitive cost of AI,作者用"mind tax"來形容使用AI付出的隱形成本:
It is to sift through complex and overabundant choices that were cheaply and swiftly generated. You don't value them enough because the energy and effort that went into generating them is not evident. And the real barrier is to design and implement new pilots into the existing workflows. This requires interaction and buy-in from human beings, and gathering of resources needed for the real action, which is messy, real-world stuff.
當我們拋出一個問題給大型語言模型,它能幫我們列出多個要點和選擇,但這些都是既有的資料而缺乏創意,且它的產生速度快又成本低廉,很多答案與選項可能不具備可行性,我們反而會把腦力花費在不必要的地方。
當我們跨過本該要自行思考的環節,外包給大型語言模型,迅速得到量大且中庸的答案,除了很有可能沒省下時間與精力,甚至會降低我們批判性思考的能力。所以我認為AI有兩件事情辦不到,而且非得由人類來做:
- 想到多元又創意的觀點 → 創造力
- 取得需要的資源以實現在真實世界的應用 → 行動力
以會議來說,AI可以做會議紀錄並整理要點,並自動發送郵件給與會的對象,這能幫助我們省下很多打雜的時間,而我們也能更專注於腦力激盪、專案企劃、跨團隊合作等更有趣的工作內容上,因此,AI其實就只是一種提升工作效率的工具。
如果有人問我AI會取代什麼樣的人?我會說:失去好奇心、學習力與獨立思考能力的人。
只要我們願意保持好奇心探索這個世界,即使不用AI的參與,我們也可以成為自己想要的樣子;而有AI的參與,我們會獲得更多的時間去接觸有趣的事物,所以,我會繼續使用大型語言模型,但一邊也提醒著自己——把更多美好又有趣的部分,也就是思考,把它留給自己吧!