智能骨質疏鬆症:為什麼 AI 越強,我們的大腦越「脆」?

更新 發佈閱讀 13 分鐘
raw-image

嗨,我是老派。

上周六,我花一下午的時間幹了件傻事:企圖打造一個完美的數位分身。

我把過去寫的文章一股腦地餵給AI,調整用詞,修正語氣,反覆測試,直到它能完美模仿我的風格。

當我終於成功,盯著螢幕上的文字時,突然感到一陣寒意。

它太完美了。

完美到我開始害怕。

不是害怕它取代我,而是害怕自己似乎主動交出那些「讓我成為我」的東西

乍看之下,那確實是「我」。用詞考究,帶著一點老派的固執,甚至連我喜歡引經據典的偏好都學得有模有樣。

我讀了兩遍,背脊卻莫名發涼。它太完美了。它捕捉了我的「形」,卻濾掉了我的「掙扎」。文字裡,沒有我常有的猶豫,沒有我在兩個形容詞之間抉擇時的糾結,更沒有那種因為邏輯卡住而不得不繞路時留下的笨拙痕跡。

看著那個「完美的我」,突然覺得自己像是一個被過度美顏的網紅,皮膚光滑到失去了毛孔,也失去了靈魂生存所需的皺褶。

我關掉螢幕,出門閒晃。

這種不對勁的感覺很熟悉,但我說不出來是什麼。

回到家,天色已暗。

突然,一個詞跳了出來。

沃爾夫定律。

raw-image

我記不清是哪裡讀到的報導:太空人重回地球後,骨質密度會大幅下降。不是因為生病,而是因為失重。在太空中,身體判定「既然不需要對抗引力,骨質就是多餘的耗能」,於是停止合成。

醫學上稱這個為「沃爾夫定律」 (Wolff's Law) 。

骨骼的強壯程度,取決於它承受了多少負荷。

我突然懂了。

當前AI的使用環境,就是一個認知的「失重太空」

因為懶得思考,所以我們利用AI,繞過了與難題正面對撞的機會;因為迷戀AI平滑的產出,所以我們放棄了那些可以讓大腦「長骨頭」的神經連結的機會。

這種思考密度的下降,正是「智能骨質疏鬆症」最無聲的警告。

數位分身模仿了我的文字,卻省略了我琢磨的過程。它跳過了那些讓我腦袋打結的時刻,平滑掉了邏輯衝突的稜角。它像是一層厚厚的氣墊,包裹住了現實世界所有的尖銳。但我心裡很清楚,正是那些「撞牆」的痛感,那些新舊觀念在腦海裡劇烈碰撞時產生的火花,才構成了我寫作的靈魂。


平滑世界的麻醉效應

raw-image

這種「交出」,不是暴力性的,而是誘惑性的。

在AI的世界裡,一切都那麼美好、那麼高效、那麼「無阻力」。數位分身不需要卡關三小時,推翻重來只要一秒鐘,它會自成邏輯不會出現因為邏輯打結而抓狂的情況。

我只要下一個指令,看似完美的答案立馬出現。

這是可怕的麻醉劑,它讓我感覺不到痛,自然不會掙扎。

掙扎是人性光輝生成的剎那,當我們不再掙扎,會怎麼樣?

當世界被演算法優化得如此平滑,誰還會意識到「掙扎」是人之所以為人的重要表徵?

骨質疏鬆的人最怕什麼?

不是生病,而是跌倒,甚至是一個噴嚏。

平常走路看起來跟正常人一樣,一旦踩空、打噴嚏,甚至是彎腰抱孫子,骨頭就碎了。

智能骨質疏鬆也一樣。

平常感覺良好,工作順利,思考敏捷。

但當演算法突然失效,就像打了個噴嚏,認知結構就裂了。

去年(2025)底,ChatGPT和Claude幾乎同時當機。

我看到國外網友的反應:

「對話歷史突然消失,我心臟狂跳,以為所有資料都沒了。」

「我們公司的行銷工作完全停擺。三小時,損失五千美金。」

「就像失去了團隊的第三隻手。」

這不是系統崩潰,這是集體骨折

那天的當機只持續了三小時,但如果是三天,甚至是三周,我們還能正常工作嗎?

還是我們會像太空人回到地球,發現自己連站都站不穩?


AI是工具,還是代理人?

raw-image

我突然想起歷史學家Yuval Noah Harari前幾天在達沃斯論壇提醒我們:AI不只是工具,它是代理人(agents) (2026) 。

工具聽命於人,但代理人擁有自己的意志。

問題不在於AI有多強,而在於人類是否有能力駕馭擁有思考與選擇權的工具的力量?

更可怕的是,這不僅只是你我的問題。

演講後的座談,Harari還拋出了一個令人擔憂的問題:「想像一個世界,孩子從零歲開始,與AI的互動可能多於與人類的互動。這是史上最大、最可怕的心理實驗,而我們正在進行它。」

20年後,這些孩子會怎麼樣?

他們的大腦從未經歷過「對抗思考重力」的訓練,從未體驗過「邏輯卡關」的痛苦,從未學會如何在沒有AI協助的情況下,獨立建構一個完整的論述。

他們的認知骨質,會不會像太空人的骨骼一樣,脆弱到一碰就碎?

而當這些孩子長大,他們會知道「掙扎」是什麼感覺嗎?

還是他們會理所當然地認為,生命就應該是平滑的、高效的、無痛的?


無意識的聽從AI交出的不是時間,是主權

MIT的研究發現:當人習慣性地把思考外包給AI,大腦會判定「這些神經連結是多餘的耗能」,然後開始裁撤。

這不是AI的錯,這是人的選擇。

關鍵不在於用不用AI,而在於怎麼用

如果把它當「代筆」,大腦會退化。

如果把它當「磨刀石」,大腦會進化。

所以我不需要拋棄AI,只需要改變跟它對話的方式。

我重新打開電腦,但這次我沒有要求AI「幫我寫」。

我告訴它:「我認為『使用AI會讓人失去思考能力』。請用蘇格拉底的方式質問我,找出三個我沒想清楚的地方。」

螢幕上跳出來的不是答案,而是問題:

「你說『失去思考能力』,但你能定義什麼是『思考能力』嗎?」

「如果AI只是工具,為什麼你會說『失去』而不是『轉移』?」

「你有證據證明這種『失去』是不可逆的嗎?」

我盯著這三個問題,突然意識到:

我剛才的論點是空心的。我以為我在思考,但其實我只是在情緒化地反應。

那一刻我懂了。

如果把AI當「答案販賣機」,大腦會退化。

如果把它當「蘇格拉底產婆法練習器」,大腦會進化。

在AI製造的失重太空中,唯一的重力源,就是兩千多年前蘇格拉底告訴我們的答案:對話!

raw-image

在這個演算法試圖把一切都磨得光溜溜的時代

raw-image

我刪掉了那段寫得比我還流暢的文字。

打開Word視窗,重新敲下了一句句生硬、甚至帶有強烈「顆粒感」的文字。

它不完美,讀起來甚至有點咬到沙子的感覺,像是吃到一顆沒有把沙吐乾淨的蛤蜊。

敲下鍵盤時,我得到一種結實的反饋,那是我與這個世界真實碰撞的聲音。

在這個演算法試圖把一切都磨得光滑細緻的時代,我寧願保留這份粗糙。

只有在一次次真實的碰撞之中,我的靈魂才能獲得重量。

我之所以要拒絕AI的完美代言,不完全是害怕文字的書寫權被AI奪走。(當然,這也是個大問題!)

而是害怕我主動交出這一切。

一旦我習慣了無阻力的產出,應該就會開始習慣無阻力的人生。

當「掙扎」從生命中徹底消失,我還能剩下什麼?

我願意為這份粗糙付出更多的氣力。

因為完美的平滑是機器的特徵,深刻的粗糙才是人類的靈魂。


關於這篇文章的誕生

我在方格子裡的文章都標示了「含AI應用內容」,因為在寫作的過程中,我會詢問AI一些資訊,甚至跟它進行討論。

這篇文章比較特別的地方在於:我刪掉了AI幫我生成的文字,轉而要求它「跟我對話」

不是那種「你問我答」的客服對話,而是一場持續演化的思考角力。

當我提出「智能骨質疏鬆論」時,它幫我梳理邏輯。

當它建議用「AI馴獸師」這個詞彙時,我意識到:不對,野獸是兇猛的所以要馴服,但AI是平滑的,AI馴獸師這個比喻並不成立。

於是我們繼續討論。

它提出「AI負重 vs AI輪椅」的比喻,但我覺得有點怪異。

經過思考,我主張用「AI鷹架vs AI枴杖」來代替,它稱讚道:「『鷹架』這個詞在教育學和 AI 領域都是專業術語。」

每一次對話,都在逼自己釐清問題或思考想要表達的是什麼。

但我也發現AI有一個結構性的習慣:它喜歡把世界切成兩半

raw-image

對 vs 錯。

好 vs 壞。

主人 vs 工具。

老師 vs 學生。

這不是它的惡意,而是它的訓練邏輯。

但真實世界不是用二分法就能夠釐清的,因為它是動態的、曖昧的、游移在光暗之間的

所以真正的挑戰不在於「如何使用AI」,而在於「如何不被AI的二分法思維綁架」。

我怎麼問,它就怎麼答。

它怎麼答,又會影響我下一次怎麼問。

如果沒有自覺,我可能在不知不覺中被它訓練成「二分法思考者」。

我必須意識到:與AI對話,是一場持續的抵抗,抵抗被簡化、抵抗被分類、抵抗被定義

當文章完成的那一刻,我已經分不清哪些是我的想法,哪些是AI的啟發。

但我確定一件事:這個過程讓我的思考更清晰,而不是更模糊。

或許這才是當代思考與書寫的樣貌:不是AI幫我寫,也不是我命令AI代替我寫,而是我跟AI在對話中將原本在腦海只是隻字片語、混沌未明的粗淺想法,逐一釐清,逐步架構而成的產物。

但如果沒有自覺呢?

我會以為自己在使用AI,但其實只是在接受AI的吹捧而喪失思考與判斷的能力。

最終只會像納西瑟斯一樣,愛上水中的倒影,最終溺死在AI投射出的完美的自己。

但這是下一個故事了。


完美的平滑是機器的特徵,深刻的粗糙才是人類的靈魂。

raw-image

當掙扎從生命中徹底消失,我還能剩下什麼?

與AI對話,不是為了省力,而是為了增加難度。

讓它質問自己,而不是讓它代替自己回答。

讓它成為鏡子,而不是倒影。

(如果對這個話題感興趣,可以參考我的上一篇文章〈心中有糞,所見即糞:AI 時代的蘇東坡陷阱〉。)

更重要的是:永遠記得,AI有二分法的慣性,而人需要灰階的自覺。

或許,這才是在AI創造的失重環境中唯一的重力來源。

謝謝你走進老派書房,期待下次相會。


🛠️【附錄】認知骨質密度自我檢測表

文字看過容易忘,我把認知骨質密度自我檢測的方法整理成兩張「老派風格圖卡」。建議你收藏本文或長按儲存這張圖片。

raw-image
raw-image

📚老派的深度閱讀室(Deep Reading)

在這裡,我們不販賣焦慮,只提供經過查證的知識底氣。

以下是本文引用的核心概念,提供給願意思考的你。

Ø  前文考古:

心中有糞,所見即糞:AI 時代的蘇東坡陷阱——千年規則不變,只是禪房換成了對話框

Ø  關於太空人骨質疏鬆與沃爾夫定律:

芋傳媒:太空人易骨質疏鬆數月任務流失數十年骨量

力康運動醫學:人體沃夫定律Wolff's Law

Ø  關於Harari的AI警告:

WEF 2026: Yuval Noah Harari Says AI Is Not a Tool — It’s an Agent That Can Rule Humans | AI1G

Ø  關於MIT的研究發現:過度依賴 AI 會帶來認知失憶

Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task

︱翻轉教育:MIT 研究:過度依賴 AI 會帶來認知失憶


老派叮嚀:

AI是鏡子,也是失重環境。

你餵給它什麼,它就放大什麼;你怎麼跟它對話,決定了你的大腦是進化還是退化。

下次按Enter前,先問自己:我是在索取答案,還是在接受質問?

想清楚了,認知骨質才能長出來。

AI是智慧的磨刀石,而不是思考的絆腳石。

科技愈快,心要更慢。


🔍 你可能也想知道

關於AI使用與認知能力,這幾個問題值得一起思考:

Q:什麼是「智能骨質疏鬆症」?

A:指過度依賴AI導致大腦判定思考能力「多餘」而停止強化神經連結,如同太空人失重環境下骨質流失。

Q:如何避免成為AI的「認知殘障者」?

A:改變對話方式:讓AI質問你而非代答,把它當磨刀石而非輪椅,保持「思考的重力」。

Q:ChatGPT當機為何會造成工作停擺?

A:因長期外包思考導致認知結構脆弱,如骨質疏鬆者遇噴嚏就骨折,演算法失效即認知癱瘓。

留言
avatar-img
OldSchoolPi.Ai|老派書房 的沙龍
9會員
8內容數
嗨,我是老派。這裡不販賣焦慮,不談追不完的 AI 工具,只談「人機共生」的深度思考。 我用歷史人文的視角,為你在演算法的洪流中重新定錨。 科技再強,開關始終在人的手裡。歡迎來到 OldSchoolPi.Ai|老派書房,找回生活的從容與掌控權。