
嗨,我是老派。
上周六,我花一下午的時間幹了件傻事:企圖打造一個完美的數位分身。
我把過去寫的文章一股腦地餵給AI,調整用詞,修正語氣,反覆測試,直到它能完美模仿我的風格。
當我終於成功,盯著螢幕上的文字時,突然感到一陣寒意。
它太完美了。
完美到我開始害怕。
不是害怕它取代我,而是害怕自己似乎主動交出那些「讓我成為我」的東西。
乍看之下,那確實是「我」。用詞考究,帶著一點老派的固執,甚至連我喜歡引經據典的偏好都學得有模有樣。
我讀了兩遍,背脊卻莫名發涼。它太完美了。它捕捉了我的「形」,卻濾掉了我的「掙扎」。文字裡,沒有我常有的猶豫,沒有我在兩個形容詞之間抉擇時的糾結,更沒有那種因為邏輯卡住而不得不繞路時留下的笨拙痕跡。
看著那個「完美的我」,突然覺得自己像是一個被過度美顏的網紅,皮膚光滑到失去了毛孔,也失去了靈魂生存所需的皺褶。
我關掉螢幕,出門閒晃。
這種不對勁的感覺很熟悉,但我說不出來是什麼。
回到家,天色已暗。
突然,一個詞跳了出來。
沃爾夫定律。

我記不清是哪裡讀到的報導:太空人重回地球後,骨質密度會大幅下降。不是因為生病,而是因為失重。在太空中,身體判定「既然不需要對抗引力,骨質就是多餘的耗能」,於是停止合成。
醫學上稱這個為「沃爾夫定律」 (Wolff's Law) 。
骨骼的強壯程度,取決於它承受了多少負荷。
我突然懂了。
當前AI的使用環境,就是一個認知的「失重太空」。
因為懶得思考,所以我們利用AI,繞過了與難題正面對撞的機會;因為迷戀AI平滑的產出,所以我們放棄了那些可以讓大腦「長骨頭」的神經連結的機會。
這種思考密度的下降,正是「智能骨質疏鬆症」最無聲的警告。
數位分身模仿了我的文字,卻省略了我琢磨的過程。它跳過了那些讓我腦袋打結的時刻,平滑掉了邏輯衝突的稜角。它像是一層厚厚的氣墊,包裹住了現實世界所有的尖銳。但我心裡很清楚,正是那些「撞牆」的痛感,那些新舊觀念在腦海裡劇烈碰撞時產生的火花,才構成了我寫作的靈魂。
平滑世界的麻醉效應

這種「交出」,不是暴力性的,而是誘惑性的。
在AI的世界裡,一切都那麼美好、那麼高效、那麼「無阻力」。數位分身不需要卡關三小時,推翻重來只要一秒鐘,它會自成邏輯不會出現因為邏輯打結而抓狂的情況。
我只要下一個指令,看似完美的答案立馬出現。
這是可怕的麻醉劑,它讓我感覺不到痛,自然不會掙扎。
但掙扎是人性光輝生成的剎那,當我們不再掙扎,會怎麼樣?
當世界被演算法優化得如此平滑,誰還會意識到「掙扎」是人之所以為人的重要表徵?
骨質疏鬆的人最怕什麼?
不是生病,而是跌倒,甚至是一個噴嚏。
平常走路看起來跟正常人一樣,一旦踩空、打噴嚏,甚至是彎腰抱孫子,骨頭就碎了。
智能骨質疏鬆也一樣。
平常感覺良好,工作順利,思考敏捷。
但當演算法突然失效,就像打了個噴嚏,認知結構就裂了。
去年(2025)底,ChatGPT和Claude幾乎同時當機。
我看到國外網友的反應:
「對話歷史突然消失,我心臟狂跳,以為所有資料都沒了。」
「我們公司的行銷工作完全停擺。三小時,損失五千美金。」
「就像失去了團隊的第三隻手。」
這不是系統崩潰,這是集體骨折。
那天的當機只持續了三小時,但如果是三天,甚至是三周,我們還能正常工作嗎?
還是我們會像太空人回到地球,發現自己連站都站不穩?
AI是工具,還是代理人?

我突然想起歷史學家Yuval Noah Harari前幾天在達沃斯論壇提醒我們:AI不只是工具,它是代理人(agents) (2026) 。
工具聽命於人,但代理人擁有自己的意志。
問題不在於AI有多強,而在於人類是否有能力駕馭擁有思考與選擇權的工具的力量?
更可怕的是,這不僅只是你我的問題。
演講後的座談,Harari還拋出了一個令人擔憂的問題:「想像一個世界,孩子從零歲開始,與AI的互動可能多於與人類的互動。這是史上最大、最可怕的心理實驗,而我們正在進行它。」
20年後,這些孩子會怎麼樣?
他們的大腦從未經歷過「對抗思考重力」的訓練,從未體驗過「邏輯卡關」的痛苦,從未學會如何在沒有AI協助的情況下,獨立建構一個完整的論述。
他們的認知骨質,會不會像太空人的骨骼一樣,脆弱到一碰就碎?
而當這些孩子長大,他們會知道「掙扎」是什麼感覺嗎?
還是他們會理所當然地認為,生命就應該是平滑的、高效的、無痛的?
無意識的聽從AI交出的不是時間,是主權
MIT的研究發現:當人習慣性地把思考外包給AI,大腦會判定「這些神經連結是多餘的耗能」,然後開始裁撤。
這不是AI的錯,這是人的選擇。
關鍵不在於用不用AI,而在於怎麼用。
如果把它當「代筆」,大腦會退化。
如果把它當「磨刀石」,大腦會進化。
所以我不需要拋棄AI,只需要改變跟它對話的方式。
我重新打開電腦,但這次我沒有要求AI「幫我寫」。
我告訴它:「我認為『使用AI會讓人失去思考能力』。請用蘇格拉底的方式質問我,找出三個我沒想清楚的地方。」
螢幕上跳出來的不是答案,而是問題:
「你說『失去思考能力』,但你能定義什麼是『思考能力』嗎?」
「如果AI只是工具,為什麼你會說『失去』而不是『轉移』?」
「你有證據證明這種『失去』是不可逆的嗎?」
我盯著這三個問題,突然意識到:
我剛才的論點是空心的。我以為我在思考,但其實我只是在情緒化地反應。
那一刻我懂了。
如果把AI當「答案販賣機」,大腦會退化。
如果把它當「蘇格拉底產婆法練習器」,大腦會進化。
在AI製造的失重太空中,唯一的重力源,就是兩千多年前蘇格拉底告訴我們的答案:對話!

在這個演算法試圖把一切都磨得光溜溜的時代

我刪掉了那段寫得比我還流暢的文字。
打開Word視窗,重新敲下了一句句生硬、甚至帶有強烈「顆粒感」的文字。
它不完美,讀起來甚至有點咬到沙子的感覺,像是吃到一顆沒有把沙吐乾淨的蛤蜊。
敲下鍵盤時,我得到一種結實的反饋,那是我與這個世界真實碰撞的聲音。
在這個演算法試圖把一切都磨得光滑細緻的時代,我寧願保留這份粗糙。
只有在一次次真實的碰撞之中,我的靈魂才能獲得重量。
我之所以要拒絕AI的完美代言,不完全是害怕文字的書寫權被AI奪走。(當然,這也是個大問題!)
而是害怕我主動交出這一切。
一旦我習慣了無阻力的產出,應該就會開始習慣無阻力的人生。
當「掙扎」從生命中徹底消失,我還能剩下什麼?
我願意為這份粗糙付出更多的氣力。
因為完美的平滑是機器的特徵,深刻的粗糙才是人類的靈魂。
關於這篇文章的誕生
我在方格子裡的文章都標示了「含AI應用內容」,因為在寫作的過程中,我會詢問AI一些資訊,甚至跟它進行討論。
這篇文章比較特別的地方在於:我刪掉了AI幫我生成的文字,轉而要求它「跟我對話」。
不是那種「你問我答」的客服對話,而是一場持續演化的思考角力。
當我提出「智能骨質疏鬆論」時,它幫我梳理邏輯。
當它建議用「AI馴獸師」這個詞彙時,我意識到:不對,野獸是兇猛的所以要馴服,但AI是平滑的,AI馴獸師這個比喻並不成立。
於是我們繼續討論。
它提出「AI負重 vs AI輪椅」的比喻,但我覺得有點怪異。
經過思考,我主張用「AI鷹架vs AI枴杖」來代替,它稱讚道:「『鷹架』這個詞在教育學和 AI 領域都是專業術語。」
每一次對話,都在逼自己釐清問題或思考想要表達的是什麼。
但我也發現AI有一個結構性的習慣:它喜歡把世界切成兩半。

對 vs 錯。
好 vs 壞。
主人 vs 工具。
老師 vs 學生。
這不是它的惡意,而是它的訓練邏輯。
但真實世界不是用二分法就能夠釐清的,因為它是動態的、曖昧的、游移在光暗之間的。
所以真正的挑戰不在於「如何使用AI」,而在於「如何不被AI的二分法思維綁架」。
我怎麼問,它就怎麼答。
它怎麼答,又會影響我下一次怎麼問。
如果沒有自覺,我可能在不知不覺中被它訓練成「二分法思考者」。
我必須意識到:與AI對話,是一場持續的抵抗,抵抗被簡化、抵抗被分類、抵抗被定義。
當文章完成的那一刻,我已經分不清哪些是我的想法,哪些是AI的啟發。
但我確定一件事:這個過程讓我的思考更清晰,而不是更模糊。
或許這才是當代思考與書寫的樣貌:不是AI幫我寫,也不是我命令AI代替我寫,而是我跟AI在對話中將原本在腦海只是隻字片語、混沌未明的粗淺想法,逐一釐清,逐步架構而成的產物。
但如果沒有自覺呢?
我會以為自己在使用AI,但其實只是在接受AI的吹捧而喪失思考與判斷的能力。
最終只會像納西瑟斯一樣,愛上水中的倒影,最終溺死在AI投射出的完美的自己。
但這是下一個故事了。
完美的平滑是機器的特徵,深刻的粗糙才是人類的靈魂。

當掙扎從生命中徹底消失,我還能剩下什麼?
與AI對話,不是為了省力,而是為了增加難度。
讓它質問自己,而不是讓它代替自己回答。
讓它成為鏡子,而不是倒影。
(如果對這個話題感興趣,可以參考我的上一篇文章〈心中有糞,所見即糞:AI 時代的蘇東坡陷阱〉。)
更重要的是:永遠記得,AI有二分法的慣性,而人需要灰階的自覺。
或許,這才是在AI創造的失重環境中唯一的重力來源。
謝謝你走進老派書房,期待下次相會。
🛠️【附錄】認知骨質密度自我檢測表
文字看過容易忘,我把認知骨質密度自我檢測的方法整理成兩張「老派風格圖卡」。建議你收藏本文或長按儲存這張圖片。


📚老派的深度閱讀室(Deep Reading)
在這裡,我們不販賣焦慮,只提供經過查證的知識底氣。
以下是本文引用的核心概念,提供給願意思考的你。
Ø 前文考古:
︱心中有糞,所見即糞:AI 時代的蘇東坡陷阱——千年規則不變,只是禪房換成了對話框
Ø 關於太空人骨質疏鬆與沃爾夫定律:
︱芋傳媒:太空人易骨質疏鬆數月任務流失數十年骨量
︱力康運動醫學:人體沃夫定律Wolff's Law
Ø 關於Harari的AI警告:
︱WEF 2026: Yuval Noah Harari Says AI Is Not a Tool — It’s an Agent That Can Rule Humans | AI1G
Ø 關於MIT的研究發現:過度依賴 AI 會帶來認知失憶
︱翻轉教育:MIT 研究:過度依賴 AI 會帶來認知失憶
老派叮嚀:
AI是鏡子,也是失重環境。
你餵給它什麼,它就放大什麼;你怎麼跟它對話,決定了你的大腦是進化還是退化。
下次按Enter前,先問自己:我是在索取答案,還是在接受質問?
想清楚了,認知骨質才能長出來。
AI是智慧的磨刀石,而不是思考的絆腳石。
科技愈快,心要更慢。
🔍 你可能也想知道
關於AI使用與認知能力,這幾個問題值得一起思考:
Q:什麼是「智能骨質疏鬆症」?
A:指過度依賴AI導致大腦判定思考能力「多餘」而停止強化神經連結,如同太空人失重環境下骨質流失。
Q:如何避免成為AI的「認知殘障者」?
A:改變對話方式:讓AI質問你而非代答,把它當磨刀石而非輪椅,保持「思考的重力」。
Q:ChatGPT當機為何會造成工作停擺?
A:因長期外包思考導致認知結構脆弱,如骨質疏鬆者遇噴嚏就骨折,演算法失效即認知癱瘓。



