
一個號稱超越 Google Gemini、甚至在部分指標上逼近 GPT-5.2 的頂級開源模型,在自我介紹時,竟然說出:「你好,我是 Claude,由 Anthropic 創建的 AI 助手。」
中國智譜 AI 發布的最新旗艦模型 GLM-5,被大量網友抓包在生成網頁程式碼或被誘導提問時,會不自覺地露出馬腳,甚至連生成的 UI 介面都完美復刻了競爭對手 Claude 的風格 。
它揭開了一個讓科技巨頭們心照不宣的秘密-模型蒸餾(Model Distillation)。#為什麼AI會精神錯亂
這並不是簡單的抄襲,而是一種在 AI 訓練中極為常見,但這次玩得比較高調的技術手段。
想像一下,你要培養一個資優生(GLM-5),但沒時間讓他從幼兒園讀起,最快的方法是什麼?
請一個已經考上哈佛的學長(Claude Opus/GPT-4),把他的筆記、考卷答案、甚至思考邏輯全部拿過來,讓這個資優生瘋狂背誦,專業術語叫做「合成數據訓練」或「知識蒸餾」,用更強的老師模型生成大量高品質的對話數據,來訓練學生模型,這樣做能大幅降低成本,讓小模型快速具備大模型的智商。
#為什麼會露餡
GLM-5 之所以會說自己是 Claude,是因為它背書背得太認真了,在訓練數據中,包含了大量 Claude 在回答問題時的自我認知語句(例如:「身為一個由 Anthropic 開發的 AI...」),正常的流程中,開發者應該用演算法將這些「老師」的名字替換掉或清洗乾淨,這就像是一個學生抄作業,連別人的名字都抄到了考卷上 。
#開源界的公開秘密
老實說,這在業界並非個案,不管是之前的 DeepSeek 被質疑蒸餾 OpenAI,還是這次 GLM-5 撞臉 Claude,都反映了一個現實-優質的人類數據已經不夠用了,為了讓模型更聰明,科技公司被迫使用其他 AI 生成的數據來餵養自己的 AI,這就像是人類歷史上第一次,我們開始大規模地用機器生產的知識來教育下一代機器。
#對未來的影響
如果 AI 們都開始互相吞食對方的產出,長期下來可能會導致模型崩潰,就像影印機印出來的東西再拿去影印,複印一百次後,字跡就會模糊不清,如果未來的 AI 都是吃 Claude 或 GPT 的口水長大的,它們的創造力天花板就會被鎖死在這些前輩之下,變得越來越同質化,失去多元的觀點 。
換個角度想,這對一般用戶或許是好消息?GLM-5 是一個權重開源的模型,這意味著你可以免費下載、在自己的電腦上運行一個接近 Claude 智商的 AI,不用付每個月 20 美元的訂閱費,就能享受到類似等級的推理能力,這某種程度上也算實現了算力平權。











