
中國三家頂尖AI實驗室:DeepSeek、Moonshot AI、MiniMax,用了2.4萬個假帳號,對Claude模型發動了超過1,600萬次的提問-這是美國AI公司Anthropic於2026年2月23日提出的指控。
目的只有一個-把Claude的腦袋,打包回去訓練自己的模型。
#蒸餾應該見怪不怪嗎「蒸餾」這個詞,自AI普及以來,已經是個相當常見的技術術語,簡單說,就是將大型、複雜模型的「智慧」轉移到小型模型中的技術。
Google這樣做、OpenAI這樣做、Anthropic自己也這樣做。
但通常這是發生在公司用自家的強模型,去訓練一個成本更低、速度更快的輕量版小模型,以減輕一般消費者的負擔。
但據指控,這三家中國實驗室做的,是拿別人家的強模型當老師,為自己的模型偷偷上課,一分錢學費都不付, Anthropic把這稱之為「蒸餾攻擊」,而且是工業等級的規模。
而蒸餾需要超大量的算力和提問,才能讓目標模型吐出有用的訓練資料,這就是為什麼他們需要2.4萬個帳號、1,600萬次互動。
這是有計畫、有組織、有基礎設施的系統性行動。
#三家中國AI還有不同打法
Anthropic稱,他們是透過IP位址關聯、以及基礎設施的異常指標,才把這些流量和特定實驗室一一對應起來。
MiniMax是最狂的一個,貢獻了1,300萬次請求,主要針對Claude的代理程式編碼能力和工具協作能力,厲害的是,Anthropic在期間發布了新版Claude模型,MiniMax在24小時內就把將近一半的流量轉向新模型,即刻開始汲取新能力,這種反應速度,已經有萬花筒寫輪眼的水準。
Moonshot AI的規模達到340萬次請求,目標鎖定推理、程式碼撰寫和電腦視覺,從請求的結構和密度來看,Anthropic說那些提問根本不像正常使用者,而是精心設計過、專門用來榨取特定能力的功能性提問。
DeepSeek的數字最小,只有15萬次,但DeepSeek做了一件令人哭笑不得的事,他們用Claude去生成「對政治敏感話題的審查版替代答案」,也就是稍微參考一下,如果是由Claude去回答諸如「民主」、「黨政」、「威權主義」這類問題時,可以怎樣處理這些話題。
#被拆掉的安全座椅
這是Anthropic決定公開點名的核心理由。
Anthropic在Claude身上花了大量資源建立安全機制,不能協助製造武器、不能散布錯誤資訊、不能協助網路攻擊,這些護欄是多年訓練、人工審核和強化學習的成果,不是幾行程式碼就能複製的東西。
但蒸餾得來的模型,繼承了Claude的能力,卻不一定設下這些限制,「非法蒸餾的模型缺乏必要的安全防護,這會創造重大的國安風險。」
可以類比為一副手術儀器被拆解,只取走刀刃部分,把所有的安全扣鎖都解除,而這把刀可能會流向軍事系統、情報機構、大規模監控基礎設施,Anthropic已將調查結果提供給美國相關政府單位,並希望這份報告能促成「具體的政府行動」。
就在同一天,Google的威脅情報團隊也公布了針對Gemini模型的類似攻擊,攻擊規模超過10萬次提問,參與者包括私人企業和國家背景的行為者。
而更早之前,OpenAI也向美國國會警告,DeepSeek正在用「越來越複雜的方式」複製美國AI模型的能力。
AI競賽的核心也許是算力、是訓練資料的規模...外加一點晶片禁令的干擾,但這裡說了另一個故事-當你建造了一個足夠聰明、足夠有用的模型,那個模型本身,就成了最值得奪取的標的。





























