在 AI 的發展史上,2026 年初將被記載為「純真消失的時刻」。這場衝突不僅是技術與政治的對撞,更是一場關於 AI 治理權的生死戰。主角是曾被視為「AI 業界良心」的 Anthropic,以及採取強硬國防政策的川普政府。
一、 導火線:從「史詩之怒」到戰場上的 Claude
事情的開端並非發生在實驗室,而是在遙遠的戰場。
2026 年 1 月,美軍在逮捕委內瑞拉總統馬杜羅(Nicolás Maduro)以及後續針對伊朗的軍事行動中,深度使用了 Anthropic 的 Claude AI。據悉,軍方利用其卓越的長文本處理能力進行情報分析與目標篩選。
然而,這觸動了 Anthropic 的「安全紅線」。執行長阿莫迪(Dario Amodei)公開抗議,強調 Anthropic 的服務條款嚴禁將技術用於:
- 大規模監視(國內或海外)。
- 全自動武器系統的開發。
- 任何形式的暴力行動支援。
這種「不配合」的態度,讓五角大廈深感威脅。國防部長赫格塞斯(Pete Hegseth)認為,在國家安全面前,私人公司的「道德護欄」等同於對國家的背叛。
二、 衝突升級:被貼上「供應鏈風險」標籤
2026 年 2 月底,雙方的衝突從口頭抗議演變成政治清算。
- 總統的怒火: 川普總統在社群媒體上公開抨擊 Anthropic 是「覺醒派(Woke)的極左公司」,並下令聯邦機構全面封殺。
- 毀滅性的定性: 五角大廈隨即將 Anthropic 指定為「供應鏈風險」(Supply-Chain Risk)。這是一項通常保留給華為或卡巴斯基等「敵對外國企業」的標籤。
- 連坐處分: 赫格塞斯發出最後通牒:任何與國防部合作的合約商,若使用 Anthropic 的技術,將立即面臨合約終止。這等同於在商業上宣判了 Anthropic 的死刑。
三、 關鍵轉折:RSP 3.0 的發布與態度的微妙轉變
就在被列為風險名單的前夕(2026 年 2 月 24 日),Anthropic 發布了 「負責任擴展政策」(Responsible Scaling Policy, RSP)3.0 版本。這份文件的字裡行間,隱藏著這家公司成立以來最大的態度動搖。
1. 從「硬約束」到「軟框架」的撤退
在 RSP 的早期版本中,安全承諾是公司運作的「硬性法規」。但在 3.0 版本中,Anthropic 做出了以下微妙調整:
- 靈活性(Flexibility): 公司承認,過去的約束「可能阻礙其在快速成長的市場中的競爭力」。
- 非約束性: 原本具備自我懲罰機制的約束,轉向了一種「非具約束力且隨時調整」的框架。
- 為軍方留門: 雖然字面上仍強調安全,但外界解讀這是在為「有限度的國防合作」預留法律與倫理的後門。
2. 為什麼在這個時機發布?
這被視為阿莫迪的「求和信號」。在面對五角大廈要求撤除所有安全護欄的壓力下,Anthropic 試圖透過 RSP 3.0 告訴政府:「我們願意變得更有彈性,請不要毀掉我們。」
四、 爭議焦點:理想主義的崩塌?
儘管 Anthropic 試圖透過 RSP 3.0 尋求生存空間,但現實卻異常殘酷。
- 求和失敗: 即便發布了 3.0 版本,政府依然在三天後祭出了「供應鏈風險」的制裁。這證明了在當前的政治氣候下,華盛頓要求的不是「負責任的 AI」,而是「完全聽話的 AI」。
- 對手補位: 與此同時,OpenAI 卻選擇完全擁抱國防需求。阿莫迪在 1,600 字的內部備忘錄中憤怒指出,奧特曼(Sam Altman)是在用「80% 的安全劇本」來欺騙公眾,並透過數千萬美元的政治捐款換取特權。
- 倫理之死: 許多 AI 倫理學者感嘆,RSP 3.0 的出現,標誌著「矽谷公司能獨立制定道德準則」的時代正式終結。
五、 深度解構 RSP 3.0:字裡行間的「軍事化」妥協
Anthropic 於 2026 年 2 月 24 日發布的 負責任擴展政策(RSP)3.0,表面上是技術升級,實則是一份針對五角大廈量身定制的「合規意向書」。透過對比 RSP 2.0 與 3.0 的關鍵條文,我們可以看到 Anthropic 的防線是如何一步步後撤的。
1. 核心定義的模糊化:從「暴力」到「非法暴力」
- 舊版 (2.0): 嚴禁將 Claude 用於任何可能導致「實體傷害或暴力」的場景。這項定義極其廣泛,直接卡死了軍方的戰術模擬與目標選定需求。
- 新版 (3.0): 將限制細化為「非授權或非法的暴力行為」。
- 軍方對應點: 這是一個巨大的法律後門。只要是經由美國政府授權的軍事行動(如「史詩之怒」),便不再屬於「非法暴力」。這讓 Claude 可以合法地為美軍的空襲行動提供情報支援,而不違反公司政策。
2. 安全護欄的「動態啟動」機制
- 舊版 (2.0): 安全防護(Guardrails)是「硬性且常駐」的,模型在任何情況下都會拒絕生成具攻擊性的戰術建議。
- 新版 (3.0): 引入了「動態風險評估框架」。公司聲稱安全措施將根據「當前環境與國家安全需求」進行隨時調整。
- 軍方對應點: 五角大廈此前抱怨安全防護會導致模型在分析敵方防禦時出現「道德說教」。3.0 的動態調整機制,實質上允許 Anthropic 為軍方提供一個「特供版」模型,在進入戰時狀態時手動調低安全敏感度。
3. 擴展定義的轉向:從「自主性」到「競爭力」
- 舊版 (2.0): 若技術發展超過了安全評估的速度,公司必須「暫停擴展」(Scaling Pause)。
- 新版 (3.0): 加入了「地緣政治競爭考量」,指出若暫停擴展會導致美國在關鍵技術上落後於敵對國家,則可採取「替代性補償措施」而非全面停下。
- 軍方對應點: 這直接回應了國防部長赫格塞斯的指責。他曾批評 Anthropic 的暫停機制是「把領先地位拱手讓給中國」。RSP 3.0 變相承認了:國家競爭力高於技術絕對安全。
4. 責任歸屬的轉移
- 舊版 (2.0): Anthropic 對模型的使用後果負有最終審查責任。
- 新版 (3.0): 強調與「政府及認證機構」共同分擔安全審查職責。
- 軍方對應點: 這是在為「交出原始碼」或「允許軍方進行內部部署」鋪路。當審查權交還給政府,Anthropic 就不再需要為 Claude 在戰場上的行為承擔道德包袱。
六、 理想主義的終章,還是生存的變奏?
儘管 Anthropic 在 RSP 3.0 中做出了如此精準的讓步,試圖透過技術語言的「軟化」來平息華盛頓的怒火,但諷刺的是,這並未阻止川普政府在三天後將其列為「供應鏈風險」。
這揭示了一個殘酷的現實:在 2026 年的政治格局下,「微調過的倫理」依然是華盛頓眼中的沙子。 五角大廈要的不是一份更靈活的 RSP,而是這家公司的完全效忠。Anthropic 試圖用 3.0 版本在「AI 安全」與「國家機器」之間跳一場危險的探戈,但最終發現,舞池的規則早已被改寫。






















