本文使用Gemini、Claude、Grok做輔助交叉查詢資料、內文為根據 X平台/GOOGLE蒐集的各方新聞/三企業AI由關鍵字查詢整合 資料收集後重新編寫與整理。
2/24五角大廈的施壓:
於2025年七月份時美國五角大廈同時對國內四大模型企業Anthropic、OpenAI、Google、X AI皆簽署了一份價值2億美元左右的合約以便將AI系統整合運用至軍事計劃中;其中比較特殊的是在於合約內條款部分僅Anthropic額外寫入了兩行限制條文 1.Claude不得用於大規模監控美國公民 2.也不允許被使用在沒有人類介入監督的自主武器系統 ,至此開始了五角大廈與Anthropic半年多來的拉鋸談判。
直至2026年2月的談判並無任何進展,而除了Claude被深入整合至軍事的機密事務應用外、其他企業的模型都僅在處理非機密的各種外部文件上;因此於2/24被實際條文所限制的五角大廈由國防部長Pete Hegseth發出最後通牒、要求Claude需「開放被用於所有合法目的」,否則將動用國防安全法將Anthropic列為供應鍊風險、而給予Anthropic的最後期限為當地時間2月27日的下午五點。
值得思考的地方:半年前就還在談判的條款、半年間在Anthropic並未同意的情況下已經深度整合,直到半年後發現限制仍無法跨越才改以打壓命令方式強制企業配合,就我私人的懷疑是那麼這半年間怎麼想的?是早就打算好談不攏就強來、還是中間有不間斷的嚐試繞過護欄卻失敗呢?
2/26 Amodei的Anthropic原則聲明:
Dario Amodei並未等到2月27日的下午五點、而是在還有24小時左右的時間便在X平台上以Anthropic的帳號表達了公司立場「Statement from Dario Amodei on our discussions with the Department of War.( Dario Amodei就我們與戰爭部進行的討論發表聲明)
」(相關內容因為正式聲明文件文件轉錄有失真可能、請自行至X平台@Anthropic參閱原聲明),而五角大廈首席技術官Emil Michael在半夜破防連發了六篇貼文痛罵Dario「1.是個騙子而且有上帝情結 2.指控Dario試圖控制美國官方並且不介意國家安全 3.戰爭部遵守法律但不會屈服一家營利科技的突發奇想 4.聲稱Anthropic的要求將使國防部員工連搜尋、和招募軍人都辦不到 5.指控當他找Dario洽談更改合約時、是Dario不接電話不是國防部不聯繫Anthropic 6.要求Dario自己發誓是在說謊、以及只是在
博取關注
Anthropic收到這六篇貼文的消息後於一天後再度發表一篇聲明表達立場「A statement on the comments from Secretary of War Pete Hegseth.(關於戰爭部長Pete Hegseth的聲明)」(相關內容因為正式聲明文件轉錄有失真可能、請自行至X平台@Anthropic參閱原聲明)
值得思考的地方:既然美國政府也稱呼Anthropic是營利企業了……那麼那份半年前就定下具有法定約束的合約,如果因為乙方(企業) 確實無法滿足甲方(政府)要求修改而讓步、或者是甲方單方面不滿意對方的服務不盡心,那麼正常的商業流程應該是等時間到就不續約、或是頂替掉供應商,而不是威脅+恐嚇+毀謗還動用權力強勢壓迫企業服從;如果美國軍方對自己國內的企業都實行強權壓制,那麼國外企業進入美國市場萬一被軍方看上……會遭受什麼待遇是件非常禁受不起詳細思考的事情。
2/27美國總統川普宣布聯邦機構全面停用Claude相關:
美國總統Trump因為Anthropic拒絕完全開放、因而在2/27下令所有美國政府單位應該「立即」停用所有Anthropic的所有技術,並在自己的真實社群發表過言論表示「We don’t need it, we don’t want it, and will not do business with them again!(我們不需要它、我們不想要它,以後也不會再與他們做生意!)」;並且在同一天內稍後時美國戰爭部長Hegseth也宣佈將Anthropic正式列為供應鍊風險。
供應鍊風險歷來幾乎只用於美國的外國敵對勢力上,而被列入供應鍊風險相當於禁止所有只要與美國軍方有合作關係的企業、皆不允許再和Anthropic有任何的商業合作及活動;對此情況也有多位法律專家質疑了程序的合法性,依照美國法律規定的正常流程需要先完成風險評估並通知到國會、然而不論是風險評估還是通知國會方面,五角大廈似乎都「不小心遺忘」而單方面宣布了。
對此Anthropic主張國防部不能干涉除非國防企約中的任務商業往來、簡單來說明就是Claude只不能配合用於軍事活動,但除軍事活動外的民間企業與一般用戶不應該受到此限制、並明確說明若是接到正式公文被侷限商業活動將會上法庭據理力爭。
值得思考的地方:沒有,我想吐嘲「We don’t need it, we don’t want it, and will not do business with them again!(我們不需要它、我們不想要它,以後也不會再與他們做生意!)」這一句、那還把Anthropic列供應鍊風險的原因是?這不就是由愛生恨的變奏翻臉版本嗎?
2/26 OpenAI從連署壓力的支持跨越到2/28對Anthropic背刺:
2/26由總數超過450人的Google員工以及OpenAI員工共同連署請願(據傳其中超過50%為實名簽署)發表了一封「We Will Not Be Divided(我們不會被分化)的公開信,其內容為呼籲兩家企業放下各自的商業競爭對立並支持Anthropic的紅線、共同拒絕將模型用於美國境內大規模監視以及不能在沒有人類監督的情況下擁有自主殺傷力。
2/26晚上由於連署壓力、Sam Altman主動對員工發出了內部備忘錄(主要內容來自 Axios、CNBC、WSJ、Times of India 等媒體取得的版本,內容高度一致),Altman 在備忘錄中寫道(以下是綜合報導的直接引用與翻譯):
- 開頭立場:"Regardless of how we got here, this is no longer just an issue between Anthropic and the [Pentagon]; this is an issue for the whole industry and it is important to clarify our stance."
(不管怎麼走到這一步,這不再只是 Anthropic 與五角大廈的問題,而是整個產業的問題,我們有必要澄清立場。)
- 紅線重申:"We have long believed that AI should not be used for mass surveillance or autonomous lethal weapons, and that humans should remain in the loop for high-stakes automated decisions. These are our main red lines."
(我們長期相信 AI 不應用於大規模監控或自主致命武器,高風險自動決策需有人類介入。這是我們的主要紅線。)
- 談判方向:"We are going to see if there is a deal with the [Pentagon] that allows our models to be deployed in classified environments and that fits with our principles. We would ask for the contract to cover any use except those which are unlawful or unsuited to cloud deployments, such as domestic surveillance and autonomous offensive weapons."
(我們正在探討能否與五角大廈達成協議,讓模型在機密環境部署並符合我們的原則。我們會要求合約排除非法或不適合雲端部署的用途,例如國內監控與自主攻擊武器。)
- 緩和意圖:"We would like to try to help de-escalate things."
(我們想試著幫助緩和局勢。)
- 治理觀點:"We believe this dispute isn’t about how AI will be used, but about control. We believe that a private US company cannot be more powerful than the democratically-elected US government, although companies can have lots of input and influence. Democracy is messy, but we are committed to it."
(我們認為爭議不在 AI 如何使用,而在控制權。私營美國公司不能比民選政府更有權力,雖然公司可以有影響力。民主很亂,但我們支持它。)
- 技術保障:提到會用雲端限制(cloud-only)、部署清查人員(cleared personnel)、技術防護(technical safeguards)等來確保紅線。
2/27上午的CNBC全國電視專訪Sam Altman表態
「For all the differences I have with Anthropic, I mostly trust them as a company, and I think they really do care about safety...(儘管我跟 Anthropic 有諸多分歧,但我基本上信任他們這家公司,我認為他們真的在乎安全……)」
「I don't personally think the Pentagon should be threatening DPA [Defense Production Act] against these companies.(我個人認為五角大廈不應該用《國防生產法》來威脅這些公司。)」
然後Sam Altman晚上就和五角大廈轉頭協商,並於深夜在X上發布簽約聲明
「The DoW agrees with these principles, reflects them in law and policy, and we put them into our agreement.(國防部同意這些原則(指禁止大規模監控與自主武器),將其反映在法律與政策中,而我們也將其寫入了我們的協議裡。)」
「We are asking the DoW to offer these same terms to all AI companies, which in our opinion we think everyone should be willing to accept.(我們正要求國防部將這些相同的條款提供給所有 AI 公司,我們認為每個人都應該願意接受。)」
在2/28外界質疑OpenAI能簽約但是Anthropic被封殺時,Sam Altman直接翻臉背刺了Anthropic
「Anthropic seemed more focused on specific prohibitions in the contract, rather than citing applicable laws, which we felt comfortable with.(Anthropic 似乎更專注於合約中的特定禁止條款,而不是引用適用的法律,而我們對(引用適用法律)感到很自在。)」
「Anthropic may have wanted more operational control than we did.(Anthropic 可能想要比我們更多的營運控制權。)」
「I think the current path things are on is dangerous for Anthropic, healthy competition and the U.S.(我認為事情目前的發展軌跡對 Anthropic、健康的競爭以及美國來說都是危險的。)」
從2/27晚上開始協商簽約後Sam Altman的發言可以看出隱含了部分尖銳諷刺及指責,其逐句對應大約為「每個人都應該願意接受(我們可以、Anthropic憑什麼不行)、我們對引用適用法律感到很自在(憑什麼在意原則、軍方說了算)、Anthropic 可能想要比我們更多的營運控制權(企約條文在半年前就有、刻意配合軍方抹黑)、目前的發展軌跡對 Anthropic健康的競爭以及美國來說都是危險的(隱性配合軍方暗示將Anthropic列入供應鍊風險是合理的)」,當然這一段為我個人的評論與看法、完全不能說是客觀看法,但也可以思考看看。
然後此處收錄網路上能扒到資料的、簽約條件裡的四項條款
1.系統在任何法律、規範或國防部政策要求人類控制的情況下,不得獨立指揮自主武器。
2.僅限雲端部置限制模型不會下載至其他設備、以避免離線濫用或致命自主武器,OpenAI的模型及配置人員可因為安全護欄拒絕訓練或重新評估。
3.DoW可以將AI「用於所有合法用途」需符合適用法律、作戰需求及既有安全與監督協議。
4. OpenAI要求DoW對所有AI企業提供同樣的契約條款,以避免不公平競爭。
值得思考的地方:市面主要爭議點在於「可以將AI用於所有合法用途」這一條款、也就是說只要將用途模糊解釋為軍事或安全需要,便可以輕易越過個人隱私去做大規模監控以及數據收集;而我個人的懷疑在於「模型以因為安全護欄拒絕訓練或評估」這一點、主要是這一點可以說是自由心證了,因為若是模型本身接受到了軍部命令可以放寬標準、並且預訓練又以儘量幫助使用者為目的受訓,那麼當模型接收到了跨越邊界的命令還有多少拒絕可能呢、這點實在令人非常的存疑啊!
2/28美國中央司令部使用Claude輔助攻擊伊朗:
根據Grok整理的推文總資訊來看美國與以色列聯合攻擊伊朗於2/28早上進行,其攻擊代號為Operation Epic Fury(史詩行動)主導者為US Central Command(美國中央司令部);其中由Claude分擔的任務(以下任務細節來自於社群媒體、未經官方證實)包含了情報分析(intelligence assessments)、目標識別(target identification)、戰場模擬(battlefield simulations / war-gaming),以及幫助縮短「殺傷鏈」(kill chain)決策時間。
有趣的是由 US Central- 報導指出,攻擊發生在 Trump 下令禁用的「幾小時後」甚至「不到一天內」。
值得思考的地方:有趣的地方正是既使Claude模型本身已經盡力的輔助了各種決策方面的計算,但因為Anthropic擔心模型識別能力不足誤傷而拒絕讓Claude參與進能直接擁有殺傷力的開發、也拒絕直接跨界進侵犯隱私的敏感地帶,那麼這種不記功勞反而直接仇視不服從的行為……好吧也許美國軍方有自己的考量,但我沒辦法認同
2/28大西洋週刊和紐約時報的雙雙揭密:
於2/28至3/1間,大西洋週刊與紐約時報皆開始揭露五角大廈雖一開始承諾不會將Anthropic的AI用於大規模國內監控或全自動殺人武器、但隨後又表明「需視情況而定」;當Anthropic談判後五角大廈表明可以讓步刪除,但改條件為需要AI配合分析從美國民眾那裡收集的海量資料,其可能包括但不止包括的資料為 地理位置、瀏覽記錄、社群貼文、數據經紀商資料 等;由於此種行為已越界至侵犯隱私、並且對於模型在技術上還未成熟至有完整判斷能力,雙重顧慮才使得Dario Amodei悍然拒絕違反公司「以人為本」的要求。
值得思考的地方:也許有些人會覺得記錄被看無關緊要,但這些交叉可查驗的不只是個人的當下記錄而是未來軌跡、尤其是配合監控鎖定偵察會比中國的天眼還恐怖;舉例來說當對話中提到對某度假聖地感興趣、再搭配若有高頻的搜尋記錄可確定有高可能性會在近期有出遊計畫,並可以再加上交易明細等整合得知某段時期的生活規畫與大致財務情況。
3/1 Axios報導明確指出 OpenAI 的協議沒有禁止收集美國人的公開資訊:
Axios的AI科技政策記者Maria Curi於3/1發表了一篇文章《OpenAI-Pentagon deal faces same safety concerns that plagued Anthropic talks》,其中有一段對合約條款的解析「OpenAI's new deal with the Pentagon does not explicitly prohibit the collection of Americans' publicly available information — a sticking point that rival Anthropic says is crucial for ensuring domestic mass surveillance doesn't take place.(OpenAI與五角大廈達成的協議並未明確禁止收集美國民眾的公開數據— 競爭對手Anthropic曾經表示過這是一個關鍵,這對於確保國內不會發生大規模監控非常重要。)」
值得思考的地方:這段摘錄其大意就跟我上一段值得思考的地方差不多,想像一下你上週在公司附近買午餐順便發的動態、5天前去的餐館留念、3天前在街角與可愛的動物合照,這些做為公開資訊被蒐集起來然後搭配以模型分析+衛星實景圖……你的生活範圍、工作、平常在哪聚餐、去哪消費、月消費額多少都在鏡頭統計下透明的跟玻璃一樣,我說哇喔……
3/1對OpenAI失望的用戶群體退訂與搬家工具(Import Memory):
美國大量的用戶因為對OpenAI與五角大廈簽下的合約有太多模糊空間感到失望、紛紛表明要支持Anthropic並退訂ChatGPT,對此Claude的官方頁面上釋出了支援按鍵;其主要功能簡單來說就是產生提示詞、方便用戶將卡在ChatGPT裡的「個人偏好、專案細節、工作流程」總結為一個結構化的封包,當用戶拿著封包複製貼上進Claude就可以輕鬆遷徙,同時間(OpenAI傳出簽約後)Claude被推上美國下載排行榜第一的位置、OpenAI的用戶數則在能觀察範圍內至少下降了數十萬名。
值得思考的地方:OpenAI原本的倚仗是因為用戶的習慣與工作都綁在自己家的ChatGPT裡、在企業層面的考量是用戶再不滿但因為換AI成本高,所以怎麼生氣流失的數量也不會太多;其實很多企業都倚仗著這種「護城河」、嚴重時甚至忽略用戶聲音擺出無視的態度,這種情況剛好反應了只要找到方法抽身、被激怒的用戶跑得比被追趕的兔子還快🤔
3/2~3/3 Claude大當機:
那麼現在這篇發出的時間沒問題的話應該是在台灣時間2026.3.3 約23:00左右,從3/2~3/3目前的情況為因為用戶湧入情況太多、3/2及3/3都發生了大當機的情況;尤其是3/2當天甚至出錯到網頁版本一度消失不見(Google搜尋不到),而市面上出現質疑基礎設施不穩的聲量。
值得思考的地方:Anthropic原本並不是大企業、突然湧入大量用戶造成執行錯誤其實是正常現象,我個人並不會說什麼而是默默的等待;但我也認真希望Anthropic設施能夠稍微穩定擴大、並且繼續維持這麼剛硬個性的企業初心🤔














