
Credit: 那個曾經和我聊得很愉快的 ChatGPT
用 AI 查資料,叫 AI 幫寫文章、幫畫圖,然後同一套技術,現在正打算幫人決定——誰該死。
以色列對伊朗高層的精準斬首行動,背後的關鍵角色正是人工智慧 AI。AI 系統在幾秒鐘內完成了過去需要數十名參謀花費數天的目標推演。它能整合衛星影像、通訊截聽、社群媒體資料,精準推算目標的位置與脆弱窗口。扳機,或許還是由人類扣下的;但瞄準的手,已經不完全是人類的了。
當 AI 的推演速度遠超人類的理解與審查能力,那個點頭說「執行」的人,真的知道他在批准什麼嗎?這個問題,跟每一個正在使用 AI 的人都有關係。
一、Anthropic 的兩道紅線:一家公司的倫理孤勇
就在 AI 軍事應用快速擴張的同時,一個耐人尋味的故事在矽谷上演。
Anthropic——Claude 的開發公司——其執行長達理歐·阿莫戴公開表明,公司設有兩道絕對不可逾越的 AI 紅線:不協助製造大規模殺傷性武器,不賦予 AI 自主開火的決策權。
這不是公關話術,而是他們在政府壓力下依然堅守的底線。
然而這樣的堅持卻讓美國政府以「供應鏈風險」為由,對 Anthropic 展開了政治施壓,實質上試圖將這家公司排除在政府採購體系之外。
這個細節得琢磨琢磨:一家公司因為將「不可讓 AI 掌握生殺大權」寫入憲法,結果反而國家被視為「國家級威脅」。
聽起來很繞口,但……不讓 AI 有決策權,錯了嗎?
在地緣政治的競爭邏輯下,倫理底線往往被詮釋為競爭劣勢。當你的對手正在加速研發更致命的 AI 武器,「慢下來」本身就被視為一種背叛。而那些敢於說「不」的人,付出的代價可能是被市場和國家機器狠踹一腳。
更諷刺的是:白宮明面上封殺 Anthropic,但美國軍方在實戰中卻依然離不開 Claude。政府的左手和右手,在 AI 倫理這個問題上,走向了截然相反的方向。
二、被稀釋的警報:當表態取代了討論
如果說 Anthropic 的故事是一個關於「堅守」的孤勇,那麼 OpenAI 的近況,則示範了另一件事:一個本可引爆的倫理討論,是怎麼悄悄被稀釋掉的。
OpenAI 成立之初,打著非營利、造福人類的旗幟,創辦人之一的伊隆·馬斯克更高調發聲,這家公司的使命是確保 AI 的安全發展,而非追逐利潤。就在五角大廈向 Anthropic 發出最後通牒、要求取消一切使用限制的隔天晚上,OpenAI 執行長山姆·奧特曼宣布與美國國防部達成協議——而就在幾天前,他才親口說過,不會接受沒有明確禁止自主武器條款的協議。幾小時內,他翻臉了。奧特曼後來自己承認,這個協議「確實很倉促,而且看起來很難看」。
協議的具體內容,至今說不清楚。
與此同時,川普政府以「供應鏈風險」為由對 Anthropic 施壓——以一個刻意模糊的標籤,讓外界很難說清楚這究竟是國安考量、商業競爭,還是對倫理堅持的懲罰。但,打模糊仗,誰會去給答案?
不過,這波事件在網路上確實引爆了情緒。Reddit 掀起「取消 ChatGPT」運動,知名歌手凱蒂·佩芮在社群媒體貼出訂閱 Claude 的截圖,只寫了一個字:「Done」。Claude 當日註冊人數翻了四倍,伺服器一度被撐爆。
仔細看,大眾在討論的是「換哪個 app」,不是「AI 能不能決定殺人」。
情緒有了出口,問題卻留在原地。Anthropic 的孤勇,就這樣掩沒在 AI 人口遷徙的喧囂中。
三、當責任消失在演算法裡
玩過線上遊戲的人都懂那種尷尬——開了外掛,結果誤殺自家盟友。問題不在外掛不夠強,而是它太強又不在你的控制裡。
給 AI 自主開火權——或者用五角大廈的說法,「為所有合法目的」使用——是同一件事,只是盟友換成了真實的人,而那個需要為誤殺負責的玩家,理所當然地消失。
台灣的死刑制度或許能說明這件事:法務部長必須親筆簽署執行命令,才能奪走一條人命。這個設計的前提很簡單——必須有一個真實的人,願意為這個決定具名負責。
國際人道法的整個框架,建立在同樣的前提上:區分戰鬥員與平民、確保攻擊具有比例性、承擔指揮責任——這一切都預設了「有一個人要負責」。而致命性自主武器要抹去的,正是這個簽名的位置。
簽名的位置一旦消失,責任也就跟著蒸發。
這也不只是戰場上的問題。同樣的邏輯,正在滲透進每一個 AI 輔助決策的場域:銀行用演算法拒絕你的貸款,招募系統用模型篩掉你的履歷,沒有一個具體的人需要看著你的眼睛說「我拒絕了你」。
台灣就有真實案例:銀行帳戶被防詐系統自動鎖定,存戶臨櫃解釋,只是把錢從自己帳戶轉給自己當日常開銷。行員說,系統判定是車手模式——行員不是那個說不的人,主管不是,金管還說「尊重銀行措施」。
責任消散在系統裡,沒有人需要承擔。
Anthropic可以守住自己的底線,但守不住別人的。即使所有國家都知道毫無節制的軍事競賽可能走向災難,他們對 AI 使用的理性選擇仍是繼續加速——因為慢下來的人會輸。
所以只有一家AI公司的倫理自律遠遠不夠,AI使用最終需要超越國家的國際治理框架,就像核武管控需要《不擴散核武器條約》一樣——那份條約有效,是因為所有人都還記得核彈的代價。AI的代價,我們還沒嘗到。
結語:慢下來,不代表落後
面對這一切,答案卻不是拒絕 AI,而是先想清楚一件事:負責,究竟意味著什麼?
不是換一個app、按一個取消鍵就算完成。那些離開 ChatGPT 的人做的事有意義,但它的意義不在於「懲罰誰」,而在於他們在一個具體的選擇裡,清楚知道自己為什麼這樣做——那個清醒本身,才是負責的起點。
同樣的,在和 AI 協作的每一個環節,真正的問題不是「AI 建議什麼」,而是「我理解這個建議的前提嗎?我願意承擔它錯了的後果嗎?」沒有這個自問,在每一次讓AI幫你做決定的時候,只是把決策包裝得更難追溯,責任推託得更無影無蹤。
最後想說……
使用 AI 不像選擇手機品牌——你的每一次決定,都是對這個產業往哪個方向走所投下的一票。那些離開 ChatGPT 的人投了。那些第一次打開 Claude 的人投了。那些把這篇文章分享出去的人,也在投。就像這篇和 AI 協作的文章也是。
因為——邪惡不需要壞人,只需要玩家夠躺平。
慢下來,不代表落後。有時候,它代表我們還保有判斷的能力。
參考來源:
〈Claude 狂當機,竟與政治表態有關?被川普盯上,卻也引發 ChatGPT 用戶大遷徙!〉。支琬清。《經理人》。2026 年 3 月 3 日。
"Full Interview: Anthropic CEO Responds to Trump Order, Pentagon Clash." CBS News on Youtube. Feb. 28, 2026.























