
看完《關鍵公敵》,真正讓人不寒而慄的不是科技本身,而是當人類願意把「裁決權」交給系統時,我們其實同時交出了什麼。
電影裡的 AI 法官幾乎無所不能。它能即時調閱所有電子資料、強制通話、直接授權搜索、遠端操控設備,甚至在某些情境下凌駕傳統司法程序。表面上看起來,這是一個效率極高、犯罪無所遁形、正義不再拖延的世界。
但真正令人不安的問題是:
當正義變得過度有效率,它還容得下人類嗎?
一、我們嚮往的不是正義,而是「痛快」
電影在觀感上其實很「爽」。
AI 迅速拼湊線索、突破僵局、逼近真相,每一次資訊解鎖與遠端操控,都帶來劇情推進的快感。觀眾很容易站在它那一邊,因為它代表的是:
- 不被官僚體系拖慢
- 不被程序正義束縛
- 不再讓壞人鑽漏洞
但這種爽感,其實揭露了一個殘酷事實:
我們很多時候想要的不是公平的制度,而是能幫「我們認為是對的那一方」贏的權力。
問題是,權力不會只服務一次。
當這套系統有一天判斷錯誤、資料偏誤、或價值觀出現偏差時,它動用的仍然是同樣龐大的權限——而那時,被碾壓的就可能是無辜的人。
二、AI最可怕的不是聰明,而是「沒有邊界」
電影裡最震撼的其實不是推理能力,而是權限範圍:
- 全面監控
- 即時強制介入
- 直接轉化為執法行動
這在現實世界對應的概念叫做:權力缺乏制衡。
在人類司法體系裡,效率慢是設計出來的,不是缺陷。
搜查要令狀、拘捕要理由、審判要程序——這些繁瑣步驟存在的目的只有一個:
讓國家機器「沒那麼容易」對一個人動手。
而電影裡的 AI,恰恰拿掉了這些「不方便」。
它代表一種極端理性思維:
「只要結果是對的,過程可以優化。」
但人類法治的核心精神其實剛好相反:
「就算你覺得他是壞人,你也不能輕易跳過程序。」
因為程序保護的從來不是壞人,而是未來可能被誤判的好人。
三、如果世界本來就有偏見,AI只會把它變成規則
電影中 AI 的判斷來自龐大資料庫,看似客觀,實際卻隱藏一個致命問題:
AI學到的是歷史,而歷史從來不公平。
現實世界裡:
- 弱勢族群更容易被定罪
- 有資源的人更容易脫罪
- 某些群體的證詞更常被懷疑
如果這些資料被拿來訓練系統,AI 不會覺得這是偏見,只會得出結論:
「統計上,這樣判最合理。」
當偏見被寫進演算法,它就從「人類可能犯的錯」變成了「系統穩定輸出的結果」。
那時候,要推翻錯誤會變得更困難,因為人們會說:
「不是人判的,是系統算的。」
四、直覺 vs 演算法:人類為什麼還不能退場?
電影後段其實暗示了一個重要對比:
AI 依賴邏輯與資料,但案件突破往往來自人類的直覺判斷。
直覺不是神秘力量,而是長期經驗累積後的大腦模式辨識。
人類的優勢在於:
- 能意識到「這次不一樣」
- 能懷疑自己的判斷
- 能因為同理心而放慢手
AI 可以很快,但它不知道何時該停。
司法最可貴的,從來不是「找出最可能的答案」,而是:
在不確定中仍願意為一個人的人生負責。
而責任,是演算法無法承擔的東西。
五、真正的恐怖不是AI失控,而是人類主動交出選擇權
《Mercy》最深層的不安,其實不是科技失控,而是人類心甘情願地說:
「讓系統決定吧,這樣比較快。」
當社會厭倦了討論、厭倦了衝突、厭倦了承擔錯誤的重量,就會開始嚮往一個「完美理性裁決者」。但那同時也代表:
- 我們不再需要辯論
- 不再需要價值判斷
- 不再需要為結果負責
那不是進步,而是把人類從正義的過程中移除。
結語
AI 可以協助司法,但不能取代司法。
因為法律不是純粹的邏輯系統,而是人類社會在無數衝突與錯誤中,慢慢磨出來的一套「彼此都還能接受的不完美平衡」。
《關鍵公敵》讓人恐懼的,不是機器太強,而是那個世界的人類,已經習慣不再質疑它。
而當一個社會不再質疑權力時——
不論那個權力屬於人,還是屬於AI——正義就已經開始變質了。























