如果講到科技執法,你想到的是什麼?是取締超速、闖紅燈、不禮讓行人的科技裝置嗎?
作為一個執法人員,我想到的是電影《關鍵報告》,裡的「預知執法」。
2002 年上映的電影《關鍵報告》,是導演史蒂芬·史匹柏與科幻小說家菲利普・金德里德・迪克合作下的作品。故事設定在 2054 年,警方透過三位有預知能力的「先知」來預測犯罪,並提前逮捕「準備犯罪的人」。
這套制度看起來很有效率,卻引發了嚴重的法律與人權問題。
這篇文章,我想帶你從四個角度看看,這部電影的「預知執法」跟現實中的警察制度到底差多少?
我們現在的科技,真的能走到那一步嗎?又應不應該走到那一步?

《關鍵報告》 (Minority Report, 2002 )
1. 法律的基本原則:電影直接打破了
在電影裡,只要先知「看到」某人會犯罪,警方就可以直接逮人。不需要證據,不管你有沒有真的做,只要預測系統說你會做,就會被抓去關。
這樣的做法,在現實中違背了法律的原則。
美國憲法和台灣刑事訴訟法,都要求警方有「合理懷疑」或看到明顯犯罪事實,才能採取強制行動。就算是預備犯,也必須有具體的行為,不能單靠想法或推測。
電影把「可能犯罪」當成「已經犯罪」,這在法治社會是絕對不可能發生的。
2. 技術層面:現實沒有那麼神

「從闖紅燈取締到預測犯罪,科技執法的邊界在哪?」
電影裡靠的是超能力的「先知」,這在現實當然不存在。
但近年來,警察單位也開始使用所謂的「預測性警務系統」。
像是美國洛杉磯警局的 PredPol,它會根據過去的犯罪數據,預測哪個地點可能再次發生竊盜或暴力案件。
但這些系統只預測「地點」,而不是「人」。
而且需要警察配合巡邏,並不會自動逮人。也因此,它最多算是輔助工具,不可能像電影那樣完全靠系統下判斷。
更大的問題是,這些系統可能會放大既有的偏見。
如果原本警方就常在某些區域執法,那這些區域的犯罪紀錄就會變多,AI學到的數據就更偏,形成惡性循環。
3. 人權問題:科技變強,監控也變強
「當街上鏡頭會記錄你的臉與行為,你還能自在走路嗎?」
《關鍵報告》的世界裡,到處都有掃描虹膜的裝置、監控機器人,政府隨時知道你在哪、在做什麼,幾乎沒有隱私可言。
現實中的監控科技雖然沒有這麼極端,但也已經讓人開始擔憂。
像是臉部辨識系統在很多國家已經被使用,但也因為準確度不高、可能誤判,甚至對特定族群不公平,而受到不少批評。
例如英國的警方就被抓包使用臉辨系統誤判率高達 80 %。舊金山甚至直接立法禁止警方使用臉部辨識,就是為了防止科技侵犯人民的自由。
4. 自由意志與科技:效率與正義的拔河

「當演算法成為法官,我們的選擇權還在嗎?」
電影中最後的轉折,是主角發現先知的預測並非絕對,他選擇不照預測行動,改變了命運。
這告訴我們,人有自由意志,未來是可以改變的。
現實世界裡,我們也面臨一樣的問題。當AI預測一個人有高風險犯罪,法院能不能只依靠這個資料就決定他是否有罪?如果AI的判斷出了錯,有誰能負責?
像是美國就曾有法院駁回一套假釋評估系統,因為它的算法不公開、不透明,無法被質疑或檢驗。這樣的科技,就算準確,也不應該成為唯一的決策工具。
結語:我們要的不是「看穿未來」,而是「守住正義底線」

「我們不該追求『看穿未來』,而是守住公平與正義的底線。」
《關鍵報告》其實不是一部純粹的科幻爽片,而是一種警告:當科技能預測未來,我們會不會為了效率,犧牲掉人性與自由?
現在的警務科技還無法預知犯罪,但數據、AI、演算法已經進入我們的生活與治安系統。
與其追求「抓在犯罪之前」,我們更需要思考:這樣的工具會不會造成不公平?是否會讓某些人被貼上標籤、無法翻身?
科技會進步,但正義是根本。如何在效率與人權之間找到平衡,才是現代司法最重要的課題。
我是A.P Penlight,歡迎追蹤✅、分享、按愛心❤️,我們下次見囉
延伸閱讀與參考資料
- 電影資料:《關鍵報告》 (Minority Report, 2002),IMDb:
- EFF (電子前線基金會): 對預測性警務的批判文章
- The Guardian (衛報):民權聯盟稱預測性警務實踐“存在缺陷”
- 中時新聞網:《關鍵報告》成真?預測性警務軟體爭議多
- YAHOO新聞:認錯 2,300 人為罪犯!英國警方人臉辨識系統擺烏龍
- 司法官學院犯罪防治研究中心:預測性警察活動在犯罪偵防運用與問題