當《關鍵報告》成真? IBM 終止人臉辨識計畫的真相

更新 發佈閱讀 30 分鐘

你還記得電影《關鍵報告》(Minority Report)裡的場景嗎?系統在人還沒犯罪前就預測並逮捕他。這聽起來很科幻,但在 AI 執法的世界裡,這可能已經是現在進行式。

IBM 在 2020 年 6 月投下了一顆震撼彈,宣布主動終止研發、銷售所有通用人臉辨識技術 。之所以會對這則新聞特別感興趣,是因為我以前的公司正是做影像辨識的,對於 AI 模型的「訓練過程」有著不少的體會。

為什麼 AI 會歧視? 很多人以為電腦是客觀的,但身為業內人士,我可以告訴你:AI 的偏見往往來自於數據。想像一下,如果警方提供給 IBM 的訓練資料中:

  • 犯罪者資料庫:90% 是黑人,10% 是白人。
raw-image
  • 一般民眾(好人)資料庫:90% 是白人,10% 是黑人。
raw-image

在這種極度不平衡的數據餵養下,AI 會學到什麼?它會得出一個簡單粗暴的推論:「黑人有很高的機率是壞人」。

這不只是技術問題,更是人權危機 如果警察依據這種帶有偏見的推論去執法,這就不僅僅是技術瑕疵,而是赤裸裸的種族歧視。更可怕的是,這演變成一種「外貌歧視」。

--長得像壞人就應該有犯罪嫌疑嗎?--

  • 如同電影《關鍵報告》的情境,僅憑 AI 預測的「犯罪意圖」或「犯罪機率」而採取預測性執法 (Predictive Policing),缺乏實際犯罪行為作為依據,違反了法律的基本原則。
  • 外貌歧視:以長相作為判斷犯罪可能性的依據,構成對特定群體的系統性歧視。

--這不但是種族外貌的歧視,同時也是對於法律原則的挑戰--

這也是我對這個專案有興趣的原因,我想知道最後發展的結果是什麼。所以先搜尋一下此專案的後續狀況,再接著進行深入研究。

利用Perplexity查詢專案詳細情況,再放入提問的前提。

>_

提問:

<研究前提>

IBM 與美國警方合作,開發使用人臉辨識技術來協助犯罪者預測的計劃,但因該技術存在嚴重的種族偏見與歧視問題,最終 IBM 在2020年6月由新任CEO Arvind Krishna宣布,主動終止研發、銷售和推廣所有通用人臉辨識技術。IBM 表示這項技術容易被用於大規模監控和種族剖析,違反基本人權自由,與公司價值觀嚴重背離,因此決定退出此領域。IBM 也倡議全國性對於警察使用人臉辨識的公開討論與法律規範,同時呼籲警方改革和算法偏差審核。此外,IBM 目前只保留非人臉辨識的視覺物件檢測技術應用,在製造及農業等領域使用。 目前未有公開資訊顯示此計劃有恢復或繼續進行,IBM 已明確表示永久停止相關技術開發和應用.[1][2][3][4][5]

然而,2023年有報導指出IBM在英國簽訂一份約6,980萬美元的合約,為政府提供包含人臉辨識功能的生物識別平台,供移民及執法機關使用。IBM發言人表示這和2020年的承諾不衝突,顯示IBM在某些市場仍有相關業務,但明顯和早前退出美國警察人臉辨識市場的立場不同.[6][7]

綜合來看,IBM已於2020年主動停止其在美國警方的人臉辨識技術應用專案,強調因AI偏差及種族歧視問題而完全終止該計劃,但在其他市場如英國仍有部分業務持續運作。

[1](https://www.npr.org/2020/06/09/873298837/ibm-abandons-facial-recognition-products-condemns-racially-biased-surveillance)

[2](https://www.bbc.com/news/technology-52978191)

[3](https://www.business-humanrights.org/en/latest-news/ibm-will-no-longer-develop-facial-recognition-technology-ceo-calls-for-dialogue-about-whether-it-should-be-used-by-us-police/)

[4](https://www.cnn.com/2020/06/09/tech/ibm-facial-recognition-blm)

[5](https://techcrunch.com/2020/06/08/ibm-ends-all-facial-recognition-work-as-ceo-calls-out-bias-and-inequality/)

[6](https://www.business-humanrights.org/en/latest-news/ibm-returns-to-facial-recognition-market-while-human-rights-advocates-claim-incompatibility-with-prior-companys-commitments-based-on-human-rights/)

[7](https://www.theverge.com/2023/8/31/23852955/ibm-uk-government-contract-biometric-facial-recognition)

[8](https://www.reuters.com/article/technology/ibm-exits-facial-recognition-business-calls-for-police-reform-idUSKBN23G01L/)

[9](https://learningenglish.voanews.com/a/ibm-ends-facial-recognition-questions-police-use-of-the-technology/5457309.html)

[10](https://www.eweek.com/news/new-orleans-police-facial-recognition/)

[11](https://aragonresearch.com/ibms-facial-recognition-ethics/)

[12](https://www.businessinsider.com/amazon-microsoft-ibm-halt-selling-facial-recognition-to-police-2020-6)

[13](https://www.tutorabc.com/blog/zh-tw/post/45038)

[14](https://www.eff.org/deeplinks/2020/06/ibm-amazon-end-and-pause-fr-programs-where-microsoft)

[15](https://www.wired.com/story/ibm-withdrawal-wont-mean-end-facial-recognition/)

[16](https://www.interpol.int/content/download/22525/file/WEF_Facial_Recognition_for_Law_Enforcement_Investigations_2022.pdf)

[17](https://www.cnbc.com/2021/06/12/a-year-later-tech-companies-calls-to-regulate-facial-recognition-met-with-little-progress.html)

[18](https://www.linkedin.com/pulse/should-ibm-walk-away-from-facial-recognition-ethical-thing-bradley)

[19](https://www.ibm.com/think/topics/ai-in-government)

[20](https://www.ibm.com/think/topics/algorithmic-bias)

</研究前提>

研究IBM終止此計畫的真實原因? 與美國國情(種族歧視, 資料偏倚), 模型限制的關係? IBM又在英國重開此計畫的內容是否有所不同?

ChatGPT>_

為了幫您深入研究 IBM 終止與重啟人臉辨識技術的真實原因與背景,請問您希望聚焦在以下哪些面向?

  1. 對於 IBM 在 2020 年退出美國警察用人臉辨識技術的原因,是否想了解更多來自內部文件、員工爆料或政策辯論的細節?
  2. 您希望我比較的是 IBM 美國與英國專案的技術差異、政策目的、使用情境,還是合約規範?
  3. 除了 IBM,是否希望補充其他企業(如 Amazon、Microsoft)當時的作法以建立對比?
  4. 對於模型限制,您希望著重在技術可解決性(如 bias reduction methods)或商業/倫理不可解性的討論?

請選擇您最關注的方向,也可補充您希望獲得的資料型態(如新聞、報告、學術評論、公司內部聲明等)。

提問補充:

1. 對於 IBM 在 2020 年退出美國警察用人臉辨識技術的原因,是否想了解更多來自內部文件、員工爆料或政策辯論的細節?>_是的

2. 您希望我比較的是 IBM 美國與英國專案的技術差異、政策目的、使用情境,還是合約規範?>_政策目的、使用情境

3. 除了 IBM,是否希望補充其他企業(如 Amazon、Microsoft)當時的作法以建立對比?>_若有, 也補充

4. 對於模型限制,您希望著重在技術可解決性(如 bias reduction methods)或商業/倫理不可解性的討論?>_兩者皆是

了解,我將深入研究以下面向:

  1. IBM 在 2020 年退出美國警察用人臉辨識技術的真實原因,包括內部文件、員工觀點與政策辯論等細節。
  2. IBM 在英國重啟人臉辨識相關業務的政策目的與使用情境,並與美國退出時的立場做對比。
  3. 同期其他科技企業(如 Amazon、Microsoft)針對人臉辨識與警察合作的立場與行動,以建立對比背景。
  4. 模型技術限制方面,將涵蓋偏差技術是否能解決(如 bias mitigation 方法),以及人臉辨識在倫理與商業上可能無法解決的結構性問題。

我會整理為具結構性的報告,包含清楚的來源與重點對照,稍後回來向您報告結果。

IBM退出警用人臉辨識計畫的原因與英國專案比較

2020年,美國各地示威者抗議警方濫用人臉辨識等監控技術,加州等地甚至立法限制警用人臉辨識。圖為英國民眾抗議警方使用人臉辨識的活動。Matthew Horwood/Getty Images

IBM 2020 年退出人臉辨識:背景與官方理由

2020 年 6 月,在美國爆發大規模反對警察種族暴力的抗議浪潮背景下,IBM 新任執行長 Arvind Krishna 宣布公司將全面退出人臉辨識技術業務。Krishna 致信美國國會表示,IBM 將不再提供或研發「通用」的人臉辨識或分析軟體,並嚴詞反對任何人臉辨識技術被用於大規模監視、種族定性(種族側寫)或侵犯基本人權自由的用途reuters.comreuters.com。這封公開信明確指出:「科技可提升透明度並協助警察保護社區,但絕不能助長歧視或種族不公reuters.com。IBM 強調此決定與公司長期價值觀一致,不願技術被濫用而違背人權。當時 Krishna 亦呼籲就警方使用人臉辨識展開全國對話,並支持對警隊進行改革以提高問責。

IBM 此舉在道德層面上被視為順應輿論與社會正義的要求。一方面,美國社會對警用人臉辨識的種族偏見問題日益關注:多項研究與案例顯示,人臉辨識系統對非白人特別是非裔人士的誤判率明顯較高businessinsider.comwired.com。在 George Floyd 之死引發的抗議浪潮中,人臉辨識被質疑可能加劇對有色人種社群的監控與不公對待reuters.comwired.com。IBM 選擇此時退出,被解讀為一種表態,表明公司不願參與可能助長種族歧視的技術應用。此外,IBM 也希望透過此舉促進政府制定相關規範,當時 Krishna 就直言應開始討論是否以及如何讓執法部門使用人臉辨識reuters.com

除了公開宣稱的人權與倫理考量,IBM 終止人臉辨識業務也有現實層面的商業因素。據報導,IBM 的人臉辨識產品當時「並未帶來可觀營收」,公司內部其實已經醞釀退出該領域多時reuters.com。新任執行長上任後不久做出終止決定,時機上雖與社會事件契合,但有知情人士透露這項策略調整經過數個月醞釀reuters.com。觀察者指出,IBM 的選擇是「道德立場與務實考量並行」:在人臉辨識尚未成為核心營收、卻可能帶來法律風險和公眾抵制的情況下,提早抽身可避免日後因技術誤用遭致訴訟或抵制bernoff.com。簡言之,IBM 借由道德理由體面退出了這項具爭議性的業務領域,一方面維護公司形象,另一方面也避開了潛在的商業風險。

值得一提的是,IBM 宣布退出後表示將永久停止相關產品的研發、銷售和更新,對既有客戶只提供必要技術支援reuters.com。IBM 明確表示未來僅會在電腦視覺領域保留「非人臉辨識」的應用,例如工業製造或農業上的物體偵測,而不再涉足人臉辨識與識別reuters.com。這進一步凸顯 IBM 對於人臉辨識技術在執法領域風險的警覺,以及與公司核心價值不符的堅決態度。

美國國情:種族偏見與模型技術限制

IBM 的決定離不開美國當時的國情背景——特別是種族歧視問題與人工智慧偏見在技術應用中的反映。人臉辨識算法的種族偏見早有研究揭露:麻省理工與微軟研究人員 2018 年的實驗發現,包括 IBM 在內的商用人臉辨識系統對膚色較深女性的識別錯誤率極高,相較於對白人男性的高準確度,對黑人女性的誤判率竟高出數十個百分點wired.com。其根源在於模型訓練資料的不平衡——許多人臉數據庫主要由白人男性構成,導致模型將偏見內嵌其中businessinsider.com。因此,即便演算法本身並無主觀歧視,數據偏倚使得有色人種更易被錯辨識businessinsider.com。在執法情境下,這種誤差可能導致無辜者被錯抓,例如美國已出現多起非裔男子遭人臉辨識誤判而被錯誤逮捕的案例theverge.com。這不僅是技術精度問題,更因美國執法機構歷史上的種族偏見而被放大:警方本就較常在少數族裔社區部署嚴格監控,一旦技術對這些族群更不準確,將進一步加深種族不公正執法的風險businessinsider.com

同時,模型本身的局限也讓人臉辨識在警方應用中備受質疑。即使拋開種族差異,現有人臉辨識並非萬無一失,在真實環境中受光線、姿態、年齡變化等因素影響,誤判難以完全避免。業界雖提出許多改進方法(例如增加訓練數據多樣性、校正演算法偏差等),確實能在技術上降低某些偏差。但專家指出,再精準的模型也可能被不當使用。Google 知名 AI 研究員 Timnit Gebru 就曾強調:「即使人臉辨識達到完美,它仍可能被用來做壞事」wired.com。事實上,人臉辨識的強大威力本身即引發民主社會對隱私與公民自由的擔憂——例如用於大規模監控實時追蹤抗議者等用途wired.com。這些用途無關模型精度高低,而是涉及對基本權利的侵蝕。因此許多民權團體主張,在公共安全領域應禁止或嚴格限制人臉辨識,因為其風險並非透過技術優化就能消除wired.com

以美國為例,近年多個城市已對警方使用人臉辨識祭出禁令或暫停措施(如舊金山、波士頓等)wired.com。支持者認為,沒有明確法律授權及監督下,讓執法部門任意使用這種可能帶來侵害的技術是極其危險的。IBM 在 2020 年的立場正呼應了這些觀點:與其等待問題發生,不如先行停止供應,倒逼社會和立法者正視算法歧視警察監督的議題reuters.comreuters.com。IBM 也在信中倡議立法,如建立警方不當行為的聯邦資料庫、檢討「有資格豁免權」(qualified immunity)等,試圖從制度上減少警務偏差bernoff.combernoff.com。總的來說,美國長期的種族歧視問題與人臉辨識技術的偏見缺陷交織,構成 IBM 當初決策的重要背景:在這樣的國情下,繼續將有缺陷的技術交到執法人員手中,風險難以接受

科技業界的同步回應與對比

值得注意的是,IBM 並非唯一在當時調整策略的大型科技公司。亞馬遜(Amazon)和微軟(Microsoft)也在2020年6月相繼宣布限制警方使用其人臉辨識服務,以回應公眾對警察濫用科技的擔憂businessinsider.com。在 IBM 發表公開信後兩天,亞馬遜宣佈對警方暫停提供其人臉辨識平台 Rekognition 一年businessinsider.com。隔日,微軟也表態在聯邦層級的人臉辨識法律出臺前,不會向美國警局出售該技術businessinsider.com。這三家企業的承諾略有不同:IBM 是永久性退出市場,亞馬遜則是一年間的自我暫停(隨後在 2021 年將此禁令延長為無限期business-humanrights.org),微軟則是附條件的禁售(等候法律規範)business-humanrights.org。無論措辭差異,背後皆反映科技業者感受到來自社會和員工的壓力,必須正視人臉辨識在執法領域的負面影響businessinsider.combusinessinsider.com

這些舉措在當時被視為科技業對 Black Lives Matter 等公民運動訴求的響應。長期以來,學界與公民團體不斷警告人臉辨識會加劇種族不公,要求企業停止向警方提供該技術businessinsider.com。然而在 2020 年之前,大公司多半為商業考量繼續推廣,直至當年全美抗議此起彼落,輿論和政治風向迫使其改變。IBM 的決定在其中最為激進,徹底退出彰顯道德姿態,而亞馬遜與微軟則採取了暫緩觀望的折衷措施。這也反映各公司情境不同:亞馬遜和微軟的人臉辨識業務比 IBM 規模大、客戶更多,一刀切放棄的商業代價更高,因此僅承諾暫停並等待監管規範businessinsider.combusiness-humanrights.org。相形之下,IBM 當時在人臉辨識市場份額有限,退出相對容易實施,也更容易被外界視為企業社會責任的表率。

需要指出的是,這些承諾在後續年份的延續情況不一。亞馬遜的警方禁用令在 2021 年主動延長,據報導目前仍然有效,禁止警方使用其人臉比對功能來辦案business-humanrights.org。微軟則重申遵守承諾,官方政策明確禁止美國地方執法機關使用其 Azure 人臉服務business-humanrights.org。相較之下,中小型廠商及其他國家企業並未跟進這樣的限制。例如針對執法機構提供人臉辨識技術的 NEC、Idemia 等公司,乃至臭名昭著的 Clearview AI(利用網路抓取數億張人臉供警方搜索),在 2020 年後仍繼續他們的業務wired.com。因此正如有評論者所言,單靠一家或數家大企業退出,並不代表人臉辨識應用的終結wired.com。IBM 等公司的舉措更大的意義在於傳達一種信號,將壓力轉向政府監管層面。但只要市場上仍有他者填補技術供應,警方若有強烈需求,實際上仍能取得類似能力wired.comwired.com。這種現實也說明了為何 IBM 呼籲制定全國性規範:問題的解決終究需要依賴政策而非企業自律

英國的重返人臉辨識:政策目的與使用情境差異

令人矚目的是,在退出美國警用市場僅三年後,IBM 又透過英國政府合約重返了人臉辨識領域。2023 年 8 月有報導揭露,IBM 與英國內政部簽署了一份價值約 6980 萬美元(5470 萬英鎊)的合約,為該國打造新的全國生物識別比對平台business-humanrights.orgbusiness-humanrights.org。根據公開的合約文件,這套「內政部生物識別比對平台」(Home Office Biometrics Matcher Platform)將分階段實施:初期先建立指紋比對功能,後續階段將引入人臉辨識模組,用於移民審查,以及作為「強化執法用途的人臉比對」工具theverge.com。最終階段明確提到要交付「供執法情境使用的人臉比對案例」,也就是讓警方可利用該系統進行人臉辨識搜尋theverge.com。換言之,這是一套涵蓋指紋與人臉的綜合生物識別平臺,屬於“一對多”比對系統:可將個體照片與資料庫中儲存的大量人像進行比對,以確認身份或找到嫌疑對象theverge.com

此消息一出,立刻引發對 IBM 立場反覆的質疑。畢竟 IBM 自己在 2020 年曾警告,「一對多」人臉比對系統極可能被用於大規模監視、種族定性等侵權目的theverge.com。如今卻由 IBM 親自承建英國的全國人臉比對平臺,表面上看與先前承諾相牴觸。對此,IBM 發言人 Imtiaz Mufti 做出回應,否認與 2020 年的承諾有任何衝突theverge.com。他強調 IBM 依然不提供通用性人臉辨識服務,亦堅守不將技術用於大眾監視或侵犯人權等用途的立場theverge.com。具體到英國這個合約,IBM 表示:「內政部的生物辨識比對平臺不涉及大規模監視。它協助警方及移民機關將嫌疑人的照片與指紋/照片資料庫進行比對識別,且不具備影片導入能力,無法用於在人群中即時抓取人臉(face-in-a-crowd)辨識」theverge.com。言下之意,IBM 主張該系統屬於受控的事後比對工具,用於特定對象的身份查核,而非無差別地監看公共場所人群。從使用情境上看,這與美國警方曾廣泛試驗的即時監控式人臉辨識有所區別:英國內政部平臺主要針對已存檔的移民與執法資料進行比對,用於邊境管制或刑事調查中確認身份,不是部署在街頭攝影機進行連續監視。

然而,人權倡議者對 IBM 的解釋並不買帳。英國黑人的命也是命(BLM)運動成員 Kojo Kyerewaa 譴責 IBM「為爭取內政部合約,毫不猶豫地踩過 George Floyd 的屍骨和記憶」,直指 IBM 背棄先前立場,此舉將不被遺忘theverge.com。國際特赦組織科技研究員 Matt Mahmoudi 也抨擊稱:「全球研究已清楚證明,任何一對多人臉辨識的應用都無法與人權法相容。包括 IBM 在內的公司必須停止銷售此類工具,遵守他們先前終止該技術的承諾,尤其在涉及執法和移民領域時,相關權利受侵犯的風險更加嚴重」theverge.com。可見批評者認為,即便英國專案宣稱用途有限,也是為政府監控提供了方便,性質上仍屬違反人權初衷的行為。事實上,英國本身對警用人臉辨識也存在爭議:倫敦警方曾被揭發使用即時人臉辨識缺乏法律依據而可能違法,南威爾士警方的臉部識別計畫在 2020 年被英國上訴法院裁定違反隱私和平等法,一度被迫暫停theverge.com。儘管之後警方調整後又繼續使用,但可見此技術在英國同樣引發法律與公眾層面的挑戰theverge.com

相比美國,IBM 在英國承接的人臉辨識項目有其政策目的上的差異。英國政府推行全國生物識別平臺,主要出於移民管制和國家安全的考量,希望統一整合指紋、人臉資料庫供相關機構使用。這與美國此前警方零星採購人臉辨識工具以偵辦犯罪的模式有所不同:英國屬自上而下建立中央系統,強調用於簽證邊檢、移民身分確認,以及嚴重犯罪調查等特定場景。而美國警方的人臉辨識應用則較分散,常涉及即時監控街頭或從監視影片中搜尋嫌犯等用途,容易擴張成大規模監視網絡。IBM 或許正是以此作為區分理由,認為英國專案並非過去所批判的「不受控的監視性質」,而是一種強化辦案效率的後端工具。然而,在價值立場上,這種區別對批評者而言並不具說服力——無論在美國還是英國,核心爭議在於警方透過人臉辨識獲得了強大的監控能力,而少數族裔與弱勢群體可能因此首當其衝。IBM 當年高調退出時,所傳達的是一種信念:若技術可能被不公使用,寧可不做。但在英國案例中,IBM 選擇重新參與,難免讓人質疑商業利益是否戰勝了先前的道德承諾。

結論:從IBM立場轉變看人臉辨識的未來

總括而言,IBM 在 2020 年退出美國警用人臉辨識計畫的決定,是多重因素交織的結果:有理想主義的一面,也有現實務算的一面。美國長久以來的種族歧視問題透過有偏差的演算法被放大,人臉辨識技術因此陷入道德危機。IBM 選擇站在維護人權的一邊,承認技術存在偏見與誤用風險而主動止步reuters.comwired.com。這反映了企業對社會責任的意識,以及對自身品牌形象的考量。同時,IBM 當時的人臉辨識業務規模有限,退出成本不高,順勢而為亦屬精明之舉reuters.combernoff.com。在那股科技抵制警察監控的風潮中,IBM 的表態獲得正面評價,也促使競爭對手思考跟進措施。

然而,IBM 重返英國人臉辨識市場的事實說明,商業與道德的拔河依然持續。IBM 強調新合約不違背其原則,是因應不同國情採取差異化策略;但外界的批評提醒我們,技術的風險本質並未因地而異。無論在何處,人臉辨識都帶來隱私侵害和歧視濫用的隱憂,只是各國監管力度和社會容忍度不同而已。IBM 案例凸顯出,大型科技公司即便宣示道德立場,面對龐大商機和政府需求時,仍可能重新權衡做出妥協。這也再次證明,保障公民權益最終不能僅仰賴企業自我約束。正如 IBM 當初所呼籲的,需要有明確的法律與監督機制,來規範人臉辨識在執法領域的使用reuters.combusiness-humanrights.org。只有當法律劃定紅線、提升濫用成本,才能避免企業在道德與利益間搖擺不定。

展望未來,人臉辨識技術仍將不斷進步,偏見問題或可藉由更平衡的數據與算法改進來減輕。然而,技術精確度的提升並不等同於倫理爭議的終結。正如 AI倫理學者所言:「即使完美無瑕的人臉辨識也可能被不公正地運用」wired.com。社會必須慎思:我們是否要允許警察擁有如此強大的監控工具?如果允許,又該如何防範其對弱勢群體的傷害?IBM 當年的退出為這場辯論提供了一個範例,而其在異地的重啟又為討論增添了複雜性。可以肯定的是,在法律框架和公共監督明確之前,人臉辨識在執法中的推廣都應極為謹慎。IBM 的經驗教訓告訴我們:當科技與人權價值發生衝突時,審慎停步往往比貿然前行更負責任。只有在確保公平與正義的前提下運用技術,才能真正實現科技為善,而不致重蹈以往偏見助長不公的覆轍。

引用的著作

查閱文件內部所附鏈接ChatGPT>_IBM退出警用人臉辨識計畫的原因與英國專案比較


另外兩份提問紀錄:

Gemini>_IBM人臉辨識計畫的興衰

Perplexity>_IBM終止人臉辨識計畫的真實原因與技術限制


>_

IBM 在 2020 年高調宣布退出人臉辨識市場,理由是為了反對大規模監控與種族歧視 。然而,當我們剝開技術的外衣,會發現這不僅僅是演算法的偏差,而是對現代法治精神的嚴峻挑戰。

從技術角度來看,我們必須承認:「外貌」不該成為犯罪的證據。當訓練數據本身就充斥著歷史遺留的種族偏見(例如黑人被過度執法導致數據庫比例失衡),AI 模型就必然成為偏見的放大器。以此為基礎的執法,本質上就是一種自動化的種族歧視。

但我認為,IBM 當時的聲明甚至還沒有觸及最核心的法律黑洞,「意圖」與「行為」的界線。

法律懲罰的是「已發生的犯罪行為」,而非「可能的犯罪傾向」。若警方依賴 AI 進行「犯罪者預測」,這就如同電影《關鍵報告》中的預防性逮捕。這是在人還沒犯罪前,就因為他的長相、膚色被 AI 判定為潛在罪犯而採取針對性行動。這不僅是外貌歧視,更是違法的執法行為。

雖然 IBM 在 2023 年於英國重返生物識別市場,並辯稱這與當年的承諾不衝突 ,但我們必須保持警惕。如果技術只是用來驗證「你是誰」(身分確認),那是隱私問題;但如果技術是用來預測「你是不是罪犯」,那就是人權問題

<本文部分內容由 AI 協助生成,經人工編輯/發佈>

留言
avatar-img
沒什麼人味的訪談室
9會員
34內容數
分享跟AI間的問答, 特別是奇怪的問題
2025/11/07
本報告深入探討了統計學家喬治.E.P.Box(George E. P. Box)的著名格言:「所有模型都是錯的,但有些是有用的」(All models are wrong, but some are useful),並將其作為理解當前大型語言模型(LLM)發展及其挑戰的深刻框架。報告認為,LLM
Thumbnail
2025/11/07
本報告深入探討了統計學家喬治.E.P.Box(George E. P. Box)的著名格言:「所有模型都是錯的,但有些是有用的」(All models are wrong, but some are useful),並將其作為理解當前大型語言模型(LLM)發展及其挑戰的深刻框架。報告認為,LLM
Thumbnail
2025/10/22
這是七月時的提問,現在如果重新再提出,可能結果會有不同。 因為這個議題關係到我後面的應用開發, 我特别關注這個訴訟結果,也有後續的問題要追問。 提問: 最近法源公司與七法公司的版權訴訟, 對於AI訓練資料的取得/使用/創收的影響, 業界有何討論? 可能的影響與對策? ChatGPT>_ 為
Thumbnail
2025/10/22
這是七月時的提問,現在如果重新再提出,可能結果會有不同。 因為這個議題關係到我後面的應用開發, 我特别關注這個訴訟結果,也有後續的問題要追問。 提問: 最近法源公司與七法公司的版權訴訟, 對於AI訓練資料的取得/使用/創收的影響, 業界有何討論? 可能的影響與對策? ChatGPT>_ 為
Thumbnail
2025/10/17
我從第一份工作開始就跟日本人高度相關,對日本人說話的各種曖昧的表示方式很是深受其害。 雖然不至於聽不懂,但總覺得真是受夠了。尤其是讀空氣,我認為這是日本人走向世界的障礙。接觸 AI 以來,我們一直在為了怎麼讓 AI 理解我們的話語費盡心思,這時候想到日本人這種曖昧的說話方式,我就很想知道他們是怎麼訓
Thumbnail
2025/10/17
我從第一份工作開始就跟日本人高度相關,對日本人說話的各種曖昧的表示方式很是深受其害。 雖然不至於聽不懂,但總覺得真是受夠了。尤其是讀空氣,我認為這是日本人走向世界的障礙。接觸 AI 以來,我們一直在為了怎麼讓 AI 理解我們的話語費盡心思,這時候想到日本人這種曖昧的說話方式,我就很想知道他們是怎麼訓
Thumbnail
看更多
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
面對資訊爆炸的時代,你現在都怎麼閱讀新聞?自從 AI 聊天機器人開始蓬勃發展,有些人已經很習慣透過 AI 工具,整理網路上的新聞並摘要重點。根據路透社研究所發布的《2025 年數位新聞報告》,大約有 7% 的線上新聞閱讀者,以及 15% 的 25 歲以下民眾,都是透過 AI 助理取得新聞。
Thumbnail
面對資訊爆炸的時代,你現在都怎麼閱讀新聞?自從 AI 聊天機器人開始蓬勃發展,有些人已經很習慣透過 AI 工具,整理網路上的新聞並摘要重點。根據路透社研究所發布的《2025 年數位新聞報告》,大約有 7% 的線上新聞閱讀者,以及 15% 的 25 歲以下民眾,都是透過 AI 助理取得新聞。
Thumbnail
分享大學生如何在日常學習和生活中,有效利用ChatGPT、Gemini、Perplexity Comet等AI工具。文章涵蓋各工具的特色、實用情境,以及免費學生方案和特殊優惠。
Thumbnail
分享大學生如何在日常學習和生活中,有效利用ChatGPT、Gemini、Perplexity Comet等AI工具。文章涵蓋各工具的特色、實用情境,以及免費學生方案和特殊優惠。
Thumbnail
OpenAI 在直播中宣布推出 ChatGPT Atlas ,一款內建 ChatGPT 的 AI 瀏覽器,整個科技界的焦點瞬間轉移。這不僅是一個新產品,更是一場針對 Google 長年主導網路入口發動的正面挑戰。
Thumbnail
OpenAI 在直播中宣布推出 ChatGPT Atlas ,一款內建 ChatGPT 的 AI 瀏覽器,整個科技界的焦點瞬間轉移。這不僅是一個新產品,更是一場針對 Google 長年主導網路入口發動的正面挑戰。
Thumbnail
當 AI 搜尋與對話漸漸成為主流,傳統的 SEO 流量指標也開始「失靈」了。 很多品牌已經開始投入 GEO(生成式引擎優化),但常在會議裡被問的還是那句:「所以,我們到底有沒有成效?」
Thumbnail
當 AI 搜尋與對話漸漸成為主流,傳統的 SEO 流量指標也開始「失靈」了。 很多品牌已經開始投入 GEO(生成式引擎優化),但常在會議裡被問的還是那句:「所以,我們到底有沒有成效?」
Thumbnail
記錄使用AI工具的心得,涵蓋文案撰寫、聊天、音樂創作、文章續寫、內容統整、資料搜尋、圖像生成及小說創作等面向。
Thumbnail
記錄使用AI工具的心得,涵蓋文案撰寫、聊天、音樂創作、文章續寫、內容統整、資料搜尋、圖像生成及小說創作等面向。
Thumbnail
這篇文章紀錄了作者透過觀察、拍照以及詢問四種不同AI(ChatGPT、Gemini、Perplexity、Grok)來辨識一種紫色花朵的過程。不同AI給出了不同的答案,但大部分指向「紫花蘆莉草」(Ruellia simplex),並描述了其特徵、英文名稱以及在臺灣的常見程度。
Thumbnail
這篇文章紀錄了作者透過觀察、拍照以及詢問四種不同AI(ChatGPT、Gemini、Perplexity、Grok)來辨識一種紫色花朵的過程。不同AI給出了不同的答案,但大部分指向「紫花蘆莉草」(Ruellia simplex),並描述了其特徵、英文名稱以及在臺灣的常見程度。
Thumbnail
以下將幾大知名 AI 工具按照用途與特性進行幽默分類: ▋ OpenAI ChatGPT – Good for Chat • ChatGPT 是通用型聊天 AI,在文字交流、內容創作、學術問答等領域表現出色。 • 它是日常對話與快速知識獲取的首選工具,適合廣泛用戶使用。 ▋ An
Thumbnail
以下將幾大知名 AI 工具按照用途與特性進行幽默分類: ▋ OpenAI ChatGPT – Good for Chat • ChatGPT 是通用型聊天 AI,在文字交流、內容創作、學術問答等領域表現出色。 • 它是日常對話與快速知識獲取的首選工具,適合廣泛用戶使用。 ▋ An
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News