當黑箱的 AI 參與人類的量刑 ——從 Loomis 案探討程序正義風險與 AI 的可解釋性

更新 發佈閱讀 25 分鐘

文/林奕境·評論/柯秉辰

前言

隨著 AI 技術飛速發展,司法體系為了追求審判效率與量刑的一致性,開始引入自動化量刑評估工具,而2016年美國威斯康辛州的 State v. Loomis 案(下稱本案)則觸發了 AI 對被告正當程序權造成威脅的爭議。

當風險評估模型在法律上因商業機密拒絕解釋其模型設計、在技術上因演算權重的未知使評估理由得不到完整說理支持,被告將陷於罪刑可能不相當,卻無從質疑的正當程序危機,程序正義亦面臨被黑箱演算法架空的風險。

而在我國,司法院量刑輔助系統,也正從相對透明的數據分析,轉向運用深度學習技術的第二代系統,我們正面臨著與美國 Loomis 案相同的黑箱挑戰。

本文將以本案為借鏡,剖析本案的判決邏輯與其後的技術爭議,並以「透明性義務」為核心,檢視我國司法 AI 的發展方向、介紹可解釋性 AI 技術的應用,在 AI 演算法正式走入法庭、改變他人人生軌跡之前,必須先確立「可解釋性」的標準。

當黑箱的 AI 影響量刑——以美國 Loomis 案為借鏡

本案介紹

AI 應用於刑事司法之爭議,最為代表性的案件非威斯康辛州的 Loomis 案莫屬。本案被告 Loomis 遭控參與竊車槍擊案,法院將其定罪,並在量刑前參考量刑前調查報告(PSI)中的「再犯風險評估」後,判處其六年徒刑及五年的刑後個案監控。

此再犯風險評估,是以「替代性制裁犯罪矯正管理剖析軟體」(Correctional Offender Management Profiling for Alternative Sanctions,以下簡稱 COMPAS)基於對被告準備的數個問題及其回應,設定為變數並運算出被告的再犯風險,以協助審判者提出量刑數字的評估工具。該系統中包括多個風險評估模型,如 「一般風險評估」、「暴力風險評估」、「再犯風險篩選」和「審前釋放風險等級」等。而值得留意者,是該系統並非公部門研發,而是由民間的 Northpointe(現更名為 Equivant)公司開發,並受營業秘密之保護。

被告 Loomis 不滿量刑結果,遂開啟救濟,本案所蘊含的科技應用與人權保護之衝突,也最終來到了威州最高法院。

被告的主張

被告主張 COMPAS 違反了正當法律程序,使其「受個人化量刑」與「基於準確資訊被量刑」的權利受到侵害。首先,COMPAS 系統的演算法是商業機密,對任何人均具不可揭露性,致被告無法檢視其運算邏輯,更無從判斷或挑戰該風險評估分數的準確性,換句話說,COMPAS 系統的演算過程是一個黑盒子。其次,被告主張其擁有「基於準確資訊被量刑」的權利,但黑盒子的性質,剝奪其核實資訊真偽的權利。最後,被告認為性別因子被摻入風險評估的運算之中,使得輸出的結果並不合致於該個案的情況,亦有違正當程序。

法院回應

對於上訴主張,威州最高法院法官 Ann Walsh Bradley 並不接受。其認為風險評估中以性別作為因素,具有去歧視、促進準確率之目的,且被告並未充分舉證原審法院是否真的將性別因素納入量刑考量。再者,COMPAS 的評估基礎乃基於公開資料或被告提供的資料,因此各該資訊的準確性並非不能被否認或驗證。

而針對系統預測的準確性,法院也指出該模型經過紐約州刑事司法服務局,針對再犯性基準的有效性與預測精準度之檢測,足證此模型具充分準確性。

但就個人化量刑層面,Bradley 法官則承認,COMPAS 是匯總與行為人相似的群體之再犯風險資料,與行為人的資料進行對所獲致之結果,故並非絕對個案式的評估。但她也解釋,由於報告並非宣告刑度之唯一依據,且法院本於裁量權的行使,在適當時也有不參採 COMPAS 評估結果的權力,故量刑結果仍能足夠貼近個案。

使用警語

綜上可以看出,法院確實意識到該工具潛在的風險,卻仍使 COMPAS 合憲通關。而為確保法官能審慎地權衡評估結果,最高院提出了折衷的處理方式——凡含有 COMPAS 評估的量刑前調查報告,均須附上警語,以提醒法官該評估分數所具的侷限性。

警語需要交代的,除上述提過的「黑箱性質」、「資料基於群體數據」等,還包含「尚未與威州當地人結構進行交叉驗證」、「潛在的種族偏見」等技術風險。

對警語方案的批評

針對威州最高院提出的解決方案,應該理解為法院在權衡被告正當程序之保障與 COMPAS 背後營業秘密時,所做出的折衷見解,學界與實務界多有批評。哈佛法律評論的案評即指出,法院所要求的書面警語恐淪為形式,無法有效解決演算法量刑所帶來的核心問題。

警語無法解決黑箱問題

首先,警語雖指出 COMPAS 的侷限,但亦僅鼓勵法官對風險評估的價值抱持懷疑態度,並未指出如何在技術上爲評估分數的效用打折扣。此外,由於 COMPAS 的運算方法仍屬商業機密,法官缺乏評估該工具所需的實際資訊,無法得知該分數如何計算或各項因子如何加權。此情,即便有了警語法官仍無法實質審查該工具的準確性。

風險評估分數的定錨效應

其次,即使警語意在使法官注意COMPAS的先天缺陷,然而定錨效應(Anchoring)帶來的偏差,仍可能使這些警示失效。論者認為,人類在決策時容易過度依賴最初獲得的資訊片段來進行後續判斷,即便該資訊可能不甚精確。放在 COMPAS 的案型中,當法官看到一個具體的風險評估數字時,該數字即成為量刑思考的錨點,縱使知道該數據有不可盡信的風險,心理上仍難以完全忽視該數字的暗示效果。

從黑箱中求透明

而在針對警語的批評之外,聚焦於「演算法透明義務」的觀點尤為重要,這類批評提出人工智慧之司法應用真正應正視的問題。

COMPAS 的種族歧視性結果引發的爭議

本案牽扯的各種爭議中, 美國非營利媒體 ProPublica 的調查與指摘相當具指標性。該媒體基於開發商揭露的資料,自行設計了一款線性的模型,以模擬 COMPAS 的運算過程。結果指出 COMPAS 在預測準確性上存在顯著的種族差異:黑人被告遭標記為再犯風險的機率,幾乎是白人被告的兩倍;反之,白人被告為低風險的機率則顯著較高。ProPublica 的研究,似指出了演算法偏見的存在,甚且可能加劇司法系統既有的不公,而法院的警語措施顯不足以防堵是類系統性風險。

另一方面,來自杜克大學的 Cynthia Rudin 等人,則交出了一份主張演算法透明性義務的研究,同時回應了上述 ProPublica 的研究結論。Rudin 的研究透過逆向工程發現,COMPAS 對「年齡」項的依賴是非線性的,這點反駁了 ProPublica 假設的(同時也是 COMPAS 官方所聲稱的)線性模型。作者認為,只要控制了年齡與犯罪前案,COMPAS 對種族的直接依賴其實很微弱 。所謂的「不公平」,很大程度上是因為非裔美國被告在數據分佈上平均年齡較輕所致 。

綜觀上述辯證,無非是在統計學上,透過各種變數取捨與回歸分析去窺探一個黑箱模型的實際面貌,此一過程固然不是本文所欲探討的,而提及的目的,是因 Rudin 在此研究中,向 AI 與司法交匯的領域,提出一則振聾發聵的宣告——探究演算法與程序正義的焦點,應該回到透明性義務。

此一案例證實,當用於刑事司法的演算法以營業秘密主張不可被揭露,不僅是字面上那樣地使外界無法知悉,連廠商對產品本身之描述都可以欺瞞,參與量刑評估的黑盒模型,也蒙蔽了本該明明白白的正當法律程序。

營業秘密的佔優與程序正義的退讓?

在本案中,法院最終仍對商業利益做出了退讓,已如所述。COMPAS 開發商 Northpointe 主張其演算法為專有儀器與商業機密,拒絕公開計算風險分數的權重。此主張導致被告雖有權挑戰對其不利的證據,卻因其居於商業法規的保護傘下,而無從真正實現。

對此弔詭現象,誠如 David Levine、Alyssa M. Carlson 等所主張,當私人企業跨足公共領域並從中獲利時,不應再享有絕對的商業機密保護。因量刑本質上屬政府職能,當私人公司提供此類公共服務,使營利掛鉤於公權力的執行時,則其所負的公開透明義務,應同於對政府的要求 ,不得再允許企業透過主張營業秘密來規避揭露義務。透明性作為可責性的基礎,若有缺失,將與公權力運作中「陽光是最好的防腐劑」之精神背道而馳,尤其在講求莊嚴謹慎、與基本人權高度緊密的刑事司法,更不能不慎。

當地化校正的缺失

COMPAS 之黑箱性質,仍包含另一隱憂,即驗證層面的缺失。正如本案威州最高院所要求標示的警語第三項,即承認 COMPAS 系統尚未針對威州的當地人口進行交叉校正。當最初訓練此類風險評估模型時的資料是以全美人口為基,則各州(司法轄區)要全面適用風險評估工具時,仍須針對其當地人口數據進行校正,以確保其預測準確性能夠適用於該司法轄區的群體;而亦有調查發現全美僅 30% 的機構在使用此類工具前曾進行當地化校正。

COMPAS 解釋運算過程的「客觀不能」

最後,我們回到本案的核心問題:「法院以 COMPAS 系統的再犯風險評估來決定其刑罰,是否侵害了被告享有的正當程序權?」。蘇凱平教授在其研究中以人工智慧技術本質的角度分析了本案,指出:被告對於無法獲知 COMPAS 運作資訊的質疑,表面上雖然是針對廠商因商業保密而未釋出資訊的挑戰,但其本質其實觸及了現代第二波人工智慧的發展主流,即「機器學習」的「客觀黑箱」性質,所展開的質疑與回應。

第二波人工智慧是建立統計模型並以大量數據訓練電腦,從而得出與訓練資料符合的判斷結果。然而,其並不具備能夠解釋其決策理由的能力,亦即欠缺「可解釋性」。蘇教授進一步分析,本案中或主張之「被告無從得知」,僅是受限於商業機密而使被告無從得知的「主觀不能」;然而,更根本的法律與科技難題在於「客觀不能」——即「欠缺可解釋性」的機器學習技術特質,縱無商業考量,無論是系統開發者自身、審判者本身,均在實際上無法解釋演算法是如何透過大量數據訓練,而得出特定的判斷權重,進而計算出風險評估結果的。威州最高法院的回應完全基於法律面出發,避開了 COMPAS 系統在技術上不可解釋的特性,反而滋生了憲法層次上的問題。例如前述的演算結果與種族歧視之爭,即可窺見。

在「工人智慧」審判時代,司法者潛在抱持著的歧視作法體現在判決結果以及刑度上,而這些資料未經排除便在當代作為訓練「人工智慧」的養分,所產出的風險評估工具們無疑是繼承了這些具歧視性的統計判斷,進而體現在新的個案之上。而若在審查此類人工智慧模型時,忽略其不可解釋從而不能檢驗的技術本質,審判將會輕易容許過往的歧視作法透過人工智慧模型的黑箱演算法不斷複製,而此作法恰侵害了被告受憲法保障的正當程序權利。

小結

State v. Loomis 案雖為人工智慧輔助審判立下了合憲的先例,但其判決理由與配套措施(警語)在學理上卻顯得左支右絀。法院試圖透過輸入驗證與裁量權保留來迴避演算法的黑箱問題,卻忽視了定錨效應對法官心證的潛移默化,更低估了商業機密對正當法律程序造成的實質侵害。

本案揭示了當代司法 AI 面臨的雙重黑箱困境: 第一層是「法律上的黑箱」,即廠商以營業秘密為由,人為地遮蔽了演算法的可課責性,導致被告無法進行防禦,此即 Carlson 等學者大聲疾呼應予揭露之處。第二層則是「技術上的黑箱」,即機器學習技術上難以還原其生成路徑。前者的解方著重的是司法政策上的改革(如 Carlson 對私企產品服務於公權力時的商業保護退讓)在本章內雖有所提及,但本文的核心仍著重在介紹 AI 邁向透明的司法標準。

上面種種技術黑箱的問題,揭示了透明性的不足,進一步言之即是「可解釋性標準」在司法中的缺席,而許多人也正致力於投入可解釋、具說理能力 AI 的開發。應再思考的是未來的司法系統,究應具備何種技術規格的可解釋性 AI,才能符合憲法對正當程序的期待?

量刑 AI 應用於我國司法的歷程與問題

本章將藉蘇凱平老師的研究,討論量刑式司法 AI 用於我國刑事訴訟的歷程。

第一代量刑 AI 的嘗試:大數據分析

司法院自 2011 年起建置的第一代量刑輔助系統,包括「量刑資訊系統」與「量刑趨勢建議系統」,其技術本質並非人工智慧,而是基於法實證研究原理的「法律數據分析」。前者透過大數據呈現過往判決,即實然面上的量刑分布;後者則是先以迴歸分析找出影響刑度的顯著因子,再透過專家焦點團體(即審檢辯學與公益團體等)設定權重以提供個案應然面上的量刑建議 。

雖然兩套系統的技術理念有所差異,但其技術上皆是透過過往判決找出影響因子,進而進行比對或加權,尚未引發第二章所述的機器學習黑箱困境。由於第一代系統的運作原理相對透明,且一般民眾與被告均可自由使用,並無資訊近用性的阻礙,故在憲法正當程序與透明性的檢驗上,較無疑慮 。

而實務上有出現「適用擴張」之現象,即在司法行政的目標上原先設定於「參考、輔助量刑」的系統,卻在事實審法院間,產生影響刑度裁量空間的實質性標準。觀此現象亦暫無違憲疑慮,只要法院盡到告知義務並允許當事人辯論,此種運用仍有助於量刑的精緻化與一致性。

第二代量刑 AI 的嘗試:AI 黑箱與憲法爭議

而隨著技術演進與人力資源變遷,司法院於 2023 年啟用基於「機器學習」與「自然語言處理」技術的第二代量刑輔助系統,並加入了裁判書草稿撰擬的功能。此系統包含「事實型」與「評價型」AI 二種 。其與前述 COMPAS 系統採用類似的統計學習技術,因而承襲了相同的黑盒子特性,因而殊值探討。

首先,就透明性與不可解釋性而言,第二代系統存在技術本質上的客觀不能困境。按司法院所述的系統建置目的是「藉由人工智慧的自然語言處理技術,在判決原始文字中標註相關量刑事由,並以自動擷取關鍵字的方式,搜尋及判讀加重、減輕法條的適用,且在標註過程中,作為機器學習的訓練資料,取代人工標註的方式,達到即時更新資料庫的效果」。而此模型對於如何將判決文字標註為對被告有利或不利的量刑因子?採行何種機器學習方法?在此種方法下,人工智慧系統具體如何運作?此等重要的資訊,卻缺乏明確說明。

例如在評價型 AI 系統中,即是將各案件事實中的量刑審查事由,歸納到刑法第 57 條明列的多款法定量刑審酌事項(如動機、生活狀況、智識程度等)之下,進行歸納整理,讓使用者能透過輸入審酌事項,計算出量刑情狀。然而在實際操作頁面上,卻出現犯罪之動機、目的、犯罪時所受之刺激、行為人之生活狀況等多款事由被合併打包為「其他審酌事項」的情況,使此標註分類標準不明,直接影響了系統的可信度與法律依據。

再者,由於我國系統是由司法院主導開發,相較於 COMPAS 系統是私人企業開發而可主張商業機密,司法院作為政府機關,負有資訊公開之當然義務 。司法院應主動說明 AI 系統的演算法與標註邏輯,不能以技術黑箱為由規避說明義務,否則將難以取信於民。

此外,第二代量刑系統尚有不開放給刑事被告的問題,遇到非強制代理之案件,且被告本人亦無委任辯護人之情形,則被告防禦權即受有武器不對等之侵害。

小結

綜合比較,台灣的第一代與第二代量刑系統展現了兩種不同的黑箱。第一代系統由專家決定的權重雖然也有模糊地帶,但這種「專家黑盒子」乃基於人類智慧,較易被社會接受;反之,第二代 AI 系統的「機器黑盒子」則因缺乏可解釋性從而落入了本文第二章探討的技術黑箱討論範圍之中。蘇教授認為,我國量刑改革的目標在於「公平、透明、妥適」。雖然 AI 技術在效率上具有優勢,但在「可解釋的人工智慧」技術成熟並能突破透明性障礙之前,以機器學習為主的第二波人工智慧仍難以滿足量刑透明化的要求。

可解釋性與程序正義

承前所述,黑盒子問題已成為司法 AI 的核心挑戰。本章將整合國內外學說,援引黃詩淳教授關於可解釋性的理論架構,並輔以 Rudin 等人對 COMPAS 系統的實證研究,思考我國司法應如何建立具體的程序控制標準。

可解釋性的路徑選擇

在要求 AI 給出解釋時,我們必須先釐清「解釋」的定義。黃詩淳教授引用Edwards & Veale 的分類,指出可解釋性在光譜上存在兩條截然不同的路徑 :

透明度與理解後說明

第一是「透明度」,此路徑側重於從技術層面觸碰模型本身,試圖搞清楚黑盒子內部的運作機制。旗下又有分解法與代理人模型兩類,前者是直接打開黑盒子,檢視權重、神經元或原始程式碼;後者則不打開原模型,而是另建一個簡單的模型以模擬、解釋複雜的黑盒子。

第二種路徑則是「理解後說明」,此路徑側重於使用者信賴,強調以人類能理解的方式說明決策原因,而不強求完全解析內部技術細節。又可分為模型中心、主體中心二類(詳見下述)。

代理人模型與分解法的侷限

透明性取逕中,分解法因為要求公開原始碼或權重,在 Loomis 案中已證實面臨巨大的商業機密障礙。且對非技術背景的法官與當事人而言,數百萬個參數的權重列表亦如無字天書,缺乏司法應用上的實質價值。 

至於代理人模型,值得注意的是,黃教授在其研究中亦指出此類模型在公部門決策中的潛在風險。因其本質上僅是模仿原黑箱模型的反應,並非原模型本身;若代理模型能百分之百還原原模型,那直接使用簡單的代理模型即可,何須黑箱?若不能還原,則該解釋必然存在誤差與失真,無法確保解釋內容忠於原演算法的真實邏輯。

誠如第二章所述,ProPublica 與 COMPAS 之間的種族歧視論戰,即為顯著適例。ProPublica 建立了一個線性的代理模型來解釋 COMPAS,因而得出「該系統依賴種族」的結論;然而,Rudin 的逆向工程研究發現,COMPAS 對「年齡」的依賴呈現高度非線性,ProPublica 錯誤假設了線性關係,導致其代理模型無法正確反映原貌,進而得出錯誤的歸因。此例也印證,若司法機關容許廠商僅提供簡化的代理解釋,而非模型原本的邏輯,當事人「被解釋」的理由本身,亦可能錯誤。

建立以司法應用為核心的可解釋路徑

綜上,在探討人工智慧應用於法律時,不應拘泥於技術上的完全透明,而應考量法律服務於司法機構與司法經濟的需求。若強求「透明度」路徑,恐陷入營業秘密與技術門檻的泥淖;因此,「理解後說明」路徑下的模型中心與主體中心解釋,才是風險評估型 AI 應具備的基礎性質。

建構司法 AI 的揭露義務

在揚棄代理模型路徑後,「模型中心」與「主體中心」兩種路徑的選擇也浮上檯面,而此二者其實是功能上的取捨與互補關係。模型中心是解釋模型整體技術屬性(如訓練資料來源、演算法種類、整體準確率),以確保演算過程是正常運作的,適合對模型演算過程完全掌握的審判者使用。主體中心解釋則是對特定個案的輸入與輸出間觀察不同因子對決策的影響性,如「若不輸入前科,結果又會如何?」適合律師或當事人使用。

本文認為,兩者在法律上均有發展空間。模型中心有助於司法行政對系統的整體監控,而主體中心則有助於個案被告行使防禦權或律師藉由控制不同因子大致掌握哪些因素會呈現出如何的量刑(或事實認定)結果,以提出最適的抗辯。

但就系統建置初期,被告、律師與社會大眾對公權力課責性角度觀之,應優先落實「模型中心」的揭露義務。具體而言,一個具備可解釋性的 AI 應能回答以下七個問題:

  1. 為何模型運算產生了此一結果?
  2. 為何不是其他結果?
  3. 模型能在哪些案例中產出可信賴的結果?
  4. 能否提供一個信心分數給模型運算的結果?
  5. 哪些情況下(如何種狀態或輸入項),模型的結果可資信賴?
  6. 哪個因素最大程度地正向、負向影響模型決策?
  7. 如何校正錯誤?

準確性與可解釋性之權衡與選擇

最後,司法決策者必須面對一個技術上的抉擇:為了追求更高的預測準確率,我們是否可以犧牲可解釋性?

優先選擇可解釋模型 

黃詩淳教授指出,一般而言,模型確實存在準確率與可解釋性的拮抗關係。例如類神經網路準確率高但難解釋;決策樹解釋性高但準確率可能較低。而在本文所聚焦的刑事審判領域,從刑事訴訟的公益性與嚴謹需求,加之判決理由說明義務的重要性,解釋能力應該視為不能被犧牲的底線,未來應用於司法的演算法開發,也應優先考量從公認常用、且學術上已有足夠解釋研究的演算法出發 。

針對累犯預測的實證支持

此外,這種效能與可解釋性的犧牲似未必總是發生。針對特定的應用場景——如 COMPAS 所處理的再犯風險預測,Rudin 的研究發現,簡單、完全透明的可解釋模型(如僅基於年齡與犯罪次數的規則),其預測準確率與複雜的黑箱模型不相上下。這意味著,至少在 COMPAS 的再犯評估上,司法機關沒有理由繼續使用複雜、不透明的黑箱 AI,而完全可以採用技術上成熟、法官可理解的透明模型。

小結 

本章藉黃詩淳教授的文獻,以「可解釋性」為核心,探討面臨「技術上黑箱」的窘境,應用於司法的人工智慧該如何篩選並建構一套程序控制標準。確保系統的透明度;並優先採用可解釋的模型,此一技術規格的選擇,反映了對程序正義價值的堅持。

結論

本文從 Loomis 案中應用 COMPAS 系統的過程、技術風險與威州法院見解的避重就輕,介紹此模型在正當程序上致生的風險與學者批判。本案透過無效的警語解套,使不可知的運算仍實質凌駕於可被大眾檢驗的論理之上,啟示了課與司法 AI 透明性義務的重要。

回望我國,自第一代相對透明的數據分析,走向第二代基於機器學習的量刑系統後,我們同樣承襲了「技術黑箱」挑戰。若司法院忽略了對「可解釋性」的要求,那麼本應輔助法官的智慧工具,亦可能將過往判決中隱含的歧視與偏見,透過演算法無限複製於新的個案身上。屆時,被告恐將與 Loomis 一樣,喪失質問模型的能力,此無疑是被告防禦權的破口。

因此我們藉可解釋性的觀點切入,探討如何為司法 AI 確立一套有條件的接納標準。若一個司法 AI 模型無法提供有意義的資訊說明其決策路徑,則無論在上帝視角中其量刑建議是否準確允當,站在人類不可知的角度以觀,都不應接納此工具參與絕對謹慎的刑事程序之中。

評論:我們在害怕誰?

評論/柯秉辰

我認為這篇文章(林文)算是結構工整、分析明確的法律文章。在文章的解釋上引用相當清晰,將複雜的法學論文摘錄且解釋得很好,相當值得肯定。比起我自己寫的 AI 法律文章算是很正統的法學論述,我自己寫的文章相當的哲學、社會學與基礎法學,探討的是相當形上的討論,此文務實很多,相對好懂。在這個基礎上我提出幾個有趣的討論:

當我們質疑 AI 具有黑盒效應時,人類法官本身就不是黑盒嗎?如果今天 Gemini 在生成時已經能跟你講他的生成過程時,人類法官是否才是真正的黑箱呢?在罪刑相當的邏輯之下,刑罰與罪行要有兩個層面——相當性(Proportionality)跟相稱性(Commensurateness),前者是法益侵害嚴重性會產生的刑度序列,後者是刑罰必須直接反映犯罪行為本身的嚴重性。那現行台灣的法律體系下我們能夠衡量的指標只有刑法第 57 條,但法官自己真的能夠解釋他到底是透過哪個指標與權重滿足這兩個指標的嗎?對 AI 來說前者其實不困難,只要有夠多的 Data 應該可以滿足相當性,那相稱性的部分其實人類法官與 AI 兩者都講不清楚為什麼,所以質疑 AI 有黑盒效應是不是只是不喜歡 AI 當法官而已呢?這著實值得想想吧!因為多數人類法官根本講不清楚自己怎麼決策的啊。

有趣的是,我們能透過技術製造出可解釋性的 AI(XAI),那麼什麼是可解釋性的人類呢?或者說,人類本身具有可解釋性嗎? 從這個脈絡下思考,或許量刑本身就是一個龐大的黑箱系統,在概念上根本不可能有辦法解釋。如上所說,「相稱性」本質上要去探討所謂「罪」的嚴重性,但這個罪的嚴重性根本無法被掌握,因而最後就是個直覺式的論述而已,應該都是先射箭在畫靶。我們想想,在判死刑時,「吳燦基準」要求法官一一盤點刑法第57條的指標時,是否也「先有論再有據」呢?

據此,我們似乎可以發現,根本的原因仍是我們不能接受 AI 來替代人的工作,而非 AI 本身的黑盒效應更嚴重。因為本質上法官是神的工作,而我們能讓 AI 當神嗎?

其實我們不喜歡 AI 當法官更多是可課責性與同類的同理心吧。畢竟 AI 的確沒有同理心


留言
avatar-img
台大法律杜鵑花節
0會員
20內容數
透過〈法途〉,帶領你一窺法律人生命旅途上的風景和荊棘,以及臺大法律的種種。 由臺大法律學系學會學術部製作。歡迎您的參與!
2026/02/21
我國邁向民主社會已三十載有餘,民主的概念早已深入國民的政治生活。然而,當公民在公共領域享有主權、參與選舉之時,回歸職場卻往往發現,同屬社會核心的勞動生活,依舊處於如「專制」般的層級管理與權力不對稱之中。這種「政治民主、經濟專制」的二元分裂,造成了公民身分的撕裂。
2026/02/21
我國邁向民主社會已三十載有餘,民主的概念早已深入國民的政治生活。然而,當公民在公共領域享有主權、參與選舉之時,回歸職場卻往往發現,同屬社會核心的勞動生活,依舊處於如「專制」般的層級管理與權力不對稱之中。這種「政治民主、經濟專制」的二元分裂,造成了公民身分的撕裂。
2026/02/21
近年來校園性別事件頻繁成為公共討論焦點,本文以《性別平等教育法》在校園中的實際運作為核心,探討當前社會對校園性別事件處理機制的誤解與批判,並嘗試分析其正當性以及在現實校園環境中所面臨的困境。
2026/02/21
近年來校園性別事件頻繁成為公共討論焦點,本文以《性別平等教育法》在校園中的實際運作為核心,探討當前社會對校園性別事件處理機制的誤解與批判,並嘗試分析其正當性以及在現實校園環境中所面臨的困境。
2026/02/21
本文為柯秉辰「停下來吧,你真美麗:AI 時代的個人崩解與主體性黃昏」之評論文。借用作者的話,原文試圖勾勒出一份浮士德式的契約,試圖將人類運用AI比擬成一次與魔鬼的交易,形塑出AI社會中墮落的方方面面。在我的理解下約可以分成下面法治與主體性層面,進一步延伸討論AI如何影響法治與主體性。
2026/02/21
本文為柯秉辰「停下來吧,你真美麗:AI 時代的個人崩解與主體性黃昏」之評論文。借用作者的話,原文試圖勾勒出一份浮士德式的契約,試圖將人類運用AI比擬成一次與魔鬼的交易,形塑出AI社會中墮落的方方面面。在我的理解下約可以分成下面法治與主體性層面,進一步延伸討論AI如何影響法治與主體性。
看更多
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
實測清理不配得感效率達 600% 的《登入:金色流動》設為 3 分鐘金錢靈氣啟動曲,並以 14 項檢測大滿貫的 《最慵懶的綻放》為基底。透過數據證實的 1600% 加乘效應與 8 公尺高維防護場,協助聽眾移除 300% 的顯化阻力,找回投射者優雅被動吸引的成功路徑,見證「慵懶即豐盛」的真理。
Thumbnail
實測清理不配得感效率達 600% 的《登入:金色流動》設為 3 分鐘金錢靈氣啟動曲,並以 14 項檢測大滿貫的 《最慵懶的綻放》為基底。透過數據證實的 1600% 加乘效應與 8 公尺高維防護場,協助聽眾移除 300% 的顯化阻力,找回投射者優雅被動吸引的成功路徑,見證「慵懶即豐盛」的真理。
Thumbnail
深入探討中國零售業異類「胖東來」的成功之道,其獨特的「不開心假」與長達30-40天的帶薪年假,以及高達3倍當地水平的平均月薪,如何建立在穩健財務、人本經營、自有品牌策略,以及對極致服務標準的嚴格要求上。文章並分析胖東來為何選擇「區域霸主」策略,以及其管理模式的複製難度,為零售業提供寶貴的啟示。
Thumbnail
深入探討中國零售業異類「胖東來」的成功之道,其獨特的「不開心假」與長達30-40天的帶薪年假,以及高達3倍當地水平的平均月薪,如何建立在穩健財務、人本經營、自有品牌策略,以及對極致服務標準的嚴格要求上。文章並分析胖東來為何選擇「區域霸主」策略,以及其管理模式的複製難度,為零售業提供寶貴的啟示。
Thumbnail
醫美不再是奢侈品,而是現代人的「週期訂閱式服務」 在高通膨時代,房子、車子、名牌包的價值都會折舊 但「外表」與「自信」的維護成為心理層面的抗通膨資產, 這就是非侵入式醫美能在全球同步成長的現實面。 對投資者而言,這個產業的本質不是「醫療」,而是「長期訂閱的心理商品」, 每個願意為自己付費的人,
Thumbnail
醫美不再是奢侈品,而是現代人的「週期訂閱式服務」 在高通膨時代,房子、車子、名牌包的價值都會折舊 但「外表」與「自信」的維護成為心理層面的抗通膨資產, 這就是非侵入式醫美能在全球同步成長的現實面。 對投資者而言,這個產業的本質不是「醫療」,而是「長期訂閱的心理商品」, 每個願意為自己付費的人,
Thumbnail
本文聚焦人工智慧領域的法律糾紛、新興應用程式的隱私問題,以及大型科技公司面臨的全球監管壓力,展現科技產業在創新與政策挑戰間的平衡。
Thumbnail
本文聚焦人工智慧領域的法律糾紛、新興應用程式的隱私問題,以及大型科技公司面臨的全球監管壓力,展現科技產業在創新與政策挑戰間的平衡。
Thumbnail
本文探討毛利率在企業經營和投資決策中的重要性,以淺顯易懂的方式說明毛利率的計算、應用以及如何透過觀察毛利率趨勢,判讀企業的經營績效與投資價值。文章並結合實例分析,說明如何避免毛利率數據陷阱,並提供判斷公司優劣的實用方法。
Thumbnail
本文探討毛利率在企業經營和投資決策中的重要性,以淺顯易懂的方式說明毛利率的計算、應用以及如何透過觀察毛利率趨勢,判讀企業的經營績效與投資價值。文章並結合實例分析,說明如何避免毛利率數據陷阱,並提供判斷公司優劣的實用方法。
Thumbnail
這篇文章探討AI如何影響企業和個人,並特別介紹李宏毅教授的觀點。文章涵蓋AI帶來的效率提升、成就感下降的矛盾,以及中高階主管如何聰明運用AI,避免偏見和錯誤決策。此外,文章強調理解AI原理的重要性,並鼓勵持續學習以適應AI時代。最後,文章宣傳作者的AI課程和社群媒體平臺。
Thumbnail
這篇文章探討AI如何影響企業和個人,並特別介紹李宏毅教授的觀點。文章涵蓋AI帶來的效率提升、成就感下降的矛盾,以及中高階主管如何聰明運用AI,避免偏見和錯誤決策。此外,文章強調理解AI原理的重要性,並鼓勵持續學習以適應AI時代。最後,文章宣傳作者的AI課程和社群媒體平臺。
Thumbnail
加盟創業是一種快速進入市場的經營模式,對於初次創業者而言,選擇合適的加盟品牌和了解相關契約細節至關重要。本文介紹了在加盟創業過程中需注意的關鍵事項,包括品牌信譽、市場調查、自身能力、資金準備、加盟契約等,以協助創業者做出明智的決策,降低經營風險,提升成功機率。
Thumbnail
加盟創業是一種快速進入市場的經營模式,對於初次創業者而言,選擇合適的加盟品牌和了解相關契約細節至關重要。本文介紹了在加盟創業過程中需注意的關鍵事項,包括品牌信譽、市場調查、自身能力、資金準備、加盟契約等,以協助創業者做出明智的決策,降低經營風險,提升成功機率。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News