文/許騏祐
借用作者的話,原文試圖勾勒出一份浮士德式的契約,試圖將人類運用AI比擬成一次與魔鬼的交易,形塑出AI社會中墮落的方方面面。在我的理解下約可以分成下面兩個層面,跟大家進一步延伸討論AI如何影響法治與主體性:
法治層面
在此部分中,作者試圖主張AI將破壞「法律的雙重偶聯性(Double contingency)」、將執法的可能性易為執法的確定性。先談前者,作者提到,雙重偶聯性為雙方對彼此的行動預測帶有不確定性。然而因為AI「決策過程」中的不確定性(即原作者所謂黑盒子效應),缺乏了人類「預測AI如何看待人類」的面向,因此破壞了雙重偶聯性。而雙重偶聯性的破壞的問題,或許正在於後面所提出之執法的確定性。
為何執法的確定性對法治有所動搖?文章作者斷言:「個人在道德判斷時的價值選擇背後會有意圖與動機也不會受到ALI(法律人工智慧)執法系統的考量,人類也無法向ALI爭辯」,並舉了一個例證。在我看來,這裡卻略為不明確。作者於此似乎預設了,我們對於意圖與動機的證據,是透過特殊的方式被執法者或法官所理解,而非特定可被記錄下來的訊息。此前提卻相當可疑,難道我們對於意圖與動機的證據,無法被書面化成AI也能讀取的內容?
就如作者舉的例證似乎就反駁了自己的推論。我們所看到gemini的回覆(原文註13),不就考量了意圖與動機的層面嗎?我們仍可以懷疑這樣的解釋與實務脫節、與法感情脫節等,但看起來ALI確實能將這樣的資訊納入考量。
不過,我們亦可以思考作者所言雙重偶聯性,究竟在法律判決中性質上的差異。實務上,此類討論有名的為State v. Loomis案,其中法院運用一家公司所開發之演算法技術作為證據之一,判斷被告之再犯風險1。然而,其中的疑慮便是被告不願意接受這套技術作為被使用的證據。
此處的不接受至少可以深入至兩種層面:一、被告無法對於此證據之內容進行檢證、爭辯;二、被告拒絕被數據預測。此二概念都可以分別撰文談論,此處我們僅能簡單討論之。前者,正如作者所言之黑盒子,此處我們在意的並非ALI是否有考量到特定的資訊,而是ALI是否有合規的推理某些資訊。法治在意的並不只是結果上的合理性,亦在意產生結果的方式,如程序正義。這正是作者提到之可爭辯性(contestability)之內涵。
可是,即便可以得到完整的演算法,ALI運用數據一般推論出我的行為可能性,仍然使我們直覺地反感。這似乎沒有辦法完全被作者所稱「執法的確定性」所完整的解釋,因為即便人類運用大數據來對人類做出判決,人們同樣會對此有不滿的情緒。這種僅以統計預測個人、而對其有負面情緒或認知的過程,被Enoch與Spectre稱為一種「統計憤恨」(statistical resentment),正是在道德領域──尤其是法律──上所不能接受的2。或許這是更深層、根植於統計數據作為證據的倫理困難。
主體性層面
在文章中後部分,作者將重心轉向身而為人的主體性如何崩解。文中以相當多的論據來形塑這樣的主張:例如從輕推變成超輕推(hypernudging),藉由認知心理學的策略來形同控制個人的選擇;社會上,個人被演算法計算,成了一個又一個標籤的集合;心靈上的功能外包,讓我們逐漸成了慾望的奴隸;演算法信任下,導致的趨同與差異的弭平。
作者相當有野心,在此部分處理了非常多面向。值得注意的是,本文與Catena在人工智慧對人類自主(autonomy)影響上的文獻整理有相當多相似的觀察3。其將AI帶來的影響分成兩類:AI中介了人類的審思、決策的過程(如操弄、超輕推、演算法框架等)與AI自動化人類活動(如自動駕駛的替代、人類技能退化、受制於他物)。
正如同任何嘗試回答AI與人類自主問題的文章一樣,原文作者仍須面對一個難纏、卻無法迴避的問題:即我們究竟如何界定「主體」?原文試圖將其放在自主的面向上來談,自主的概念觀仍屬糾纏又百家爭鳴。正如同前揭文獻所指出,傳統個人主義式、康德式(Kantian)的自主觀,在當代AI倫理的討論當中,卻又更多與重視關係的自主觀匯流。
如果這樣的爭論差異並不明顯,或許我們可以看向另一組實際的判斷組合,即自主是內在或外在的?自主內在論者主張,自主僅在於行動者內在性質,如心理、信念狀態、價值觀與其之間的關係;外在論者則認為,一個人所處的社會情境、個人歷史的進程亦會影響自主的關係4。 讓我們試舉一例。一位成癮者只要不反對自己成癮的狀況與成癮帶來的動機,在內在論的觀點下看來就是自主的,外在論則會認為,成癮的源頭使得個人實際上沒有其他的選擇,從歷程來看是不自主的5。而不同的陣營作出的定義,也理所當然地影響著我們用什麼來界定AI是否自主。
另一種常見的處理方式則轉向實用主義(pragmatic),重點不在於AI實際上是否有形上學的人格、把人格視為一種真理追尋,實用主義則關心我們有什麼實際上的問題需要被解決6。在這種取徑下,我們更關心實際上要對特定的AI做出如何的限制並授予適格(standing),以便與AI的時代共處。
因此,原文中作者所談主體性的喪失,自然需要連結到一套具體的自主觀念上。如此,究竟這是一份浮士德式契約、還是如科技樂觀者所言是科技輔助人類的新一個里程碑,這個問題才能坐落到一套實質的判準上被回應。
綜合上述,無論AI是否具有主體性、是否影響了人類的自主地位,我們都必須承認這樣的科技將無孔不入的滲入我們的生活、動搖法律當時確定性的概念觀。在這樣的時刻,一味地懷著過去的認知習慣、法律思維只會陷入循環,重新審視我們舊有生活習慣、觀念的根據方能對科技的影響保持警惕,並發展一套具有公眾共識的共處模式,這正是法哲學的時代意義。
註腳
- State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
- Enoch, David & Spectre, Levi (2021). Statistical resentment, or: what’s wrong with acting, blaming, and believing on the basis of statistics alone. Synthese 199 (3-4):5687-5718.
- Catena, E (2026). AI and human autonomy: a literature review. AI Ethics 6:126. https://doi.org/10.1007/s43681-025-00958-4
- Ben Colburn, The Routledge Handbook of Autonomy (London: Routledge, 2022), 3.
- Buss, S., and A. Westlund (2018). Personal autonomy. In The Stanford Encyclopedia of Philosophy (Spring 2018 Edition), ed. E. N. Zalta. https://plato.stanford.edu/archives/spr2018/entries/personal-autonomy/.
- Leibo, J. Z., et al. (2025). A pragmatic view of AI personhood. arXiv preprint arXiv:2510.26396.
臺大法律系學會學術部 | 編輯:葉方叡