
書名:有罪、とAIは告げた
作者:中山七里推薦度:★★★★ 4/ 5
有聲書表現:★★★ 3 / 5
購書平台:Amazon(電子書)/ Audible(有聲書)
純粹是看到AI兩字,就腦衝下單來看的小說。好奇中山七里會如何用 AI 作為引子,搭建法庭故事。
⬛AI 法官「法神」的登場
小說描寫法官案量暴增,日復一日淹沒在卷宗中,身心俱疲。日本因國際與政治壓力,被迫引進來自中國的 AI 法官「法神」。這個系統號稱能在判決中「精確再現」真人法官的倫理觀、知識、文筆與裁決邏輯,不單是模仿,而是「再現」法官的思維與風格。
故事藉由一件社會矚目的重大刑案,一名剛滿十八歲的少年,長年遭父親家暴。某日爭執中,少年朝父親連刺十五刀,殺害直系血親尊親屬的重罪。
死刑,還是無期徒刑?真人法官與 AI 法官「法神」的判斷,會殊途同歸,還是分道揚鑣?
「法神」的效果顯著,讓許多真人法官躍躍欲試。也帶來哲學上的質疑。有一段法官的獨白耐人尋味:
「はじめは自分の書いた判決文と照らし合わせて〈法神〉の再現性を確認する。次は〈法神〉の弾き出した判決文が自分の考えと一致するか試してみる。これが現時点の俺です。ここまではまだ、俺の出した結論が先にあるので自主性が保たれていると言えます。でも、判断に迷って、先に〈法神〉の判決文を読んでから自分の意思を確かめる。つまりカンニングのような真似をするようになった場合、俺の自主性は保たれていると言えるのでしょうか」
「一開始,我會將自己寫的判決書與〈法神〉的內容比對,以確認它的再現性。接著,我會嘗試判斷〈法神〉算出的判決書是否與我的想法一致。這就是目前的我。到這一步為止,結論仍是我先得出的,因此可以說自主性還在。但是,若是在判斷猶豫時,先讀〈法神〉的判決書再確認自己的想法——也就是做出像作弊一樣的舉動,那麼,我的自主性還能算是保有的嗎?」
這個想法真的很有趣,感覺也可以用來思考GPT的存在。當我們還沒有形成任何想法,就先閱讀 GPT給 的答案,我們的大腦早在不知不覺間被AI的敘事框架塑造,之後的判斷變得只是「修飾」而非「獨立推論」。我們以為是自主思考,實際上不過是沿著 AI 預先劃出的軌道前行,而這條軌道的方向,取決於演算法背後的資料來源與隱藏偏見。如果我們失去對起點的掌握,後續的判斷與選擇,也就很難再稱得上真正屬於自己,容易產生偏見或偏誤。
⬛資料真實性與演算法的黑箱
小說也提醒另一可能的問題:
餵養給 AI 的資料,絕對正確嗎?有沒有被刻意篩選?更新是否與時俱進?這些細節,都可能在不知不覺間,左右案件的走向與罪責的輕重。
這讓我想到Harari《連結》書中的案例:
2013 年,美國威斯康辛州的 Eric Loomis 因駕車槍擊案被捕。量刑時,法官參考了名為 COMPAS 的犯罪風險評估演算法,評估他「高再犯風險」,於是判了六年徒刑,比同類案件高得多。Loomis 上訴,要求公開演算法細節,卻因涉及商業機密被拒。批評者指出,就算資料無誤,也可能被錯誤解讀;而被告,不可能反駁所有公開資訊中隱藏的偏見。
Harari在書中問過一個看似簡單卻深奧的問題:「究竟什麼叫『相關』?」
「這種做決定的方式,雖然對我們來說可能很陌生,但顯然也有些潛在的優勢。一般來說,做決定的時候能考慮到所有相關的資料點,而不只是去看一兩項比較突出的事實,通常都是好事。但究竟哪些資訊才算『相關』,還有很多爭論的空間。要核貸的時候,是誰能決定智慧型手機型號或膚色算不算相關呢?」
⬛人類與 AI 的終極審判
或許,未來,真正的審判,不是在法庭,而是在面對 AI 的那一刻,我們究竟是掌握AI的人,還是被AI牽著走的人?
我覺得中山七里在小說裡想表達的,其實與Harari以下的警告,遙相呼應,很適合拿來做這篇心得的總結:
「人類其實既是地球上最聰明、也是地球上最愚蠢的動物。我們既聰明到能夠製造出核彈與超智能演算法,也愚蠢到就一股腦兒把這些東西都製造出來,都還沒搞清楚自己能不能控制它們,說不定會反受其害。我們到底為什麼會這麼做?是不是人類本性裡有什麼特質,逼得我們走上這條自我毀滅的道路?」