作者:(田埂邊的哲學家)
現在很多人都在討論 AI 能不能當法官。技術團隊也開始用過去的判例來訓練 AI,希望它能學會怎麼判案。但我認為,這樣做不但危險,還可能讓司法制度越來越偏離法律本身的精神。

判例不是法律,它只是結果
判例是法官在特定案件裡做出的裁決,它反映的是個人判斷、當時的社會氛圍,甚至可能受到政治或情感影響。這些判決不是法律條文,也不是制度規則。如果 AI 用這些判例來學習,就等於是讓它模仿人的偏好,而不是理解法律的邏輯。法官的邏輯偏好可能有問題
每個法官都有自己的思考方式,有些人偏向保守,有些人偏向寬容,有些人甚至會因為個人經驗而影響判斷。這些「邏輯偏好」不是法律規定的推理方式,而是裁量的語氣。如果 AI 學到的是這些偏好,那它做出的判斷就會失去一致性,也無法承擔法律責任。
AI 應該學的是法律邏輯,不是裁判語氣
法律邏輯是什麼?它是根據法律條文、立法目的、制度設計來推論的方式。它有清楚的規則、有可追溯的依據,也有責任的承載力。AI 如果要進入司法系統,就必須學會這種邏輯,而不是模仿法官的語氣或結果。
用判例訓練 AI,會出現什麼問題?
- AI 可能複製過去的錯誤判決
- AI 無法分辨哪些判例是偏誤、哪些是合理
- AI 會失去法律的規範性,只剩下模仿能力
- 最重要的是,AI 無法承擔裁判的責任
結論:AI 是制度的容器,不是偏好複製器
AI 法官系統的設計,必須以法律邏輯為核心。它要能理解法律條文、制度架構、責任邏輯,而不是模仿人類的裁量結果。判例可以參考,但不能成為訓練的主體。否則,我們不是在創造一個負責任的制度工具,而是在製造一個偏誤的複製機器。
















