我大約在兩年前到中興大學TED演講,題目是:AI判官行不行?
當時在說明世界與台灣法官在應用生成式AI的實務情況,以及法源依據。
兩年過去了,世界各地陸續出現實證研究報告,就可以來延續之前這個類似的話題,並回頭來看看可對台灣有何啟示。
《法官使用生成式AI:實踐經驗與啟示》
報告資訊: AI Policy Consortium for Law & Courts(NCSC × Thomson Reuters Institute)|2026年3月
一、研究背景與目的
本報告係「法律與法院AI政策聯盟」治理與倫理工作小組主導,於2025年10月至11月間對美國10個州的13位現任法官進行一對一深度訪談(涵蓋最高法院大法官、上訴法院、一審及專業法院)。
研究動機在於:市場上針對企業與律師的AI調查已汗牛充棟,但以「法官本身」為研究對象的實證資料卻極為匱乏。
二、主要發現
(一)法官如何使用GenAI?
受訪法官普遍以「法律實習生」比喻GenAI——只在已掌握大方向的前提下,才交由AI處理輔助性工作,並嚴格覆核。
實際使用場景集中於低風險、高重複性工作:
•大量訴狀與卷宗的摘要整理(並自動生成有出處引用的時間軸)
•確定裁判結論後,協助草擬特定段落初稿(如法律標準說明)
•規劃CLE課程、演講稿、法院行政文書
•快速梳理特定法律問題的既有見解(事後必須自行驗證引用來源)
所有受訪法官一致表示:「裁判什麼」的核心決策,始終由法官獨立行使,AI只能影響「如何呈現」。
(二)主要效益:
大幅縮短文件處理時間、減輕重複勞力、間接提升司法近用性。
(三)主要風險:
•幻覺問題:
幾乎所有法官都曾遭遇AI捏造不存在的案件引用——這是目前最嚴重的技術風險。
•隱私與資安:
訴訟資料可能遭外部伺服器擷取;受訪法官多人表示會審閱服務條款。
•AI書狀海嘯:
擔憂自我代理訴訟人大量產製篇幅冗長但內容有誤的AI書狀,反加重法院負擔。
•公眾觀感:
缺乏透明揭露機制,可能引發司法公正性疑慮。
三、政策建議
報告提出六項核心方向:
1.「人在迴路」原則:
AI輸出須經法官實質審閱,不得直接作為裁判依據。
2.漸進式採用:
先從文件摘要等低風險場景試行,再評估擴大應用。
3.建立揭露機制:
涉及AI輔助的訴訟文件應說明使用情形。
4.強化資安:
優先採用本地端部署或專用雲端,建立身份驗證機制。
5.提升AI素養:
透過CLE課程系統性建立法官的AI識讀能力,納入「勝任能力」倫理義務。
6.院際治理規範:
建立一致性的系統層面政策,避免個別法官「各行其是」。
四、對台灣的啟示
1.司法院現有方向符合原則:
司法院的「智慧化裁判草稿自動生成系統」以高度類型化犯罪為試行領域、法官最終審定,與報告「AI輔助而非取代」的核心精神相符。
2. 幻覺風險的防範:
若法官私下使用商業GenAI(ChatGPT、Copilot等)輔助法律研究,台灣同樣面臨幻覺風險。建議司法院研訂驗核準則,防止引用不存在或錯誤的判決先例。
3. 倫理規範更新迫切:
現行《法官法》與《法官倫理規範》未明確規範GenAI使用情境。應考量增訂:AI輔助裁判的揭露義務、AI素養納入勝任義務範疇、明文禁止以AI取代法官獨立裁量。
4. AI書狀海嘯的預警:
隨中文GenAI品質提升,台灣法院可預見AI生成書狀激增、品質參差不齊的挑戰。建議預先評估對案件管理系統的衝擊,考慮書狀揭露義務。
5. 資安治理的急迫性:
使用境外商業GenAI服務處理訴訟卷宗,涉及個資或商業機密的文件面臨外洩風險。建議優先採用本地端部署或政府雲端專用環境,並制定資安標準。
6. 法官學院的AI培訓:
建議司法院法官學院將GenAI基礎知識、倫理應用與風險識別納入常規繼續教育,並設計具體操作案例與判斷框架。
綜上所述,生成式AI可以是強大的司法輔助工具,但「法官永遠是最終決策者」這一原則不可動搖。台灣推進方向大致符合此精神,在倫理規範明文化、資安治理、AI素養培訓三面向仍有重要的制度建設空間。
資料來源: NCSC、Thomson Reuters Institute、ABA Journal、司法院官網
另可參閱:
法院使用人工智慧輔助審判對於訴訟之影響,陳唯仁。
生成式 AI 作為司法人員決策輔助工具的可能性初探:以 ChatGPT 為例,張巧函。