
文/喬正一
有一則令人震驚的國際新聞:挪威一位市民霍爾曼,問 ChatGPT「我是誰?」,竟被回答:「你是殺害自己兩個孩子的兇手,已被判21年徒刑」。問題是——這根本不是真的。
這位男子根本沒有犯罪紀錄,卻被 AI 硬套上一個子虛烏有的悲劇故事。結果,他氣到向挪威資料保護局投訴,控告 OpenAI 誹謗與違反資料保護法。
這一則新聞,讓我深刻思考一個問題:
我們正在大規模使用 AI,但我們真的知道它什麼可以信,什麼不能信嗎?
一、AI 仍然可能出錯,尤其在「人名 + 故事」的組合上最危險
ChatGPT 和其他大型語言模型,雖然強大,但有個致命盲點:
它會「猜」,而不是「查證」:
這種現象叫做 hallucination(幻覺生成)——模型找不到答案時,會根據模式、邏輯、常見句型去「亂補」。所以你問它「XXX是不是犯了什麼罪」,它可能會:
- 拿別人的故事套在這個名字上
- 把真實地名 + 猜測的案件 + 自行捏造的年份揉成「聽起來超真實的假故事」
二、使用 AI,你可以這樣防範誤導風險:
1. 不要問 AI「我是誰」、「某人做了什麼」這類問題
除非是公眾人物,否則 AI 容易掰故事給你聽。
2. 得到任何重大答案時,「Google 二次查核」是基本功:
AI 不負責任,結果錯了你得自己扛。
3. 對 AI 提供的「新聞」、「案例」、「法條」,要比對來源與真實性
4. 記錄 AI 回答的內容(截圖 / 存檔),保護自己也保護別人
5. 不輕易把自己的全名、地址等私密資料輸入給 AI
你不知道它的下一版會怎麼用這些資料。
三、那 AI 在「法律專業」上到底能不能信?
這個問題我自己也很認真想過。因為我問 ChatGPT 的法律問題,有時它的分析讓我驚艷,甚至比某些律師更清楚、條理更明確。
但這裡要劃一條很重要的界線:
AI 可以做的:
解釋法律條文、制度、概念
拆解考題、輔助教學
整理法條、案例、比較見解
協助草擬教案、論文、訴狀樣板
AI 不該做的
判定某人有罪/無罪
判斷誰該賠錢誰有責任
給當事人法律意見作為依據
當作法律顧問或代理人
換句話說,AI 是超強助理,但不是你家的律師。它可以幫你準備與搜索資料,但不能幫你做出法律決定。
四、AI 不會取代律師、檢察官與法官,但會淘汰「只會複誦條文」的人
AI 可以整合知識、列點清楚、效率高,但:
- 它不懂複雜的人情
- 它無法看到當事人複雜的情緒、糾葛與脈絡
- 它無法出庭、說服檢察官與法官
- 它無法承擔法律責任
所以真正會被取代的,不是律師,而是缺乏同理與判斷力、只會背法條的人。
真正的法律人,應該更懂得如何駕馭 AI 作為輔助工具,幫助自己教學、寫作、思辨,而不是被 AI 駕馭、甚至被它誤導。
五、最後一段話,送給跟我一樣正在「人與AI」邊界上思考的朋友:
AI 很強,但我們更要強的是判斷力。把它當助理,不當真理機。真相還是得靠人,尤其是清醒的、有責任的那個人。
如果你也覺得這篇文章對你有幫助,歡迎留言、分享,幫我按個讚或點一下廣告,讓更多人學會在 AI 時代「自保」與「進化」。
Joe 正一|線上法律教學者 & 小說創作者