
《現代孔乙己:盡信AI不如無AI》
在魯迅先生筆下,孔乙己是個典型的假知識分子。他熟讀四書五經,會寫一手好字,卻連最基本的生計也無法維持。最終,他因偷竊而被打斷腿。在咸亨酒店眾人的嘲笑中潦倒而終。魯迅先生塑造了孔乙己這樣一個既可笑又可悲,只懂鑽故紙堆,沒有實際營生技能的讀書人形象。他們以為背誦文章、炫耀字詞就是智慧,卻缺乏獨立思考,也沒有實務能力。他們在潮退以後,才發現自己不過是裸泳的泳客。
如今,生成式AI橫空出世,現代人似乎連像孔乙己那般刻苦背誦也不需要,只要按下幾個鍵,論文、報告、甚至法庭文件就躍然紙上。語法無懈可擊、邏輯亦看似嚴密。然而,當我們深入探究,這些「完美」卻經不起推敲,空泛不堪。更可怕的是,AI幻覺 (Hallucination或稱人工幻覺),讓AI憑空編造數據,看似合理,實質荒謬。使用者卻渾然不覺,又沒有求證的意識,甚至被指出錯誤後,仍執迷不悟地堅持「AI說的才是對」。孔乙己自以為熟讀了四書五經,就等於掌握了知識;這些人以為手持AI,就握有知識的萬能鑰匙,卻不知道自己正一步步走向「斷腳」的命運。
大學生們見對期末論文,不再翻書、不思辯證,只需輸入提示詞和指令,AI便吐出一篇結構完整、引用豐富的文章。表面上一切完美:開頭有引言、中間有論證、結尾有總結,起承轉合得相當完美。但當老師或同儕追問細節,學生往往支吾其詞,無法解釋為何選擇某個數據,或如何推導結論。因為他們從未真正「思考」過。
AI的運算是一個概率模型,而非基於真實知識庫。AI模型是一種在包含大量信息的數據庫上訓練而成的程序。訓練過程中能使AI模型學習數據中的模式和關係,從而對未曾見過的新數據進行預測或決策。就像教一個孩子識別不同種類的動物,你可能會給他看貓、狗等圖片,並告訴他每種動物的名字。但如果有人為一張圖片錯誤命名,或是孩子看到了鴨嘴獸的鴨嘴就以為牠是鳥類呢?
學生在使用AI生成論文時,AI有可能生成虛假引文,捏造一篇不存在的期刊論文,或杜撰統計數字。這些錯誤包裝得天衣無縫,讓人難以察覺。除非你本身對相應的知識有基本掌握,或是不犯懶,親自查核資料的實際來源與真偽。
有時,他人經查證後會發現資料有誤,AI使用者卻振振有詞,認為AI生成的不會有錯。明顯可以看到,這個人沒有掌握知識,他只是盲信。在現今社會,大家基本都受過基礎教育,理應有受過一定程度的知識洗禮,然而很多人腦中竟無一絲批評濾網,無法分辨真偽。別人說的不信,叫他自己去尋找資料又懶,不然就是找來的資料不支持自己的論點的話就一概不信。這是獨立思考能力的徹底淪喪。
這種現象不限於校園,也不限於社交媒體。這種現象已延伸至專業領域。於2023年,一起紐約案件相當經典:兩名律師使用ChatGPT輔助撰寫訴狀,AI憑空捏造六個以上相關法院判例,但被告律師團和法官本人,卻都無法找到訴狀中援引的條文與結論。
人類不應對AI過度依賴。AI本該是工具,用來分析數據,而不是直接當作「理據」。當筆者偶爾在社交媒體上看到有人用AI生成的論點作辯論,總是會感到相當煩躁,這些人已經完全放棄了使用他們的腦袋。AI本身沒有任何過錯,錯的是使用的人沒有獨立思考能力。再多的工具,都彌補不了思維的空洞。孔乙己死記硬背的知識沒有用,新時代的AI更讓人自以為聰明,卻淪為愚者。剪刀本無錯,笨蛋也沒問題,但把剪刀交給笨蛋亂舞就是一個錯誤。AI就是那把鋒利的剪刀,既能剪出別出心裁的圖案,亦能割傷自己,殘害他人。若使用者缺乏判斷力,即使是給兒童使用的安全剪刀,也可能會傷人害己。
知識不是按鍵生成,而是內化、批判、應用。AI的作用在於輔助思考,而非取代。否則,你會發現自己只是另一個孔乙己,在他人的嘲笑聲中爬行,仍自欺欺人。
文 / 薄墨
The ChatGPT Lawyer Explains Himself
ChatGPT: US lawyer admits using AI for case research

























