
中山大學社會學系的葉高華老師,最近在臉書上揭露自己的名字出現在幾篇學位論文的引用資料當中,但他完全沒有寫過那些被引用的論文。
這種「虛構文獻」、「幽靈論文」的情況也發生在其他老師身上,他們的名字都被和自己無關的研究題目連結在一起,研判高機率是研究生濫用AI寫論文產生的結果。
AI幻覺污染資料的時代,顯然已經在我們來不及防堵的時候造成嚴重影響。
這件事也不只是學術界的問題,凡是內容產業、出版產業,都會造成不小的衝擊。想想編輯除了文字校對、確認各種細節以外,還要確認作者的引用資料是否正確。正確的資料已經要確認半天了,現在還要面對AI的干擾,真的讓人頭皮發麻。
就學校報告和學位論文的AI污染而言,學校老師縱使有心,可能也沒有力氣幫學生做太多。
為了因應AI浪潮,有一種主張說,既然不可能完全不用AI,那就「聰明用」。但我認為這種說法有一些根本上的問題,也許可以討論看看。
一、「聰明用」的標準和基礎?
當前提出「聰明用AI」的專家或老師,多數其實都經歷過沒有AI工具的時代和條件。換言之,正是因為沒有經歷過AI工具的影響,所以才能掌握知識建構與流動的路徑,切身知道學術規範、研究和寫作倫理是怎麼一回事。
但這些「基本功」在資料爆炸、AI氾濫的時代裡面,可能變得非常難建構。別的不說,有些資料透過AI,查找檢證的難度不見得有比較低。因為AI背後的資料庫範圍實在太大了,到底哪些是真的?哪些是幻覺?哪些是幻覺+真實?哪些是真的有用?
有辦法在這種環境中檢證資料、聰明用AI、駕馭AI的人,是因為有相對應的知識基礎。沒有那個知識基礎和古典訓練,可能沒辦法了解「聰明用」背後的真義和價值。
二、「不要用」的實踐?
這裡說的「不要用」,聽起來非常激進,但不見得完全沒有實踐的可能。如前所述,AI越氾濫,我們應該越有必要強調古典訓練作為AI使用基礎和內容生產的最後一道防線。
AI技術當前最大的問題是,在資料庫和幻覺之間,生成式內容產生了龐大的核實成本。以前寫東西檢證資料來源的那一套,面對AI的真假和價值,可能得耗費更大的心神。如果沒有建構相關的應用倫理,根本無從防範AI幻覺和虛構的入侵。
因此,在各種實務或訓練的AI應用之前,如何重新提供練習尋找資料、檢證資料、判斷資料的能力?怎樣裁剪適當的內容範圍當作練習,或是設立更嚴格的檢核標準,呈現「在沒有訓練的狀況下,用AI付出的成本其實更高更危險」的潛在問題?而這個時代,又有什麼機制能讓原生的好內容獲得更多的肯定?
三、AI背後的真正危機是什麼?
同網路剛問世對世界文明造成的衝擊和改變一樣,AI的劃時代進步,也必然對文明知識的內容帶來影響。但AI除了技術問題演進,在使用者心理與價值觀的衝擊與照見,恐怕更為直接赤裸。
我認為AI之所以能跳躍性的進步,回應的固然是當代資訊發展、內容的極速現況。但這種極速背後,反映的是當前內容時代的多元競爭,以及低注意、強刺激、快消費的變化,各種內容在現實和網路的「滯空續航力」和「長尾效益」不如以往的傳播環境。
這種現實,更加劇了壓低內容製作成本和縮短時間的生產需求。它不見得全然是惰性,而是對於內容生產的價值認知和品質要求,已經出現「典範轉移」,原生AI世代對這些關鍵字,可能有著完全不一樣的想法和詮釋。
這些想法,加上當前網路的生態,形成一種使用各種數位工具的價值觀:要在短時間內取得內容、換取流量、得到成就。有問題又如何?反正炎上一下下就過了,信用貶值又如何?推給一個目前還不知道如何究責的AI,多方便?
古典傳統訓練可能不是萬靈丹,但卻是重新思考AI問題的起點。說不定以後會用AI的人滿街都是,但能紮實做出學問的人,會是稀有動物,進入另一個完全不同的高階市場。
未來不是靠會不會用AI決勝,而是靠誰能把AI用得負責任、有價值。