最近香港學術界鬧得最熱騰騰的,應該就是有香港大學的博士生論文出現「AI幻覺」,將不存在的論文作為引用。
有趣的地方是:
- AI作出來的論文出處非常像真的有包括:作者姓名-年份-期刊期數-頁數。
- AI連博士生的論文指導老師(也是該學系的副院長)也不放過,作了一篇不存在的論說是指導老師寫的。
結果就博士生沒檢查、指導老師沒檢查、校內評審沒檢查......還走去投稿刊登在期刊。
詳情可看以下:https://today.line.me/tw/v3/article/eL0kWBB
雖然後來網上討論有歪樓,都在談那個博士生的樣貌和與指導老師的關係(師徒關係?),或者大學對於學術上使用AI的程度和學術倫理問題(我們做論文的,英文串錯一個人就被罵翻了,因為spelling checking是基本中的基本也不用AI),但大學好像還俾機會這位博士生......
其實我想談的還是回到AI幻覺這回事。
AI近兩三年迅速「入侵」不同領域,生成和替我們做檢查的功能令很多要寫長篇大論或者分析資料的人非常喜愛。
但因為AI真的是人訓練出來的,就是「工具」,多少還是停留在「用來取代搜尋器吧」的時代。如果說搜尋器給你的資訊你也懂得先看看是否內容農場、是否失效網址,那為何AI給出來的大家又會無條件給矛這麼大的信心。
我覺得多少是因為AI近年被捧得太高太神了,令一眾還沒完全弄懂的人覺得AI就像開外掛,甚至下意識覺得AI比我還強了,我就不操心它做出來的事。
結果就是如我之前的一篇關於AI幻覺的文章所說,「聾的聽到啞的說盲的見到鬼」這種幹話型AI的出現。
要防止AI幻覺的方式有很多,除了限制使用AI的方式、程度外,科技上也有使用RAG伺服器和LLM大語言模型並行,藉此對AI給出來的回應做修正/限制(盡管RAG的實際運作並非完全在LLM後),這類像過濾的方式,多少能保證回應到使用者手中的資料有比較好、比較實在。
而說到底,這次也看得出人們使用AI的心態,我覺得已經不能算代表一個人了,是一個普遍現象,人們開始失去思考和覆檢的自覺。這才是最危險的。
萬一這篇論文出了期刊而沒人發現。下一次做相關題目的學者就會引用這篇論文,於是以「假托」的資料去論證的論文,成了「真」的論文去論證新的論文......簡單說就是由源頭開始歪樓了。
AI在工餘時間玩玩真的沒差,拿來做生財工具務必要小心。


















