2023-11-28|閱讀時間 ‧ 約 4 分鐘

發現薇趨勢/當AI出現幻覺

近期一則有趣的生成式AI新聞,內容是這樣說的:「像是ChatGPT等生成式AI,跟人一樣會產生幻覺。所謂的幻覺,是指生成式AI用錯誤、甚至是不存在的資訊回答使用者的提問。其中的錯誤率,ChatGPT是3%,Meta旗下的聊天機器人是5%,而Google的PaLm竟高達27%。」

生成式AI產生幻覺,究竟是件好事還是壞事呢?答案其實取決於使用者更希望它是一個「工具」,還是一個「人」。

生成式AI的原理是這樣的:資料庫蒐集了一大堆資料,經由大型語言模型進行深度學習,在使用者問了問題之後,它重新組織答案,生成我們能理解的語言。

這個工具的侷限是無法回答資料庫沒有的資料。這有點像是小時候常常玩的連連看——第一個選項有張三、李四,第二個選項只有「去」,第三個選項有餐廳、山洞、海邊。用這樣的模組創造出的組合,其中一種會是「張三去山洞」;因為資料庫裡沒有其他資訊,所以它永遠不會出現「王五去百貨公司」。反觀,若生成式AI出現幻覺,那將可能跑出資料庫以外的答案。

美國CNN曾採訪專門研究AI的布朗大學教授,教授表示:「生成式AI的主要任務,就是提供使用者一個看似合理的答案,中間並沒有核實資料正確與否的步驟。與其說它們謊話連篇,出現幻覺;不如說,這樣的現象比較像是四歲小孩脫口而出的故事,本質上沒有惡意。」

如何辨別沒有惡意的虛假內容,便是使用生成式AI時必須核實的原因,這正凸顯了在便利的工具下,「人」特別的價值。

然而,生成式AI產生幻覺的意外,在短時間內很難解決,這讓許多懼怕AI工具取代自己工作的人鬆了一口氣。

其實,坊間對於這個工具的衡量維度過於單一,因而引起不必要的恐慌。舉例來說,常看到這類的新聞標題:「ChatGPT AI通過美國大學商學院和法律考試」、「Google AI醫療聊天機器人取得美國醫師資格證書」等。

試問,AI聊天機器人通過上述的考試,就能成為合格的商學院或醫學院的畢業生嗎?

這讓我想起從前的入學測驗與現在大不同。我考大學的那一年,入學管道還沒有那麼多元,只有「學測」與「指考」。學測成績搭配在校期間其他的優良事蹟,可以參加「推甄」;而指考就是以筆試分數為主的入學方式,答錯還會倒扣。雖然學測入學考慮了分數以外的向度,但筆試成績沒達到一定水準,還是很難進入理想的學校。

而現今,大學入學考試愈來愈多元,有繁星計畫、學測、推甄、特殊選才、分科測驗等,筆試成績不再是唯一的指標,這確實更符合國際上多元發展的風氣,強調不是只有智育成績優秀而已,更應該追求五育平均的發展。

而通過各式各樣考試的AI聊天機器人,就比較像是過去只追求筆試成績就得到入學資格的學生,除了考試的幾個科目,其他該具備的能力一樣都不擅長。

這樣看來,生成式AI要取代「人」,還需要花不少的時間;但作為化繁為簡的工具,卻已經足夠協助處理日常事務了。

產生幻覺的生成式AI,以文字生成來說,有點像是過去作文老師期待的,既要有邏輯,又要有想像力。而目前的實際是,有時天馬行空,有時胡說八道。端看把它當成是「工具」還是「人」,才能決定它是好是壞。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.