最近在思考寫作主題的時候,會嘗試和ChatGPT討論,或者請它幫我查找,是否有相關的學術資料。譬如「未來感與儲蓄的關係」、「天氣如何影響購買意願」的文獻,都是在這樣的討論中被提出來,我才去找來讀。
這對我來說是個滿不錯的學習方式,因為自從離開學校之後,我們幾乎不會去讀那些學術文獻。但透過這種方式,我可以先從自己感興趣的主題出發,並以「寫作」為目的,有方向地找文獻來讀。
然而,也有幾次,嘗試搜尋ChatGPT提供的文獻時,我卻什麼也找不到。再次向它詢問細節時,它才向我承認,那些文獻是它「舉例說明用的一個可能參考來源,而非確切存在的文獻」。在得到這個令人惱怒的回答後,我請它記住絕對不要虛構文獻,但我還不能確定,這樣的規範是否真的能阻止它再次做出類似的行為。
這件事再次提醒我「AI幻覺」這件事的嚴重性,雖然我會去查證,所以不至於直接引用那些不存在的資料。然而,之所以我會這麼做,是因為我已經對這段「幻覺」的內容感興趣,想要花心思研究。而如果我對它的興趣沒那麼多,或者只是隨意看過去,一段虛假的「理論」就會這樣輕易地被印入我的記憶裡。
這整件事情會在至少兩個地方出現糟糕的分支:第一個,另一名AI的使用者,它並不查證,直接相信了AI給出的內容,甚至將它分享到網路上或現實中的社群,讓這個從來就不實的消息被愈來愈多人相信。
並且,由此會導致出第二個狀況,我們在查證的時候,可能會查到來自於其他使用者轉述的AI幻覺,並信以為真。而且,目前早就有很多的內容農場,不停地利用AI生成大量難辨真假的文章。
在學術文獻的例子中,我們還比較能夠判斷是否真的有這篇論文,但如果是國外新聞或歷史軼事,除非出自於某些特別具有公信力的媒體或網站,我們幾乎不可能真正有自信地判斷,自己引用的資料來源,到底有沒有充分的可性度。
*
兩個維基百科條目上發生過的造假事件可以說明這個問題的嚴重性,一個是英文維基上的艾倫.麥克馬斯特(Alan MacMasters)事件、一個是中文維基上的「折毛事件」。
艾倫.麥克馬斯特在2012年的一次講座中,聽到一位老師告誡大家不要輕信維基百科,並舉了自己好友在英文維基百科的「烤麵包機」條目中,把自己標註為烤麵包機的發明者。
艾倫和他的朋友聽完講座之後,立即查看了那個條目,並用自己的名字替換了講師朋友的名字。宣稱這位名為「艾倫.麥克馬斯特」的發明家,1893年於愛丁堡發明了烤麵包機。
一年之後,艾倫的朋友艾力克斯進一步升級了這個惡作劇,他建立了一個專門介紹艾倫.麥克馬斯特的條目,並虛構了「初代烤麵包機」的起火軼事。但他沒有料想到的是,陸陸續續地,報章雜誌、百科全書、機構、甚至博物館都相信了這些故事,並將它延續了下去。
食髓知味的艾力克斯,便接著將這些媒體與書籍提供的資料當作來源回饋到條目中,並適時添加一些新內容,擴充艾倫的事蹟。不知不覺中,艾倫.麥克馬斯特成為了蘇格蘭人津津樂道的「蘇格蘭傑出人物」,甚至曾被提名要出現在五十英鎊紙鈔上。
直到2022年七月,一名學生注意到艾倫.麥克馬斯特的相片是經過圖像處理過的照片(那其實是艾力克斯自己的照片),並非真實的19世紀相片,這個惡作劇才被發現。但時至今日,我們還是會在很多地方看到有人說烤麵包機發明於1893年的愛丁堡,或看到蘇格蘭發明家艾倫.麥克馬斯特的大名。
「不存在的發明家」艾倫.麥克馬斯特的偽十九世紀照片
*
而中文維基上的「折毛事件」,同樣是條目造假事件,且同樣於2022年被拆穿。但這個事件的規模比「烤麵包機」大得多。
用戶「折毛」偽造了超過兩百篇關於俄羅斯古代史的條目,創造了不存在的「卡申銀礦」、「韃靼大起義」,以及諸多虛構的戰爭與歷史細節,甚至以假亂真地配上了當時的勢力地圖,讓人根本不會想到那可能是假的。
且為了增加自己的可信度,折毛還費力打造「與俄羅斯人結婚的歷史學者」人設,開了多個帳號彼此互動。因此,在這個相對冷門的「古俄羅斯史」中,條目的可信度鮮少受到懷疑。就算其中有被質疑的部分,多半也只是刪除部分段落,大量虛構內容仍被保留。
直到2022年,一名小說作者在查找資料時意外發現了過去從未聽過的「卡申銀礦」,在他將這個疑問發到歷史討論群後,發現除了中文世界,其他地方都查找不到關於這個銀礦的資料。
網友更進一步發現,有問題的不只這一個條目,其作者折毛撰寫的其他條目也有問題,許多條目都比俄文與英文維基百科還要詳細,才終於拆穿了這場巨大的騙局。
折毛虛構的勢力地圖
*
上述這兩個事件並不是「AI幻覺」,而是人為的虛假訊息。然而,它們卻在長時間裡大量傳播,被不同人與單位採信、翻譯到其他語言,滲入到其他具可信度的真實資料之中。
也就是說,最可怕的不是「幻覺」本身,而是「傳播」。只要我們沒有及時阻斷,幻覺最終就會成為歷史的一部分,並在循環報導之中積累credit,變得更難被推翻。
而且,之所以這兩個事件最終能被拆穿,除了「剛好有人感興趣」的這種偶然,也是因為它們內容足夠豐富,讓人們可以從中找到明顯的漏洞,從中抽絲剝繭發現真相。但如果是一整篇真實的文章中,其中只有兩三句話是的假訊息,我們根本難以查證。而這正是AI幻覺最常出現的情況。
在可見的未來之中,我們的查證還會變得更加事倍功半、更加難以確定。而且,散布這些訊息的可不會只有艾力克斯或折毛這樣的個人惡作劇者。帶有惡意的詐騙分子與敵對國家都不會放過這種成本愈來愈低的攻擊手段。我們只能提高警覺,隨時準備好修正一切自己不久前剛看到的資訊,並在轉發之前做基本的查證,盡力避免自己也成為假資訊的傳播者。
延伸閱讀: