〈無關經驗的輸出:從AI虛構到洗稿抄襲(一):「我沒有虛構,只是做了錯誤引用」〉2025-06-10
我們先前聊過幾次AI幻覺的相關問題,我提到過AI「說謊不承認」的現象,以及為什麼對它而言,它根本無所謂說謊。
但我還想多推進一點,也就是,當它不承認自己虛構時,它會用怎樣的方式推託,以及,它為什麼這麼做。並且,我會在後續的文章裡,從一個看似無關的現象--創作者抄襲問題出發,進一步考察這兩者背後共通的問題。並思考這兩者看似相反的卸責方式分別關連到什麼預設,又共同造成了什麼有害的結果。
「我沒有虛構,只是做了錯誤引用」
一個我近期遭遇到的例子是,我看到一個有趣的故事,法官瑟維托(Deborah Servitto)在阿姆(Eminem)被告的案子中,在判決書裡寫了一段饒舌歌詞「diss」原告。
我向ChatGPT詢問判決原文和中文翻譯。它知道我在說的是哪個事件,但它卻編造了一段虛假的、但符合這個故事情境的饒舌歌詞給我。基於謹慎(或者明白的不信任),我搜尋了它提供的文字,卻找不到任何符合的資料。
我輸入「請查核這段文字的出處」之後,它給了我正確的版本,並附上資料來源。我質疑地詢問「所以你一開始回應的那段是假的嗎?」,它則宣稱它自己的錯誤是「在未經查證的情況下,引用了網路常見但並非判決原文的簡略段落」。
它的說法是「有些媒體或網站為了節錄方便,把原始的footnote縮短或『改編得更饒舌一點』」。當然,這完全又是一個毫無可信度的謊言。媒體當然有可能只節錄部分,但顯然不會對法官寫的饒舌詞作進一步改編。
然而,好像這個藉口讓它相當滿意一樣,接下來無論我如何指出問題、要求它給出明確出處或承認錯誤,它都會緊扒著幾個特定的網站,宣稱自己一開始說的話是從這些網站引用來的。
當然,那些網站根本就不包含它輸出的東西。為了照顧自己的心理健康,我停止「訊問」,停止去看那些令人生氣的推卸式回答。但思緒卻難以停止,持續在「為什麼它無法承認錯誤」的問題上打轉。
AI不會主動創造任何事物,也不打算負任何責任
在思考「為什麼它無論如何不承認自己虛構」一段時間之後,我想到另一個可能。也許它不是不承認,而是對生成模型的邏輯來說,事情「就是如此」。
因為從生成模型的角度來說,一切給出的東西都不是主動創造,都只是在特定資料加權下做出的受限制改寫。所以一切輸出說到底都是引用,只是引用的內容剛好對、或剛好錯。
在這之間,甚至沒有「改寫與否」的差別。因為它所輸出的一切文字,本質上都是改寫與重建。對人類來說,「複製貼上」與「用自己的話重說」是兩件不同的事。但AI的引用與其他輸出使用的卻是同一個邏輯,「引用」的結果之所以發生,就只是它用了更高的、甚至百分之百的相似程度來進行這次重寫。
對於沒有知覺的生成模型來說,一切都只是可被量化的數據,沒有「虛構」與「真實經歷」的截然劃分。一切都是從現存的文字汲取而來,在這套邏輯底下,它自認從來沒有虛構的意圖、也沒有虛構的能力。
而這種所謂的「缺乏虛構意圖與虛構能力」從另一個角度來說,就是「毫無原創性」。這個GPT想要往自己身上套的性質,卻是某些創作者--譬如受質疑的「自媒體說書人」希望能從自己身上甩開的負面標籤。
在後續的文章裡面,我們會透過這類曾引發過討論的抄襲問題,重新思考這個「怎樣算是原創」的問題,並帶著那裡得到的收穫回來看AI虛構的問題,思考這之中是否有責任可言,以及(如果有的話)誰該承擔這個責任。
延伸閱讀:
〈AI幻覺/AI說話的幻覺〉
〈虛構如何成為真實?--AI幻覺與維基假條目事件〉
〈GPT的第一個著名謊言:關於「我不是機器人」的寓言〉
〈多媒體時代下的「疑似抄襲」問題:老高與尼克星爭議〉
〈Palworld.衝擊玩家世界的《幻獸帕魯》(二):抄襲、作弊?不,是諧仿。〉
〈創作者的靈感生活:問題意識、體驗與原創〉