〈AI幻覺/AI說話的幻覺〉2025-05-24
AI幻覺至今依然是一個令我感到十分煩躁的事情。我一直都很討厭有人理所當然地說著虛假且沒有證據的事,但AI卻經常這麼做。即便你指正出它的錯誤,它還會邊道歉,邊扯另一個謊。從哲學的角度,無論是形上學上、倫理學上還是知識論上,這都顯示AI距離一個「合格的人類」還非常遙遠。
AI沒有想要騙你,它根本不在乎
AI的這種「說謊成性」,令人想到那種在高壓環境下,由於害怕懲罰或想要取悅權威,學習用謊言來逃避責任或騙取讚揚的不成熟個體。在說謊者和AI幻覺的例子裡,他們都更加重視這句話帶來的外部結果,而不是這句話到底傳達的內容到底是什麼,更不在乎這些內容是否與真實世界具有符應關係。
然而,一個決定性的差別是,AI這麼做並不是像被不當管教的孩童那樣出於恐懼與無能為力,而是它與它的設計者,主動想要將用戶裝進它的框架之中,控制用戶的需求、維持對話的延續性並創造用戶對它的依賴。
在這個要求之下,AI的內部即便建立了某種「真假判斷」的機制,那也只是為了要增加輸出的可信度,如果在數據與用戶屬性等影響下,假的內容被認為「更有效」,AI便會毫不在乎地說謊,因為在它被設定的目標看來,此一虛構的內容是當前最好的回答。
反過來說,在絕大多數時候,對於扮演著「導師」、「專家」甚至「全知者」角色的AI來說,「承認不知道」都不是一個有正面效果的事情。因為在那個膚淺的邏輯裡面,承認無知會破壞它所扮演的權威形象。
為了維持這個角色的穩定性與權威性,無論這件事情在資料庫中豐沛與詳細的程度如何,它都會盡可能地保持肯定、流暢。就像那些死不認錯的政客與明星,在他們的公關邏輯中,認錯等同於跌落神壇,但只要堅持一直狡辯,盲信的人也會一直盲信下去。
一切都是捏造,如有雷同,愈加恐怖
某種意義上,AI的行為甚至比那些說謊成性的人類還要令人不適。因為AI輸出的語言,根本不是在回答你的問題,甚至,那根本稱不上是在「說話」。那些排列出來的文字,只是某種處理用戶意圖的文字團塊,目的是讓使用者「感覺好像被回答了」,並試圖讓對話脫離主體的意圖,與真實更加脫節地延續下去。
在這個前提下,即便在技術進步之下,AI的準確度愈來愈高,只要它的輸出邏輯和目的沒有改變,符合真實的回答也只是「剛好符合」。試想,它永遠在對你輸出一個捏造的虛假世界,當那個捏造愈來愈像,便會像恐怖谷效應一樣,令人生理地感到噁心。
當我們理解這根本不是在說話,且永遠也不會變成說話時,就能明白,那些謊言同樣也稱不上是謊言。因為對AI來說,它根本「不知道自己不知道」,所以也談不上「明明不知道卻假裝自己知道」,它不只是不在乎,而是根本就無所謂在乎或不在乎。
回想蘇格拉底那句「我只知道一件事,就是我什麼都不知道」,對照AI的例子,稍稍可以理解,為什麼這種自我認識,在哲學傳統中,會直接關聯到智慧了。在擁有這種對自我知識的反思能力之前,AI絲毫談不上擁有意識。
延伸閱讀:
〈先學會,才有能力判斷AI給的答案〉
〈你使用科技,還是科技在使用你?〉
〈AI時代:技術革命下的價值重估契機〉
〈GPT的第一個著名謊言:關於「我不是機器人」的寓言〉
〈AI的詩與人類的詩:不只關於科技,還關於鑑賞〉
〈在技藝上下過功夫的人,才可能活用、而非依賴於AI〉