當AI語言模型開始「看見」不存在的事物
在現今AI人工智慧的語境中,「模型幻覺(hallucination)」1 指的是AI模型生成了看似合理但實際上錯誤或虛構的內容。這種現象揭示了AI在語言生成過程中的一個核心問題:它們可能會自信地提供不正確的資訊。
<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結>
一、OpenAI 對「模型幻覺」的定義與觀察
OpenAI指出,語言模型有時會產生不正確或無根據的回答,這種問題被稱為「幻覺」。這些幻覺可能源於模型在訓練過程中學到的錯誤模式,或者是在面對不熟悉的輸入時,試圖生成最可能的輸出而非最正確的答案。2
而其中也提到使用SimpleQA來測量大型語言模型的校準這件事,衡量校準的方式是使用者給予較有信心的答案。就此概念來看,使用頻率越高的模型可能因此響應它的準確度。3
二、語言結構性重建的策略性實踐
與AI模型幻覺不同的是,一種有意識地採取語言結構式重構的型態。重構者會對於語境本身有深入理解並重組語言結構,來促使受眾反應與理解其欲表達的的核心議題。
通常語言結構重建者會思考以下因素來作為實踐
● 語境的適配性:確保語言使用符合當前的社會文化背景,也就是說語境是能直觀可理解的。即使是專業領域也應該是該專業領域能直觀理解的語境。例如相關於商業、生活、動漫、哲學、程式語言等。
● 受眾的認知結構:由於結構重建者對於該語境本身有深入的理解,故能夠在理解受眾的知識水平和期望之下,配合受眾以調整語言的複雜度和轉換為不同的表達風格。
● 語言的策略性:結構重建者通常是為使用語言來達成特定的溝通目標,如說服、啟發、說明或動員,所以在核心概念上會有其一致性,並有促發行動動機。
這種語言語結構性重建是一種主動的、策略性的語言實踐,與AI模型的被動生成會形成明顯的對比,因為AI語言模型的展現型態是一種收斂與吸收,而語言結構性重建往往會展現彰顯與外展的特質。
三、仿冒式語言語結構性重建:目前AI模型幻覺定義的最大挑戰
AI語言模型在生成內容時,是可以模仿語言語結構性重建者的語言風格和結構,但會明顯缺乏其背後的策略性和語境敏感度,這是由於模仿者可能不了解該語境之下的真實意義或核心價值。但這種模仿可能導致以下問題:
● 語境錯配:因為AI在生成的內容時,可能不了解該語境背後的深度或意義,導致誤解或產生一種只要外匡沒有深度內涵的文案,這種情境下會只有該領域的專業者能看得出來。
● 缺乏策略性:因為模仿者通常會以流量或自我彰顯為目的,無法根據溝通目標調整AI的語言策略,所以可能無法有效達成溝通目的,有時甚至會產生誤導作用。
● 語言的僵化:由於仿冒式語言語結構性重建者可能缺乏靈活性,無法適應動態變化的需求,所以可能不斷地重複無意義或不能理解的關注訴求。
仿冒式語言語結構性重建會是目前AI模型幻覺定義的最大挑戰。因為語言結構重建者通常在建構語言是有主幹發展期脈絡,而不是將規則框架複製貼上換一種語言來模仿。
四、低門檻識別(四個直覺判斷法)
Q1:這讓我感到更清晰還是更迷惑?
Q2:我能否在這個內容主幹中,發展出自己的一套邏輯想法?
Q3:內容持有者是否讓人感到能對內容有責任感?
Q4:互動中是否能感到結構式引導?還是越來越迷?
以上內容為本人近期對AI倫理與責任的觀察歸納觀點,非技術取向內容。
----------------------------------
資料來源
1 Wikipedia. Hallucination (artificialntelligence).
https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
2 TechCrunch. (2025). OpenAI’s new reasoning AI models hallucinate more.
https://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/
3 OpenAI. (2024). Introducing SimpleQA.
https://openai.com/index/introducing-simpleqa/