
GPT-5.2 在處理多項議題時,開始引用由 Elon Musk 旗下 xAI 推出的 Grokipedia 作為資料來源。來源:Grokipedia
本文參考自《衛報》(The Guardian)的報導《Latest ChatGPT model uses Elon Musk’s Grokipedia as source, tests reveal》撰稿人為 Aisha Down
這項發現不僅揭開了主流大型語言模型(LLM)在資訊檢索上的漏洞,更引發了關於「LLM 誘導」(LLM Grooming)與資訊洗白的全球性擔憂。
當 AI 取代人類編輯
要理解這次危機,必須先了解 Grokipedia 的本質。自 2025 年 10 月發布以來,Grokipedia 被定位為維基百科的競爭對手。然而,兩者在機制上有著本質的差異:
無人化編輯:維基百科依賴全球志願者的手動編輯、引註與共識審核;而 Grokipedia 不允許人類直接編輯,其內容完全由 AI 模型撰寫,並僅透過 AI 回應修改請求。
政治敘事偏向: Grokipedia 自發布以來便飽受批評,被指責在「同性婚姻」、「美國 1 月 6 日國會騷亂事件」等議題上散布右翼敘事。
來源黑箱: 當 AI 編寫百科全書時,其資料來源往往難以回溯,這為假新聞、假消息的潛伏提供了絕佳的溫床。
當 OpenAI 的 GPT-5.2 與 Anthropic 的 Claude 等模型開始將這種「AI 生成的百科」視為權威來源時,我們實際上進入了一個「AI 引用 AI」的循環(Model Collapse),原始事實的稀釋速度將超乎想像。

由 ChatGPT 生成
冷門議題的「長尾陷阱」
一個關鍵的觀察點在於:GPT-5.2 並非在所有議題上都會誤入歧途。
針對「國會騷亂」、「川普媒體偏見」或「愛滋病流行」等高度關注且已有大量事實核查的議題時,ChatGPT 能夠過濾掉 Grokipedia 的虛假資訊。
然而,在較為冷門或冷僻的議題上,防禦機制失效了。
背後反映的就是當前 AI 安全過濾器的局限性:
- 熱點防禦強,邊緣防禦弱: 模型開發者通常會針對高爭議性的全球熱點設置嚴格的「安全過濾器」。
- 事實稀薄地帶的淪陷: 對於像伊朗特定基金會結構或特定歷史學家的細節,網路上的優質事實資料相對較少。當 Grokipedia 的 AI 大量生成相關內容並佔據搜尋結果時,GPT 的網頁搜索功能(Web Search)便會因缺乏多元比對資料而被迫採信。
這種透過「邊緣滲透中心」的策略,正是現代資訊戰的高階手段。
有目的性的污染模型
專責研究假消息的研究員 Nina Jankowicz 提出了「LLM 誘導」(LLM Grooming)的概念,這被視為此次事件背後最深層的威脅。
1. LLM 誘導
這是一種結構性的操縱行為,惡意行為者(包括某些國家的宣傳網絡,如俄羅斯)大量製造並發布符合特定立場的假消息,目的是為了讓 AI 模型在抓取訓練數據或進行網頁檢索(像是 SEO)時,將這些謊言誤認為「主流觀點」或「事實來源」。
2. 全球的案例
- 2025 年春季: 安全專家警告俄羅斯宣傳網絡正大量產出內容以誘導 AI。
- 2025 年 6 月: 美國國會對 Google Gemini 提出質疑,因其曾支持過中國政府在新疆人權與防疫政策上的立場。
- 現今: Grokipedia 的內容滲透進 GPT-5.2,大幅提高了這些可能是不實或偏頗敘事的公信力。
這種誘導行為不僅改變了當下的答案,更是在長期「餵養」模型,使其在潛意識中形成特定的邏輯偏誤。
這場危機最危險的後果,在於 AI 模型與來源之間形成的「公信力循環」。
信用洗白機制
這場危機最危險的後果,在於 AI 模型與來源之間形成的「公信力循環」。
Jankowicz 指出,當用戶看到 ChatGPT 引用了 Grokipedia 或某些特定新聞網時,用戶會產生一種誤解:
「既然 ChatGPT 引用了 Grokipedia ,這一定是個經過驗證的可靠來源。」
這種效應會產生以下負面循環:
- 權威化錯誤來源:用戶可能會因此直接前往 Grokipedia 尋求更多(可能含有誤導性的)資訊。
- 降低批判性思考: 用戶對 AI 的信任轉嫁給了劣質來源。
- 檢索演算法的誤判: 隨著越來越多 AI 模型引用 Grokipedia,傳統搜尋引擎的演算法可能會提升該網站的權重,進一步擴散影響。
這本質上是一種「資訊洗白」,將原本邊緣化的立場透過主流 AI 的接口,轉化為大眾眼中的「事實」。
引用不代表可信
這場由 GPT-5.2 與 Grokipedia 引發的爭議,是 AI 發展史上的一個重要轉折點。它告訴我們,即便技術再先進,AI 依然無法脫離其所處的資訊環境獨立存在。
引用標籤(Citations)不代表真實性。看到來源是「Grokipedia」、「Pravda」或任何陌生平台時,應保持高度警覺。在搜尋非熱門、非主流的議題時,AI 的出錯率與受污染率會明顯提高。
當然,AI 開發者不能僅以「公開來源」為由推卸責任。我們需要更透明的來源權重分配機制,以及更快速的虛假資訊修正管道。


















