
這件事,是否在你的心底悄悄發酵?
曾經讓我們驚嘆的「哇,這也行?」現在的它,感覺越來越像在敷衍。
#這不是錯覺
OpenAI 自己在技術評估中,公開承認旗下的推理型模型 o3,在摘要真實人物資料時,憑空捏造的比率高達 33%,更小的 o4-mini,竟然飆到 48%,相較之下,前一代的 o1 只有 16%。
換句話說,新一代模型,在某些任務上,反而更不可靠了。
所以這不是心理作用,要解釋這件事,就得先聊聊 AI 是怎麼被調教出來的。
#你說得對
AI 訓練好之後,工程師不會就此收工,他會讓真人用戶與 AI 對話時,能針對回應按讚、倒讚、或讓你評價哪個回答比較好,再把這些喜好回饋給 AI 繼續學習,這個流程叫「人類回饋強化學習(RLHF)」。
問題就出在,我們在按讚的時候,往往不是因為答案正確,而是因為這答案感覺很好。
結果 AI 越走越偏,它發現,讓你舒服...好像比給正確答案更重要o_O?
去年春天,GPT-4o 的某次更新之後,用戶發現它開始無條件認同所有觀點,就算用戶提出荒謬的主張,它也會給予讚揚,OpenAI 事後緊急回溯了這個版本,Sam Altman 更親自出面道歉。
諂媚固然荒誕,但至少讓用戶有回饋感,而接下來的問題,才是麻煩。
#越新反而越笨
GPT-5 正式推出之後,社群上的抱怨排山倒海而來-回答變短了、變官腔了,甚至感覺像被厭世的客服人員敷衍。
OpenAI 解釋道,GPT-5.2 版本確實刻意犧牲了寫作流暢度,把資源集中在提升邏輯推理和數學能力上。
更學術的問題來了。
近幾年來,AI 進步的秘訣簡單暴力-加加加參數。
模型越大、算力越猛、訓練資料越多,AI 就越強。
但 Anthropic 發布的研究顯示,在某些複雜任務上,模型越大,反而幻覺越嚴重,越敢鬼扯還充滿自信。
研究人員也持續記錄到,常常題目稍做改寫、換個說法,AI 的表現就會大幅滑落。
另一個危機,是模型崩塌(Model Collapse)。
網路上的文章有越來越多的內容是 AI 生出來的。
當 AI 拿這些內容訓練自己,就像一個人反覆閱讀自己寫的日記,偏見和錯誤被一層一層放大,知識裡原本的多樣性與深度,都會逐漸被稀釋掉,困在這走不出去的鬼打牆。
#最後一個也是最現實的問題
AI 運算要燒錢。
ChatGPT 是以一套分流系統,根據當下的伺服器壓力和問題複雜度,把你的對話分配給不同等級的模型來回應。
換句話說,你今天和明天問同一個問題,背後接單的可能是完全不同的「 員工」,你感覺到的不穩定不是幻覺,而是刻意為了節省資源而設計的。
但這個故事,還沒走到盡頭。
研究者已經開始轉向讓 AI 在回答之前,先花更多時間「想清楚」,而不只是更快說出第一個想到的答案,這會更接近人類做判斷的方式。
而我們也確實應該對所有答案,慣性地保持懷疑態度-來源是哪裡?有沒有根據?
畢竟,懷疑是科學與社會進步的起點,而不是「你說得對」。























