
繼小a實測生成式AI一些稍微複雜的問題錯誤百出還死鴨子嘴硬,但昨晚還信誓旦旦地和朋友說,AI在一些簡單的工作上表現還是亮眼的啦。今早,喝著美味香濃咖啡,一邊刷著新聞時,喵到了一個差點跌落椅子的資訊: 「同類型中最大規模的研究顯示,AI助理有45%的機率誤導新聞內容——無論語言或地區為何」[1]。其中和小a實測結果一樣,最胡來的仍是Gemini。。。哪會按呢?
Gemini在76%的回應中表現最差,且有重大問題,是其他助理的兩倍以上,主要原因是其搜尋表現不佳。
哪會按呢?Google不是搜尋引擎龍頭,怎會連簡單的AI搜尋新聞都如此哩哩啦啦?!!!
此研究是由歐洲廣播聯盟(European Broadcasting Union, EBU)協調、BBC主導的新研究發現。關鍵標準評估了 ChatGPT、Copilot、Gemini 和 Perplexity 超過 3,000 則回應,包括準確性、來源、意見與事實的區分,以及提供背景。涵蓋22家公共廣播機構、18個國家、14種語言。主要發現:- 45%的AI回答至少有一個重大問題。
- 31%的回應顯示出嚴重的來源問題——缺少、誤導或錯誤的歸屬。
- 20%的項目包含重大準確性問題,包括虛構細節和過時資訊。
- Gemini 在 76% 的回應中表現最差,且有重大問題,是其他助理的兩倍以上,主要原因是其搜尋表現不佳。
2025年生成式 AI大暴炸的一年,年末:
讓我們一起想一想: 我們生活在一個渴望確定性的時代。當我們向機器提問時,心中暗暗希望它能像古代神諭般給出無誤的答案。但這種渴望或許過於天真?
我們為什麼如此渴望AI的完美?錯誤是否其實是人類與機器共同的宿命?我們對AI的失望,反映出我們對人類自身的失望? 因為我們希望有某種存在能超越人類的局限,卻一次次發現,錯誤是文明的常態?
又或許,我們該學會與錯誤共存,把它視為理解世界的必經之路。AI的不完美提醒我們,真正的智慧並非在於避免錯誤,而是在於如何以優雅與耐心去修正它?
總之,#遲疑態度,#反覆查證 ,是 #基本AI素養!
2026 新年快樂!
[1] EBU. Largest study of its kind shows AI assistants misrepresent news content 45% of the time – regardless of language or territory. 22 October 2025
























