AI 幻覺有解?AI 先驅楊立昆創 AMI、募逾 10 億美元 - 來自科技新報
AI 幻覺的終結,可能正是人類重新定義自身價值的開始。
問題出在「預測下一個字」這件事本身
你有沒有遇過這種情況:請 AI 幫你查某個數據,它給了一個「看起來很合理」但其實完全是捏造的答案?這就是 AI 界俗稱的「幻覺」問題。
AI 先驅、圖靈獎得主楊立昆(Yann LeCun)認為,這個問題的根源不是訓練資料不夠多,也不是模型不夠大,而是現有 AI 的設計思路從一開始就走錯了方向。他的論點很直接:目前主流的大型語言模型(LLM),包括 GPT 系列、Claude 等,核心邏輯都是「預測下一個最可能出現的文字或像素」。這種方法讓 AI 擅長生成流暢的語言,卻無法真正「理解」這個世界。就像一個人可以把課文背得滾瓜爛熟,卻完全不懂裡面在說什麼。
為了解決這個問題,楊立昆離開 Meta AI 研究院,創辦了 AMI,並成功募集逾 10 億美元資金。背後的投資方包含多家科技巨頭,顯示市場對這個方向的高度期待。
讓 AI 先建立「世界模型」
AMI 提出的核心技術是 JEPA(聯合嵌入預測架構)。
與傳統 LLM 最大的不同在於:JEPA 不試圖預測每一個細節,而是讓 AI 在「抽象」中進行預測——也就是先理解事物的本質與結構,再去推斷接下來可能發生什麼。
這有點像人類面對一個新環境時,不是硬背所有細節,而是快速建立一套「心智模型」:這個房間的格局是什麼、出口在哪裡、如果地震了我應該怎麼反應。這種「世界模型」的建立能力,才是楊立昆認為 AI 真正需要具備的東西。
為了讓 AI 獲取更多真實世界的感知資料,AMI 據報已與 Meta 在智慧眼鏡的開發上展開合作——讓 AI 有機會透過穿戴裝置,直接接觸並學習現實環境的動態資訊。
隱含假設
- 關於幻覺的成因:文字本身就充滿歧義,這是語言模型容易產生幻覺的原因之一。但換個角度想:人類的語言溝通同樣充滿誤解,我們是否高估了「去除文字歧義」對 AI 的改善幅度?
- 關於人類推理的定義:JEPA 的目標是讓 AI 達到「人類水準的推理與自主性」。但人類推理本身並不總是理性的,我們充滿認知偏誤、情緒干擾與直覺誤判。讓 AI 模仿人類推理,究竟是在追求極致,還是反而在往「平庸的天花板」靠攏?
- 關於醫療領域的驗證邏輯:AMI 以醫療場景作為重點應用,認為只要能在高精度要求的醫療領域中驗證,就能推展到其他領域。這個「醫療能行,其他就沒問題」的邏輯是否過於樂觀?不同產業的容錯率和決策邏輯差異極大。
- 關於技術基礎的決定性 :「AI 應用的最終瓶頸永遠在基礎架構,只要基礎對了,商業化只是時間問題。」這個預設或許忽略了:商業模式、使用者心理、監管環境,同樣可能是關鍵卡點。
思考偏誤
在閱讀相關報導時,有幾個思考陷阱值得特別提防:
- 吸引力謬誤 因為科技巨頭都搶著投資 AMI,所以這條路一定是對的?資本的嗅覺雖然敏銳,但科技史上「大量資本湧入卻最終失敗」的案例並不少見。
- 以偏概全 「只要 AI 還有幻覺,就永遠無法達到人類的推理能力。」這個論點預設了幻覺是唯一的障礙,卻可能忽略其他更深層的問題,例如價值對齊、情境理解或道德判斷。
- 誤因為果 「AI 無法達到人類推理水準,是因為它只靠預測。」這個因果鏈雖然直觀,但「預測」本身或許只是問題的一環,而非全部原因。
值得持續追問的問題
- 幻覺真的是瓶頸嗎? 我們現在使用 AI 之所以無法產生 10 倍以上的效益,真正的關鍵是 AI 幻覺,還是我們「如何思考問題、如何使用工具」的方式?
- 創意領域怎麼辦? JEPA 強調精確推理與世界模型,但在行銷、劇本創作這些需要「意想不到」的領域,過於死板的架構,是否反而不如現有生成式 AI 靈活?
- 「幻覺」能否轉化為創意資源? 如果我們不把 AI 的幻覺當作錯誤,而當作一種「非常規聯想的觸發器」,是否能在特定場景中反過來創造價值?
- 當 AI 不再犯錯,人類要做什麼? 這或許才是最根本的問題。當 AI 變得極度理性且幾乎不出錯,人類如何學會與一個「永遠比你更準確」的系統共處,而不失去自信與主動性?
- 科技巨頭搶著投資,是要搶供應鏈地位嗎? 這些投資者,是真的相信 JEPA 會改變世界,還是更多是為了確保自己在未來 AI 基礎架構中的位置?
AMI 的出現象徵著 AI 研發重心從「規模擴張(Scaling)」轉向「架構深度」。然而,讓 AI 達到人類水準的推理,是否反而會讓 AI 走向「人類式的平庸」?抑或是它能發展出一種人類無法理解、卻更高效的非人邏輯?
歡迎讀者分享對本文的看法,並提出可能存在的隱藏假設與偏誤。






















