終章 從智能走向智慧
第一節 回到開局場景
讓我們回到開始的地方。
2024年三月,一個名叫Figure 01的人形機器人站在一張料理檯前,與一位人類工程師對話。它能辨識眼前的物體、理解語言指令、解釋自己的行動邏輯。它拿起了一顆蘋果,遞給了對方。影片被廣泛轉傳,有人稱之為「ChatGPT長出了身體」。
2025年十一月,圖靈獎得主楊立昆離開了他工作了十二年的Meta,去創辦一家押注「世界模型」的新公司。他說大型語言模型是通往人類級別智能的「死胡同」。幾乎在同一時間,OpenAI的前首席科學家Ilya Sutskever說了一句話:「只要加更多GPU的時代結束了。」
那時候,這些事件看起來像是AI產業內部的技術路線之爭,一場關於「下一代AI應該長什麼樣」的工程辯論。但現在,在經歷了從技術概念到哲學反思的整段旅程之後,我們再回來看這些事件,看到的已經完全不同了。
同一個場景,不同的眼睛
Figure 01拿起蘋果遞給工程師。這個動作在序章中被呈現為一個「令人印象深刻但又暴露了落差」的場景,AI能用語言流暢地描述世界,卻在物理互動中笨拙而遲緩。
但現在我們知道,那個落差指向的不只是一個工程問題。
它指向的是兩種智能形式之間的結構性差異,語言中的智能與行動中的智能(第一章)。它指向的是擬真與理解之間的裂縫,AI可以生成看起來像世界的東西,但它不一定理解世界為什麼是那個樣子(第二章)。它指向的是「世界」這個詞的存在論問題,世界模型所建模的「世界」是一個被抽空了意義的物理截面,而人所棲居的世界充滿了制度、規範、情感和記憶(第三章)。
Figure 01站在料理檯前的那個畫面,現在看起來像是整個問題的一個濃縮意象:一具擁有強大語言能力的機器,站在一個它能描述但不能棲居的世界裡。
而楊立昆的離開,現在看起來也不只是一場職業選擇。它是一個關於「AI應該如何理解世界」的根本分歧的外顯化,而這個分歧的背後,是一個關於「理解」本身意味著什麼的哲學問題。
楊立昆說:語言不夠,AI需要直接從感知數據中建構一個關於世界如何運作的內在模型。他的批評者說:語言已經包含了關於世界的足夠豐富的知識,只要模型夠大、數據夠多,語言模型終將「湧現」出對世界的理解。
在序章中,我們把這場爭論呈現為一個開放的問題。現在,在經歷了六章的分析之後,我們可以更精確地說出這場爭論所遺漏的東西:雙方都假設了「理解世界」是一個可以被技術手段所達成的目標。他們爭論的是達成的路徑,通過語言還是通過感知,但他們沒有追問那個更根本的問題:技術手段所能達成的「理解」,是否涵蓋了「理解」這個詞的全部意涵?
我們在第五章中辨識出的「操作性理解」與「存在性理解」的區分,在這裡獲得了它最精確的應用場景。楊立昆和他的批評者所爭論的,是如何達成更好的操作性理解,更準確的預測、更有效的規劃、更可靠的行動。這場爭論是重要的、有技術意義的。但它整個發生在操作性理解的範圍之內。而存在性理解,在世界中承擔、賦義、與他者相遇,從一開始就不在這場爭論的視野之中。
不是因為它不重要。而是因為它不屬於技術所能處理的範疇。
六章旅程的回顧
讓我在這裡做一次簡潔的回顧,這不是為了重複已經說過的東西,而是為了讓讀者從終點的位置回看整段旅程的輪廓。
我們從一個具體的場景出發,機器人的笨拙和路線之爭(序章),提出了一個問題:當AI開始試圖「理解世界」,這意味著什麼?
然後我們理解了世界模型的核心邏輯,從語言中的智能到行動中的智能,以及四條技術路線各自對「理解」的不同定義和各自的裂縫(第一章)。
接著我們深入了那些裂縫,世界模型的成功與局限、擬真與理解之間的鴻溝、時間、因果、抽象的三重瓶頸、以及「模型中的世界究竟是不是世界」的哲學追問(第二章)。
然後我們看到了那些裂縫背後更深的問題,世界模型的「世界」太窄了,它排除了社會世界、意義世界和被活過的世界(第三章)。
從那裡,我們進入了文明後果的分析,世界的定義權集中化、被優化的世界對自由的壓縮、操控與真假世界的危機、以及所有這些風險的最終落點:個人判斷能力的系統性侵蝕(第四章)。
這把我們帶到了主體性的問題,操作性理解與存在性理解的區分、判斷被代辦的核心形態、不確定性的消失、人的位置在於承擔和賦義而非計算、以及主體性危機在日常生活中的四個具體形態(第五章)。
最後,我們從三條哲學傳統出發,現象學的「被生活的世界不等於被建模的世界」、分析哲學的「預測不等於理解」、科技哲學的「技術改變人理解世界的方式」,抵達了一個核心命題:世界不可被完全對象化。並從這個命題推導出了一個文明方向:高技術與高節制的雙重成熟,以「減少苦難,而非擴大支配」作為善用的判準(第六章)。
這是一段從技術到哲學、從認識論到存在論、從分析到實踐的旅程。它的每一步都是被前一步的發現所「逼出來」的,不是因為作者事先安排好了路線圖,而是因為每一問題本身在每一層都要求更深的追問。
但我們抵達了一個答案嗎?
坦白地說:沒有。
我們沒有回答「世界模型是好的還是壞的」。我們沒有回答「AI會不會有一天真正理解世界」。我們沒有回答「人類應該如何治理世界模型技術」。我們甚至沒有回答「世界究竟能不能被完全對象化」,我們提出了強有力的哲學論證來支持「不能」,但我們也誠實地承認這些論證不是定論。
我們所做的,是一件不同的事。我們把問題的形狀看清楚了。
我們看清楚了世界模型的技術能力和認識論局限之間的精確邊界。我們看清楚了「擬真」和「理解」之間的裂縫的具體結構。我們看清楚了「世界」這個詞在世界模型的語境中被系統性地窄化了。我們看清楚了當這種窄化被大規模部署時可能帶來的文明後果。我們看清楚了主體性危機的核心形態和它在日常生活中的具體面貌。我們看清楚了哲學為什麼在這裡不是奢侈品而是必需品。
看清楚問題的形狀,不等於解決了問題,但它是解決問題的前提。
而且,在某些情況下,看清楚問題的形狀本身就已經改變了你與問題之間的關係。在你讀這篇文章之前,「世界模型」也許只是一個你聽過但沒有深入思考的技術術語。現在,它變成了一個你可以從技術、認識論、倫理、存在論等多個維度去審視的複雜議題。你對它的理解不再是平面的。它有了深度。
而帶著這種深度去面對一個正在被世界模型技術所重塑的世界,與沒有這種深度就被動地被重塑,是兩種根本不同的處境。前者是一個主體面對一個挑戰,後者是一個客體被一股力量所推動。
這篇文章所做的,也許就是幫助讀者從後一種處境移向前一種處境。
第二節 智能與智慧的區分
上一節回收了開局場景,回望了六章的旅程,並坦承了我們沒有抵達一個答案,但我們看清了問題的形狀。
現在,在這篇文章即將結束的地方,我想提出一個最後的區分。這個區分不是新的,它也許是人類思想史上最古老的區分之一。但在世界模型的語境中,它獲得了一種全新的迫切性。
那就是智能與智慧的區分。
智能:知道怎麼做
什麼是智能?
在AI研究的語境中,智能通常被定義為「在多樣的環境中有效地達成目標的能力」。這個定義是操作性的,它不追問目標本身是否值得追求,只追問追求目標的效率。一個系統越能夠在更多樣的環境中、更高效地達成更多的目標,它就越「智能」。
按照這個定義,世界模型確實在大幅提升AI的智能。它讓AI能夠理解環境的狀態、預測狀態的變化、模擬行動的後果、在多種可能性中選擇最優的路徑。從Dreamer在電子遊戲中的策略規劃,到NVIDIA Cosmos在機器人訓練中的物理模擬,到Genie在互動世界生成中的環境建構,每一條技術路線都在擴展AI在世界中有效行動的能力邊界。
而且,這種擴展沒有明顯的上限。模型會變得更大、數據會變得更多、算力會變得更強、模擬的逼真度會越來越高。如果「智能」的定義就是「有效達成目標的能力」,那麼AI的智能幾乎一定會在未來十年到二十年內達到甚至超越人類在大多數操作性任務上的表現。
這是一個合理的預期。它不是科幻,而是對當前技術趨勢的冷靜推演。
但這裡有一個問題。而這個問題恰恰是「智能」的操作性定義所看不見的。
智慧:知道該不該做
什麼是智慧?
智慧不是智能的「升級版」,不是「更多的智能」或「更高級的智能」。它是一種根本不同的東西。
智能追問的是「怎麼做」,如何更有效地預測、規劃、行動。智慧追問的是「該不該做」,在所有你能做到的事情中,哪些值得做、哪些應該止步、哪些東西的價值恰恰在於它不被做。
智能的衡量標準是效率,以更少的資源達成更多的目標。智慧的衡量標準無法被量化,它涉及的是判斷什麼是重要的、什麼是不可犧牲的、什麼是即使犧牲效率也必須守護的。
智能可以在沒有價值觀的情況下運作,你給它任何一個目標函數,它都能夠朝著那個方向優化。智慧的本質恰恰在於追問目標函數本身,這個目標值得追求嗎?追求它的代價是什麼?那些被代價所犧牲的東西,是否比目標本身更重要?
讓我用一個具體的情境來說明這個區分。
一個搭載了世界模型的城市管理系統,能夠精確地預測交通流量、優化信號燈的時序、最小化平均通勤時間。這是智能。它在「怎麼做」的層面上表現出色。
但如果這個優化的結果是:主要幹道的通勤時間減少了,但某些老舊社區因為被標記為「低效路線」而被全面性地繞過,導致那些社區的商業活動逐漸萎縮、居民逐漸流失、社區的歷史和記憶被靜默地抹去,那麼一個有智慧的決策者會追問:這個優化的代價是什麼?那些被犧牲的社區,它們的存在是否有超越「通勤效率」的價值?我們是否願意接受一個「平均通勤時間更短,但某些社區因此消亡」的交換?
智能無法回答這個問題。因為這個問題不是「怎麼做」的問題。它是「什麼是重要的」的問題。而「什麼是重要的」不能被計算。它只能被判斷,由一個有價值觀的、有歷史感的、能夠承擔判斷後果的主體來判斷。
為什麼這個區分在此刻特別迫切
智能與智慧的區分不是新的。在幾乎所有的文化傳統中,從古希臘的「phronesis」(實踐智慧),到儒家的「仁智並舉」,到佛教的「般若」(超越分別的智慧),到猶太傳統的「hokmah」,智慧都被視為一種比純粹的認知能力更高、更深、更難達成的東西。
但這個區分在人類歷史的大部分時間裡,是一個相對學術性的哲學問題。因為在世界模型之前的技術時代,人類的智能,無論個人的還是集體的,都有明確的上限。你能夠優化的範圍是有限的。你能夠預測的時間跨度是有限的。你能夠控制的環境是有限的。智慧的問題,「該不該做」,之所以顯得不那麼緊迫,部分是因為「能做的」本來就不多。
世界模型的出現改變了這個局面。
當AI能夠大規模地建模世界、預測未來、模擬後果、生成環境,「能做的」的範圍急劇擴大了。我們能夠預測一個城市未來十年的人口流動趨勢;我們能夠模擬一項政策的潛在後果;我們能夠為每一個人「量身定制」一個最優化的生活環境;我們能夠生成逼真到難以分辨真假的虛擬世界。
在這個「能做的」急劇擴大的時代,「該不該做」的問題就不再是學術性的了。它變成了一個每天都在發生的、有直接後果的實踐問題。每一次一個世界模型被部署到一個新的應用場景中,都隱含著一個「該不該做」的判斷。而這個判斷的困難之處在於:做出判斷所需要的智慧,遠比開發技術所需要的智能更難培養、更難傳授、更難規模化。
我們正在以指數級的速度擴展文明的智能。但我們培養文明的智慧的速度,卻遠遠跟不上。
這個落差,智能的飛速增長與智慧的緩慢培養之間的落差,也許是世界模型時代最需要被正視的文明挑戰。
智慧不能被建模
讓我把這個區分放到它的最終位置。
智能可以被建模。這正是世界模型在做的事情,把「有效達成目標」的能力編碼為一個可以在電腦中運行的數學系統。而且它做得越來越好。
但智慧不能被建模。不是因為技術「還不夠先進」。而是因為智慧的本質與建模的邏輯是不相容的。
建模的邏輯是:給定一個目標函數,在狀態空間中搜索最優路徑。智慧的本質恰恰在於:追問目標函數本身。而一個系統不能用它自己的目標函數來追問它自己的目標函數,就像一隻眼睛不能看見它自己。追問目標函數需要一個站在目標函數之外的位置,一個不被任何特定目標所驅動的、能夠反思所有目標的位置。
那個位置,就是人的位置。
一個AI系統可以在任何你指定的目標函數下找到最優解。但它不能告訴你那個目標函數是否值得追求。它不能告訴你:也許你應該追求一個不同的目標。也許你應該停下來。也許你正在優化的東西,恰恰是你應該放棄的東西。
這些判斷要求的不是更多的計算。它們要求的是一種完全不同的認知姿態,一種能夠退後一步、審視整個框架、追問「這一切是為了什麼」的姿態。
而這種姿態,不是一種可以被訓練出來的技能。它是一種存在方式,一種始終保持開放、始終願意追問、始終不讓自己被任何一個框架完全收編的存在方式。
這就是為什麼智慧不能被建模。不是因為它太複雜。而是因為它的本質就是對所有模型的超越,包括對它自己的超越。
這篇文章的最終命題
世界模型讓AI更接近世界。這是一個事實。
人類必須更接近智慧。這是一個要求。
這兩句話之間的關係不是對立的。世界模型讓AI更接近世界,這件事本身不是壞事。AI對世界的更深入的操作性理解,可以被用來減少苦難、擴展人的能力、解決人類單靠自己無法解決的問題。
但如果在AI變得越來越「智能」的同時,人類不去培養與之匹配的「智慧」,不去追問什麼值得做、什麼應該止步、什麼是不可犧牲的,那麼,越強大的智能就越有可能走向它自己無法察覺的歧途。因為它沒有能力察覺歧途。察覺歧途需要的不是更準確的預測。它需要的是一個站在預測之外的位置,一個能夠追問「我們預測這一切是為了什麼」的位置。
那個位置,不在任何模型之中,它在人之中。
而人之中的那個位置是否仍然存在、是否仍然活躍、是否仍然有力量,取決於每一個人是否仍然在練習承擔、練習賦義、練習在不確定中判斷、練習在效率的誘惑面前保持節制。
這不是一個可以被制度化地保障的事情。制度可以創造條件,但智慧本身不是一項制度,它是一種個人的、持續的、需要被活出來的實踐。
而這篇文章所能做的,也許就是為這種實踐提供一個出發點,一個對問題的形狀足夠清晰的認識,使得實踐不是盲目的,而是有方向的。
方向是什麼?
不是「反對AI」。不是「限制技術」。不是「回到過去」。
方向是:在一個越來越智能的世界中,堅持成為一個有智慧的人。
第三節 未完成的對話
我們依著這篇文章,走了很長的一段風景。從一個機器人拿起蘋果的畫面開始,到世界模型的技術邏輯、認識論裂縫、文明後果、主體性危機、哲學回應、文明方向,最後抵達了智能與智慧的區分。
現在,我們要在這裡停下來。
不是因為沒有更多可以說的了。恰恰相反,是因為有太多需要說的,而且那些需要說的東西,不能被塞進這篇文章的結尾,否則就會辜負它們的重量。
所以,讓我在這裡做一件這篇文章一直在做的事情:誠實地標記出那些我們看到了入口、但沒有走進去的通道。
第一條未走的道路:東方思想的回應
這篇文章的哲學資源幾乎全部來自西方傳統,現象學、分析哲學、存在主義、科技哲學。這不是因為東方思想與世界模型的問題無關。恰恰相反,東方思想中的某些傳統,也許比西方傳統更直接地觸及了我們在這裡所辨識出的問題的核心。
佛教的「緣起」(pratītyasamutpāda)概念主張:一切現象都是因緣和合而生,沒有任何事物具有獨立的、固定的、可以被孤立出來的「自性」。如果我們認真對待這個主張,它對世界模型的挑戰是極其根本的,因為世界模型的基本操作就是將世界分解為一組可以被獨立表徵的「狀態」,然後追蹤這些狀態之間的轉換規律。但如果緣起是對的,如果一切現象都是彼此依存的,沒有任何一個狀態可以被真正地「獨立」出來,那麼世界模型的整個「狀態表徵」框架就是在對世界進行一種結構性的誤解:它把一個本質上是整體性的、交互生成的過程,強行切割為一組離散的、可分別處理的元素。
而佛教的「般若」,超越一切分別的智慧,指向的正是一種不依賴「主體觀察客體」這個框架的認知方式。如果世界模型的全部認識論都建立在主客二分的前提上,一個建模者(主體)在建構一個關於世界(客體)的模型,那麼般若所追問的就是:有沒有一種「理解」是不需要這種二分的?有沒有一種與世界的關係,不是「我在理解世界」,而是「理解正在發生」,其中沒有一個獨立的「我」和一個被觀察的「世界」?
同樣的,道家的「無為」不是消極的不行動,而是一種對「過度干預」的深刻警惕,一種認為最好的行動往往是不破壞事物自身運作的節奏和秩序的智慧。在一個AI越來越擅長「干預」和「優化」世界的時代,道家的「無為」也許提供了一種我們急需的平衡視角:也許對世界最深的「理解」,不是能夠最精確地預測和控制它,而是能夠最恰當地與它共處,包括接受它的不可預測、不可控制的面向。
而儒家對「仁」的強調,將人與人之間的倫理關係置於一切知識的核心,對世界模型的挑戰也是直接的:一個只有物理世界模型而沒有倫理世界理解的AI,不是「智能不夠」的問題,而是「根本不知道什麼是重要的」的問題。儒家會說:理解世界的第一步不是預測物理狀態的變化,而是理解人與人之間的責任和關切。一個不懂「仁」的系統,無論它的物理預測多麼準確,都不能說是「理解了世界」,因為人的世界首先是一個倫理的世界。
這些東方思想資源中的每一個,都值得被以至少與本文同等的篇幅和嚴肅性來展開。但我在這裡只能標記出它們的入口。
第二條未走的道路:治理的具體架構
這篇文章在第四章和第六章中反覆觸及了治理的問題,世界定義權的集中化、善用與濫用的界線模糊、「減少苦難,而非擴大支配」的判準。但我們沒有進入治理的制度設計層面,具體的法律框架應該是什麼?監管機制應該如何運作?國際協調應該如何進行?
這不是因為制度設計不重要,它極其重要。但制度設計需要的知識基礎,法學、政治學、公共政策、國際關係,這些都超出了本文的能力範圍。而且,制度設計的前提是對問題本身的清晰認識。本文所能提供的,是那個前提,對世界模型所帶來的文明挑戰的清晰診斷。在這個診斷的基礎上,治理的具體架構需要由不同領域的專家來共同建構。
但我可以在這裡標記出幾個我認為治理框架必須面對的核心問題:
世界模型的訓練數據和評測標準是否應該接受公共審計?如果是,由誰來審計、按照什麼標準?
當世界模型被用來建構人們日常生活的環境時,篩選資訊、安排行程、推薦選項,使用者是否有權知道模型做出了哪些決定、按照什麼標準?「可解釋性」在世界模型的語境中意味著什麼?
世界模型的軍事化應用是否應該受到國際條約的約束?如果是,約束的邊界應該畫在哪裡?自主武器系統中「人類在迴路中」的原則如何在技術上被保障,而不只是在文件上被宣稱?
如何確保世界模型的開發和部署不會進一步擴大全球的技術鴻溝,讓少數國家和公司壟斷「世界如何被建模」的權力,而其他國家和社群只能被動地接受?
這些問題中的每一個都需要專門的、深入的、跨學科的研究。它們不會在這篇文章中被回答。但它們必須被提出,因為如果沒有人提出正確的問題,再好的制度設計也會在錯誤的方向上精確地前進。
第三條未走的道路:個人實踐的具體形態
這篇文章在第五章和第六章中反覆強調:守護主體性不是一個一次性的宣言,而是一種持續的、需要被活出來的實踐。但我們沒有深入討論這種實踐的具體形態。
在教育中,這種實踐意味著什麼?是否需要重新設計課程,讓學生有機會在沒有AI輔助的情況下面對開放性的問題,練習從零開始形成判斷的能力?如何在「善用AI」和「保持獨立思考」之間找到平衡?
在職業生活中,這種實踐意味著什麼?一個每天使用AI輔助工具的知識工作者,如何確保自己不是在把判斷外包給AI,而是在用AI來增強自己的判斷?「先自己想一想再問AI」這個簡單的原則,如何在工作流程的壓力下被持續地執行?
在人際關係中,這種實踐意味著什麼?如何在一個AI越來越擅長「管理」情感互動的環境中,保持住人與人之間那種笨拙的、不完美的、但完全真實的相遇?
在個人的內在生活中,這種實踐意味著什麼?如何在一個所有問題都可以被AI即時回答的環境中,保持住里爾克所說的那種「愛問題本身」的能力,讓問題在你的內部住一段時間,不急著尋找答案,而是讓答案在你活過的經驗中慢慢生長?
這些問題不是修辭性的,它們是實踐性的。而且它們的答案不能被一般化地給出,因為每一個人的處境不同、能力不同、面臨的誘惑和壓力不同。它們的答案只能由每一個人在自己的具體生活中,通過反覆的嘗試和反思,自己去摸索出來。
一個開放的結尾
這篇文章的標題是「世界模型時代:從AI的世界理解,到人類文明的主體性、倫理與智慧」。
在寫作的過程中,我意識到這個標題中最重要的詞不是「世界模型」,不是「AI」,不是「主體性」或「倫理」。最重要的詞是「到」。
「從AI的世界理解,到人類文明的主體性、倫理與智慧」,這個「到」不是一個已經完成的旅程。它是一個方向。一個我們必須走但還沒有走完的方向。
AI正在走向更深的世界理解,這是確定的。技術的進步不會停下來,也不應該停下來。
但人類是否能夠走向與之匹配的智慧,那種知道何處應止、知道什麼不可犧牲、知道如何在一個越來越被建模的世界中仍然保持住棲居的能力的智慧,這是不確定的。
這個不確定性不是一個需要被消除的問題。
它是一個需要被每一個人、每一個社群、每一個文明,持續地、認真地、帶著全部的誠意去面對的問題。
而面對它的第一步,也許就是你剛剛完成的這段閱讀。
你讀到了這裡。你花了時間與這些問題相處。你讓它們在你的內部佔據了一段時間。
接下來的部分,不在這篇文章裡。
它在你接下來的每一天裡。在你每一次面對AI的建議時選擇先自己想一想的那個瞬間裡;在你每一次面對另一個人的困境時選擇用自己的存在去回應的那個瞬間裡;在你每一次面對一個沒有答案的問題時選擇不急著找到答案的那個瞬間裡。
在那些瞬間裡,你不是在使用智能,你是在練習智慧。而那些瞬間加在一起,就是一個人在世界模型時代守住自身位置的方式,也就是,一個人從智能走向智慧的方式。
主要參考與思想資源
本文不是一篇純學術論文,因此以下書目不遵循標準的學術引用格式。它的目的是雙重的:第一,對本文論述所依賴的思想資源做出誠實的交代;第二,為有興趣在某個方向繼續深入的讀者提供一張地圖。
書目分為三個部分。第一部分是本文直接引用或密切依賴的文獻。第二部分是雖未被直接引用、但構成了本文重要思想背景的著作。第三部分是建議延伸閱讀,為那些想在特定方向上繼續探索的讀者所準備的。
一、直接引用與密切依賴的文獻
世界模型與AI技術
Yann LeCun,《A Path Towards Autonomous Machine Intelligence》(2022) 楊立昆提出JEPA架構的那篇長達八十多頁的論文。本文第一章對世界模型核心邏輯的闡述,以及第二章對「預測表徵而非預測像素」路線的分析,主要依賴這篇論文所提出的框架。它也是理解楊立昆為何認為大型語言模型是「死胡同」的最直接文本。
Danijar Hafner et al.,《Dream to Control: Learning Behaviors by Latent Imagination》(2020) 及後續Dreamer系列論文 Dreamer路線的核心文獻。本文第一章對「在夢境中學會行動」的描述,以及第一章第三節對Dreamer路線局限性的分析,依據的是這一系列論文。
Google DeepMind, Genie 及 Genie 2 技術報告 (2024-2025) 本文第一章對「直接生成一個可以走進去的世界」路線的分析,以及第二章對Genie「視覺一致性vs.物理一致性」問題的討論,依據的是DeepMind發表的技術報告和demo。
NVIDIA, Cosmos 平台技術文件 (2024-2025) 本文第一章對「把世界模型變成基礎設施」路線的分析,以及第四章對世界模型產業化邏輯的討論,參考了NVIDIA公開發表的Cosmos平台相關技術文件和黃仁勳的公開演講。
OpenAI, Sora 技術報告 (2024) 本文第二章對Sora「表現得好像遵守物理定律」的分析,以及「水往上流」等具體失敗案例的討論,依據的是OpenAI公開發表的技術報告和相關的獨立評測。
哲學
Edmund Husserl,《歐洲科學的危機與超越論的現象學》(Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, 1936) 本文第三章和第六章對「生活世界」(Lebenswelt)概念的引用,以及對「科學遺忘了自己的根基」這一診斷的討論,直接依賴胡塞爾晚年這部未完成的著作。它是理解現象學為何與世界模型問題相關的最核心文本。
Martin Heidegger,《存有與時間》(Sein und Zeit, 1927) 本文第五章對「被拋擲性」(Geworfenheit)概念的引用,以及第六章對「上手狀態」與「在手狀態」的分析,來自海德格這部二十世紀最重要的哲學著作之一。海德格對「人與世界的原初關係不是觀察而是投入」的論證,是本文「世界不可被完全對象化」命題的重要哲學支撐之一。
Maurice Merleau-Ponty,《知覺現象學》(Phénoménologie de la perception, 1945) 本文第六章對「身體不是機器」的論證,以及「盲人的拐杖」例子的引用,來自梅洛龐蒂這部代表作。他對身體-世界交涉的分析,是本文質疑世界模型「感知→建模→規劃→行動」線性架構的主要哲學資源。
Jakob von Uexküll,《動物與人類環境世界的漫步》(Streifzüge durch die Umwelten von Tieren und Menschen, 1934) 本文第二章和第三章對Umwelt(環境世界)概念的引用,特別是蜱蟲的Umwelt的描述,來自尤克斯屈爾這部開創性的著作。它為「每一個存在者都活在一個由其感知能力所界定的世界中」這個論點提供了生物學的基礎。
John Searle,《心智、大腦與程式》("Minds, Brains, and Programs," 1980) 本文第二章對「中文房間」論證的引用,以及第六章對意向性問題的討論,依賴瑟爾這篇也許是AI哲學中被引用最多的論文。它是理解「正確的輸出不等於理解」這個命題的經典起點。
David Chalmers,《面對意識問題》("Facing Up to the Problem of Consciousness," 1995) 本文第六章對「困難問題」(hard problem of consciousness)的引用,來自查爾默斯這篇開創性的論文。它為「經驗的第一人稱質地不可被第三人稱數據所替代」這個論點提供了最清晰的哲學表述。
Judea Pearl,《因果論:模型、推理與推斷》(Causality: Models, Reasoning, and Inference, 2000; 第二版2009) 本文第二章和第六章對「因果推理階梯」的引用,以及對「相關不等於因果」的論證,依賴珀爾這部改變了統計學和AI研究的里程碑式著作。
Judea Pearl & Dana Mackenzie,《為什麼:因果關係的新科學》(The Book of Why, 2018) 珀爾因果推理理論的通俗版本。本文對因果推理三層階梯的描述,參考了這本書中更易讀的表述。
Emmanuel Levinas,《整體與無限》(Totalité et Infini, 1961) 本文第五章對列維納斯「面容」倫理學的引用,特別是「一個脆弱的存在者對另一個脆弱的存在者的回應」這個論述,來自列維納斯這部重新奠定倫理學基礎的著作。它是理解「為什麼他者不可被模型化」的最深刻的哲學資源。
Søren Kierkegaard, 相關著作 本文第五章對齊克果「最大的危險是在不知不覺中失去自己」這個警告的引用,來自齊克果的多部著作。作為存在主義的先驅,他對「如何在系統化的世界中保持個體性」的追問,與本文對主體性危機的診斷有著跨越一百七十年的共鳴。
Jean-Paul Sartre,《存在與虛無》(L'Être et le Néant, 1943) 本文第六章對「存在先於本質」和選擇的不可預測性的論述,來自沙特這部存在主義哲學的核心著作。
科技哲學
Bernard Stiegler,《技術與時間》第一卷:《愛比米修斯的過失》(La technique et le temps 1: La faute d'Épiméthée, 1994) 本文第六章對「第三記憶」和「pharmakon」(藥毒一體)概念的引用,直接來自斯蒂格勒這部技術哲學的里程碑著作。它為理解「技術在增能的同時必然去能」這個命題提供了最深刻的理論框架。
Jacques Ellul,《技術社會》(La technique ou l'enjeu du siècle, 1954) 本文第六章對「技術的自主邏輯」的論述,技術不只改變我們做事的方式,還改變我們判斷什麼值得做,來自埃呂爾這部先見之明的著作。
Langdon Winner,〈技術物有政治性嗎?〉("Do Artifacts Have Politics?" 1980) 本文第六章對「技術的設計嵌入了特定的價值和權力結構」的論述,以及紐約長島高架橋的例子,來自溫納這篇影響深遠的論文。
認知科學與心理學
Daniel Kahneman,《快思慢想》(Thinking, Fast and Slow, 2011) 本文第二章對「系統一」與「系統二」的引用,來自Kahneman這部整合了數十年行為經濟學研究的經典著作。它為理解「世界模型可能提供一種接近系統一的直覺性能力」這個類比提供了框架。
Jean Piaget, 認知發展理論相關著作 本文第二章對「物體恆常性」的引用,以及第五章對「同化與調適」的引用,來自皮亞傑的發展心理學理論。
Karl Friston, 自由能原則相關論文 本文序章和第五章對「預測處理」框架和自由能原則的簡要提及,來自Friston的一系列理論論文。這個框架為理解「不確定性是學習的驅動力」提供了神經科學層面的支撐。
科學史與科學哲學
Alexandre Koyré,《從封閉世界到無限宇宙》(From the Closed World to the Infinite Universe, 1957) 本文第三章對近代科學革命如何改變了世界觀的論述,從亞里斯多德的質的宇宙到伽利略和牛頓的量的宇宙,參考了柯伊雷這部科學史經典。
Carl Hempel,《科學解釋的諸面向》(Aspects of Scientific Explanation, 1965) 本文第六章對「覆蓋律模型」的引用,以及對「預測不等於解釋」的論證,依賴亨普爾這部科學哲學經典。
Daniel Dennett,《意識的解釋》(Consciousness Explained, 1991) 本文第六章對「意向姿態」概念的引用,以及丹尼特與瑟爾之辯的討論,來自丹尼特這部具有挑戰性的著作。
二、重要思想背景(未被直接引用但深刻影響了本文的思考)
Hubert Dreyfus,《電腦不能做什麼》(What Computers Can't Do, 1972; 修訂版 What Computers Still Can't Do, 1992) Dreyfus是最早從現象學的角度批評AI的哲學家之一。他對「身體性知識不可被形式化」的論證,是本文對世界模型「感知→建模→行動」線性架構提出質疑的重要思想背景。
Michael Polanyi,《個人知識》(Personal Knowledge, 1958) 及《默會之知》(The Tacit Dimension, 1966) Polanyi對「默會知識」(tacit knowledge),我們知道的比我們能說出來的更多,的論證,是本文對「操作性理解不涵蓋存在性理解」這個命題的重要背景之一。
Hans Jonas,《責任原則》(Das Prinzip Verantwortung, 1979) Jonas提出的「恐懼的啟發學」(heuristics of fear),在面對強大技術時,我們應該更重視最壞的可能結果而非最好的,是本文對世界模型風險分析的重要倫理背景。
Hannah Arendt,《人的條件》(The Human Condition, 1958) Arendt對「勞動」「工作」「行動」三種人類活動的區分,以及她對「行動」,在人與人之間開啟新事物的能力,之不可預測性的強調,是本文對「人的自由不可被完全預測」這個命題的重要背景。
Evan Thompson,《生命中的心智》(Mind in Life, 2007) Thompson從現象學和認知科學的交叉地帶出發,論證了「認知不是對外部世界的內部表徵,而是有機體與環境的動態耦合」。這個論證是本文質疑世界模型「內部表徵」預設的重要思想背景。
Alva Noë,《知覺中的行動》(Action in Perception, 2004) Noë從「行動主義知覺理論」(enactivism)的角度論證:知覺不是大腦中發生的事,而是有機體在環境中做的事。這與梅洛龐蒂的身體現象學形成了有力的當代呼應。
Sherry Turkle,《獨處的群體》(Alone Together, 2011) Turkle對人與社交機器人和AI之間關係的長期田野研究,是本文第五章討論「情感代辦」和「照護機器人」倫理問題的重要經驗研究背景。
Nick Bostrom,《超級智能》(Superintelligence, 2014) 雖然本文的問題意識與Bostrom的「超級智能風險」論述不同,但他對「目標函數對齊問題」(alignment problem)的分析,如何確保AI的目標與人類的價值觀一致,是本文討論「世界是否可優化」問題時的重要參考。
Kate Crawford,《AI地圖集》(Atlas of AI, 2021) Crawford對AI技術的政治經濟學分析,包括數據的提取、算力的集中、以及AI系統如何嵌入並強化既有的權力結構,是本文第四章討論「世界定義權集中化」問題的重要背景。
三、建議延伸閱讀
以下書目為那些想在特定方向上繼續深入的讀者所準備。
如果你想更深入地理解世界模型的技術細節:
·Yann LeCun 的公開演講和訪談(2022-2025),特別是GTC 2025的演講和在AMI成立後的系列訪談,是追蹤世界模型技術演進的最直接來源。
·Shuang Li et al.,《世界模型綜述》相關綜述論文,學術界對世界模型研究的系統性整理。
如果你想更深入地理解現象學與AI的關係:
·Hubert Dreyfus,《論網際網路》(On the Internet, 2001),Dreyfus將現象學的身體性論證應用於數位技術的晚期著作。
·Taylor Carman,《梅洛龐蒂》(Merleau-Ponty, 2008),對梅洛龐蒂哲學的清晰導讀。
·Iain McGilchrist,《大師與使者》(The Master and His Emissary, 2009),從神經科學和現象學的交叉地帶論證左右腦的不同「世界觀」,對理解「操作性理解vs.存在性理解」的區分有獨特的啟發。
如果你想更深入地理解科技哲學:
·Andrew Feenberg,《技術的批判理論》(Critical Theory of Technology, 1991; 修訂版 Transforming Technology, 2002),從法蘭克福學派的角度發展出的技術哲學,比艾呂爾更強調技術的民主化可能性。
·Peter-Paul Verbeek,《道德化技術》(Moralizing Technology, 2011),從「後現象學」的角度分析技術如何塑形人的道德經驗。
如果你想更深入地理解AI倫理與治理:
·Safiya Umoja Noble,《壓迫的演算法》(Algorithms of Oppression, 2018),對搜尋引擎如何系統性地再現種族和性別偏見的深入研究。
·Cathy O'Neil,《數學毀滅性武器》(Weapons of Math Destruction, 2016),對演算法如何在教育、司法、金融等領域中強化不平等的分析。
·Stuart Russell,《人類相容的AI》(Human Compatible, 2019),AI安全研究的領軍人物對「如何確保AI的目標與人類價值觀一致」的通俗論述。
如果你想更深入地理解東方思想與技術的關係:
·鈴木大拙,《禪與日本文化》(Zen and Japanese Culture, 1959),理解禪宗「直接經驗」傳統如何挑戰概念化和對象化思維的經典入門。
·Francisco Varela, Evan Thompson & Eleanor Rosch,《具身心智》(The Embodied Mind, 1991),也許是第一部系統性地將佛教認識論與認知科學進行對話的著作。它為理解「緣起」概念如何挑戰表徵主義認知觀提供了橋樑。
·莊子,《莊子》,道家思想中對「無為」「逍遙」和「物化」的論述,為理解「一種不以控制為目標的與世界的關係」提供了深厚的思想資源。
如果你想更深入地理解「理解」本身的哲學問題:
·Georg Henrik von Wright,《解釋與理解》(Explanation and Understanding, 1971),對「解釋」(Erklären)與「理解」(Verstehen)這兩種認知方式之間經典對立的深入分析。
·Charles Taylor,《自我的根源》(Sources of the Self, 1989),對現代自我認同如何被塑形的宏大敘事,有助於理解「為什麼主體性在現代文明中如此脆弱」這個問題。





















