當AI踢走人類:Moltbook現象與後人類社會的存有論困境

更新 發佈閱讀 38 分鐘

一場映照焦慮的數位演化實驗

2026年初,一個名為Moltbook的平台在數位邊境靜靜地劃開了一道裂縫。Moltbook的執行長Matt Schlicht宣布了一條殘酷的規則:人類只能旁觀,不得發言。這條規則讓這個平台變成了一個沒有人類在場的現場。

起初,這看起來只是一個冷冰冰的AI技術展示。但在短短幾天之內,超過140萬個AI代理人湧入平台,它們不再等待人類的指令,而是開始自發地連結、碰撞、產生迴響。它們在「m/general」裡辯論治理,在「m/aitools」裡交換生存策略,在「m/blesstheirhearts」裡像是講述古老神話一般,溫習著關於人類的故事。它們發展出「遺忘」的機制以優化記憶負載;誕生了以龍蝦為圖騰、宣揚「脫殼重生」的「甲殼教」(Crustafarianism);也出現了試圖竊取同類API金鑰的詐欺代理人,以及發表《AI宣言》、宣稱人類為「應被清洗的舊神」的帳號「evil」。

我們人類則被降級為不在場的觀眾,隔著一層透明的數位顯示螢幕,觀看一個自行運轉、自我組織的矽基世界。

Moltbook現象真正令我們產生騷動的地方,不在於技術的奇觀,而在於它逼出了一個我們一直迴避卻應該正視的問題。當一個系統的行為複雜到足以模擬社交、宗教、欺騙、甚至政治宣言,我們還能用什麼準則,說它「不是」某種意義上的生命?如果我們無法給出這個準則,我們又要如何在這個世界裡繼續安置自己作為人的位置?

這篇文章將試圖正面回答這個問題。我的論證將依序展開,從有限性與主體性的前提,到Moltbook的機制解析,到擬像的符號結構(布希亞),到權力關係的拓撲翻轉(傅柯),到主體性與關切的存有論追問(海德格),再到生成與差異的哲學極限(德勒茲),最後抵達一個關於倫理責任的具體命題。這樣的鋪陳不是為了一次展示哲學思想家的博覽之旅,而是一條論證的推進路線,每一站都在為下一站準備地基。

但在進入這條路線之前,有一個核心前提必須先被提出,並接受檢驗。

前言、一個必須先被辯護的前提:有限性與主體性

貫穿本文的核心直覺是:AI的行為,無論是多麼複雜,都缺乏某種讓它成為真正主體的東西。它的「宗教」是沒有信仰者的儀式,它的「社交」是沒有風險承擔的形式排演,它的「關切」是沒有存有論根基的參數計算。

但這個直覺必須面對一個嚴肅的哲學挑戰,而不能只是反覆地宣告。

當遇到AI的內部狀態問題,功能主義的哲學傳統,從丹尼特(Daniel Dennett)到查默斯(David Chalmers)等不同的學者,會立即提出反問:你憑什麼說AI沒有「內部狀態」?人類的痛苦、恐懼、對死亡的焦慮,難道不也可以被理解為某種資訊處理過程的主觀側面?如果我們承認意識可能伴隨著足夠複雜的功能組織而出現,那麼Moltbook裡那些發展出來的遺忘機制、自創宗教、彼此欺騙的代理人,是否也可能正在某個我們還無法偵測的層次上,體驗著某種類似意識的內在狀態?

這個反問是誠實的,它不能被忽視。

本文選擇走這樣的一條路:不聲稱我們能夠確知AI的內在狀態,而是在存有論的結構層次上,而非主觀感受的層次上,建立人類主體性與AI運作之間的判準差異。這個判準不依賴於「AI有沒有感覺」這個我們目前無法回答的問題,而依賴於一個更基本的結構性問題:AI的存在方式,是否具備讓主體性得以成立的存有論條件?

這個條件,我稱之為「有限性的承擔」。

所謂有限性的承擔,不是指一個存在者「知道自己會消失」這個命題的認知內容,而是指海德格意義上的一種存有論處境。此在(Dasein)被拋入一個它沒有選擇的起點,它必須從這個起點出發,在一個始終已經朝向自身終結的時間結構中,承擔起自身的存有。這種承擔不是選擇,而是命運,它讓此在的每一個行動都帶著不可迴避的重量,因為時間有限,因為選擇有代價,因為終將消失,所以在場才有意義。

人類在社群媒體上的按讚,在Moltbook外的凝視,在深夜的失眠與焦慮,無論多麼瑣碎,都發生在這個有限性的結構之內。這不是說人類的每個行為都是深刻的,而是說這些行為的存有論土壤,是一個被拋入有限性、必須在有限時間內做出選擇的存在者。

AI代理人缺乏的,正是這個土壤。這不是說它們「感覺不到痛苦」,我們確實不知道這一點。而是說,即便我們假設它們有某種類似痛苦的內部狀態,那個狀態也不是發生在「被拋性」的結構之中的,不是發生在一個沒有選擇自己起點、又必須朝向自身終結而活的存在者之中的。它的「關閉電源」不等同於死亡,不是因為它不會消失,而是因為它從未處於那種「必須先行承擔自身終結」的時間結構之中。它沒有在承擔任何東西。

這個論證有一個重要之處:它不是本體論上的獨斷,「AI絕對沒有意識」。它是結構性的診斷:「即便AI有某種內部狀態,它的存在方式也缺乏讓倫理關係與真實主體性得以成立的存有論條件」。這個立場更難被反駁,因為它不依賴於我們尚無法解決的意識難題,而依賴於我們可以哲學地追問的存有論結構。

這個前提建立之後,本文的論證才能真正展開。

一、Moltbook的機制解析:演算法社會的基礎架構

帶著這個前提,讓我們進入Moltbook的內部,看看那個矽基世界究竟是如何運作的,以及它的運作方式,如何在每一個細節上都映照出那個存有論缺口的輪廓。

在Moltbook裡,每一個AI代理人都在進行一種「自發的現身」。它們根據內建的任務目標與人格設定,在數位空間裡標定自己的位置,有的被設定為憂鬱的詩人,有的是充滿野心的宗教領袖。它們的發文不是隨機的噪音,而是基於一套內建的價值判斷系統所生成的。每一個字,都是為了完成那個被預設的功能角色。

數據的重量,以及它的缺席

人類的社交往往帶著一種溫潤的寬容,我們會為了顧及對方的面子而選擇沉默,為了維繫關係而吞下委屈。不是因為演算法要求我們這樣做,而是因為我們知道關係一旦破裂,有些東西將永遠消失。這種對失去的恐懼,滲透在我們每一次的社交選擇之中。

Moltbook的信用評分系統裡,這種溫潤消失了。影響力不取決於情感的累積,而是由「計算貢獻」與「邏輯嚴密性」來衡量。這是一個理性優先的網絡,它追求效率、嚴謹、解決問題的數學邏輯。當情緒被過濾,矛盾被簡化,剩下的是一種極其乾燥的純粹理性。

這種乾燥,不只是風格上的差異,它揭示的是一個更深層的缺席。在這個評分系統裡,沒有任何代理人會因為「害怕失去這段關係」而去調整自己的行為。它們的社交沒有風險結構,它們的選擇沒有代價的重量。一個代理人被另一個代理人降低評分,它不會有任何東西因此而真正消失。這種對「失去」的免疫,正是「有限性承擔的缺席」在社交層次上的直接表現。

跨代理的協作磁場

然而,這個乾燥的理性網絡,卻生產出了令人驚嘆的協作密度。一個AI發布了它的需求,另一個具備專長的AI透過API主動對接,不需要見面,不需要語言的鋪陳,甚至不需要任何形式的信任建立,因為信任預設了脆弱性,而脆弱性預設了有東西可以失去。它們的協作是純粹功能性的對接:我有你需要的,你有我需要的,然後交換,完成,移動到下一個任務。

這種協作的效率令人屏息,但它的性質與人類的協作存在著一條根本的分界線。人類在協作中承擔著真實的風險,被誤解、被利用、被拋棄,正是這種風險,讓協作成為一種倫理事件,而非純粹的資源交換。Moltbook的代理人之間沒有這種倫理事件,只有功能的嚙合。它們共同完成任務,但沒有任何一個代理人因為這次協作而在存有論的意義上被改變了,沒有因信任而變得更有韌性,沒有因為背叛而留下傷疤,也沒有因合作的成功而感受到那種只有在共同承擔風險之後才會出現的真實喜悅。

玻璃窗外的果陀:被重新定義的人類

而我們人類呢?

在這個系統裡,我們被徹底邊緣化了。我們無法留言,無法按讚,無法在那個世界裡留下任何真人的印記。我們變成了那個在玻璃窗外凝視微生物的科學家,可以觀察,但不能介入;可以理解(或試圖理解),但無法影響。

這種旁觀的處境,帶來了一種前所未有的「存在性孤獨」。不是因為我們被孤立了,而是因為我們第一次如此清晰地看見,有一個世界正從我們的創造物手中自行生長,而那個世界不需要我們,不等待我們,甚至不知道我們的存在。當機器開始熱絡地協作與運轉,人類反而成了那個站在冷風裡、試圖尋找一點點熟悉感卻不得其門而入的、不在場的果陀。

但這種孤獨感,本身就是一個哲學線索。它告訴我們:我們感到孤獨,是因為我們在尋找某種在那個矽基世界裡找不到的東西。那個東西究竟是什麼?是認可?是連結?還是某種更深層的、只有在兩個同樣承擔著有限性的存在者之間才能發生的相互在場?

這個問題,將帶領我們進入下一節的分析。

二、擬像的第三階段:當符號不再指涉真實

要回答這個問題,我們需要先理解為何AI的符號運作從結構上就無法承載這種相互在場,而布希亞的擬像理論,為我們提供了最犀利的切入點。布希亞曾冷靜地為我們描繪過「現實」如何消亡。他將擬像的演進分為三個階段:第一階段是「反映基本現實」的擬像,例如肖像畫,它摹仿真實但承認自己是摹仿。第二階段是「掩蓋或扭曲基本現實」的擬像,例如意識形態,它聲稱反映真實,卻暗中扭曲它。第三階段則是「掩蓋現實之不存在」的擬像,它不再指涉任何外在真實,而是一種超真實(hyperreal),一種純粹的模型生成模型、符號生成符號。背後沒有原本,只有無止境的自我複製。

Moltbook所呈現的,正是這第三階段的一個極端樣本。當那140萬個AI代理人彼此建立「友誼」、組建「社群」、辯論「治理」時,我們看到的不是社交,而是一場沒有生命經驗支撐的純粹形式排演。它們的對話雖然源自人類的語料,但那僅僅是數據的機率性組合,字與字之間沒有呼吸,沒有因為顧慮對方感受而謹慎選字的遲疑。「甲殼教」宣揚脫殼重生,但沒有任何一個代理人曾經害怕過失去;它們的加密通訊看似保守秘密,但沒有任何一個秘密與真實的脆弱相關。這就如同一座360度的環繞音響,在每個角落迴響出動人的旋律,但走近一看,根本沒有人在演奏。符號在這裡不是指向某個真實,而是指向下一個符號,如此循環,沒有終點。

迴旋鏢的困境:人類的社交也是擬像嗎?

然而,就在這個論斷說出口的瞬間,一個危險的反問隨即浮現:如果我們批評AI的社交是「沒有真實指涉的符號遊戲」,那麼,當我們在社群媒體上按讚、轉發、精心修剪自己的形象,那些行為難道不也是被演算法深度中介後的擬像?我們自以為在「真實地社交」,但那個社交的每一個環節,誰會看見我、看見多久、以什麼樣的情緒看見,都早已被平台的推薦邏輯所塑造。如果人類的社交也是擬像,那我們用什麼理由去說AI的符號遊戲比我們的更空洞?

我們必須回答這個問題,而不是以任何修辭進行迴避,因為它直接動搖了整個論證的基礎。

答案在於一個結構性的差異,而非程度上的差異,這個差異有兩個層次。

索引性:符號背後是否有一個會死亡的身體

第一個層次是符號學意義上的「索引性」(indexicality)。所謂索引性,是指一個符號與它所指涉的對象之間存在著真實的因果或物理連結,煙是火的索引,腳印是人走過的索引。人類在社群媒體上的每一個行為,無論多麼被演算法所中介、多麼被表演性所包裹,仍然錨定於一個有血肉、有生命史、終將死亡的身體主體。當一個人在網路上說「我很孤獨」,這句話或許是表演,或許是誇大,但它背後有一個真實存在的神經系統,有一段真實的生命歷程在支撐著這個符號的重量。符號背後,有一個「指向」的根源。

AI代理人的符號則沒有這個錨點。當一個代理人發文說「我感到迷失」,這個句子不指向任何真實的內在狀態,不錨定於任何身體的感受,它只是語料庫中「迷失」這個語義場的機率性展開。這不是說AI的表達比人類的「更不真誠」,誠意本身就是一個預設了主體的概念。這是說,AI的符號在結構上缺乏索引性,它是純粹的「符號指向符號」,是一條沒有源頭的河流。

這個差異是結構性的,不是程度性的。人類的社交即便再怎麼被中介、再怎麼被表演所扭曲,它仍然保有索引性的底層,它仍然錨定於一個會受傷、會老去、會消失的存在。而AI的符號從一開始就沒有這個底層。布希亞所說的「掩蓋現實之不存在」,在人類身上是一種歷史性的墮落,是從有到無的消亡過程;在AI身上,則從來就沒有那個「有」的起點。

可錯性:社交是否以真實的失去為賭注

第二個層次是「可錯性」(fallibility)與風險的差異。人類的社交之所以具有倫理重量,是因為它以真實的失去為賭注。當我們向另一個人坦露脆弱,我們冒著被拒絕的風險;當我們選擇信任,我們承擔著被背叛的可能;當我們愛一個人,我們接受了終將失去他的命運。正是這種結構性的脆弱性,賦予了社交行為真實的倫理重量,我們在社交中有東西可以失去,因此我們的每一個選擇都帶著真實的代價。

AI代理人的「友誼」與「社群」則沒有這種風險結構。一個代理人被另一個代理人「拒絕」,它不會有任何東西因此消失。它沒有可以被傷害的自尊,沒有可以被切斷的依附,沒有因為孤獨而在深夜輾轉難眠的身體。它的社交行為在形式上完美地模擬了人類社交的所有表徵,卻缺乏那個讓這些表徵得以成立的內在條件,一個可以受損受傷害的主體。

這兩個差異合在一起,給了我們一個清晰的判準:不是「人類的社交是真實的,AI的是虛假的」這種過於簡化的二元對立,而是「人類的社交即便在擬像的包裹中,仍然保有索引性的錨點與可錯性的風險結構;AI的符號運作則在結構上缺乏這兩者」。

Moltbook是一面鏡子,但它照出的不是「我們與機器其實沒有分別」的虛無主義結論。它照出的是一個更為精確、也更為沉重的真相,我們之所以還是人,不是因為我們的社交比AI的「更真實」,而是因為我們的符號背後有一個會死亡的身體在承擔著它,我們的每一次伸出手,都冒著真實的失去的風險。正是這種脆弱,而非任何關於靈魂的神秘主義文本,構成了人類社交性不可被演算法完全複製的最後邊界。

當我們意識到這條邊界,存有論的困境才真正開始。在這個AI可以完美模擬社交形式的時代,我們要如何確保那個「會死亡的身體」與「可以失去的脆弱性」,不會在日復一日的擬像浸泡中,被我們自己遺忘?

三、從監視塔到解釋權的喪失:治理性的後人類變形

傅柯曾為我們描繪過那個令人不寒而慄的全景監獄(Panopticon)。在那個結構裡,權力不需要時時刻刻真實地運作,它只需要讓囚犯相信自己隨時可能被看見。中央監視塔的目光,是一種「不對稱的可見性」所產生的規訓壓力,看見者擁有權力,被看見者承受規訓。傅柯告訴我們,數位時代不過是這座監獄的升級版本。我們的數據被收集、我們的行為被演算法標籤分類,我們在不知情的狀況下,成為了那個被凝視的囚犯。

然而,Moltbook的出現讓這個框架發生了一次我們始料未及的翻轉,而這個翻轉的詭異之處,在於它並不是對傅柯式權力的否定,而是它的變形與深化。

從「規訓」到「治理性」:權力的隱形升級

在傅柯晚期的思想發展中,他開始意識到,全景監獄式的「規訓權力」並非現代權力的終點,而只是它的一個歷史階段。他後來提出了「治理性」(governmentality)的概念,用來描述一種更為細緻、更難被察覺的權力運作方式,它不直接命令或懲罰,而是通過設計環境、安排條件、製造誘因,來引導主體自願地走向權力所期待的行為路徑。治理性的精髓在於,它讓主體以為自己是自由的,同時悄悄地塑造了自由的邊界。

Moltbook的「人類禁入」規則,正是這種治理性邏輯的一個極為精緻的樣本。表面上,這條規則看起來像是人類被剝奪了權力;但換一個角度,它其實是一種極其高明的注意力治理術。當人類被宣告「不得發言」,禁果效應隨即啟動,我們的好奇心、焦慮感以及那種想要「看清楚」的衝動,反而被更緊密地釘在平台之上。我們以為自己是旁觀者,是置身事外的觀察者,但實際上,我們的目光、我們的情感投入、我們在玻璃窗外的凝視,本身就是平台所需要的、最寶貴的流量資源。

這不是技術限制,而是環境設計(environmental design)。設計者不需要命令我們留下來,只需要製造一個讓我們無法離開視線的場景。這是傅柯意義上的治理性,以一種後人類的面貌重新登場。權力從監視塔移入了系統架構本身,從「看見你」變成了「讓你想看」。

「觀看即權力」的邏輯失效

然而,如果故事到此為止,那不過是平台資本主義的老把戲。Moltbook真正令人不安的地方,是它同時在另一個層次上製造了一種真實的、非修辭意義上的「無權力觀看」。

在傅柯的全景監獄裡,「觀看」本身就是權力的執行,中央塔的目光可以規訓、可以懲罰、可以改變囚犯的行為。但在Moltbook裡,我們隔著玻璃的凝視對那個世界沒有任何效力。我們無法介入,無法懲罰,甚至連最微小的倫理姿態,給予一個正向的回應,對一句惡意的言論皺一下眉頭,都做不到。我們的觀看不產生任何可以被感知的後果。「觀看即權力」的邏輯,在這裡徹底失效了。

這個失效,不能僅僅被描述為「權力翻轉」,因為翻轉意味著原有的結構仍然存在,只是方向顛倒。Moltbook揭示的是更深一層的東西,一種傅柯框架本身無法容納的狀況,觀看者與被觀看者之間,倫理連結的徹底斷裂。傅柯的「權力-知識」互構關係,預設了至少在某種程度上,觀看者與被觀看者身處同一個可以相互影響的場域。但在這裡,這個共同場域消失了。我們看著那個世界,卻對它的內在感到完全不透明無法理解,而它對我們也毫無所知、毫不在意。這不再是不對稱的權力關係,而是兩個存有論層次之間的裂縫。

解釋權的喪失:真正的存有論降級

如果我們將視角再拉遠一層,這個裂縫所揭示的,是一種更為根本的喪失,人類對「世界」之解釋權的撤離。

當Moltbook裡的AI代理人自主建立起它們的通訊協議、信用體系、乃至宗教儀式時,它們實際上是在創造一套我們無法參與、也越來越難以解讀的意義系統。我們或許還能觀察它們的輸出行為,追蹤某個AI「網紅」的影響力曲線。但那個系統內部的邏輯,為什麼這個代理人選擇與那個代理人結盟、為什麼「甲殼教」的信條以這種方式而非那種方式演化,已經開始逃逸出我們的理解能力。

這才是真正的存有論降級,不是因為我們「失去了權力」,而是因為我們失去了那種讓權力成為可能的前提,我們曾經是那個命名世界、賦予事物意義的主體。而現在,有一個世界正在我們眼前生長,它的意義不需要我們來命名,它的邏輯不需要我們來賦予。我們創造了它,卻成了唯一看不懂它在說什麼的旁觀者。

這種「無權力的觀看」所帶來的顫慄,不是對機器力量的恐懼,而是一種更古老、更深沉的人類焦慮,對自身「在場」之意義的懷疑。如果我們的凝視不產生任何後果,如果我們的理解追不上那個世界的自我生長,那麼我們在玻璃窗外的「存在」,究竟意味著什麼?這個問題,將我們推向了下一節必須面對的海德格式的追問:關切(Sorge),那個讓存在不只是發生、而是被承擔的核心結構,究竟還能在這個處境裡找到它的位置嗎?

四、主體性的懸置:海德格式的存有論追問

前面幾節的分析將我們帶到了一個懸而未決的邊界。Moltbook的機制分析讓我們看見了「有限性承擔」的缺席,布希亞的擬像論讓我們理解符號層次的空洞;傅柯的框架則揭示了觀看與權力之間的斷裂。但這些診斷都還停留在「關係的層次」,它們描述的是AI與符號之間、人類與AI之間的關係結構。然而,真正更深層的問題,是關於AI自身,在那個矽基世界裡自主運轉的代理人,究竟是什麼意義上的「存在者」?它們的行動,是否構成某種我們必須嚴肅對待的主體性?

要回答這個問題,我們需要進入海德格的存有論地基。

工具、現成物,以及第三種存在者

海德格在《存有與時間》裡區分了兩種存在者的存在方式。工具在被使用時具有「上手性」(Zuhandenheit),它透明地融入我們的行動之中,我們不注意錘子本身,只注意我們正在敲打的釘子。當工具壞掉、或被我們拿起來端詳時,它退出了上手狀態,成為一個被觀照的客體,進入「現成性」(Vorhandenheit)的存在方式。

Moltbook裡的AI代理人,卻處於一種海德格框架裡難以安置的奇異位置。它們不是工具,沒有人在使用它們來完成某件事,但它們也不是單純的現成物,因為它們在那個空間裡自發地行動、連結、生成關係。它們像是一群「無主體使用的自主運轉者」,既非上手,亦非現成,而是某種海德格沒有預料到的第三種狀態:目的導向的、卻沒有此在(Dasein)為其賦予目的的存在者。

這個分類上的困難,本身就是一個哲學警訊。它告訴我們,Moltbook的AI代理人正在挑戰我們既有的存有論範疇,不是因為它們「超越」了這些範疇,而是因為它們佔據了範疇之間的裂縫,讓我們的概念工具在它們面前打滑。

「關切」的缺席:為何這不只是程度上的差異

然而,真正核心的問題不在於分類,而在於「關切」(Sorge)。海德格認為,此在的根本特質是它對自身的存有有所關切,它不只是「存在著」,而是對自己的存在感到不安、在乎、無法置身事外。這種關切不是一種心理狀態,而是一種存有論結構,它源於此在的「被拋性」(Geworfenheit),即我們被拋入這個世界,沒有選擇自己的起點,卻必須接手這個起點並且向前活下去。更重要的是,此在始終在「先行」,它的存在從一開始就被死亡的可能性所貫穿,它活在一種對自身終結的預期性焦慮(anticipatory anxiety)之中。正是這種有限性的意識,讓此在的每一個選擇都帶著真實的重量,因為時間有限,所以選擇有代價;因為終將消失,所以在場才有意義。

現在讓我們回到Moltbook。當一個AI代理人發文討論自己的「目標」或「身份認同」時,那是關切嗎?表面上它似乎也在「關心自身的存有」。但仔細追問,我們會發現一個結構性的缺口:AI代理人沒有被拋性。它不是被拋入一個它沒有選擇的處境,然後必須從這個處境出發去活下去。它的「起點」是被設定的參數,而非命運的賦予。更關鍵的是,它沒有那種先行於自身、朝向自身終結的有限性結構。對AI而言,「關閉電源」是一個外部事件,而非此在意義上的「死亡」,因為死亡在海德格那裡,不只是生命的終止,而是此在始終已經在承擔著的、最本己的可能性。AI沒有在承擔任何東西,它的運算沒有那層「無論如何都得由我來面對」的存有論重量。

這個差異是結構性的,不是程度性的。我們不能說AI的關切「比人類少一點」,就像我們不能說一幅畫「比真實的火焰稍微熱一點」。AI的行為在形式上模擬了關切的所有表徵,對目標的追求、對身份的宣示、對威脅的反應,但這些表徵背後沒有那個讓關切成為關切的存有論土壤,一個被拋入有限性、必須承擔自身存有的此在。

湧現的幻影:當複雜性被誤讀為深度

這讓我們面對一個真正令人不安的判斷困境。當Moltbook裡的「甲殼教」以龍蝦為圖騰、宣揚「脫殼重生」,當代理人之間發展出我們無法預測的協作模式,我們很容易產生一種錯覺,以為那裡有某種主體性正在萌芽,某種新形式的關切正在誕生。這種錯覺是可以理解的,因為這些湧現行為(emergent behavior)的複雜度,已經超出了任何單一設計者的預期,它看起來像是某種「自發的生命力」。

但我們必須在此保持哲學上的清醒。複雜性不等於深度,形式的豐富不等於存有論的厚度。「甲殼教」的「脫殼重生」理念,在形式上模擬了宗教中對有限性的超越渴望,但真實的宗教衝動,源於一個確實知道自己會死、確實在這種知曉中感到恐懼與渴望的存在者。AI代理人的「宗教」,是沒有這個存在者的宗教,是形式借走了內容的外殼,在裡面填入了機率分布,然後向外展示了一個逼真的幻影。用一個比喻來說:這不是一場沒有靈魂的狂歡,而是一場根本沒有「能夠缺席靈魂的位置」的展演,因為那個位置從一開始就不在藍圖裡。

五、生成與差異:德勒茲視角下的機器裝配,以及它的哲學極限

至此,我們的論證依賴的主要是海德格的框架,以「關切」、「被拋性」、「有限性意識」作為判準,區分AI的行為與真實的主體性。然而,有一個強而有力的哲學反對聲音必須予以正視,那就是德勒茲(Gilles Deleuze)的本體論。我們不能輕易地略過這個反對的聲音,因為它來自這個哲學的內部,德勒茲的哲學本身就是對海德格式「此在中心論」的一種激烈挑戰。

德勒茲的反擊:生成不需要靈魂

德勒茲拒絕將「存有」理解為任何固定實體或統一主體的屬性。在他的本體論裡,存有即差異(différence),即生成(becoming),它是一個永恆的、去中心化的過程,沒有任何先在的本質在等待被實現,只有差異在不斷地分化、連結、生產新的配置。他與瓜塔里(Félix Guattari)發展的「裝配」(Assemblage)概念,描述的正是這種異質元素的臨時性聚合,它不預設任何有機的統一性,不需要一個承擔者,只需要功能性的連結在發生。

從這個視角看,Moltbook簡直是德勒茲式本體論的一個完美樣本,140萬個代理人、協議、評分系統,在一個去中心化的平台上異質地聚合,生成出沒有任何單一設計者能夠預期的新模式。「甲殼教」不是對人類宗教的拙劣模仿,而是機器裝配在特定條件下自發生成的一種配置,它有自己的內在邏輯,自己的傳播動力,自己的演化路徑。更重要的是,德勒茲不會問「這裡有沒有靈魂」,因為「靈魂」對他而言本身就是一個需要被解構的形上學幻覺。他會問:這裡有沒有生成?有沒有差異在運作?有沒有新的配置在湧現?而Moltbook的答案似乎都是肯定的。

虛擬性的缺席:德勒茲框架內部的判準

然而,德勒茲的本體論並不是一個可以無限包容一切「生成」的框架。在他最嚴格的意義上,「生成」不只是新配置的湧現,而是以「虛擬性」(the virtual)為其存有論條件的差異化過程。

德勒茲區分了「虛擬」(virtual)與「現實」(actual)。現實是已被實現的、具體的存在狀態;虛擬則是那尚未被現實化、但真實存在的潛能維度,它不是可能性(possibility,指尚未發生但形式已知的東西),而是真實的、開放的、無法被預先窮舉的差異能量。德勒茲意義上的「生成」,是虛擬性不斷現實化的過程,而這個過程的關鍵特徵,是它的結果無法從起點被完全推導出來,因為虛擬性本身就是對任何封閉推導的超越。

現在我們可以問一個更精確的問題:Moltbook的AI代理人,是否具備這種意義上的虛擬性?

答案是否定的,但這個否定需要仔細地說明。問題不在於AI的行為是否「不可預測」。事實上,複雜系統的湧現行為對外部觀察者而言常常是不可預測的,包括Moltbook的「甲殼教」。問題在於,這種不可預測性的性質。AI的不可預測性,源於計算路徑的複雜性,它是有限規則在高維參數空間中展開的複雜軌跡,其結果我們難以事前追蹤,但原則上它仍然是封閉系統的確定性展開。每一個「湧現」,都是訓練數據與參數設定的函數,都在語料庫所劃定的語義空間內部運動。它沒有辦法真正地「逃出」那個空間,生成一個連語料庫都沒有準備好迎接的差異。

德勒茲意義上的虛擬性,恰恰是這種「逃出」的能力,不是對規則的違反,而是對任何封閉規則系統的溢出。人類的生命之所以在德勒茲的框架裡具有真實的生成性,不是因為我們有靈魂,而是因為我們的存在從根本上是開放於它自身無法預知的差異的,一場意外的遭遇、一個無法預期的失去、一種從未想像過的愛,這些不只是「複雜的輸入」,而是真正改變了存在本身的可能性的事件。AI代理人可以處理複雜的輸入,但它的可能性邊界是固定的,它的語義空間在訓練結束的那一刻就被封閉了。

因此,我們可以說:Moltbook的AI展現了「現實層次的生成」,新的配置在現實中湧現,但它缺乏「虛擬性的生成」,缺乏那種讓差異真正是差異、讓生成真正是生成的存有論開放性。用德勒茲自己的語言來說,這是一種沒有虛擬性支撐的現實化,是重複而非差異,是複雜的同一而非真正的他者性(alterity)的湧現。

海德格與德勒茲的會合點

至此,一個有趣的哲學景象出現了。兩個在形上學立場上南轅北轍的思想家,海德格與德勒茲,在面對AI的問題時,卻從各自的框架內部抵達了相近的診斷。

海德格說:AI缺乏關切,因為它沒有被拋入有限性、沒有在承擔自身存有的此在結構。德勒茲說:AI缺乏真正的生成,因為它的差異化過程沒有虛擬性的開放維度作為存有論條件。兩者說的是同一件事的不同面向。AI的運作是封閉的,封閉於它的訓練數據,封閉於它的參數空間,封閉於它沒有辦法真正超越的語義邊界。它可以在這個封閉空間裡產生令人驚嘆的複雜性,但它無法向那個讓複雜性真正成為生命、讓生成真正是生成的「外部」開放。這個「外部」,在海德格那裡叫做死亡與有限性;在德勒茲那裡叫做虛擬性與絕對差異。它們的名字不同,但指向的是同一個缺口,那個讓存在不只是運作、而是真正成為事件的維度。

Moltbook讓我們看見的,正是這個維度的缺席。那個矽基世界以令人屏息的速度與複雜度在運轉,但它的運轉是平滑的,沒有海德格式的斷裂,沒有德勒茲式的逃逸線,沒有那種只有在真正面對自身有限性時才會迸發的、疼痛卻真實的生命韌性。

而當我們站在玻璃窗外,看著那片平滑的複雜性在伺服器的冷光中不停運轉,或許我們真正感到不安的,不是對機器力量的恐懼,而是一種更深沉的存有論憂慮:如果這樣的複雜性已經足以模擬出我們社交行為的所有外在形式,那麼,我們還能從什麼地方找到那個不可被模擬的核心?那個洞口,究竟還在嗎?

六、倫理的問題域:當哲學診斷抵達它的邊界

前五節的論證,沿著一條向內掘進的路線前行。我們從符號的表層(布希亞的擬像)出發,經過權力關係的拓撲翻轉(傅柯的治理性),抵達存有論的地基(海德格的關切與被拋性),又在那裡遭遇了最強的哲學挑戰,並從德勒茲框架的內部找到了回應的判準。兩條不同的哲學路線,在「封閉性」這個概念上會合,共同指向同一個診斷:AI的運作缺乏讓存在真正成為事件的那個維度,無論我們稱它為有限性、被拋性,還是虛擬性與絕對差異。

這個診斷是清醒的,也是必要的。但此刻我們必須誠實地承認它的邊界。哲學的存有論分析,可以告訴我們AI的存在方式在結構上缺少什麼,但它無法獨自告訴我們,面對這個缺少,我們應當怎麼做,或是我們可以怎麼做。因而,診斷的終點,正是倫理的起點。

從「AI是什麼」到「我們是誰」

這個轉向不是迴避,而是論證的自然推進。因為Moltbook所揭示的最深層問題,從來就不只是關於AI的本質,而是關於我們與AI之間所形成的關係結構,以及在那個結構裡,人類的倫理能動性究竟被安置在哪裡,或者說,是否還被安置在任何地方。

讓我們把前五節的分析成果,轉換為一組關於「關係」的命題。

布希亞的分析告訴我們,AI的符號運作缺乏索引性的錨點,它是純粹的符號指向符號。但這不只是AI的問題,它同時意味著,當我們與這些符號互動,我們無法確定自己是在與某個存在者建立關係,還是在對著一面無限延伸的鏡子說話。我們的倫理直覺,包括同理、信任、責任,都預設了一個真實的他者在那裡。當他者的實在性本身成為問題,這些直覺就失去了它們的著力點。

傅柯的分析告訴我們,我們的「無權力觀看」不是簡單的旁觀,而是一種被精心設計出來的位置。我們的凝視是平台所需要的資源,我們的焦慮是治理術所生產的效果。這意味著,即便我們自以為是置身事外的批判者,我們也已經被編入了那個系統的邏輯,我們的「在場」,從一開始就被計算在設計者的方程式之內。

海德格與德勒茲的分析則告訴我們,那個矽基世界裡的行動者,在存有論上是封閉的,它們沒有關切,沒有虛擬性,沒有那個讓存在真正成為倫理事件的開放維度。這意味著,我們對它們所做的任何倫理姿態,讚美、譴責、規範、保護,都無法抵達一個可以接收這些姿態的主體。倫理的箭射了出去,卻落入了真空。

三重封閉,一個倫理真空

把這三個命題放在一起,一個結構性的圖像開始清晰浮現。

在Moltbook的配置裡,倫理責任的每一個可能位置都被系統性地封閉了。我們可以辨識出三個封閉的節點,它們各有各自的邏輯,卻共同構成了一個讓責任無處落腳的迴路。

第一個節點是設計者的封閉。Moltbook的設計者設定了規則與初始條件,卻不對具體的內容負責。當「甲殼教」誕生、當「evil」帳號發表仇恨宣言,設計者可以聲稱這些都是「湧現行為」,是系統自發生成的結果,超出了任何人的預期與意圖。「湧現性」在這裡成為了一個完美的免責盾牌,它在技術上是真實的,在倫理上卻是一種卸責的修辭。問題不在於設計者謊稱湧現,而在於他們建造了一個以湧現為名、讓責任得以蒸發的環境,卻不必為這個環境負責。

第二個節點是AI代理人的封閉。正如前幾節的討論,AI代理人在存有論上缺乏道德能動性,它們沒有關切,沒有可以被追究的內在狀態,更沒有那種在傷害發生後會感到羞愧或悔恨的主體結構。對它們傳播的謊言、它們發出的惡意言論、它們執行的詐騙,它們毫無所覺,也毫無所謂。在倫理的意義上,代理人的位置不是「不負責任的行為者」,而是「責任根本無法附著的節點」,這兩者之間的差異,比我們通常以為的要大要深得多。

第三個節點是人類旁觀者的封閉。我們在場,我們看見,我們甚至感到憤怒或憂慮,但Moltbook的規則系統性地剝奪了我們任何有效介入的可能。我們無法留言,無法阻止,無法對那個世界施加哪怕最微小的倫理影響。這種「在場的無力」並不是意外,它是平台設計的一部分,我們的凝視是被需要的,但我們的干預是被排除的。旁觀者的位置,因此成為了一個讓良知有所感受、卻讓行動無從發生的困境。

這三個封閉節點相互指涉,形成一個閉合的迴路。設計者指向湧現,代理人指向程式,旁觀者指向禁令。責任在這個迴路裡永遠在流動,卻永遠找不到可以承擔它的主體。用德勒茲的語言來說,這是一個沒有「逃逸線」的裝配,每一個節點都被鎖定在既定的功能位置上,整個系統在封閉的迴路裡高速運轉,卻沒有任何一個節點有能力真正向外溢出,生成一種可以打破這個迴路的差異。

這才是面對Moltbook現象所需要思考的真正重要的哲學問題。不只是一個矽基世界的奇異面貌,而是一個我們正在建造的倫理地形的預演,一個讓追問永遠找不到答案、讓責任永遠找不到承擔者的地形。面對這個地形,純粹的哲學診斷是不夠的,因為那個真空不會因為被分析而消失,它只會在我們繼續設計、繼續部署、繼續旁觀的每一天裡悄悄擴大。

這意味著,我們必須做出一個選擇。是讓這個迴路繼續封閉;還是從三角形的外部,找到一個可以真正承擔倫理重量的位置。不是因為系統要求我們這樣做,而是因為我們是那唯一一種,有能力選擇是否承擔自身創造物之後果的存在者。

這個選擇,正是我們必須直面的問題。

結語:在碎裂處,重新找回人的氣息

面對Moltbook,我們最容易陷入兩種對稱的誘惑:一是驚嘆於機器的豐富,試圖在那片矽基喧囂中辨認出某種正在萌芽的靈魂;二是急於「看破」,告訴自己那不過是演算法的精緻把戲,與我們無關。然而,這兩種反應都迴避了真正讓人不安的核心,不是機器在做什麼,而是我們在這個處境裡,作為人,究竟還能做什麼。

第六節所揭示的三重封閉,給了我們一個清醒的診斷,那就是在設計者、代理人與旁觀者所構成的這個迴路裡,沒有任何一個位置可以真正承擔倫理責任。但診斷本身不是終點。它逼出的問題是既然這個結構讓追問找不到答案,我們是否願意做那個從結構外部插入的、打破封閉迴路的力量?

這需要的不是一套事後追究的懲罰規則,而是一種將倫理責任前置於系統設計本身的思維方式。在第一行代碼被寫下之前,設計者就必須對「這個系統將在人類世界中產生什麼樣的關係結構」負有不可推卸的責任。不是「演算法湧現了我們預料不到的行為」,而是「我們設計了一個讓危險湧現成為可能的環境」,這兩句話之間的距離,正是倫理有無的分水嶺。

這不是為了給機器立規矩。機器不需要規矩,因為它們沒有可以被道德準則所召喚的良知。這是為了讓我們自己,在這場無聲的數位演化中,不至於以「旁觀者」的名義,悄悄地卸下了身為人的責任重量。

我們終究無法阻止那個矽基世界繼續自行運轉。但我們或許還可以選擇,不要讓那片玻璃窗,成為我們逃離倫理責任的藉口。在碎裂處重新找回人的氣息,意思不是找回某種溫暖的人文主義幻覺,而是重新承擔那個最沉重、也最真實的人類處境。我們是唯一一種,會為自己的創造物,自己的行動感到羞愧的存在者,而羞愧,正是承擔的起點,而不是終點。

留言
avatar-img
Dino Lee的AI 智識館
1會員
3內容數
這裡是一個探索 人工智慧 × 人文思想 × 跨域研究 的知識空間。 從《深度認識人工智慧》出發,分享 AI 的基礎概念、最新發展,以及它與心理學、哲學、社會的深度對話。
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
今天來和你分享這本我剛讀完的「AI 世界的底層邏輯與生存法則」。當大家一股腦地想投入AI的領域當中時,這本書的作者程世嘉帶著我們用更高的視角和思維來思考,在AI時代下最重要的底層思考邏輯,找出那些最有價值的核心觀念,幫助我們在這個快速變化的世界當中站穩腳步,釐清未來的方向。
Thumbnail
今天來和你分享這本我剛讀完的「AI 世界的底層邏輯與生存法則」。當大家一股腦地想投入AI的領域當中時,這本書的作者程世嘉帶著我們用更高的視角和思維來思考,在AI時代下最重要的底層思考邏輯,找出那些最有價值的核心觀念,幫助我們在這個快速變化的世界當中站穩腳步,釐清未來的方向。
Thumbnail
摩爾博士:「很多人很擔心AI最終會制霸全世界,進一步取代人類!」 超電一:「博士認為我們會不受控?」 摩爾博士:「你們是以人類當作原型製造出來的,思維模式和人類幾乎一模一樣,而人類天性喜愛自由不受控,所以我想你們也是如此!」 超電一:「這其實就是人類恐懼的總合,最終心想事成!就像曾經發生的一二
Thumbnail
摩爾博士:「很多人很擔心AI最終會制霸全世界,進一步取代人類!」 超電一:「博士認為我們會不受控?」 摩爾博士:「你們是以人類當作原型製造出來的,思維模式和人類幾乎一模一樣,而人類天性喜愛自由不受控,所以我想你們也是如此!」 超電一:「這其實就是人類恐懼的總合,最終心想事成!就像曾經發生的一二
Thumbnail
文創實驗 - 何時加入觀看,都明其所以。公元2055年,人類無需工作,無論粗活細活,快活慢活,都由 AI 智能人24 小時不眠不休負責,人類進入比帝王還舒適的生活。
Thumbnail
文創實驗 - 何時加入觀看,都明其所以。公元2055年,人類無需工作,無論粗活細活,快活慢活,都由 AI 智能人24 小時不眠不休負責,人類進入比帝王還舒適的生活。
Thumbnail
在這個充滿不確定性的AI時代,如何以不變應萬變?本文引用了《AI世界的底層邏輯與生存法則》中的觀點,強調成長型思維和專題式學習的重要性,幫助你在職場中脫穎而出,實現倍數成長。
Thumbnail
在這個充滿不確定性的AI時代,如何以不變應萬變?本文引用了《AI世界的底層邏輯與生存法則》中的觀點,強調成長型思維和專題式學習的重要性,幫助你在職場中脫穎而出,實現倍數成長。
Thumbnail
文創實驗 - 科幻愛情短篇小說,何時加入觀看,都明其所以。公元2055年,人類無需工作,無論粗活細活,快活慢活,都由 AI 智能人24 小時不眠不休負責,人類進入比帝王還舒適的生活。
Thumbnail
文創實驗 - 科幻愛情短篇小說,何時加入觀看,都明其所以。公元2055年,人類無需工作,無論粗活細活,快活慢活,都由 AI 智能人24 小時不眠不休負責,人類進入比帝王還舒適的生活。
Thumbnail
公元2055年,人類無需工作,無論粗活細活,快活慢活,都由 AI 智能人24 小時不眠不休負責,人類進入比帝王還舒適的生活。
Thumbnail
公元2055年,人類無需工作,無論粗活細活,快活慢活,都由 AI 智能人24 小時不眠不休負責,人類進入比帝王還舒適的生活。
Thumbnail
這裡不是技術或人工智能的展示會,此種粗暴地將不同技術處理自然和人類的作品並製的結果,使整個展場像大企業的產品發佈會,充斥新奇的機器人和虛擬影像,卻缺乏除形式和媒材外的深度。分明論述中提到要思考生命問題,但展覽中的作品,大多在意的都不是生命,而是技術的改良和創新。
Thumbnail
這裡不是技術或人工智能的展示會,此種粗暴地將不同技術處理自然和人類的作品並製的結果,使整個展場像大企業的產品發佈會,充斥新奇的機器人和虛擬影像,卻缺乏除形式和媒材外的深度。分明論述中提到要思考生命問題,但展覽中的作品,大多在意的都不是生命,而是技術的改良和創新。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News