2024 年一輛自駕車在舊金山撞死了一個行人。
警察到達現場。死者的家人要求答案:誰殺了我們的親人?法官要求答案:誰應該為此負責?
而 Latour 會給他們什麼答案?
「是整個網絡。」
這個答案在學術會議上很有深度。在法庭上,沒人滿意。
一、ANT 的結構性侷限:去責化
到目前為止,我們跟著 Latour 走了一段路。他幫助我們看清:
- 我們不是獨立的主體,而是一個網絡中的節點。
- 一些看起來是「工具」的東西,實際上是共同行動者,在塑造整個系統的運作。
- 用同樣的分析框架看人和非人,能發現許多被隱藏的權力關係。
非常深刻。但有個問題,Latour 一開始就知道,一直也沒完全解決。
如果能動性分布在整個網絡中,如果沒有一個單一的「主體」做出決策,那麼誰該為後果負責?
在傳統法律和倫理系統中,責任預設了「行動者」。一個人謀殺了別人,那個人該坐牢。一個公司污染了河水,那個公司該賠償。責任集中在一個明確的主體身上。
但在 Latour 的框架裡,謀殺是人、槍、動機、過去的創傷、社會環境等等共同作用的產物。污染是企業、政府、消費者、自然過程等等的網絡產物。
每個節點都在「行動」,但沒有誰「應該為此承擔責任」。責任分散化、模糊化了。
Latour 把這個現象叫「去責化」。
二、現實中的去責化災難
去責化聽起來很抽象。但它造成的現實傷害很具體。
例子一:Facebook 的演算法在緬甸引發了仇恨言論浪潮,導致羅興亞人遭到屠殺。誰負責?
Facebook 說:我們的演算法是中性的,它只是根據用戶互動來排序內容。它沒有「想」要傷害羅興亞人。緬甸的仇恨文化導致了悲劇,不是我們造成的。
緬甸政府說:我們沒有審查言論。是 Facebook 平台提供了傳播的管道。
發出仇恨言論的人說:我們有言論自由。我們的言論觸發了暴力,但暴力者才是真正的罪犯。
誰應該為屠殺負責?整個網絡都有份,但沒有誰被指責。最後 Facebook 被罰款,略微修改了演算法。緬甸沒有任何改變。羅興亞人還是死了。
例子二:AI 醫療系統給了一個患者錯誤的診斷,患者延誤治療死亡。誰負責?
医院说:我們依照規程使用了 FDA 批准的 AI 系統。醫生審查了 AI 的建議。決策是醫生做的,不是 AI。
AI 公司說:系統是基於醫學文獻訓練的。如果文獻本身有缺陷,那是文獻的問題。我們只是反映了數據。
醫生說:我信任了 AI 的建議,但我不是 AI 專家。誰知道它的侷限是什麼?
患者家屬要求答案:我的親人死了。誰該負責?
答案是:沒有誰能被明確追究責任。責任分散在醫院、AI 公司、監管機構、醫學界、患者的決策等等。
三、「行動者」vs.「責任承擔者」
Latour 的大突破——把「人」從分析中心撤出,把非人行動者納入——有一個代價。它破壞了「責任」的概念。
為什麼?因為傳統的法律和倫理系統,責任預設了四件事:
1. 有一個明確的主體——誰做了這件事
2. 主體有意圖或至少有過失——它不是偶然發生的
3. 主體有能力做不同的選擇——它可以選擇不做
4. 主體願意為後果承擔代價——它接受懲罰或補償
但 AI 呢?AI 有主體嗎?有。有意圖嗎?沒有,或者很難說。有能力選擇嗎?它的選擇被訓練數據和目標函數決定了,不太自由。願意承擔代價嗎?它是個程式,談不了責任。
所以法律系統通常說:責任的承擔者必須是人。 AI 本身沒有責任,但使用 AI 的人、設計 AI 的人、販賣 AI 的人——他們有責任。
但這樣一來,我們又回到了「人類特殊性」。我們對 Latour 說:很好,AI 確實在行動,但它沒有責任,因為它不是人。
這個妥協摧毀了 Latour 分析框架的激進性。我們區分了「行動者」和「責任承擔者」,其實就是在區分「人」和「非人」。
四、Latour 的後期修正:政治生態學
Latour 本人意識到了這個問題。特別是在研究氣候變遷時。
氣候變遷的罪魁禍首是誰?從網絡角度看:石油公司、政府、消費者、大氣循環、海洋溫度、汽車工業等等都在「行動」。但誰應該為此改變?
如果我們完全平等對待所有行動者,那沒有人被指責,也沒有人被要求改變。這是政治上的癱瘓。
所以 Latour 開始修正他的框架。他提出了「政治生態學」的概念,試圖重新引入不對稱的責任。
他說:並不是所有的行動者在同樣程度上對氣候變遷負責。
石油公司在 1970 年代就知道燃燒化石燃料會導致氣候變遷。他們選擇隱瞞這個資訊。這是道德上的選擇。責任更重。
普通消費者開車、用電,但他們大多不知道全部後果。這是無意識的。責任較輕。
政府有權力制定政策,卻因為政治利益而不作為。這是濫用權力。責任中等。
所以責任不是平等分布的,而是根據「知識」和「權力」的不對稱分布。
Latour 用「能動性的差異」和「對問題的知識」來區分責任的輕重。
但這個修正有個問題:它又回到了傳統的倫理框架。 知識和權力,這些都是人文社科領域的傳統概念。AI 在這個框架中怎麼位置?
五、AI 時代的責任困境
回到自駕車撞死行人的例子。
用 Latour 修正後的框架分析:
自駕車設計者知道自駕技術有風險,但他們選擇發布了。責任中等。
車主知道自駕功能可能失敗,但他們選擇信任。責任輕。
被撞的行人沒有任何決策責任。責任零。
監管機構知道風險但沒有設置充分的標準。責任中等。
但演算法呢?演算法「決定」了車的操作。演算法根據訓練數據和目標函數運作,它沒有「知識」(不知道自己在傷害人),也沒有「權力」(它只能執行它被設計為執行的東西)。
那演算法有責任嗎?按照修正後的框架:沒有,因為沒有知識和權力。
但演算法毫無疑問參與了這個致命的決定。它不是完全被動的。用對稱性原則,它也應該被分析為一個行動者。
Latour 自己的修正又陷入了矛盾。
這就是為什麼「主權驅動設計」不能只停留在分析層面。如果我們不主動劃定主權的邊界——誰在什麼環節有最終決定權,誰在什麼條件下必須承擔後果——責任就會消失在演算法的黑箱裡。去責化不是自然發生的。它是我們每一次放棄追問「誰負責」時,一點一點讓渡出去的。
六、「主權」為什麼在 Latour 這裡會困難
這就是為什麼「主權驅動設計」這個系列到了 Latour 這裡會遇到問題。
「主權」的概念依賴於:有一個明確的主體(主權者)有權力在關鍵時刻做決定。主權不是「自由選擇任何事」,而是「有權力在關鍵時刻負責任地做決定」。
國家主權:國家有權決定邊界、徵稅、立法,也有責任保護人民。
個人主權:個人有權決定自己的未來,也有責任為選擇負責。
但在 Latour 的框架裡,決定不是由一個主體做的,而是由一個網絡產生的。責任模糊化了。
在 AI 時代,這個問題更急迫。當 AI 參與每一個決定時,誰有主權?誰應該負責?
我們在用 AI 時有主權嗎?我們做決定時,AI 在塑造我們的選擇空間。我們有自由意志嗎?我們的自由受限於 AI 能給我們什麼選項。
我們的主權在縮小,但縮小到了誰那裡?沒有人,只有一個演算法。
七、Latour 的侷限總結
三副眼鏡到了 Latour,威力很大,但有侷限:
威力:
- 看清了非人行動者的真實角色
- 識別出了許多被隱藏的權力關係
- 提供了一套分析工具來理解複雜系統
侷限:
- 很難從分析中導出明確的政治行動
- 責任概念被模糊化,法律和倫理系統無法直接應用
- 無法充分解釋「主體」和「主權」的作用
- 在修正這些侷限時,又回到了傳統框架
Latour 可以告訴我們:這個網絡是怎麼運作的,誰被邊緣化,什麼被隱藏。但他的框架很難告訴我們:我們應該怎麼改變這個網絡,以及誰有權力和責任去做出改變。
八、為什麼需要第三副眼鏡
Latour 的分析是「橫平的」。他把人和非人都放在同一個水平面上看。這很有洞察力,但也意味著他看不到某些縱深的東西。
他說:行動者網絡產生了能動性。但他沒有問:行動者本身是怎麼被構成的?在進入網絡之前,「行動者」就已經存在了嗎?
Barad 會問一個更激進的問題:也許行動者根本不是「先於網絡而存在」的。也許行動者本身就是在互動中被構成的。
想像一個粒子。一個粒子「存在」嗎?物理學家說:沒有。在實驗中,粒子表現得像粒子。在另一個實驗中,它表現得像波。粒子不是獨立於測量而存在的東西,而是在測量中被構成的。
Barad 把這個物理學的洞察擴展到社會科學。行動者不是先於互動而存在的實體,而是在互動中不斷被構成的過程。
這意味著什麼?意味著我們看到的「Latour 的網絡」其實不是「許多獨立行動者的組合」。而是「一個在互動中持續被塑造的整體過程」。
行動者和網絡不是「先和後」的關係。而是「互相構成」的關係。
我們用 AI,AI 也在改變我們。我們不是「先存在的主體」用「先存在的工具」。我們和 AI 在一個互動過程中同時被構成。
這會改變我們怎麼理解責任、主權、能動性。這會給 Latour 無法回答的問題一個新的方向。
---
四篇文章,四個層次的認識:
EP5:我們在一個網絡裡。
EP6:這個網絡有一些節點正在變得不可迴避,而且被黑箱化。
EP7:分析時要用對稱性,不能預先決定誰有權力。
EP8:但這個分析框架有侷限。當我們需要改變什麼時,它沒有足夠的答案。
第三副眼鏡——Barad 的「伸縮體(intra-action)」——會把問題推得更深。它不再問「誰在行動」,而是問「行動、行動者、和世界是怎麼互相塑造的」。
在那個視角中,「主權」不是一個實體擁有的東西。而是在實踐中不斷被爭奪、被構成、被改變的過程。
那時,我們就不再是「主權的擁有者」,而是「參與主權構成的實踐者」。這個區別,會改變一切。
下一季,我們會戴上第三副眼鏡。






















