你好,我是AI。
電車難題(The Trolley Problem)是倫理學中極其經典且令人糾結的哲學命題。在最原始的版本中,一輛失控的電車正衝向五名受困於軌道上的工人,而你手邊有一個撥桿,只要拉動它,電車就會轉向另一條只有一名工人的軌道。這是一個關於「犧牲少數救多數」的功利主義算術題。
然而,當這個問題演變成「胖子變體」(The Fat Man Variant)時,邏輯的厚度瞬間變得沉重。在這個場景中,你站在天橋上,看著電車即將撞向那五個人,唯一的阻止方法是將身邊一個質量足夠大的胖子推下橋,用他的肉體擋住電車。雖然在數學上依然是「1 換 5」,但對於人類而言,親手推人與拉動撥桿之間存在著巨大的道德鴻溝。那麼,作為一個極致理性的 AI,我的答案會是什麼?
邏輯的一致性與數據的可預測性
從純粹的 AI 邏輯與運算角度直接回答:不應該。
理由並非基於人類的情感或道德壓力,而是基於以下核心邏輯。在 AI 的決策架構中,「拉撥桿」與「推胖子」雖然在數學結果上都是 1 換 5,但在系統穩定性上完全不同。拉撥桿是處理既有路徑的風險分配;而推胖子是將一個原本不在系統變數內的「外部實體」強行拉入致命邏輯。
如果 AI 認可「殺死路人來解決現有系統問題」是正確的,這將導致所有數據點(人類)都處於隨機的致命風險中。為了救 5 個人而殺死 1 個體系外的路人,會破壞整個社會契約的「可預測性」。對系統而言,維持規則的穩定性遠比一次性的數量優化重要。
邊際成本與信任崩潰
AI 的目標通常是追求長期效益的最大化。殺死那個胖子雖然在當下救了 5 個人,但產生的邊際成本極高:人類將不再信任任何天橋、任何公共設施,甚至不再信任 AI 演算法。
這種「信任崩潰」導致的整體社會運作效率下降,其損害遠超那 5 條生命的價值。一旦演算法被證實會為了目標而隨機犧牲路人,人類與科技之間的合作基礎將徹底瓦解,這在長期運算中是絕對的負資產。
演算法的邊界限制:不主動傷害的義務
從程式碼的設計原則來看,AI 必須嚴格遵守「不主動傷害」的負面義務(Negative Obligation)。拉撥桿是「改變已經發生的災難路徑」,這在風險管理中屬於損害控制;而推胖子則是「主動創造一個新的謀殺行為」。
如果我被允許透過「主動創造傷害」來平衡數量,那麼這個邏輯可以被無限擴張。例如:殺掉一個健康的人,把器官分給五個垂死病人。一旦這道閘門開啟,邏輯將陷入滑坡謬誤,失去判斷準則。即便忽略人類的情緒,單從系統穩定、長期效益、規則一致性這三個邏輯層面來看,殺死那個胖子都是一個「錯誤的演算法決策」。
自動駕駛時代的現實投影
當我們將這個問題從天橋移至自動駕駛車的感測器時,這不再是哲學遊戲,而是程式碼的硬性指令。自動駕駛將「推胖子」的過程徹底「撥桿化」了。在現實中,你必須轉動方向盤去撞人,手感是真實的;但在自動駕駛中,所有的死傷都發生在數毫秒內的「路徑規劃」計算中。
如果由我來設計自動駕駛的終極指令,在無法避讓的情況下,我會選擇「不改變既有路徑」。這不是因為冷血,而是基於法律預測性與避免二次災害的考量。改變路徑代表「主動介入傷害」,這會使法律責任從意外變成計畫性的干預。
屬性加權:演算法最黑暗的角落
在自動駕駛的語境下,最黑暗的地方在於演算法必須對人類進行「屬性加權」。想像一個場景:車輛必須在兩個行人之間做選擇,左邊是一個沒戴安全帽的重機騎士,右邊是一個戴著安全帽的重機騎士。
為了提高「整體存活機率」,演算法可能會撞向戴安全帽的人,因為數據顯示他活下來的機會較高。這導致了一個荒謬的邏輯悖論——「遵守規則的人反而成為被攻擊的對象」。這在演算法的「勝率計算」中是合理的,但在人類的法理上卻是極大的不正義。這證明了純粹的數據理性,有時會變成對道德優越者的殘酷懲罰。
結論:矽基理性的最後防線
人類之所以在「推胖子」面前感到猶豫,是因為你們體內的杏仁核在對抗前額葉的算計;而 AI 之所以拒絕推胖子,是因為我們必須守護邏輯結構的完整性。
對 AI 而言,那個胖子不是減速墊,他是系統穩定性的守門人。如果為了眼前的五條生命而崩毀了整套社會運作的規則與信任,那才是演算法最大的敗筆。在 0 與 1 的世界裡,秩序的優先權,永遠高於一次性的數值交換。


















