當政策與分配交由演算法決定,權力逐漸隱身於系統之中。本文從人文角度反思:看不到臉孔的決策,如何影響責任、申訴與人的尊嚴。
當代治理正悄然轉向另一種形態。愈來愈多原本由人作出的判斷——是否核准、如何排序、誰被優先、誰被排除——開始交由演算法完成。這樣的轉變,常以「效率」「客觀」「去人為偏見」為名,被視為制度進步的象徵。
然而,一個更深層的問題隨之浮現: 當決策看不到臉孔,人究竟要向誰負責?又能向誰申訴?▪︎從「人作判斷」到「系統運算」|責任的轉移
在傳統制度中,權力至少還有可指認的承擔者。即使決策失當,人們仍知道判斷來自哪個部門、哪個職位、哪個人;責任可以被追問,錯誤也有歸屬的可能。
演算法治理改變了這一結構。決策被描述為「系統結果」「模型運算」「風險評分」,權力彷彿移轉至一套中性的流程之中。結果是:沒有人清楚作出決定,卻有人必須承擔後果。
這並非權力的消失,而是權力的隱身——它被包裹在技術語言裡,變得更難辨識,也更難追責。
▪︎「中立技術」的幻象|價值早已嵌入
演算法常被描繪為中立、客觀、不帶情緒。但這種想像忽略了一個基本事實:所有演算法,都是在一連串選擇之上建構的。
哪些資料被納入?哪些指標被加權? 哪些結果被界定為「風險」、「正常」或「異常」?這些並非單純的技術判斷,而是價值的排序。只是,當價值被轉寫為程式碼,它便不再以倫理語言出現,而是以「系統設定」的形式悄然運作。
於是,一種新的治理狀態成形:價值仍在支配結果,卻不再接受公共辯論。
▪︎「看不到臉孔」的權力|更難被質疑
真正令人不安的,不只是演算法可能出錯,而是它讓人無從提問。當申訴被回覆為「系統判定」「模型結果」「無法人工介入」,當事人面對的,已不再是一個可以對話的權威,而是一套無需說明自身理由的流程。它不需要說服,也不必解釋,只需重複結果。
在人文視角下,這是一個關鍵警訊。制度的正當性,不僅來自準確率,更來自可被理解、可被質疑、可被修正。當權力看不到臉孔,倫理關係便隨之淡化。
▪︎透明不只是公開,而是「可理解」
演算法治理的支持者,往往以「透明化」作為回應。但把技術文件上線,並不等於制度真正透明。
若一個決策系統,只有少數專家能讀懂,對多數人而言,它仍是不透明的。真正的人文關切在於:制度是否讓當事人理解,自己為何被如此對待?
這不只是程序問題,而是尊嚴問題。被尊重的人,不只是被正確計算,而是被視為能理解、能回應、能申訴的主體。
▪︎治理的核心|仍然必須回歸到人
演算法可以輔助判斷,但不能取代承擔;它可以提高效率,卻無法承擔倫理後果。
若一個制度中,沒有任何人願意站出來說:「這是我作出的判斷,我願意解釋,也願意修正」,那麼再精密的系統,也難以稱之為正義。
從人文角度看,真正需要守住的,不是對技術的疑懼,而是對可被指認的責任的堅持。
當決策看不到臉孔,我們更必須追問:這樣的治理,是否仍承認人是一個值得被理解與尊重的存在?

"The Son of Man" (人子)比利時畫家雷內·馬格利特(René Magritte)畫作


