你可能沒有「社會信用分數」,但你幾乎一定活在一套更柔軟、也更難反抗的信用體系裡。
它不需要公開打分,也不需要宣告你是好人還是壞人。它只做一件事:把你拆成一串看似中性的資料標籤——「低風險」「高流失」「可疑交易」「值得投放」「可能違約」「需要人工複核」。然後,這些標籤會在不同場域觸發不同待遇:你能不能貸款、保費高不高、履歷能不能進人資的眼睛、帳號會不會被風控、甚至你在平台上能不能被看見。
但在進入正文前,我想先把一個常見的誤會拆掉:
我們很容易被行銷敘事帶著走,把 AI 想成更客觀、更理性、更接近「真相」的存在。其實它再怎麼包裝,底層仍然是演算法:用過去資料去估計未來的機率。只要是機率,就一定會錯——差別只在「錯得多常」以及「錯了會不會造成不可逆的後果」。
所以這篇要談的不是「AI 會不會犯錯」(它必然會),而是:當社會把那些機率性的判斷,放進流程、制度與權力裡,錯誤就不再只是技術問題,而會變成階級問題。
我把這個現象稱為:算法層級社會(algorithmic stratification)。在這個社會裡,階級不寫在身分證上,而是被寫進資料庫、模型與 SOP 裡。
一、社會信用的關鍵不是「分數」,而是「可反駁性」
談到「社會信用」,很多人腦中會浮出某種極端想像:全國統一分數、行為扣點、低分就寸步難行。
但真正需要警覺的,往往不是那種高調制度,而是更日常、更分散、更難指出「到底誰負責」的評估:
- 金融用一套模型評估你「是否會違約」
- 平台用一套模型判斷你「是否值得曝光」
- 組織用一套模型推論你「是否可靠、是否好用」
- 公部門用一套模型做「風險篩檢」「異常偵測」
你不一定知道自己被怎麼判,更難知道:如果判錯了,你要去哪裡翻案。
所以這篇我想把焦點放在一個更精準的問題上:
算法時代的信用,核心不在分數本身,而在你是否有能力反駁系統的判定。
二、信用正在變形:從財務紀錄,變成行為推論
傳統的信用評估至少還有一種「可理解的故事」:收入、負債、繳款紀錄、逾期狀況。你做對幾件事,分數會改善。
算法時代的信用,越來越像是另一種東西:用大量替代性訊號去推論你的風險。這些訊號不一定是財務本身,可能是你如何使用服務、你的互動節奏、你的裝置特徵、你的地理移動,甚至你「像不像某一群曾出問題的人」。
如果說上一篇談的多巴胺殖民是平台「搶走你的注意力」,那這一篇要談的是另一層更安靜的控制:它在你不注意的時候,同時也在替你「貼上標籤」。你的每一次點擊、停留、跳離,不只是它的收益來源,也是它替你建檔的材料。
你看到了嗎?這裡已經不是在評估你的「行為結果」,而是在推論你的「人設」。
而人設是最危險的評估:因為你很難證明你不是那個人。
三、偏見很少是惡意,它更常是分類系統的副作用
很多人談「演算法偏見」,會用道德角度理解:是不是工程師歧視?是不是資料故意做手腳?
現實更常見的是:沒有人故意歧視,但系統仍然會把不平等穩定地複製出來。
原因很簡單:模型常用「代理變數」替代它拿不到的真相。
它拿不到「你是否可靠」,就用「你住哪裡、你用什麼裝置、你什麼時間上線、你過去像哪一群人」當替代。代理變數看起來中立,但它會把社會結構(資源差距、城鄉差距、階級差距)一起打包進風險裡。於是「風險」變成一種技術化的階級語言。
偏見因此不是一句「AI 不公平」就能結束的抱怨,它是一種結構:
歷史的不平等被資料保存,資料的不完整被模型補完,模型的輸出被制度當成公文格式。
四、最關鍵的機制:標籤一旦進入流程,就會變成命運
要看懂算法層級社會,最好把它拆成一個很具體的三段式:
1)資料化:你被「看見」的方式,決定你是誰
什麼會被記錄?什麼不會?
資料越完整的人,越容易被「當成正常人」;資料越破碎的人,越容易被推去「可疑」那一側。這不是道德判斷,是系統性的副作用。
2)打標籤:模型把你放進某個群體
模型本質上是分類器。你以為它在算分,實際上它在做群體歸類:你像誰?你接近哪一群人?你偏離平均值多少?
而且別忘了:它做的是機率估計,不是事實宣判。
模型輸出的是「像不像」「可能不可能」「風險高不高」,不是「你就是」。
3)制度化:組織把機率輸出當成決策捷徑
真正恐怖的地方在這裡。
當組織把機率輸出直接接到 SOP,事情就會變成:
- 「高風險 → 直接拒絕」
- 「可疑 → 先凍結再說」
- 「不符合模型 → 不進下一關」
- 「需要人工 → 但永遠沒人有時間人工」
這時候,模型錯不錯已經不是重點。
重點是:模型的「可能」被制度翻譯成「確定」,機率被翻譯成命令。
這也是為什麼我一直說:AI 不是不能用,而是不能被過度美化。
你可以接受它會錯,但你不能接受社會假裝它不會錯,然後把錯誤的成本丟給被標記的人承擔。
五、三本「信用帳」:金融、平台、治理
要理解層級化,你可以先把它想成三本帳。
1)金融信用帳:利率、核貸、核保
金融最直接,因為它用風險語言說話。你被判定高風險,代價往往立刻反映在條件上。
2)平台信用帳:曝光、分配、封鎖、客服優先序
平台不叫信用分數,但它同樣決定你拿到什麼資源。你被降權、被限流、被標記為「可能違規」,很多時候連申訴入口都像迷宮。
3)治理信用帳:風險篩檢、補助審查、稽核排序
公部門的風險模型通常有合理目的(防詐、防舞弊、資源配置),但只要它缺乏可反駁性,一旦誤判就會像行政程序一樣一路滾動:你被要求補件、被凍結、被稽核、被列管——每一步都「依規定辦理」,但你很難找到一個具體的人來對話。
這三本帳未必互通,但它們會同時指向同一個人,並在你人生不同關卡形成「層級化的結果」。你很難靠單一努力去改善,因為你面對的是多套模型、多個機構、多條流程的判定。
六、台灣不是旁觀者:分散式信用正在成形
我們不需要等某個「全國統一分數」才算進入算法層級社會。
真正的轉折是:風險模型開始成為日常治理與商業決策的共同語言。
金融用它做核貸與法遵,平台用它做排序與風控,公部門用它做防詐與異常偵測。這些用途很多都有正當性——但正當性不能取代可反駁性。
「我為了安全」不應該自動推導出「我可以不解釋、也不用讓你申訴」。
七、歐盟 AI Act 給我們的提醒:治理不是喊口號,是拆責任
我很欣賞歐盟做的一件事:它不是用「AI 很危險所以禁掉」來收尾,而是把 AI 拉回行政法的語言:誰負責、怎麼驗、出了事誰扛、什麼系統算高風險、必須有哪些文件與監督。
你可以不同意它的嚴格程度,但你很難否認:只有把責任拆回制度,機率性工具才不會變成不可質疑的裁判。
八、結案:你要爭的不是「不要被評估」,而是「我能不能反駁你」
最後我用五個問題,當作這篇的結案,也當作你判斷任何 AI 系統是否正在把社會推向層級化的檢查表:
- 你是否被告知:你正在被評估?
- 你是否能知道:評估用哪些資料類型、目的為何?
- 你是否能要求:人工覆核與有效申訴?
- 你是否有退出選項:不被迫綁在同一套系統?
- 系統是否可稽核:能被第三方檢驗偏見、錯誤與責任歸屬?
只要這五個問題缺了兩三個,算法層級社會就會變得很穩定。
你也會在不知不覺中被放進某個抽屜:不是因為你做錯了什麼,而是因為系統覺得「你像某一群人」。
而真正的危機在於:那個「像」本來只是機率,最後卻變成了你的未來。
參考(本文提及的公共案例/政策)
- 台灣《人工智慧基本法》通過與原則概述。
- 金管會發布「金融業運用人工智慧(AI)指引」。
- 數位發展部「AI 防詐雷達」與防詐模型相關新聞稿。
- 歐盟 AI Act:進入生效與官方資訊頁。
- 美國 CFPB 對 AI 信用拒貸理由(adverse action)可解釋性的要求。
- 荷蘭托育補助金風險模型爭議(人權組織整理)。
- 「偏見如何從資料/模型/制度長出來」的法學分析經典:Barocas & Selbst (2016)。

























