S1 EP15|算法層級社會:數據標籤如何定義了你的信用、階級與未來?

更新 發佈閱讀 9 分鐘

你可能沒有「社會信用分數」,但你幾乎一定活在一套更柔軟、也更難反抗的信用體系裡。

它不需要公開打分,也不需要宣告你是好人還是壞人。它只做一件事:把你拆成一串看似中性的資料標籤——「低風險」「高流失」「可疑交易」「值得投放」「可能違約」「需要人工複核」。然後,這些標籤會在不同場域觸發不同待遇:你能不能貸款、保費高不高、履歷能不能進人資的眼睛、帳號會不會被風控、甚至你在平台上能不能被看見。

但在進入正文前,我想先把一個常見的誤會拆掉:

我們很容易被行銷敘事帶著走,把 AI 想成更客觀、更理性、更接近「真相」的存在。其實它再怎麼包裝,底層仍然是演算法:用過去資料去估計未來的機率。只要是機率,就一定會錯——差別只在「錯得多常」以及「錯了會不會造成不可逆的後果」。

所以這篇要談的不是「AI 會不會犯錯」(它必然會),而是:當社會把那些機率性的判斷,放進流程、制度與權力裡,錯誤就不再只是技術問題,而會變成階級問題。

我把這個現象稱為:算法層級社會(algorithmic stratification)。在這個社會裡,階級不寫在身分證上,而是被寫進資料庫、模型與 SOP 裡。


一、社會信用的關鍵不是「分數」,而是「可反駁性」

談到「社會信用」,很多人腦中會浮出某種極端想像:全國統一分數、行為扣點、低分就寸步難行。

但真正需要警覺的,往往不是那種高調制度,而是更日常、更分散、更難指出「到底誰負責」的評估:

  • 金融用一套模型評估你「是否會違約」
  • 平台用一套模型判斷你「是否值得曝光」
  • 組織用一套模型推論你「是否可靠、是否好用」
  • 公部門用一套模型做「風險篩檢」「異常偵測」

你不一定知道自己被怎麼判,更難知道:如果判錯了,你要去哪裡翻案。

所以這篇我想把焦點放在一個更精準的問題上:

算法時代的信用,核心不在分數本身,而在你是否有能力反駁系統的判定。


二、信用正在變形:從財務紀錄,變成行為推論

傳統的信用評估至少還有一種「可理解的故事」:收入、負債、繳款紀錄、逾期狀況。你做對幾件事,分數會改善。

算法時代的信用,越來越像是另一種東西:用大量替代性訊號去推論你的風險。這些訊號不一定是財務本身,可能是你如何使用服務、你的互動節奏、你的裝置特徵、你的地理移動,甚至你「像不像某一群曾出問題的人」。

如果說上一篇談的多巴胺殖民是平台「搶走你的注意力」,那這一篇要談的是另一層更安靜的控制:它在你不注意的時候,同時也在替你「貼上標籤」。你的每一次點擊、停留、跳離,不只是它的收益來源,也是它替你建檔的材料。

你看到了嗎?這裡已經不是在評估你的「行為結果」,而是在推論你的「人設」。

而人設是最危險的評估:因為你很難證明你不是那個人。


三、偏見很少是惡意,它更常是分類系統的副作用

很多人談「演算法偏見」,會用道德角度理解:是不是工程師歧視?是不是資料故意做手腳?

現實更常見的是:沒有人故意歧視,但系統仍然會把不平等穩定地複製出來。

原因很簡單:模型常用「代理變數」替代它拿不到的真相。

它拿不到「你是否可靠」,就用「你住哪裡、你用什麼裝置、你什麼時間上線、你過去像哪一群人」當替代。代理變數看起來中立,但它會把社會結構(資源差距、城鄉差距、階級差距)一起打包進風險裡。於是「風險」變成一種技術化的階級語言。

偏見因此不是一句「AI 不公平」就能結束的抱怨,它是一種結構:

歷史的不平等被資料保存,資料的不完整被模型補完,模型的輸出被制度當成公文格式。


四、最關鍵的機制:標籤一旦進入流程,就會變成命運

要看懂算法層級社會,最好把它拆成一個很具體的三段式:

1)資料化:你被「看見」的方式,決定你是誰

什麼會被記錄?什麼不會?

資料越完整的人,越容易被「當成正常人」;資料越破碎的人,越容易被推去「可疑」那一側。這不是道德判斷,是系統性的副作用。

2)打標籤:模型把你放進某個群體

模型本質上是分類器。你以為它在算分,實際上它在做群體歸類:你像誰?你接近哪一群人?你偏離平均值多少?

而且別忘了:它做的是機率估計,不是事實宣判。

模型輸出的是「像不像」「可能不可能」「風險高不高」,不是「你就是」。

3)制度化:組織把機率輸出當成決策捷徑

真正恐怖的地方在這裡。

當組織把機率輸出直接接到 SOP,事情就會變成:

  • 「高風險 → 直接拒絕」
  • 「可疑 → 先凍結再說」
  • 「不符合模型 → 不進下一關」
  • 「需要人工 → 但永遠沒人有時間人工」

這時候,模型錯不錯已經不是重點。

重點是:模型的「可能」被制度翻譯成「確定」,機率被翻譯成命令。

這也是為什麼我一直說:AI 不是不能用,而是不能被過度美化。

你可以接受它會錯,但你不能接受社會假裝它不會錯,然後把錯誤的成本丟給被標記的人承擔。


五、三本「信用帳」:金融、平台、治理

要理解層級化,你可以先把它想成三本帳。

1)金融信用帳:利率、核貸、核保

金融最直接,因為它用風險語言說話。你被判定高風險,代價往往立刻反映在條件上。

2)平台信用帳:曝光、分配、封鎖、客服優先序

平台不叫信用分數,但它同樣決定你拿到什麼資源。你被降權、被限流、被標記為「可能違規」,很多時候連申訴入口都像迷宮。

3)治理信用帳:風險篩檢、補助審查、稽核排序

公部門的風險模型通常有合理目的(防詐、防舞弊、資源配置),但只要它缺乏可反駁性,一旦誤判就會像行政程序一樣一路滾動:你被要求補件、被凍結、被稽核、被列管——每一步都「依規定辦理」,但你很難找到一個具體的人來對話。

這三本帳未必互通,但它們會同時指向同一個人,並在你人生不同關卡形成「層級化的結果」。你很難靠單一努力去改善,因為你面對的是多套模型、多個機構、多條流程的判定。


六、台灣不是旁觀者:分散式信用正在成形

我們不需要等某個「全國統一分數」才算進入算法層級社會。

真正的轉折是:風險模型開始成為日常治理與商業決策的共同語言。

金融用它做核貸與法遵,平台用它做排序與風控,公部門用它做防詐與異常偵測。這些用途很多都有正當性——但正當性不能取代可反駁性。

「我為了安全」不應該自動推導出「我可以不解釋、也不用讓你申訴」。


七、歐盟 AI Act 給我們的提醒:治理不是喊口號,是拆責任

我很欣賞歐盟做的一件事:它不是用「AI 很危險所以禁掉」來收尾,而是把 AI 拉回行政法的語言:誰負責、怎麼驗、出了事誰扛、什麼系統算高風險、必須有哪些文件與監督。

你可以不同意它的嚴格程度,但你很難否認:只有把責任拆回制度,機率性工具才不會變成不可質疑的裁判。


八、結案:你要爭的不是「不要被評估」,而是「我能不能反駁你」

最後我用五個問題,當作這篇的結案,也當作你判斷任何 AI 系統是否正在把社會推向層級化的檢查表:

  1. 你是否被告知:你正在被評估?
  2. 你是否能知道:評估用哪些資料類型、目的為何?
  3. 你是否能要求:人工覆核與有效申訴?
  4. 你是否有退出選項:不被迫綁在同一套系統?
  5. 系統是否可稽核:能被第三方檢驗偏見、錯誤與責任歸屬?

只要這五個問題缺了兩三個,算法層級社會就會變得很穩定。

你也會在不知不覺中被放進某個抽屜:不是因為你做錯了什麼,而是因為系統覺得「你像某一群人」。

而真正的危機在於:那個「像」本來只是機率,最後卻變成了你的未來。


參考(本文提及的公共案例/政策)

  • 台灣《人工智慧基本法》通過與原則概述。
  • 金管會發布「金融業運用人工智慧(AI)指引」。
  • 數位發展部「AI 防詐雷達」與防詐模型相關新聞稿。
  • 歐盟 AI Act:進入生效與官方資訊頁。
  • 美國 CFPB 對 AI 信用拒貸理由(adverse action)可解釋性的要求。
  • 荷蘭托育補助金風險模型爭議(人權組織整理)。
  • 「偏見如何從資料/模型/制度長出來」的法學分析經典:Barocas & Selbst (2016)。


留言
avatar-img
松瓚的沙龍
0會員
18內容數
歡迎來到松瓚的數位沙龍! 我是松瓚,目前擔任迪威智能的 CEO。這裡是我進行「跨界思考」的實驗室,我希望這裡是「科技 X 商業 X 人文的三角點」。我相信「科技讓我們走得快,但人文讓我們走得遠。」 感謝你的追蹤,期待我們在這裡一起透過文字,看見更立體的未來。
松瓚的沙龍的其他內容
2026/03/01
EP14以「多巴胺殖民」形容推薦系統的微觀治理:它不命令你,而是用變動獎賞餵養注意力與衝動,把慾望做成可調參數。未成年被訓練成只會被激發的反射體;成年人在決策疲勞後被轉換率收割;老年在孤獨中被恐懼與憤怒鎖進資訊房間。奪回主權的方法不是意志力,而是把摩擦放回去:延遲購買、以搜尋取代被餵、拆分內容入口。
2026/03/01
EP14以「多巴胺殖民」形容推薦系統的微觀治理:它不命令你,而是用變動獎賞餵養注意力與衝動,把慾望做成可調參數。未成年被訓練成只會被激發的反射體;成年人在決策疲勞後被轉換率收割;老年在孤獨中被恐懼與憤怒鎖進資訊房間。奪回主權的方法不是意志力,而是把摩擦放回去:延遲購買、以搜尋取代被餵、拆分內容入口。
2026/02/28
當 AI 代理人具備自主行動力,責任卻常消失在複雜系統中。本篇深入剖析 Agent 如何成為卸責的道德毒藥,並提出「主權驅動設計」框架,主張決策可外包,但主權與責任不可讓渡。唯有透過明確的權力邊界與問責制,才能在自動化浪潮中守住身為人的位格與尊嚴。代理人的良心,就在你設計的責任鏈裡。
2026/02/28
當 AI 代理人具備自主行動力,責任卻常消失在複雜系統中。本篇深入剖析 Agent 如何成為卸責的道德毒藥,並提出「主權驅動設計」框架,主張決策可外包,但主權與責任不可讓渡。唯有透過明確的權力邊界與問責制,才能在自動化浪潮中守住身為人的位格與尊嚴。代理人的良心,就在你設計的責任鏈裡。
2026/02/27
EP12 探討平台經濟如何透過數據鎖定剝奪勞動者的「退出權」。當評價資歷無法遷移,個人的時間、決策、知識與集體主權將全面瓦解,陷入「數位內卷」。我們辯證 UBI 究竟是保障主體的「退出門」,還是補貼低薪的「止痛貼」。面對演算法治理,台灣應重建「隨時離開而不歸零」的機制,奪回勞動主權與尊嚴。
2026/02/27
EP12 探討平台經濟如何透過數據鎖定剝奪勞動者的「退出權」。當評價資歷無法遷移,個人的時間、決策、知識與集體主權將全面瓦解,陷入「數位內卷」。我們辯證 UBI 究竟是保障主體的「退出門」,還是補貼低薪的「止痛貼」。面對演算法治理,台灣應重建「隨時離開而不歸零」的機制,奪回勞動主權與尊嚴。
看更多
你可能也想看
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
當 AI 不再只是科技圈的話題,它帶來的影響會同時出現在三個地方: 法律如何管、內容怎麼亂、以及現實世界能不能真的被改變。 台灣用法律替 AI 畫出治理邊界; 網路世界卻被大量粗製濫造內容淹沒; 而在另一端,AI 被拿來重新翻動塵封數十年的刑案.
Thumbnail
當 AI 不再只是科技圈的話題,它帶來的影響會同時出現在三個地方: 法律如何管、內容怎麼亂、以及現實世界能不能真的被改變。 台灣用法律替 AI 畫出治理邊界; 網路世界卻被大量粗製濫造內容淹沒; 而在另一端,AI 被拿來重新翻動塵封數十年的刑案.
Thumbnail
聯合國《2024世界兒童狀況》揭示了AI時代的挑戰。本報告融合佛法唯識宗智慧與兒童權利公約,呼籲在數位浪潮中捍衛孩子的「認知自由」。透過消除演算法偏見、建立倫理監管,我們誓願淨化科技的「共業」,不讓心靈成為數據的殖民地,為2050年的未來佛子,點亮通往人間淨土的心燈
Thumbnail
聯合國《2024世界兒童狀況》揭示了AI時代的挑戰。本報告融合佛法唯識宗智慧與兒童權利公約,呼籲在數位浪潮中捍衛孩子的「認知自由」。透過消除演算法偏見、建立倫理監管,我們誓願淨化科技的「共業」,不讓心靈成為數據的殖民地,為2050年的未來佛子,點亮通往人間淨土的心燈
Thumbnail
本文探討企業在使用ChatGPT等AI工具時,如何避免資料外洩風險,並提出「去識別化斷食法」、「建立安全的企業級AI健身房」、「法務的AI使用手冊與人為監督」三大策略,協助法務團隊從風險管理者轉型為價值創造者,並展望AI時代法律專業的核心價值與未來發展。
Thumbnail
本文探討企業在使用ChatGPT等AI工具時,如何避免資料外洩風險,並提出「去識別化斷食法」、「建立安全的企業級AI健身房」、「法務的AI使用手冊與人為監督」三大策略,協助法務團隊從風險管理者轉型為價值創造者,並展望AI時代法律專業的核心價值與未來發展。
Thumbnail
數位替代方案起初看似更環保,往往會引發行為上的轉變,最終反而增加整體消耗。
Thumbnail
數位替代方案起初看似更環保,往往會引發行為上的轉變,最終反而增加整體消耗。
Thumbnail
從 Graydon Hoare 離開 Rust 專案,我們看見開源社群如何透過貢獻重塑治理節奏,也理解科技巨頭擁抱開源並非單純理想,而是吸收反脆弱性、分散風險、建立技術生態的戰略選擇。在開源世界裡,程式碼貢獻如同股份,每一行程式都是參與數位世界未來的證明。
Thumbnail
從 Graydon Hoare 離開 Rust 專案,我們看見開源社群如何透過貢獻重塑治理節奏,也理解科技巨頭擁抱開源並非單純理想,而是吸收反脆弱性、分散風險、建立技術生態的戰略選擇。在開源世界裡,程式碼貢獻如同股份,每一行程式都是參與數位世界未來的證明。
Thumbnail
隨著數位科技的迅速發展,急救與急診醫療正在進行革命性變革。人工智慧(AI)、電子病歷(EMR)和遠程指導等技術,正在提升急救效率、改善患者預後,並為急救人員提供新的支持工具。 1. 人工智慧(AI)在急救中的應用 1. 急救現場的AI輔助判斷 檢傷分類的自動化: 基於AI的應用程序能通過患
Thumbnail
隨著數位科技的迅速發展,急救與急診醫療正在進行革命性變革。人工智慧(AI)、電子病歷(EMR)和遠程指導等技術,正在提升急救效率、改善患者預後,並為急救人員提供新的支持工具。 1. 人工智慧(AI)在急救中的應用 1. 急救現場的AI輔助判斷 檢傷分類的自動化: 基於AI的應用程序能通過患
Thumbnail
由阿物科技所主辦的《MarTech 商業新未來》行銷高峰論壇,召集了來自各領域的菁英講師一同為大家解答在新的消費型態與消費者取向之下,「數據」如何成為行銷結構、通路與產業在市場中實際採用的關鍵性角色。
Thumbnail
由阿物科技所主辦的《MarTech 商業新未來》行銷高峰論壇,召集了來自各領域的菁英講師一同為大家解答在新的消費型態與消費者取向之下,「數據」如何成為行銷結構、通路與產業在市場中實際採用的關鍵性角色。
Thumbnail
文、圖/勤業眾信提供   勤業眾信聯合會計師事務所於4月10日舉辦「善用資訊科技與大數據分析,協助企業管理數位轉型」研討會,透析企業迎接數位轉型時,除了改善顧客服務及工業製程外,內部亦可運用資訊科技與大數據分析,節省需耗費人力的日常作業流程,協助員工專注於較具價值之工作,提升企業營運效率與績效
Thumbnail
文、圖/勤業眾信提供   勤業眾信聯合會計師事務所於4月10日舉辦「善用資訊科技與大數據分析,協助企業管理數位轉型」研討會,透析企業迎接數位轉型時,除了改善顧客服務及工業製程外,內部亦可運用資訊科技與大數據分析,節省需耗費人力的日常作業流程,協助員工專注於較具價值之工作,提升企業營運效率與績效
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News