🎥🎞️📝:「編碼偏見」| AI來自數據,而數據來自歷史

更新於 發佈於 閱讀時間約 4 分鐘
來源:Stanford daily.com
「編碼偏見」(Coded Bias是2020年的Netflix紀錄片,紀錄片講述工程師所一手打造的程式在不同的人種身上竟然產生了人為才有的偏見,甚至更擴大至求職、居住、購物......生活的各種層面。近年來Netflix製做了不少關於科技對於社會、民主、人權、個資的影響(如「智能社會:進退兩難」(The Social Dilemma「個資風暴:劍橋分析事件」(The Great Hack…)

這一部紀錄片主要聚在數據上,當我們需要透過大量數據訓練人工智慧時,紀錄片的受訪人同時也是《大數據的傲慢與偏見》(Weapons of Math Destruction的作者凱西.歐尼爾(Cathy O’Neil)提出了一個對於所有程式設計師的質疑:
我們用了甚麼數據訓練機器?這些數據如何取得?更重要的是,是誰決定要用這些數據的?

不敏感的人工智慧?


故事始於麻省理工的研究人員喬伊(Joy Buolamwini)想要打一面能夠識別人臉的鏡子,但是喬伊不論怎麼測試都無法辨識她的臉,奇怪的是喬伊的白人朋友站到鏡子前時,機器一下子就識別出來了;橋伊試了許久,最後當她戴了一個純白面具時,鏡子上終於捕捉到了喬伊的面部資料。

活生生的人臉竟然比不上一個冰冷的面具?
來源:Gender Shades/MIT Media Lab
喬伊開啟了研究(Gender Shades),探討這背後出了甚麼問題,竟然發現程式背後隱藏對於有色人種的偏誤;男人的識別度比女人高,淺色皮膚識別度比深色皮膚高。喬伊擴大了照片參數,以至少1200張的照片來進行測試,在膚色分級為VI(實驗最深的膚色分類)的情況下錯誤率甚至高達近乎五成的 46.8%;在這樣如此之高的錯誤率下,幾乎可以說是用擲硬幣的方式在識別人臉。而這就是紀錄片要工程師甚至大眾去思考的,如果我們無差別地餵給機器數據,那麼偏見從何而來?
喬伊與當時測試用的白面具(AP Photo/Steven Senne)
人臉識別(face recognition / facial-recognition)是近年在科技與人權之間爭議最多的一個話題,這項技術應該要用在哪、可以深入到甚麼層面以及人民是否能夠拒絕科技執法的人臉資料採樣。讓我們來設想一個實驗

如果今天我想要開發一個人臉識別的機器,而我希望可以篩選出富豪,那麼你會投入甚麼樣的數據給機器呢?

如果你的揀選條件只有男性、西裝、油頭、白人;那麼,你便是落入了編碼的偏見。當給定一個中立主題(富豪,關於這點可能有人會提中國的面相學,暫且先不討論面相學對於福相的分析),我們所給予的數據乃是基於整個歷史文化脈絡下對於富豪的符號印象;數據是中立的,而數據也一直存在於生活中,但是被揀選、分類的數據將會變成資訊,我們主動賦予數據意義。

透過這個思想實驗能讓我們去思考的是,這些印象是如何形成的?我們用甚麼樣的方式瞭這個世界,而世界也會以同樣的方式回應我們。如果能夠用各種角度去參透同一個概念,那麼我們就不會輕易落入世界就是這樣的現成偏誤;倘若程式開發人員不曾想過這些問題,那我們便是將這樣的刻板印象有意無意地流傳下去。
來源:Cyfuture.com
事實上,2016年麻省理工媒體實驗室開發出了一套人工智慧能夠「情感計算」(Affection Computing,而這套人工智慧能夠依照觀測到的人類表情數據解讀出當下受試者的情緒反應;精準度甚至連平時難以注意到的微表情(micro expression)都能監測到,而這些微表情往往是人們容易忽略的。這套人工智慧能夠在人類無法識別自己的面部肌肉微動下,透過內部的數據分析,依舊能得出當前使用者的面部情緒反應,等於比你自己還要了解自己。
科技一再地證明它們的能力早已超越人類,精確度已經不是問題;真正的問題在於,有沒有足夠的數據可以訓練機器?而這些數據是不偏倚任何一方,各種族群、人種的面部資訊都齊全的狀況下,人工智慧的確有辦法辨識相應的結果。
真正有偏見的不是機器,而是人。

喬伊在麻省理工媒體實驗室所做的Gender Shades研究案
英國反政府監控組織「老大哥監視計畫」(BIG BROTHER WATCH)
人類教壞人工智慧?那些年被網民帶壞的機器人們
為什麼會看到廣告
avatar-img
102會員
223內容數
從物理到電機工程再轉到資訊傳播,最後落腳在社會學。衣櫃拿來當書櫃擺的人。我常在媒介生態學、傳播理論、社會學、心理學、哲學游移;期盼有天無產階級可以推倒資本主義的高牆的兼職家教。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
社會人的哲學沉思 的其他內容
一個人只有用心靈才能看的真切,重要的東西用肉眼是看不見的。 It is only with heart that one can see rightly; what is essential is invisible to the eye. — 「小王子」(The Little Prince)
某次阿嬤在吃飯時回頭看正在攝影的我 那天夜裡我沒睡好,老實說,即便我想睡也睡不好。凌晨兩點、四點我被阿嬤叫醒,阿嬤緩慢地拄著拐杖走到我的房間呼喚我,兩次都是跟我說肚子餓了想要吃稀飯(阿嬤每天的早餐都是吃稀飯),通常我都會問阿嬤「晚餐沒有吃嗎?」不過這麼問通常得不到正式的回答,因為每次阿嬤都會說沒吃晚
在真/假資訊之間,我們的大腦是如何將資訊「快篩」?
我們很難跳進別人的腦袋,實際去「體驗」別人的世界;就如同我們很難跳進失智症患者的腦袋,去經歷記憶無法形成有多麼的痛苦。
雖然勒龐在《烏合之眾》一書不斷描述群體是智商低下的弱智(他在書中還真的這麼說!)但是,勒龐指出群眾的影響不僅是負面現象,而且還可能產生積極影響。而這種積極影響......
在獨處時我們容易順從自我,在團體中則容易順從他人;但只有在團體中仍保有自我的人才值得被關注。 —叔本華(Arthur Schopenhauer)
一個人只有用心靈才能看的真切,重要的東西用肉眼是看不見的。 It is only with heart that one can see rightly; what is essential is invisible to the eye. — 「小王子」(The Little Prince)
某次阿嬤在吃飯時回頭看正在攝影的我 那天夜裡我沒睡好,老實說,即便我想睡也睡不好。凌晨兩點、四點我被阿嬤叫醒,阿嬤緩慢地拄著拐杖走到我的房間呼喚我,兩次都是跟我說肚子餓了想要吃稀飯(阿嬤每天的早餐都是吃稀飯),通常我都會問阿嬤「晚餐沒有吃嗎?」不過這麼問通常得不到正式的回答,因為每次阿嬤都會說沒吃晚
在真/假資訊之間,我們的大腦是如何將資訊「快篩」?
我們很難跳進別人的腦袋,實際去「體驗」別人的世界;就如同我們很難跳進失智症患者的腦袋,去經歷記憶無法形成有多麼的痛苦。
雖然勒龐在《烏合之眾》一書不斷描述群體是智商低下的弱智(他在書中還真的這麼說!)但是,勒龐指出群眾的影響不僅是負面現象,而且還可能產生積極影響。而這種積極影響......
在獨處時我們容易順從自我,在團體中則容易順從他人;但只有在團體中仍保有自我的人才值得被關注。 —叔本華(Arthur Schopenhauer)
你可能也想看
Google News 追蹤
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
AI探討 這次AI探討了外貌和社會文化對於性別吸引力的影響,尤其是在不同國家和文化背景下,男性和女性對於異性的看法與偏好。 男性 普遍而言,男性往往會被女性的外貌特徵所吸引,包括面貌、大腿、腰部等,這是基於進化心理學的解釋,認為這些特徵與健康和生育能力有關。肩膀線條也是吸引力的一部分,特別是在
Thumbnail
文/楊宏文(Hubert) 曾經協助Google打造搜尋及人工智慧業務團隊的約翰.詹南德雷亞 (John Giannandrea) 表示:與其擔心AI淘汰人類,不如先擔心有偏見的AI帶來的社會隱憂。 那麼,什麼是有偏見的AI呢? 請你先打開ChatGPT, Gemini, Copilot或Cl
Thumbnail
首屆「AI小姐」選美比賽展示了AI技術創造的近乎完美虛擬形象,引發了人們對美麗的真實性以及技術應用的道德責任的思考。本文討論了AI選美大賽帶來的對文化多樣性、同質化美麗標準和人類價值的挑戰,並探討了AI模特的商業應用可能帶來的就業問題。
Thumbnail
最近家裡安裝了電子鎖,由於我的指紋老是無法辨識成功,所以最後選擇有「人臉辨識」功能的產品。在這篇文章中,將介紹人臉辨識技術的基本原理和安全性,以及如何避免應用軟體漏洞的風險。
Thumbnail
本文討論了人類在面對變化時的應對策略,包括數據分析的重要性,科技趨勢對工作形態的影響,以及對無條件基本收入的討論。透過工程師職涯教練Yi姐豐富的經驗,分享如何運用數據進行更好的決策,探討寫作和自媒體創業的投資報酬率,以及對未來的靈活規劃。
Thumbnail
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
Thumbnail
現AI時代我們常見的生成影像是如何製作出來的,或許你已經開始熟悉AI“假臉”的風格。但由于現在網路上大量流傳的多數是以DALL-E或是Stable Diffiusion+幾個特定的LoRA所生成的結果。以至於人們越來越有識別真假照片的能力。但或許你不知道的是,早在幾年前純粹用GAN生成技術所產出的人
Thumbnail
現在都在探討AI成形後的社會模式 每一個階段的習慣科技都只是為了我們人類的需求很誕生 不過在現階段的認知我認為人類始終能掌控科技 因為 AI人工智能最厲害的是"計算" 而我們人類最厲害的是"算計" "計算"靠的是公式."算計"靠的是想像 有算計的是世界才
Thumbnail
本文主要應用deepface的正面(frontal)人臉檢測的預設模型,使用analyze 函數,用於分析一張人臉圖像的情感(emotion)。 在Colab上實現,若用其他平台需稍微修改程式碼。 Deepface Deepface是一個輕量級的Python人臉辨識和臉部屬性分析
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
AI探討 這次AI探討了外貌和社會文化對於性別吸引力的影響,尤其是在不同國家和文化背景下,男性和女性對於異性的看法與偏好。 男性 普遍而言,男性往往會被女性的外貌特徵所吸引,包括面貌、大腿、腰部等,這是基於進化心理學的解釋,認為這些特徵與健康和生育能力有關。肩膀線條也是吸引力的一部分,特別是在
Thumbnail
文/楊宏文(Hubert) 曾經協助Google打造搜尋及人工智慧業務團隊的約翰.詹南德雷亞 (John Giannandrea) 表示:與其擔心AI淘汰人類,不如先擔心有偏見的AI帶來的社會隱憂。 那麼,什麼是有偏見的AI呢? 請你先打開ChatGPT, Gemini, Copilot或Cl
Thumbnail
首屆「AI小姐」選美比賽展示了AI技術創造的近乎完美虛擬形象,引發了人們對美麗的真實性以及技術應用的道德責任的思考。本文討論了AI選美大賽帶來的對文化多樣性、同質化美麗標準和人類價值的挑戰,並探討了AI模特的商業應用可能帶來的就業問題。
Thumbnail
最近家裡安裝了電子鎖,由於我的指紋老是無法辨識成功,所以最後選擇有「人臉辨識」功能的產品。在這篇文章中,將介紹人臉辨識技術的基本原理和安全性,以及如何避免應用軟體漏洞的風險。
Thumbnail
本文討論了人類在面對變化時的應對策略,包括數據分析的重要性,科技趨勢對工作形態的影響,以及對無條件基本收入的討論。透過工程師職涯教練Yi姐豐富的經驗,分享如何運用數據進行更好的決策,探討寫作和自媒體創業的投資報酬率,以及對未來的靈活規劃。
Thumbnail
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
Thumbnail
現AI時代我們常見的生成影像是如何製作出來的,或許你已經開始熟悉AI“假臉”的風格。但由于現在網路上大量流傳的多數是以DALL-E或是Stable Diffiusion+幾個特定的LoRA所生成的結果。以至於人們越來越有識別真假照片的能力。但或許你不知道的是,早在幾年前純粹用GAN生成技術所產出的人
Thumbnail
現在都在探討AI成形後的社會模式 每一個階段的習慣科技都只是為了我們人類的需求很誕生 不過在現階段的認知我認為人類始終能掌控科技 因為 AI人工智能最厲害的是"計算" 而我們人類最厲害的是"算計" "計算"靠的是公式."算計"靠的是想像 有算計的是世界才
Thumbnail
本文主要應用deepface的正面(frontal)人臉檢測的預設模型,使用analyze 函數,用於分析一張人臉圖像的情感(emotion)。 在Colab上實現,若用其他平台需稍微修改程式碼。 Deepface Deepface是一個輕量級的Python人臉辨識和臉部屬性分析
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!