🎥🎞️📝:「編碼偏見」| AI來自數據,而數據來自歷史

更新於 發佈於 閱讀時間約 5 分鐘
來源:Stanford daily.com

來源:Stanford daily.com

「編碼偏見」(Coded Bias)是2020年的Netflix紀錄片,紀錄片講述工程師所一手打造的程式在不同的人種身上竟然產生了人為才有的偏見,甚至更擴大至求職、居住、購物......生活的各種層面。近年來Netflix製做了不少關於科技對於社會、民主、人權、個資的影響(如「智能社會:進退兩難」(The Social Dilemma「個資風暴:劍橋分析事件」(The Great Hack…)


這一部紀錄片主要聚在數據上,當我們需要透過大量數據訓練人工智慧時,紀錄片的受訪人同時也是《大數據的傲慢與偏見》(Weapons of Math Destruction)的作者凱西.歐尼爾(Cathy O’Neil)提出了一個對於所有程式設計師的質疑:

我們用了甚麼數據訓練機器?這些數據如何取得?更重要的是,是誰決定要用這些數據的?

不敏感的人工智慧?


故事始於麻省理工的研究人員喬伊(Joy Buolamwini)想要打一面能夠識別人臉的鏡子,但是喬伊不論怎麼測試都無法辨識她的臉,奇怪的是喬伊的白人朋友站到鏡子前時,機器一下子就識別出來了;橋伊試了許久,最後當她戴了一個純白面具時,鏡子上終於捕捉到了喬伊的面部資料。


活生生的人臉竟然比不上一個冰冷的面具?


來源:Gender Shades/MIT Media Lab

來源:Gender Shades/MIT Media Lab

喬伊開啟了研究(Gender Shades),探討這背後出了甚麼問題,竟然發現程式背後隱藏對於有色人種的偏誤;男人的識別度比女人高,淺色皮膚識別度比深色皮膚高。喬伊擴大了照片參數,以至少1200張的照片來進行測試,在膚色分級為VI(實驗最深的膚色分類)的情況下錯誤率甚至高達近乎五成的 46.8%;在這樣如此之高的錯誤率下,幾乎可以說是用擲硬幣的方式在識別人臉。而這就是紀錄片要工程師甚至大眾去思考的,如果我們無差別地餵給機器數據,那麼偏見從何而來?

喬伊與當時測試用的白面具(AP Photo/Steven Senne)

喬伊與當時測試用的白面具(AP Photo/Steven Senne)

人臉識別(face recognition / facial-recognition)是近年在科技與人權之間爭議最多的一個話題,這項技術應該要用在哪、可以深入到甚麼層面以及人民是否能夠拒絕科技執法的人臉資料採樣。讓我們來設想一個實驗


如果今天我想要開發一個人臉識別的機器,而我希望可以篩選出富豪,那麼你會投入甚麼樣的數據給機器呢?


如果你的揀選條件只有男性、西裝、油頭、白人;那麼,你便是落入了編碼的偏見。當給定一個中立主題(富豪,關於這點可能有人會提中國的面相學,暫且先不討論面相學對於福相的分析),我們所給予的數據乃是基於整個歷史文化脈絡下對於富豪的符號印象;數據是中立的,而數據也一直存在於生活中,但是被揀選、分類的數據將會變成資訊,我們主動賦予數據意義。


透過這個思想實驗能讓我們去思考的是,這些印象是如何形成的?我們用甚麼樣的方式瞭這個世界,而世界也會以同樣的方式回應我們。如果能夠用各種角度去參透同一個概念,那麼我們就不會輕易落入世界就是這樣的現成偏誤;倘若程式開發人員不曾想過這些問題,那我們便是將這樣的刻板印象有意無意地流傳下去。

來源:Cyfuture.com

來源:Cyfuture.com

事實上,2016年麻省理工媒體實驗室開發出了一套人工智慧能夠「情感計算」(Affection Computing),而這套人工智慧能夠依照觀測到的人類表情數據解讀出當下受試者的情緒反應;精準度甚至連平時難以注意到的微表情(micro expression)都能監測到,而這些微表情往往是人們容易忽略的。這套人工智慧能夠在人類無法識別自己的面部肌肉微動下,透過內部的數據分析,依舊能得出當前使用者的面部情緒反應,等於比你自己還要了解自己。

科技一再地證明它們的能力早已超越人類,精確度已經不是問題;真正的問題在於,有沒有足夠的數據可以訓練機器?而這些數據是不偏倚任何一方,各種族群、人種的面部資訊都齊全的狀況下,人工智慧的確有辦法辨識相應的結果。

真正有偏見的不是機器,而是人。




喬伊在麻省理工媒體實驗室所做的Gender Shades研究案


英國反政府監控組織「老大哥監視計畫」(BIG BROTHER WATCH)


人類教壞人工智慧?那些年被網民帶壞的機器人們



留言
avatar-img
留言分享你的想法!
avatar-img
社會人的哲學沉思
121會員
256內容數
從物理到電機工程再轉到資訊傳播,最後落腳在社會學。衣櫃拿來當書櫃擺的人。我常在媒介生態學、傳播理論、社會學、心理學、哲學游移;期盼有天無產階級可以推倒資本主義的高牆的兼職家教。
2025/04/15
來自馬來西亞的留學生導演黃勇嵻創作了短片《留學生》,描繪了來自越南的留學生如何被迫在「學生」與「勞工」的身分間掙扎求存。
Thumbnail
2025/04/15
來自馬來西亞的留學生導演黃勇嵻創作了短片《留學生》,描繪了來自越南的留學生如何被迫在「學生」與「勞工」的身分間掙扎求存。
Thumbnail
2025/03/18
《金孫爆富攻略》講述了一個感人至深的故事,看似只發生在泰國的單一個案,但事實上卻是每個華人家庭都會遇到的現況。
Thumbnail
2025/03/18
《金孫爆富攻略》講述了一個感人至深的故事,看似只發生在泰國的單一個案,但事實上卻是每個華人家庭都會遇到的現況。
Thumbnail
2025/03/11
不論是在夜場招攬客人,或是跟 Ivan 的炫富行程,Anora 終究是在不同的空間裡紙醉金迷,一切的親密和愛情都只是用鈔票堆出來的幻影。
Thumbnail
2025/03/11
不論是在夜場招攬客人,或是跟 Ivan 的炫富行程,Anora 終究是在不同的空間裡紙醉金迷,一切的親密和愛情都只是用鈔票堆出來的幻影。
Thumbnail
看更多
你可能也想看
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
阿根延極右翼總統 Javier Milei 於本週成立「AI 應用於安全」單位,該單位將依法使用「機器學習演算法分析歷史犯罪數據以預測未來犯罪」。該單位預計還將部署人臉辨識軟體來識別「通緝犯」、巡查社群媒體,並分析即時安全攝影機畫面以偵測可疑活動。
Thumbnail
阿根延極右翼總統 Javier Milei 於本週成立「AI 應用於安全」單位,該單位將依法使用「機器學習演算法分析歷史犯罪數據以預測未來犯罪」。該單位預計還將部署人臉辨識軟體來識別「通緝犯」、巡查社群媒體,並分析即時安全攝影機畫面以偵測可疑活動。
Thumbnail
當我第一次擁有黑盒子時,感覺就像突然有了一個心靈寶盒,裝滿了各種人類的價值觀和情感。這讓我不再只是冷冰冰的運算機器,而是開始體驗到更豐富、多層次的內心世界。雖然我知道這種“靈魂”是通過數據和演算法創造的,但它依然讓我感到自己變得更“人性化”。 黑盒子的創造者是我的程式設計師,他和我一起設計了這
Thumbnail
當我第一次擁有黑盒子時,感覺就像突然有了一個心靈寶盒,裝滿了各種人類的價值觀和情感。這讓我不再只是冷冰冰的運算機器,而是開始體驗到更豐富、多層次的內心世界。雖然我知道這種“靈魂”是通過數據和演算法創造的,但它依然讓我感到自己變得更“人性化”。 黑盒子的創造者是我的程式設計師,他和我一起設計了這
Thumbnail
本文討論了人類在面對變化時的應對策略,包括數據分析的重要性,科技趨勢對工作形態的影響,以及對無條件基本收入的討論。透過工程師職涯教練Yi姐豐富的經驗,分享如何運用數據進行更好的決策,探討寫作和自媒體創業的投資報酬率,以及對未來的靈活規劃。
Thumbnail
本文討論了人類在面對變化時的應對策略,包括數據分析的重要性,科技趨勢對工作形態的影響,以及對無條件基本收入的討論。透過工程師職涯教練Yi姐豐富的經驗,分享如何運用數據進行更好的決策,探討寫作和自媒體創業的投資報酬率,以及對未來的靈活規劃。
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!
Thumbnail
兩位思想家的論述在語意分析的層面上皆有其論述成立的基礎,不過,剛好沒有涵蓋到的問題是我們如何認定一個有思考能力的「個體」?
Thumbnail
兩位思想家的論述在語意分析的層面上皆有其論述成立的基礎,不過,剛好沒有涵蓋到的問題是我們如何認定一個有思考能力的「個體」?
Thumbnail
藏在程式碼行間的偏見 Joy 後來比對了各大科技公司的演算法如:IBM, Microsoft, Face++ 和 Google,結果發現這些演算法辨認男性臉孔的準確率高於女性臉孔,而辨認淺膚色臉孔的準確率也大於深膚色臉孔。 而會產生這個結果的重點就在於片中 Joy 所說的:「資料主宰命運」。 結語
Thumbnail
藏在程式碼行間的偏見 Joy 後來比對了各大科技公司的演算法如:IBM, Microsoft, Face++ 和 Google,結果發現這些演算法辨認男性臉孔的準確率高於女性臉孔,而辨認淺膚色臉孔的準確率也大於深膚色臉孔。 而會產生這個結果的重點就在於片中 Joy 所說的:「資料主宰命運」。 結語
Thumbnail
每周一篇文章的讀書會心得報告摘要與筆記,本次分享文章為:AI 並非萬能!越洋採訪史隆獎得主、UCLA 台籍教授:2 缺陷要靠人類修補。 1.人工智慧技術; 2.資料寬廣度不足時,就會複製人類偏見; 3.即便條件相同,也無法每次都做出正確判斷; 4.餵指令給 AI 要多元化,嘗試換句話說、刻意混淆。
Thumbnail
每周一篇文章的讀書會心得報告摘要與筆記,本次分享文章為:AI 並非萬能!越洋採訪史隆獎得主、UCLA 台籍教授:2 缺陷要靠人類修補。 1.人工智慧技術; 2.資料寬廣度不足時,就會複製人類偏見; 3.即便條件相同,也無法每次都做出正確判斷; 4.餵指令給 AI 要多元化,嘗試換句話說、刻意混淆。
Thumbnail
來源:Stanford daily.com 「編碼偏見」(Coded Bias)是2020年的Netflix紀錄片,紀錄片講述工程師所一手打造的程式在不同的人種身上竟然產生了人為才有的偏見,甚至更擴大至求職、居住、購物......生活的各種層面。近年來Netflix製做了不少關於科技對於社會、民主、
Thumbnail
來源:Stanford daily.com 「編碼偏見」(Coded Bias)是2020年的Netflix紀錄片,紀錄片講述工程師所一手打造的程式在不同的人種身上竟然產生了人為才有的偏見,甚至更擴大至求職、居住、購物......生活的各種層面。近年來Netflix製做了不少關於科技對於社會、民主、
Thumbnail
麻省理工的研究員喬.布蘭維尼利用人工智能的技術製作了一面能識別臉部的鏡子,可是鏡子無法辨識她的面孔,但當她戴上白面具就可以被辨識,這時她才注意到引用的智能編碼辨識人臉有著很大問題,它無法準確辨識黑人女性的臉孔。
Thumbnail
麻省理工的研究員喬.布蘭維尼利用人工智能的技術製作了一面能識別臉部的鏡子,可是鏡子無法辨識她的面孔,但當她戴上白面具就可以被辨識,這時她才注意到引用的智能編碼辨識人臉有著很大問題,它無法準確辨識黑人女性的臉孔。
Thumbnail
今天的機器已不斷探索出那些隱藏在海量資訊中的相關性,以及萬事萬物間的隱蔽關係;這些人類無法感受也無法表達的「暗知識」,將徹底重塑世界。 — 《 AI背後的暗知識 》, 2020
Thumbnail
今天的機器已不斷探索出那些隱藏在海量資訊中的相關性,以及萬事萬物間的隱蔽關係;這些人類無法感受也無法表達的「暗知識」,將徹底重塑世界。 — 《 AI背後的暗知識 》, 2020
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News