【紀錄片】《編碼偏見》演算法,掌握準則的審判者

2022/05/02閱讀時間約 3 分鐘
《編碼偏見》(Coded Bias) 是一部在 2020 年 11 月於 Netflix 上線的紀錄片。故事從麻省理工學院媒體實驗室博士候選人 Joy Buolamwini 在研究過程中希望能打造出一面鏡子,她稱之為「勵志之鏡」的互動裝置開始談起,她希望能經由電腦視覺技術追蹤自己的臉部特徵,並藉此讓鏡子投射出影像。但不知怎地,Joy 卻始終無法如願,於是她也就開始探究這背後的原因。

藏在程式碼行間的偏見

Joy 後來比對了各大科技公司的演算法如:IBM, Microsoft, Face++ 和 Google,結果發現這些演算法辨認男性臉孔的準確率高於女性臉孔,而辨認淺膚色臉孔的準確率也大於深膚色臉孔。
而會產生這個結果的重點就在於片中 Joy 所說的:「資料主宰命運」。
當訓練者所使用的訓練資料出現偏差時,自然也會得到偏差的結果。人工智慧之所以能夠運作是基於資料本身,而資料則反映著歷史;因此所有的一切就像是被刻在演算法裡的基因,讓應運而生的科技產物好比是一面鏡子,將人類的過去一併給映照出來。

掌握過去者即掌握未來,掌握現在者即掌握過去

數學科學家 Cathy O’Neil 提到現在世界上有多種演算法,但它們全都被吹捧為客觀事實,她也表示擁有程式碼的人,將程式碼應用在別人身上,這本身就是一種權力不對等的關係。
另外她也在 Netflix 上線的紀錄片《智能社會:進退兩難》中談及當下社群媒體利用演算法手握大量使用者資料的隱憂,她也以此主題撰寫著作,並於 2016 年出版書籍,中文版《大數據的傲慢與偏見:一個「圈內數學家」對演算法霸權的警告與揭發》則於隔年 2017 年出版,也有推出電子書版本

成長快速的演算法

如今有幾十億人在智慧型手機上為科技公司創造的產品提供大量可收集的資料,這時就能將其餵養給演算法,進而建造出一套資料模型來達到精準分析,更進一步地還能藉此影響人類行為。然而這點也正是機器學習可能造成的問題之一。
而現今全世界共有九間科技公司主導人工智慧技術,分別是 Meta (Facebook), Apple, Amazon, IBM, Google, Microsoft, 阿里巴巴, 百度與騰訊,而在這當中有六家是美國企業,其餘三家則是中國企業,因此大概就能藉由現況猜測人工智慧的發展將會循著兩條截然不同的方向前進。

結語

有關於本片的詳細內容與後續發展,則歡迎你點擊連結,閱讀發佈在我部落格上的文章:【Netflix 紀錄片】《編碼偏見》科技世界準則的主宰者:演算法,繼續深入探索背後秘辛;也推薦你點擊本部紀錄片的 Netflix 連結繼續觀看,繼續跟著片中人物的腳步,調查其他藏於演算法中的偏見,並找尋反制這類新時代科技的方式。
想看更多好片分享?歡迎蒞臨阿瓜曼達筆記繼續觀看更多文章。
Aquamanda
Aquamanda
留言0
查看全部
發表第一個留言支持創作者!