【電影】編碼偏見 Coded Bias

閱讀時間約 1 分鐘
演算法可以幫人類決定一些事情。隨著現代社會漸趨複雜,使用到演算法的例子只會越來越多。但我們可曾想過,演算法也會「歧視」?本紀錄片就是在這種情景下展開的:一位科學研究人員打算利用人臉辨識設計一款裝置,卻發現自己的臉一直無法被系統成功辨識;經測試後發現,原來她所引用的系統不善於辨識有色人種女性的臉孔。
對機器學習有點概念的人,應該看得出問題在哪。如果某演算法是根據樣本資料進行機器學習而建立,那它的效能就會受到你餵給它的資料影響。上面的案例,就是因為當初開發者用的人臉資料大多是白人男性所導致。這個問題是解決了,但當事人以及這部紀錄片擔憂的是,我們把越多事情交給「乍看很中立」的演算法決定而缺乏監管,是否只會越強化此刻的不平等而不自知?
這部入圍去年日舞影展的紀錄片已在 Netflix 上架,它想談的還有更多。片中講到中國的社會信用制度裡,評等較低者往往很難向上爬而陷入惡性循環(完全就是黑鏡 S3E1 的劇情);還有在去年的香港反送中示威,人臉辨識如何被用來對付街頭的抗爭者。
此外,片中也沒忘記回頭檢視歐美國家自己,包含英國警方使用人臉辨識系統來巡邏而引發的爭議(喬治歐威爾都想從墳墓爬起來罵人了),還有美國企業用演算法篩選求職者反而更不公平。中國和歐美的差別,只在於中國是政府帶頭而且完全不打算掩飾。你覺得哪一邊比較恐怖?
我們越來越依賴科技,這種態勢已經不可逆了;但也正因如此,「數位極權」以及「監控資本主義」等議題更加值得我們關注。我們希望演算法促進社會平等,而不是淪為現實世界的延伸,這有賴每個人主動去意識到問題所在。
當我們放棄抵抗的時候,《一九八四》的世界就不遠了。
歡迎追蹤臉書專頁 老大的觀影筆記
即將進入廣告,捲動後可繼續閱讀
為什麼會看到廣告
這裡收錄我的影集觀後文,分為台劇、美劇、歐劇、紀錄影集等類別。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
我兩週前寫了《海洋陰謀》的觀後感,本來對它評價滿高的,但在陸續看到國內外一些專業人士的質疑和批評後,不得不大幅下修對它的觀感。我會在最後附上兩個資料給大家參考。
這部 Netflix 紀錄片,揭露了一般人沒有想像過也很難接觸到的海洋現況。經營商業捕魚的大公司,跟所謂的環保機關,聯手打造了蒙騙無知消費者的貪腐產業鏈。
6/28是石牆事件發生的51週年,今天就來介紹這部跟LGBT有關的作品。這部原名Disclosure的Netflix紀錄片,講述跨性別在影視作品中的形象轉變。其中訪問到許多知名美劇的跨性別演員,也談到性少數角色由非該身分的演員飾演等問題。
這部Netflix的作品,記錄1940年代相戀的兩位女子Terry和Pat來到美國生活,將這段感情隱藏60多年,直到Terry被診斷出帕金森氏症,兩人才在幾年前的家族聚會公開他們的關係。這個故事當然有傳統社會中同性之愛的所要面對的艱難和無奈,但不只如此。
Cicus of Books是在西好萊塢的一家兼賣G片的同志書店,老闆Mason夫婦在1982年接手後,使它一度成為(各種意義上的)同志聖地。但近年來因網路崛起,迫使書店終究在去年歇業,夫婦倆的女兒Rachel便提前拍下這部片來記錄。
本片在今年日舞影展拿到美國紀錄片觀眾票選獎。原片名Crip Camp,指的是1970年代在紐約由嬉皮人士舉辦給身心障礙青少年的夏日營隊。其中幾位參加者受到營隊啟發,投入身心障礙平權運動。
我兩週前寫了《海洋陰謀》的觀後感,本來對它評價滿高的,但在陸續看到國內外一些專業人士的質疑和批評後,不得不大幅下修對它的觀感。我會在最後附上兩個資料給大家參考。
這部 Netflix 紀錄片,揭露了一般人沒有想像過也很難接觸到的海洋現況。經營商業捕魚的大公司,跟所謂的環保機關,聯手打造了蒙騙無知消費者的貪腐產業鏈。
6/28是石牆事件發生的51週年,今天就來介紹這部跟LGBT有關的作品。這部原名Disclosure的Netflix紀錄片,講述跨性別在影視作品中的形象轉變。其中訪問到許多知名美劇的跨性別演員,也談到性少數角色由非該身分的演員飾演等問題。
這部Netflix的作品,記錄1940年代相戀的兩位女子Terry和Pat來到美國生活,將這段感情隱藏60多年,直到Terry被診斷出帕金森氏症,兩人才在幾年前的家族聚會公開他們的關係。這個故事當然有傳統社會中同性之愛的所要面對的艱難和無奈,但不只如此。
Cicus of Books是在西好萊塢的一家兼賣G片的同志書店,老闆Mason夫婦在1982年接手後,使它一度成為(各種意義上的)同志聖地。但近年來因網路崛起,迫使書店終究在去年歇業,夫婦倆的女兒Rachel便提前拍下這部片來記錄。
本片在今年日舞影展拿到美國紀錄片觀眾票選獎。原片名Crip Camp,指的是1970年代在紐約由嬉皮人士舉辦給身心障礙青少年的夏日營隊。其中幾位參加者受到營隊啟發,投入身心障礙平權運動。
你可能也想看
Google News 追蹤
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
人工智能(AI)和機器學習(ML)正在改變我們生活的方方面面,從購物推薦到醫療診斷,再到犯罪預測。我們常常認為這些技術工具是客觀公正的,能夠幫助我們擺脫人類的偏見和主觀判斷。然而,事實並非如此簡單。 讓我們從一個著名的案例說起。2018年,亞馬遜公司被爆出其招聘AI系統存在性別歧視。這個系統被
Thumbnail
社群媒體會導致「過濾氣泡」和「同溫層效應」。也就是說,這只會讓用戶只看到符合其既有觀點和興趣的內容,從而錯過多樣化的信息。 如果要做出更妥善的市場判斷,除了需要在即時的數據和長期的品牌價值之間找到平衡,也要提醒大家要及時『抽身』回到真實的世界中,才能避免陷入數據迷戀和演算法偏見。
Thumbnail
AI的世界充滿了創新和潛力,涵蓋了許多領域,包括但不限於機器學習,自然語言處理、電腦視覺和機器人技術。AI對人類社會的影響是複雜而多層面的,既帶來了巨大的機遇,也提出了新的挑戰。社會需要在技術發展和倫理規範之間找到平衡,確保AI技術的應用能夠真正造福人類。
Thumbnail
最近家裡安裝了電子鎖,由於我的指紋老是無法辨識成功,所以最後選擇有「人臉辨識」功能的產品。在這篇文章中,將介紹人臉辨識技術的基本原理和安全性,以及如何避免應用軟體漏洞的風險。
Thumbnail
自從AI浪潮席捲全世界以後,大家都想知道AI的極限可以到那裡?而隨著AI開始人性化,大家比較擔心的是它的善惡觀是否和人類一致? 因為就人類自身來看,每個人、每個種族、每個國家都有一種自以為是的正義感,總認為自己所做的都是對的,這樣的對錯在AI的量子電腦運算中,到底會呈現什麼樣的結果? 其實最好的
在人工智能的發展歷程中,早期的研究主要側重於將解決問題的規則輸入計算機,試圖通過啟蒙運動理性的思路模擬人類的智能行為。然而,這條路逐漸變得艱難,因為規則過於繁多,無法應對複雜的情境和語境。在這個背景下,一些科學家轉向了神經網絡算法,試圖模擬人腦的感知能力。
Thumbnail
新聞中,一位國際人力資源專家得意地介紹AI已經應用在各大公司面試的實際例子,卻讓我覺得毛骨悚然...
Thumbnail
我認為在近未來,AI反而會加速人與人之間的不平等,加上首富馬斯克(Elon Musk)的腦機介面公司Neurolink,已經開始試著將晶片植入大腦,未來應該會比較類似《電馭叛客2077》Cyberpunk的世界,企業的權力將大到可與政府抗衡,人與人之間的地位會天差地遠。
Thumbnail
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
人工智能(AI)和機器學習(ML)正在改變我們生活的方方面面,從購物推薦到醫療診斷,再到犯罪預測。我們常常認為這些技術工具是客觀公正的,能夠幫助我們擺脫人類的偏見和主觀判斷。然而,事實並非如此簡單。 讓我們從一個著名的案例說起。2018年,亞馬遜公司被爆出其招聘AI系統存在性別歧視。這個系統被
Thumbnail
社群媒體會導致「過濾氣泡」和「同溫層效應」。也就是說,這只會讓用戶只看到符合其既有觀點和興趣的內容,從而錯過多樣化的信息。 如果要做出更妥善的市場判斷,除了需要在即時的數據和長期的品牌價值之間找到平衡,也要提醒大家要及時『抽身』回到真實的世界中,才能避免陷入數據迷戀和演算法偏見。
Thumbnail
AI的世界充滿了創新和潛力,涵蓋了許多領域,包括但不限於機器學習,自然語言處理、電腦視覺和機器人技術。AI對人類社會的影響是複雜而多層面的,既帶來了巨大的機遇,也提出了新的挑戰。社會需要在技術發展和倫理規範之間找到平衡,確保AI技術的應用能夠真正造福人類。
Thumbnail
最近家裡安裝了電子鎖,由於我的指紋老是無法辨識成功,所以最後選擇有「人臉辨識」功能的產品。在這篇文章中,將介紹人臉辨識技術的基本原理和安全性,以及如何避免應用軟體漏洞的風險。
Thumbnail
自從AI浪潮席捲全世界以後,大家都想知道AI的極限可以到那裡?而隨著AI開始人性化,大家比較擔心的是它的善惡觀是否和人類一致? 因為就人類自身來看,每個人、每個種族、每個國家都有一種自以為是的正義感,總認為自己所做的都是對的,這樣的對錯在AI的量子電腦運算中,到底會呈現什麼樣的結果? 其實最好的
在人工智能的發展歷程中,早期的研究主要側重於將解決問題的規則輸入計算機,試圖通過啟蒙運動理性的思路模擬人類的智能行為。然而,這條路逐漸變得艱難,因為規則過於繁多,無法應對複雜的情境和語境。在這個背景下,一些科學家轉向了神經網絡算法,試圖模擬人腦的感知能力。
Thumbnail
新聞中,一位國際人力資源專家得意地介紹AI已經應用在各大公司面試的實際例子,卻讓我覺得毛骨悚然...
Thumbnail
我認為在近未來,AI反而會加速人與人之間的不平等,加上首富馬斯克(Elon Musk)的腦機介面公司Neurolink,已經開始試著將晶片植入大腦,未來應該會比較類似《電馭叛客2077》Cyberpunk的世界,企業的權力將大到可與政府抗衡,人與人之間的地位會天差地遠。
Thumbnail
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!