演算法可以幫人類決定一些事情。隨著現代社會漸趨複雜,使用到演算法的例子只會越來越多。但我們可曾想過,演算法也會「歧視」?本紀錄片就是在這種情景下展開的:一位科學研究人員打算利用人臉辨識設計一款裝置,卻發現自己的臉一直無法被系統成功辨識;經測試後發現,原來她所引用的系統不善於辨識有色人種女性的臉孔。
對機器學習有點概念的人,應該看得出問題在哪。如果某演算法是根據樣本資料進行機器學習而建立,那它的效能就會受到你餵給它的資料影響。上面的案例,就是因為當初開發者用的人臉資料大多是白人男性所導致。這個問題是解決了,但當事人以及這部紀錄片擔憂的是,我們把越多事情交給「乍看很中立」的演算法決定而缺乏監管,是否只會越強化此刻的不平等而不自知?
這部入圍去年日舞影展的紀錄片已在 Netflix 上架,它想談的還有更多。片中講到中國的社會信用制度裡,評等較低者往往很難向上爬而陷入惡性循環(完全就是黑鏡 S3E1 的劇情);還有在去年的香港反送中示威,人臉辨識如何被用來對付街頭的抗爭者。
此外,片中也沒忘記回頭檢視歐美國家自己,包含英國警方使用人臉辨識系統來巡邏而引發的爭議(喬治歐威爾都想從墳墓爬起來罵人了),還有美國企業用演算法篩選求職者反而更不公平。中國和歐美的差別,只在於中國是政府帶頭而且完全不打算掩飾。你覺得哪一邊比較恐怖?
我們越來越依賴科技,這種態勢已經不可逆了;但也正因如此,「數位極權」以及「監控資本主義」等議題更加值得我們關注。我們希望演算法促進社會平等,而不是淪為現實世界的延伸,這有賴每個人主動去意識到問題所在。
當我們放棄抵抗的時候,《一九八四》的世界就不遠了。