更新於 2021/04/16閱讀時間約 3 分鐘

《編碼偏見》人工智能的種族歧視

演算法不平等?資料到底以什麼參考當作依據
作品原名:Coded Bias(2020)
作品原名:Coded Bias(2020)
科技走入人類的生活,從二十世紀中後電腦的普及也短短不到百年,需要一整棟房的龐大電腦也以成了手掌大小的智慧手機,而更多數據機的演算使我們創造的電子產品更加聰明,符合這世界的樣貌。但科技始終來於人性,有沒有走偏的那一天?《編碼偏見》是一部明確提出關於人工智能運用在現今人類社會不完善,甚至濫用或不當使用就會造成嚴重侵犯人權災難的紀錄電影。
麻省理工的研究員喬.布蘭維尼利用人工智能的技術製作了一面能識別臉部的鏡子,可是鏡子無法辨識她的面孔,但當她戴上白面具就可以被辨識,這時她才注意到引用的智能編碼辨識人臉有著很大問題,它無法準確辨識黑人女性的臉孔。
人工智慧一直是當今人類科技還未到達的里程碑,但在過去的電影或文學創作中我們都可以看見人類對於自己製造電腦生命的想像,動作片《魔鬼終結者》觀眾可以看出對於人工智能與人類之間羈絆,但同時《機械公敵》中也看見對於外來科技濫用與取代人類的恐懼。
人工智能雖然目前還是在學步階段,並未如娛樂產業裡敘述的如此強大,但這些小小一筆其實也間接直接的改變我們的社會架構,例如工廠機械取代人力、手機指紋識別、人臉識別系統等,一點一滴摻入我們的生活。
《編碼偏見》是一部講述人工智能演算法如今在人類社會運用狀況上的不足,還有可能會涉及濫用侵犯人權的狀況。麻省理工的電腦與數學演算研究員喬.布蘭維尼就發現,智能編碼在判別數據庫時,辨別人面孔有所不足,尤其是在辨別黑人女性這塊。
這有可能是因為人工智能學習與採用的資料庫中,絕大多數讓電腦學習的都是辨別白人男性居多,這也於英美的科技發展史過去時代鮮少有色人種的研究員介入有關,可能從根本歷史資料上智能編碼就不多元。
電影裡以各項因為人工智能編碼而產生的問題和困境,來敘述它怎麼影響人的生活和侵犯人民的權利和竊取資料。內容大方向分為三點:一、編碼因人為之故而產生歧視。二、在資料庫上不足導致於人工智能作出錯誤解讀。三、使用人工智能有竊取個人資料與監視違反人權的疑慮。
在紀錄片中就有警察部門採取亞馬遜人臉辨識系統但因為資料不完整,頻頻傳出誤判,且也有民眾不滿警方隨意用科技產品竊取資料與監控他人的侵權行為。
電影中對於侵權方面舉了中國人臉識別系統「天眼」為例子,並且因是近期對於中國使用科技監控人民的作法有詳細敘述。更訪談了一位中國女孩,得到她不在乎被政府拿取資料,並認為這樣的監控與社會信用的制度很好,可以幫助她辨別一個人的好壞。
這也是《編碼偏見》所想探討的一個問題,編碼出來經過運算的資料真的是正確的嗎?因為許多人會相信科學數據,卻並不能透徹這些數據是怎麼出現的。這也是當今社會的問題,我們依賴數據編成的結果,但卻同時沒有數據怎樣編碼的概念。
而在數據不足和侵犯人權兩者無疑是兩面刃,說穿如今電腦人工智能的強大來自於電腦本身多筆資料的快速運算與分類,棋藝的人工智能就是如此,它並不能算是思考而下棋,而是透過大量的棋譜來運算最佳的勝利路線。
這也產生一個問題就是電腦編碼的行程完全依據研究與設計人員的餵養,而人類本身就不是一個能平等看待所有事物的個體,因此如掌握在部分人手裡編成,必定會有無法突破與弊端的盲點,如同臉書一直推薦你不感興趣的廣告一樣。
對於《編碼偏見》紀錄片仍有些歐美觀眾覺得是過度危言聳聽,而另外一派則是表示電影本身的立場有所偏頗,應該也要聽見編成這些大公司數據的程序員他們的看法。
但編碼歧視是一個事實,這個歧視不是電腦主觀而是它的數據中學習本身就有誤。就像是過去歷史往往是勝利者和殖民方的觀點,當編碼中的資料缺乏多元的學習數據,人工智能就必定產生偏見這問題現在依舊無解,但增添資料就得面對人權問題的難題,這也是民主社會不同於極權社會另一項挑戰。
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.