連AI也厭女?數據黑盒子如何默默強化社會不平等-podcast心得(from 鏡好聽)

2021/12/30閱讀時間約 1 分鐘
人們常常看到AI神奇且好的一面,比如它強大的資料庫支援它在下象棋的是侯可以贏過高手。但我們很難想到這些科技產品在應用於生活同時,反應了社會長久以來性別、資源,甚至是種族不平等等問題。
我們知道做AI的這些科技強國(比如美國),通常都以白人佔大多數比例,因此在很多影像資料輸入時白人的資料遠多過非白人的資料;在傳統社會中,男性的影像多過於女性的影像。在把這些只高度收錄某特定族群過去人類社會的資料拿來訓練機器時,造成很多影像判斷系統對非白人女性族群的判斷非常不準確,比如西方白紗會被判讀為新娘,但印度紅色婚紗卻成了表演藝術與娛樂性衣著。
另一個問題是數據分佈本身就是社會不平等的產物,對於使用人類社會真實使用語言來訓練機器,AI翻譯軟體容易因為我們在使用語言時常講到男工程師、女護理師而將「工程師」連結到男性代名詞(他/he),將「護理師」連結到女性代名詞(她/she)進而一定程度反映了社會中職業分布男女不平等的狀況。
對於AI這項目前正在發展的技術我一直都很有興趣,而在創造AI的科學家們一開始也一定沒有預期他們的產品會有性別不平的意象。當然對於資料的選用要小心是這些科學家們在研究程式本身外要多注意的,但我認為問題的源頭還是要如何改變社會上既有存在不論是職業或種族等性別問題讓這些被寫入AI的資料庫減少因為性別問題產生的誤判,做出更公平的決策。而我認為這讓我們反思到在科技不斷演進的同時,人們對於性別平等的觀念想法是否也跟著與時俱進。
    張靖苹
    張靖苹
    留言0
    查看全部
    發表第一個留言支持創作者!