AI有如我們想像般的智慧嗎?別忘了背後那群無名英雄

2023/01/17閱讀時間約 3 分鐘
文 / 張瑞雄
臉書(Facebook)、推特(Twitter)、抖音(TikTok)、IG(Instagram)等社交媒體都面臨一個同樣的問題,那就是不當內容的監控,尤其是對於影片的內容。
一堆人時常會放上去如謀殺、自殺、戀童癖、色情內容、野蠻行為的影片,如何在它們到達使用者的眼球之前將其阻擋,這是一項非常艱鉅的工作。
抖音的推薦演算法被廣泛認為是世界上最有效的人工智慧(AI)的應用之一,它以幾乎驚人的準確性了解每個用戶覺得有趣或吸引人的地方,並為用戶提供更多他們可能喜歡的內容。
延伸閱讀
圖/AI有如我們想像中一般的人工智慧嗎?僅為情境配圖。圖片來自pexels

AI的訓練階段需要大量人工介入

但抖音的AI專長僅止於此,要應用於內容辨識還有一段距離。該公司使用大量人工來幫助其平台清除有害內容,當抖音(其他平台亦同)的內容版主標記要刪除的內容時,除了將其刪除,他們還收集有關其違反的特定政策的原因,這些資料可用於訓練平台的機器學習系統,以便在未來更好地識別此類內容。
這就是AI的一個大問題,需要大量的標記過的訓練資料。一開始要讓AI知道那些影片是不適當的,一定是人要去告訴AI。所以AI的訓練階段需要大量人工介入。AI的確創造了新的工作,但卻是這種重複和乏味且有時噁心(想想看要看那麼多令人厭惡的影片)的工作。
當然這種低薪沒成就的工作很難找到工人,有些AI公司就到監獄找廉價人力,有些就到低薪國家,例如哥倫比亞。
因為抖音在拉丁美洲的快速增長,據估計在該地區擁有一億用戶,所以抖音透過人力仲介在哥倫比亞僱了數百名版主,來跟無止境的且令人不安的內容進行一場永無休止的戰鬥,他們每週工作六天,晝夜輪班,其中一些人的月薪不到1萬台幣。
觀看諸如色情或暴力或恐怖的影片是內容版主每天的日常工作,但對於因此而導致的職業創傷公司並沒有足夠的心理輔導,每天被監視,還要求不可能達到的績效目標,否則遭受懲罰性減薪和苛責。
圖/AI需要大量標記過的訓練資料,所以在訓練階段需要大量人工介入,僅為情境配圖。圖片來自pexels
AI有時難以完成相對簡單的任務,例如發現已被刪除的恐怖影片的副本,所以要求AI認識以前從未見過的內容簡直是不可能的任務。人腦是識別有害內容的最有效工具,當有害內容以AI可能無法識別的新格式和新情境上傳時,人類變得特別有用。分析比照片和文字更複雜的影片需要更多的計算能力。這意味著創建用於審核影片的AI系統特別昂貴。如果從金錢的角度來看待這個問題,那麼內容審核AI系統,先不考慮它的不完美,無法與每小時2美元工資的工人競爭。當影片監視員只是AI系統需要的一個例子,未來很多AI自動系統(例如自駕車)是否要配有一位安全監控人員,他們單調地看著AI系統運作,無所事事,或許必要時關掉電源,但出事時可能要負責任。這些新工作可並不怎麼高科技或高薪,責任和報酬不成比例。所有這類工作都屬於一本書《幽靈工作:如何阻止矽谷建立一個新的全球下層階級》中所說的幽靈工作(Ghost Work),所以當看到一個偉大的AI系統時,大家千萬不要忘記當初訓練AI的那批人呀!
本文章反映作者意見,不代表《遠見》立場
(作者為國立台北商業大學前校長)
為什麼會看到廣告
29會員
195內容數
創刊於1986年的《遠見雜誌》,一直以「傳播進步觀念」,「社會進步的動力」自許。為了要在網路時代,一面要減少資訊氾濫,一面要用新的平台擴大影響,2013起,我們十分慎重地邀請了五十餘位(累積迄今超過百位)來自台灣、大陸、美國、香港、新加坡等海內外有成就、有見解、有理想的人士,各在其專業領域發表其獨立意見。
留言0
查看全部
發表第一個留言支持創作者!
從 Google News 追蹤更多 vocus 的最新精選內容