記得免費加入會員,不會錯過每一篇文章喔。
也可以用聽的了解AI喔
大家好,我是阿峰老師。最近大家一定常常聽到AI,像是AI畫出來的圖、跟AI聊天機器人對話,這些都讓人覺得:「哇!AI真的好厲害!」
不過,今天要跟大家分享一本好書,叫做《AI的底層真相》。這本書的作者穆吉亞,他不是要教我們怎麼用AI,也不是要告訴我們AI有多棒。他反而要揭開AI的另一面,那些我們平常看不到、卻不能不知道的事情。這本書提醒我們,看事情要全面,不能只看好的一面。就像學經濟學,要知道好處,也要知道壞處,這樣才能做出最好的判斷。所以,今天阿峰老師就要帶大家一起來看看,AI發展背後,到底藏了哪些我們需要知道的真相。大家有沒有想過,AI為什麼這麼厲害?其實,AI就像一個很會模仿的學生,它需要看很多很多的資料,才能學會怎麼做事。而這些資料,很多都是靠人,一個一個去標記出來的。
這些「隱形的工人」,很多都在薪水比較低的國家。書裡面講到一家叫薩瑪的公司,它在肯亞專門做AI訓練服務。這些工人每天要做的事情,就是看很多很多的照片、影片,然後告訴電腦,這個是什麼、那個是什麼。
聽起來好像很簡單,對吧?但其實,這些工人看的東西,很多都是非常可怕的。像是車禍現場的照片、色情的影片,甚至是虐待動物的畫面。他們每天看這些,心裡壓力非常大,很多人還會做惡夢、吃抗憂鬱的藥。
重點是,他們薪水很低,工作時間又長。薩瑪公司甚至還會計算員工的休息時間,除了上廁所、吃飯,其他時間都不能休息。這樣的工作環境,是不是很像「血汗工廠」?
我們享受AI帶來的方便,但也不能忘記,背後有這麼一群人在默默付出。
最近幾年,「Deepfake」(深度偽造)這個詞越來越常聽到。簡單來說,Deepfake就是用AI技術,把一個人的臉、聲音,換到另一個人身上。
這種技術,可以做很多壞事。像是之前有一個App叫做「DeepNude」,你只要上傳一張女生的照片,AI就可以把她的衣服「脫掉」。這對女生來說,是非常大的傷害。
除了個人的隱私,Deepfake也可能被用來騙人、做壞事。想像一下,如果有人用你的臉、你的聲音,去做一些你根本沒做過的事情,那會有多可怕?
所以,現在已經不是「有圖有真相」的時代了。我們看到的東西,很有可能是假的。這不只是技術問題,更是道德和法律問題。
現在很多地方都有監視器,有些還會用AI來認人臉。這聽起來好像很安全,但你有沒有想過,我們的隱私會不會被侵犯?
書裡面講到一個例子,有一個黑人工程師,開車在路上被警察攔下來。警察問他:「你怎麼買得起這麼好的車?」這就是一種歧視,因為他是黑人,所以警察覺得他不可能有錢買好車。
更可怕的是,AI也會有這種歧視。有研究發現,AI在辨識白人男性的時候,錯誤率不到1%。但是,辨識膚色比較深的女性,錯誤率竟然高達35%!
如果AI常常認錯人,那會發生什麼事?書裡面就講到,有人因為AI認錯,被抓去關了好幾天。
我們希望AI可以保護我們,但也不能讓它變成監視我們的工具。
AI會不會有偏見?答案是:會的。
AI的偏見,很多時候是來自於訓練它的資料。如果資料本身就有問題,那AI學到的東西,當然也會有問題。
書裡面講到一個例子,荷蘭有一個「Top 600」的名單,上面都是一些被認為很可能犯罪的青少年。後來又出現一個「Top 400」,上面是這些青少年的弟弟妹妹。
問題是,這些名單上的人,很多都是黑人或摩洛哥人。這就是一種歧視,因為AI認為,這些人比較容易犯罪。
這種歧視,不只會發生在犯罪預測上。公司在找工作、銀行在借錢、保險公司在算保費的時候,如果用AI來做決定,也可能會發生一樣的問題。
AI是一把雙面刃,它可以讓我們的生活更方便,但也可能帶來很多問題。
所以,阿峰老師要提醒大家,AI的發展,一定要「以人為本」。企業在用AI的時候,不能只想到賺錢,也要考慮到道德、法律、社會責任。
我們也需要更多的AI教育,讓大家更了解AI,知道怎麼保護自己。
AI的未來,不是只有工程師的事情,而是我們每一個人的事情。讓我們一起努力,讓AI成為一個更好的工具,而不是一個可怕的怪獸。