[The Batch] 深偽肆虐 x AI偏見 x 失業對策

2019/11/07閱讀時間約 8 分鐘

Preface

可能是因為是萬聖節版的「The Batch」的關係,這篇的用字特別的艱澀難懂,翻得我都有點懷疑人生腦充血了。不過我還是盡我所能去理解後,再翻成白話讓大家能輕鬆理解。
這一期所講的主題,清一色都在講AI將如何造成各揰危害及偏見。可能是因為Andrew就站在AI研究及技術的最前線,所以都是比較實驗性質的版本,沒有適度的規範的話,對社會的危害真的是不可不慎。
我個人對AI技術是偏樂觀的,因為比起技術來說,人的問題才更令人頭痛。即便DeepFake類的問題表面上看來是無解的,但隨著資訊流通的速度夠快,再加上區塊鏈技術的成熟,這個問題終將會獲得解決。
生命都會找到出路的,對吧。

Andrew Say

歡迎來到萬聖節版的「The Batch」!
我上週有承諾過要開始分享一些AI專案失敗的原因。但我們先從一些較不常見的原因開始。
如果你的AI專案失敗了,這有可能不是因為:
  • 你的神經網路擁有了「感知」能力。你的ResNet實作不僅拒絕了給貓的圖片分類,更糟的是它開始嘗試奴役人類。
  • 有個搗蛋鬼住進了你的硬體。現在你知道為什麼你的GPU運行起來溫度這麼高了吧,繼續關注系統的溫度,並確保你的通訊錄中有一個驅魔人能解決這個問題。
  • 僵屍行程背景服務在你的電腦中。Wiki百科是這樣寫的,而我們知道這是可能發生的。最簡單的解法就是:把整個硬碟清乾淨,然後重新來過。
真是一個充滿著「不給糖就搗蛋」氣息,且大家都以多變的造型來慶祝的萬聖節。

Deepfakes Wreak Havoc

深偽產物肆虐,會摧毀大眾對關鍵社會機構的信任嗎?

The fear

產生器模型持續以令人信服,但其實是假的照片,視頻,廣告及新聞,來淹沒各種媒體平台。隨之而來的認證信任危機將會導致人們將不再信任金融機構到政府單位。

What could go wrong

網紅的深偽事件,到GPT-2的語意模型已經能產出讓讀者以為是紐約時報發行的文章,AI是佈道者,騙子及破壞者的有力工具,隨著科技繼續進步,對社會的破壞力只會繼續增加。

Behind the worries

深偽產物已經在各行各業都逐漸興起:
  • 騙子透過AI生成C級主管的聲音,欺騙了公司,將數十萬美元給匯到了離岸帳戶。
  • 美國在五月時,一段視頻迅速的散佈開來。美國眾議院議長Nancy Pelosi的談話視頻,似乎是被扭曲了,導致被反對派質疑她的適任性。事實上,這個視頻只是在關鍵的時刻被改變了播放速度,來達到扭曲的效果。雖然這個假視頻並不是用AI技術做出來的,但這個例子清楚的展示了科技技術對傳播假新聞的潛力,是多 快且多麼有效的。
  • 10月初微軟的研究員發布了一個模型,用於產出新聞的評論。這樣的工具甚至能產出帶有基層支持或異議印象的評論。

How scared should you be

由於很少有研究是在評估深偽產品對公眾信任造成多大的衝擊,所以現在是很難評量這樣的擔憂有多大。根據研究指出,深偽技術最常被使用的狀況是騷擾個別女性。樂觀主義者可能會說,逐漸增加的AI假消息,已經刺激到大眾對更穩固的真實訊息標準,有更強的動力去建立其社會骨幹。而我們是比較傾向這是一種深偽製造者及偵測者的軍備競賽,就像在數位安全領域那樣,深偽製造者總是能在突破防線時佔到優勢。

What to do

研究員正在考慮用多種對策來對付深偽媒體。有人認為浮水印技術可以建立其溯源能力,而其他人是認為區塊鏈是一個更有效的方式,來確認訊息是來自於受信任的來源。

Biased Data Trains Oppressive AI

帶偏見的訓練集,會不經意地將AI變成迫害工具嗎?

The fear

在名義上客觀的,例如教育或司法機構系統使用的軟體,它們所帶的偏見,將不可能根除得了。而結果就是:不公正的現象就這麼進入了這些機關,而這些正是維持我們社會公平的機構。

What could go wrong

AI從資料學習,從而做出自己的結論,但訓練集卻通常是由帶有偏見的人類來收集及匯整的。隨著科技逐漸的在支配教育,就業,貸款申請,法律代表及媒體報導,AI會強化這些社會偏見的風險也在升高。

Behind the worries

AI的偏見已逐漸成為新聞頭條:
  • 一個為1億個受慢性疾病所苦的病患(例如心臟病或糖尿病)提供醫療照護的模型,低估了黑人病患急切需要照護的程度,從而讓白人病患可優先接受重症監護。
  • 亞馬遜開發了一套AI工具來幫助找到最佳的求職者,但公司最終決定棄用了。因為在內部審核的過程發現,它給男性求職者的評等會遠高於女性。
  • 機器學習不只是會吸收帶有偏見的編碼資料,它還會強化它們的效果。「男人也喜歡購物」的論文中,研究員發現圖像分類模型辨識出有84%的照片是由女性在煮飯,但實際上只有66張照片是真的女性在煮飯。該模型使用的單詞嵌入判斷,將煮飯的行為和女性過度的關聯了。

How scared should you be

對於這些AI系統,直到它們能宣稱是使用認證過的無偏見資料集來訓練,或是有通過第3方審核通過不帶偏見,我們都可以好好的來賭一下,這些系統是否都讓某些人擁有不公平的優勢?

What to do

在2018年的一場Keynote演說中,研究員Rachel Thomas說明開發機器學習的工程師,如何在開發期一步步的防止偏見對模型帶來的影響。她建議在訓練期所使用的資料集中,都要帶有一個表格來描述這份資料是如何被編譯出來的,編譯者是否有經過任何合乎法規及道德的考量。她也建議在團隊中可引入來自於不同背景的成員,可能有助於在不同型式的偏見出現時提出預警。

Machines Take Everyone's Job

從藍領勞工到實驗室中的專業人員,有什麼工作是AI做不了的嗎?

The fear

AI將會在各行各業有超水準的演出,大量人口將會因此而失業。他們將無法再負荷生活所需,而政府的補助也無法取代工作帶來的認同,自豪及方向感,人類將無所依靠。

What could go wrong

雖然綜觀歷史,科技帶來的工作需求都會比減少的量多,但AI又為什麼如此不同?因為AI帶來的威脅是我們可以把本來要靠「人腦」才能做的事情給外包出去。
自動的「得來速」系統可以開始賣奶昔,醫療系統模型可以解讀X光片,自然語意程式可以寫運動新聞…這份列表必然會隨著科技進步而越來越長。

Behind the fear

在過去,大規模的失業都會造成許多的社會混亂。1930的美國大蕭條讓失業率超過34%,研究員認為工作型態的轉變和第一、二次世界大戰時興趣的民族主義,有直接的連結關係。

How scared should you be?

根據McKinsey在2017年的一份報告,它們估計到2030年,全球的工作機會,只會有低於5%的程度被自動化取代,雖然短期來看這只能算是一個小擔憂,但這個數值其實是帶有警示的。在某些種類的工作,例如客戶服務或是重複性高的勞力工作,1/3的工作機會就會被機器所取代。開發中國家受到的衝擊最大,即便它們也會享受到在個人照護領域的爆炸性成長,例如教育或醫療。

What to do

終身學習是第一道防線(也是高價值的追求目標!)。教育可幫助你,在目前已半自動化的職位上仍保持在前端的位置,亦或者讓你在這個職位已全自動化時能轉換跑道。許多像部落格,論文,線上的視頻或教育課程,都能幫助你建立起屬於人類才有的洞見。和機器相比,這仍算是一種短期優勢。此外,在Andrew McAfee和Erik Brynjolfsson的「Race Against the Machine」書中也提到,我們應該和機器合作,而不是嘗試要去對抗它們。不想成為俎上之肉的工作者,應該要在教育上投資,才能讓自己站在監督自動化系統的位置。
為什麼會看到廣告
SharpWriter(周乃宏)
SharpWriter(周乃宏)
請賜我寧靜,去接受我不能改變的一切; 也賜我勇氣,去改變我能改變的一切; 並賜我智慧,去分辨兩者的不同。 如果沒有上帝,我也願意用閱讀和寫作持續耕耘智慧。
留言0
查看全部
發表第一個留言支持創作者!