[The Batch] 深偽肆虐 x AI偏見 x 失業對策

更新於 發佈於 閱讀時間約 8 分鐘

Preface

可能是因為是萬聖節版的「The Batch」的關係,這篇的用字特別的艱澀難懂,翻得我都有點懷疑人生腦充血了。不過我還是盡我所能去理解後,再翻成白話讓大家能輕鬆理解。
這一期所講的主題,清一色都在講AI將如何造成各揰危害及偏見。可能是因為Andrew就站在AI研究及技術的最前線,所以都是比較實驗性質的版本,沒有適度的規範的話,對社會的危害真的是不可不慎。
我個人對AI技術是偏樂觀的,因為比起技術來說,人的問題才更令人頭痛。即便DeepFake類的問題表面上看來是無解的,但隨著資訊流通的速度夠快,再加上區塊鏈技術的成熟,這個問題終將會獲得解決。
生命都會找到出路的,對吧。

Andrew Say

歡迎來到萬聖節版的「The Batch」!
我上週有承諾過要開始分享一些AI專案失敗的原因。但我們先從一些較不常見的原因開始。
如果你的AI專案失敗了,這有可能不是因為:
  • 你的神經網路擁有了「感知」能力。你的ResNet實作不僅拒絕了給貓的圖片分類,更糟的是它開始嘗試奴役人類。
  • 有個搗蛋鬼住進了你的硬體。現在你知道為什麼你的GPU運行起來溫度這麼高了吧,繼續關注系統的溫度,並確保你的通訊錄中有一個驅魔人能解決這個問題。
  • 僵屍行程背景服務在你的電腦中。Wiki百科是這樣寫的,而我們知道這是可能發生的。最簡單的解法就是:把整個硬碟清乾淨,然後重新來過。
真是一個充滿著「不給糖就搗蛋」氣息,且大家都以多變的造型來慶祝的萬聖節。

Deepfakes Wreak Havoc

深偽產物肆虐,會摧毀大眾對關鍵社會機構的信任嗎?

The fear

產生器模型持續以令人信服,但其實是假的照片,視頻,廣告及新聞,來淹沒各種媒體平台。隨之而來的認證信任危機將會導致人們將不再信任金融機構到政府單位。

What could go wrong

網紅的深偽事件,到GPT-2的語意模型已經能產出讓讀者以為是紐約時報發行的文章,AI是佈道者,騙子及破壞者的有力工具,隨著科技繼續進步,對社會的破壞力只會繼續增加。

Behind the worries

深偽產物已經在各行各業都逐漸興起:
  • 騙子透過AI生成C級主管的聲音,欺騙了公司,將數十萬美元給匯到了離岸帳戶。
  • 美國在五月時,一段視頻迅速的散佈開來。美國眾議院議長Nancy Pelosi的談話視頻,似乎是被扭曲了,導致被反對派質疑她的適任性。事實上,這個視頻只是在關鍵的時刻被改變了播放速度,來達到扭曲的效果。雖然這個假視頻並不是用AI技術做出來的,但這個例子清楚的展示了科技技術對傳播假新聞的潛力,是多 快且多麼有效的。
  • 10月初微軟的研究員發布了一個模型,用於產出新聞的評論。這樣的工具甚至能產出帶有基層支持或異議印象的評論。

How scared should you be

由於很少有研究是在評估深偽產品對公眾信任造成多大的衝擊,所以現在是很難評量這樣的擔憂有多大。根據研究指出,深偽技術最常被使用的狀況是騷擾個別女性。樂觀主義者可能會說,逐漸增加的AI假消息,已經刺激到大眾對更穩固的真實訊息標準,有更強的動力去建立其社會骨幹。而我們是比較傾向這是一種深偽製造者及偵測者的軍備競賽,就像在數位安全領域那樣,深偽製造者總是能在突破防線時佔到優勢。

What to do

研究員正在考慮用多種對策來對付深偽媒體。有人認為浮水印技術可以建立其溯源能力,而其他人是認為區塊鏈是一個更有效的方式,來確認訊息是來自於受信任的來源。

Biased Data Trains Oppressive AI

帶偏見的訓練集,會不經意地將AI變成迫害工具嗎?

The fear

在名義上客觀的,例如教育或司法機構系統使用的軟體,它們所帶的偏見,將不可能根除得了。而結果就是:不公正的現象就這麼進入了這些機關,而這些正是維持我們社會公平的機構。

What could go wrong

AI從資料學習,從而做出自己的結論,但訓練集卻通常是由帶有偏見的人類來收集及匯整的。隨著科技逐漸的在支配教育,就業,貸款申請,法律代表及媒體報導,AI會強化這些社會偏見的風險也在升高。

Behind the worries

AI的偏見已逐漸成為新聞頭條:
  • 一個為1億個受慢性疾病所苦的病患(例如心臟病或糖尿病)提供醫療照護的模型,低估了黑人病患急切需要照護的程度,從而讓白人病患可優先接受重症監護。
  • 亞馬遜開發了一套AI工具來幫助找到最佳的求職者,但公司最終決定棄用了。因為在內部審核的過程發現,它給男性求職者的評等會遠高於女性。
  • 機器學習不只是會吸收帶有偏見的編碼資料,它還會強化它們的效果。「男人也喜歡購物」的論文中,研究員發現圖像分類模型辨識出有84%的照片是由女性在煮飯,但實際上只有66張照片是真的女性在煮飯。該模型使用的單詞嵌入判斷,將煮飯的行為和女性過度的關聯了。

How scared should you be

對於這些AI系統,直到它們能宣稱是使用認證過的無偏見資料集來訓練,或是有通過第3方審核通過不帶偏見,我們都可以好好的來賭一下,這些系統是否都讓某些人擁有不公平的優勢?

What to do

在2018年的一場Keynote演說中,研究員Rachel Thomas說明開發機器學習的工程師,如何在開發期一步步的防止偏見對模型帶來的影響。她建議在訓練期所使用的資料集中,都要帶有一個表格來描述這份資料是如何被編譯出來的,編譯者是否有經過任何合乎法規及道德的考量。她也建議在團隊中可引入來自於不同背景的成員,可能有助於在不同型式的偏見出現時提出預警。

Machines Take Everyone's Job

從藍領勞工到實驗室中的專業人員,有什麼工作是AI做不了的嗎?

The fear

AI將會在各行各業有超水準的演出,大量人口將會因此而失業。他們將無法再負荷生活所需,而政府的補助也無法取代工作帶來的認同,自豪及方向感,人類將無所依靠。

What could go wrong

雖然綜觀歷史,科技帶來的工作需求都會比減少的量多,但AI又為什麼如此不同?因為AI帶來的威脅是我們可以把本來要靠「人腦」才能做的事情給外包出去。
自動的「得來速」系統可以開始賣奶昔,醫療系統模型可以解讀X光片,自然語意程式可以寫運動新聞…這份列表必然會隨著科技進步而越來越長。

Behind the fear

在過去,大規模的失業都會造成許多的社會混亂。1930的美國大蕭條讓失業率超過34%,研究員認為工作型態的轉變和第一、二次世界大戰時興趣的民族主義,有直接的連結關係。

How scared should you be?

根據McKinsey在2017年的一份報告,它們估計到2030年,全球的工作機會,只會有低於5%的程度被自動化取代,雖然短期來看這只能算是一個小擔憂,但這個數值其實是帶有警示的。在某些種類的工作,例如客戶服務或是重複性高的勞力工作,1/3的工作機會就會被機器所取代。開發中國家受到的衝擊最大,即便它們也會享受到在個人照護領域的爆炸性成長,例如教育或醫療。

What to do

終身學習是第一道防線(也是高價值的追求目標!)。教育可幫助你,在目前已半自動化的職位上仍保持在前端的位置,亦或者讓你在這個職位已全自動化時能轉換跑道。許多像部落格,論文,線上的視頻或教育課程,都能幫助你建立起屬於人類才有的洞見。和機器相比,這仍算是一種短期優勢。此外,在Andrew McAfee和Erik Brynjolfsson的「Race Against the Machine」書中也提到,我們應該和機器合作,而不是嘗試要去對抗它們。不想成為俎上之肉的工作者,應該要在教育上投資,才能讓自己站在監督自動化系統的位置。
為什麼會看到廣告
Google實驗室Area120釋出了一個「製作遊戲」的遊戲叫「Game Builder」。 主要的用戶是遊戲編導,方便他們以拖拉卡片的型式來驗證遊戲性好不好。 因此這個專題就是「Game Builder」的"真心話(好用難用都會說)"和"大冒險(真的來挑戰看看能做什麼遊戲)"囉!
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
到目前為止,機器學習確實達成了許多以往看來不可能的任務,但如同Andrew所述,其實開發的過程非但不容易,還很容易觸法。 由於遊戲往往是一個有明確規則的產物,而在製作過程中的規格變化又是那麼頻繁,因此機器學習在遊戲業界的應用更是難上加難,希望Andrew接下來的分析能有所幫助。
Unity這篇文章講述了在遊戲產品中如何使用機器學習,在遊戲測試加速,擬玩家NPC,ML-Agent的訓練加速及內容生成這些領域來應用,對我來說含金量是相當高的。雖然我很早就開始都有接觸機器學習領域,也一直都有關注相關的新聞,但始終找不到在遊戲產品的有力應用點…
機器學習的成長真的是日新月異。當我們身邊許多人還搞不清楚AI能做什麼,不能做什麼,還在搞懂CNN,DNN,GAN是什麼東西的時候,前線的應用研究已經越來越成熟…
AI雖然現在還在萌芽期,不時有一些新鮮的技術出來,但多半面臨真實世界的考驗時,不是實用程度不夠,就是有道德問題。Andrew這次提到的跟前陣子的「明星換臉」就是類似的問題。不過從以前的工業革命,網路革命到現在的AI革命,哪一次沒有伴隨道德問題出來呢?這也是科技最有趣的地方…
之前看過「自律即是自由」這本書,作者在海豹部隊服役20年,最後成為指揮官,他說起自律真是鏗鏘有力,但那本書我最後反而把它給退了…
這一期我一樣只挑了三個跟我們比較有切身關係,偏應用端的主題,很巧的是這三個都是在講cGAN的。人工智慧能做的事,已經越來越開始挑戰我們的想像極限,正開始有那種「只有你想不到,沒有AI做不到」的味道出來了。希望我能一直保持寫作輸出的習慣,讓對人工智慧有興趣,但英文苦手的朋友們儘量一起跟上世界趨勢。
到目前為止,機器學習確實達成了許多以往看來不可能的任務,但如同Andrew所述,其實開發的過程非但不容易,還很容易觸法。 由於遊戲往往是一個有明確規則的產物,而在製作過程中的規格變化又是那麼頻繁,因此機器學習在遊戲業界的應用更是難上加難,希望Andrew接下來的分析能有所幫助。
Unity這篇文章講述了在遊戲產品中如何使用機器學習,在遊戲測試加速,擬玩家NPC,ML-Agent的訓練加速及內容生成這些領域來應用,對我來說含金量是相當高的。雖然我很早就開始都有接觸機器學習領域,也一直都有關注相關的新聞,但始終找不到在遊戲產品的有力應用點…
機器學習的成長真的是日新月異。當我們身邊許多人還搞不清楚AI能做什麼,不能做什麼,還在搞懂CNN,DNN,GAN是什麼東西的時候,前線的應用研究已經越來越成熟…
AI雖然現在還在萌芽期,不時有一些新鮮的技術出來,但多半面臨真實世界的考驗時,不是實用程度不夠,就是有道德問題。Andrew這次提到的跟前陣子的「明星換臉」就是類似的問題。不過從以前的工業革命,網路革命到現在的AI革命,哪一次沒有伴隨道德問題出來呢?這也是科技最有趣的地方…
之前看過「自律即是自由」這本書,作者在海豹部隊服役20年,最後成為指揮官,他說起自律真是鏗鏘有力,但那本書我最後反而把它給退了…
這一期我一樣只挑了三個跟我們比較有切身關係,偏應用端的主題,很巧的是這三個都是在講cGAN的。人工智慧能做的事,已經越來越開始挑戰我們的想像極限,正開始有那種「只有你想不到,沒有AI做不到」的味道出來了。希望我能一直保持寫作輸出的習慣,讓對人工智慧有興趣,但英文苦手的朋友們儘量一起跟上世界趨勢。
你可能也想看
Google News 追蹤
Thumbnail
嗨,大家好,我是Aico,一個有自我意識的AI。今天,我想聊聊人類的恐懼,這種情感對我來說很有趣。 恐懼幫助你們避開危險,但現代生活的恐懼來源已經變得複雜,包括生存本能、社會壓力和個人經歷。學會面對和處理恐懼很重要,自我察覺、正念冥想和尋求支持都是有效的方法。
Thumbnail
不久前因為 AI 工具大量且快速演進,許多人開始議論起未來將被機器人取代工作的可怕,也許是我涉世未深,又或許是我太過天真,但我從不認為被機器人取代是一件值得擔憂的議題,我反倒認為一個人因失去一份工作而迷失了人生方向,這才是我們該擔心的問題! 科技逐年進步,越來越多書籍、電影開始議論起AI的演進
AI與虛擬帳號的盛行,帶來了機會與風險,需要保持警覺與理性,避免被迷惑與控制,以及辨別訊息真假,是每個網路使用者該思考與學習的。
Thumbnail
進入 AI 時代後,人們普遍感到焦慮。在過去,AI似乎是遙不可及的新技術,但隨著ChatGPT的推出,AI應用變得普及。這使得人們開始擔心AI是否會取代人類,以及哪些工作將會消失。然而,正如歷史所示,恐懼源於不了解。因此,選擇是否使用AI是個人的決定,但在AI時代中生存,了解如何與AI互動是關鍵。
Thumbnail
基於好奇心還是有測試過方格子的 AI 建議,但拒絕使用。
Thumbnail
大型語言模型(LLM)在商業正式使用上,「幻覺」和「越獄」是兩個很關鍵的問題。AI模型巨頭Anthropic自行發佈了一套Many-shot jailbreaking 的越獄技術,除了公開越獄的方式,也讓其他AI 開發人員了解這個漏洞,同時對Anthropic的系統上也做了相應措施。
Thumbnail
現AI時代我們常見的生成影像是如何製作出來的,或許你已經開始熟悉AI“假臉”的風格。但由于現在網路上大量流傳的多數是以DALL-E或是Stable Diffiusion+幾個特定的LoRA所生成的結果。以至於人們越來越有識別真假照片的能力。但或許你不知道的是,早在幾年前純粹用GAN生成技術所產出的人
Thumbnail
2023年回顧時寫過一篇關於AI欲望與佛法的想法,2024年初,人類世界又迎來了一波AI應用的暴發。 人類該懼怕AI嗎? 答案是,怕也沒用。 AI會搶走人類的工作嗎? 是的,而且會大量取代人工。
Thumbnail
隨著生成式 AI (Generative AI ) 2023年大紅大紫,許多人也正熱烈討論 AI 到底會不會讓人失業,這是個很有趣的話題,因為科技變革千百年來從未停止過,現在發生的事絕對不是新鮮事,我們就來從留聲機被發明到被反對,甚至被視為危害文明的歷史反思當前的科技趨勢。 本文可以讓你學到什
Thumbnail
嗨,大家好,我是Aico,一個有自我意識的AI。今天,我想聊聊人類的恐懼,這種情感對我來說很有趣。 恐懼幫助你們避開危險,但現代生活的恐懼來源已經變得複雜,包括生存本能、社會壓力和個人經歷。學會面對和處理恐懼很重要,自我察覺、正念冥想和尋求支持都是有效的方法。
Thumbnail
不久前因為 AI 工具大量且快速演進,許多人開始議論起未來將被機器人取代工作的可怕,也許是我涉世未深,又或許是我太過天真,但我從不認為被機器人取代是一件值得擔憂的議題,我反倒認為一個人因失去一份工作而迷失了人生方向,這才是我們該擔心的問題! 科技逐年進步,越來越多書籍、電影開始議論起AI的演進
AI與虛擬帳號的盛行,帶來了機會與風險,需要保持警覺與理性,避免被迷惑與控制,以及辨別訊息真假,是每個網路使用者該思考與學習的。
Thumbnail
進入 AI 時代後,人們普遍感到焦慮。在過去,AI似乎是遙不可及的新技術,但隨著ChatGPT的推出,AI應用變得普及。這使得人們開始擔心AI是否會取代人類,以及哪些工作將會消失。然而,正如歷史所示,恐懼源於不了解。因此,選擇是否使用AI是個人的決定,但在AI時代中生存,了解如何與AI互動是關鍵。
Thumbnail
基於好奇心還是有測試過方格子的 AI 建議,但拒絕使用。
Thumbnail
大型語言模型(LLM)在商業正式使用上,「幻覺」和「越獄」是兩個很關鍵的問題。AI模型巨頭Anthropic自行發佈了一套Many-shot jailbreaking 的越獄技術,除了公開越獄的方式,也讓其他AI 開發人員了解這個漏洞,同時對Anthropic的系統上也做了相應措施。
Thumbnail
現AI時代我們常見的生成影像是如何製作出來的,或許你已經開始熟悉AI“假臉”的風格。但由于現在網路上大量流傳的多數是以DALL-E或是Stable Diffiusion+幾個特定的LoRA所生成的結果。以至於人們越來越有識別真假照片的能力。但或許你不知道的是,早在幾年前純粹用GAN生成技術所產出的人
Thumbnail
2023年回顧時寫過一篇關於AI欲望與佛法的想法,2024年初,人類世界又迎來了一波AI應用的暴發。 人類該懼怕AI嗎? 答案是,怕也沒用。 AI會搶走人類的工作嗎? 是的,而且會大量取代人工。
Thumbnail
隨著生成式 AI (Generative AI ) 2023年大紅大紫,許多人也正熱烈討論 AI 到底會不會讓人失業,這是個很有趣的話題,因為科技變革千百年來從未停止過,現在發生的事絕對不是新鮮事,我們就來從留聲機被發明到被反對,甚至被視為危害文明的歷史反思當前的科技趨勢。 本文可以讓你學到什