每周一篇文章的讀書會心得報告摘要與筆記,主要段落分成: 1. 為什麼選這篇文章分享? 2. 作者為什麼要寫這篇文章? 3. 內容重點 4. 心得 原文網址:AI 並非萬能!越洋採訪史隆獎得主、UCLA 台籍教授:2 缺陷要靠人類修補 Photo Credits 為什麼分享這篇文章? AI為近年來熱門話題 對AI該注意的問題點及解決方式有粗淺概念 作者想表達甚麼? 說明AI的侷限性 該如何解決AI侷限性的的問題 重點內容 人工智慧技術 美國加州大學洛杉磯分校(UCLA)電腦科學系助理教授張凱崴 研究如何讓 AI 更符合人性 獲得 2021 年的史隆研究獎(Sloan Research Fellowships)。 目前人工智慧技術已經可以幫助人類完成很多事 AI 並非萬能,要先認知它的局限 AI 局限1. 資料寬廣度不足時,就會複製人類偏見 AI 的運作方式 第一步是輸入資料,第二步是分析,過程容易出現偏見。 例如電腦在理解「總統」這個字 會去看四周有什麼字詞,來學習總統這個詞 由於許多總統都是男性,電腦就會「覺得」總統是男性 如果讓 AI 學習,在它的認知裡,女性「不可能」當美國總統(因為沒有資料紀錄,出現系統性誤差) 電腦在學習的時候,是依賴「彙整數據資料」來判斷,並沒有真正思考 如果資料來源太狹隘、不夠多元,資料寬廣度不足,電腦判斷就會出現偏差 AI需要知道代名詞指的是「哪個名詞」,才能運算下去 AI 無法清楚分辨「不曾出現」與「不能出現」(無法出現)之間的區別 只是從資料統計出要學的東西 無法像人類一樣進行邏輯思辨 想讓AI取代部分工作,首先需要留意資料的廣度、多元性,才能減少電腦犯錯的機會。 AI 局限2. 即便條件相同,也無法每次都做出正確判斷 現在的 AI 就像一台原型飛機,還缺乏穩定性。 看似可以做很多有趣的事,但「可以飛」跟「飛得很好」,有一大段落差。 所謂的缺乏穩定性,指的是 AI 沒辦法在相同條件下,每次都做出正確決策 紐西蘭的簽證系統 人們上傳簽證照片,AI 掃描後,確認是不是本人 系統沒有估算到某些亞洲人眼睛比較小,一名亞裔男子被判定「沒有張開眼睛」,因此照片無效。 系統沒有考慮到不同人種的差異,很死板地認為你眼睛沒張開 將影評中一些字換成同義詞 例如把電影(movie)換成影片(film),或改寫句子等 意思並未改變,系統卻把原本判斷為正面的影評標註成負面。 AI系統還未真正了解語言的含義。 設定的資料範圍要更完整,考慮這些因素,就能減少偏見、落差,進而加強穩定性。 餵指令給 AI 要多元化,嘗試「換句話說」、刻意混淆 設計 AI 模型時 把來源群組不同的資料分門別類測試 在測試階段讓群體多元化 確保不同特色的使用者,用起來都沒有問題 一套 A 系統擁有來自各地的使用者 如果設計者是台北人,設計系統的思維容易以台北生活為主 很可能因為當地習慣不同,導致花蓮使用者操作不順。 用不同的「語意」,去測試 AI 有沒有徹底學會一個概念 一套評鑑的 AI 系統,只要蒐集、整理使用者意見,就能判斷顧客的評比是高分或低分。 可以利用「抽換詞面」的方法確認系統的穩定性 訓練模型時,可以將詞彙隨機抽換成同義詞,增加 AI 的詞彙量。 改變句型、重寫句子,確認AI 不會搞混 同樣一句話,換成不同說法 將「因為發生 A 事件,所以導致 B 事件」,改寫成「B 事件發生了,是因為 A 事件的緣故」 如果要鞏固 AI 的穩定性,可以使用自動改寫的方式,增加資料的多樣性。 Photo Credits 個人心得 個人對於AI的認知,認為AI模型的演算法 有點像是非常複雜的數學方程式,常人難以理解 透過離開演算法的範圍造成BUG,導致AI模型失效(拿圍棋的AI玩西洋棋等) 當有人希望AI技術越來越好,則有一派希望阻擋AI的進步 人臉辨識系統:防辨識眼鏡 在圖片、影像放置人類看不到的雜訊,防止AI辨別 目前的AI技術類似人類,是屬於技術職居多 是否未來也會出現類似人類社會的分工模式:像是管理職、整合型、運籌等