每周一篇文章的讀書會心得報告摘要與筆記,主要段落分成:
1. 為什麼選這篇文章分享?
2. 作者為什麼要寫這篇文章?
3. 內容重點
4. 心得
為什麼分享這篇文章?
- AI為近年來熱門話題
- 對AI該注意的問題點及解決方式有粗淺概念
作者想表達甚麼?
重點內容
人工智慧技術
- 美國加州大學洛杉磯分校(UCLA)電腦科學系助理教授張凱崴
- 研究如何讓 AI 更符合人性
- 獲得 2021 年的史隆研究獎(Sloan Research Fellowships)。
- 目前人工智慧技術已經可以幫助人類完成很多事
- AI 並非萬能,要先認知它的局限
AI 局限1. 資料寬廣度不足時,就會複製人類偏見
- 第一步是輸入資料,第二步是分析,過程容易出現偏見。
例如電腦在理解「總統」這個字
- 會去看四周有什麼字詞,來學習總統這個詞
- 由於許多總統都是男性,電腦就會「覺得」總統是男性
- 如果讓 AI 學習,在它的認知裡,女性「不可能」當美國總統(因為沒有資料紀錄,出現系統性誤差)
- 電腦在學習的時候,是依賴「彙整數據資料」來判斷,並沒有真正思考
- 如果資料來源太狹隘、不夠多元,資料寬廣度不足,電腦判斷就會出現偏差
- AI需要知道代名詞指的是「哪個名詞」,才能運算下去
- AI 無法清楚分辨「不曾出現」與「不能出現」(無法出現)之間的區別
- 只是從資料統計出要學的東西
- 無法像人類一樣進行邏輯思辨
- 想讓AI取代部分工作,首先需要留意資料的廣度、多元性,才能減少電腦犯錯的機會。
AI 局限2. 即便條件相同,也無法每次都做出正確判斷
看似可以做很多有趣的事,但「可以飛」跟「飛得很好」,有一大段落差。
- 所謂的缺乏穩定性,指的是 AI 沒辦法在相同條件下,每次都做出正確決策
- 紐西蘭的簽證系統
- 人們上傳簽證照片,AI 掃描後,確認是不是本人
- 系統沒有估算到某些亞洲人眼睛比較小,一名亞裔男子被判定「沒有張開眼睛」,因此照片無效。
- 系統沒有考慮到不同人種的差異,很死板地認為你眼睛沒張開
- 例如把電影(movie)換成影片(film),或改寫句子等
- 意思並未改變,系統卻把原本判斷為正面的影評標註成負面。
- AI系統還未真正了解語言的含義。
- 設定的資料範圍要更完整,考慮這些因素,就能減少偏見、落差,進而加強穩定性。
餵指令給 AI 要多元化,嘗試「換句話說」、刻意混淆
- 把來源群組不同的資料分門別類測試
- 在測試階段讓群體多元化
- 確保不同特色的使用者,用起來都沒有問題
如果設計者是台北人,設計系統的思維容易以台北生活為主
很可能因為當地習慣不同,導致花蓮使用者操作不順。
- 用不同的「語意」,去測試 AI 有沒有徹底學會一個概念
- 一套評鑑的 AI 系統,只要蒐集、整理使用者意見,就能判斷顧客的評比是高分或低分。
- 可以利用「抽換詞面」的方法確認系統的穩定性
- 訓練模型時,可以將詞彙隨機抽換成同義詞,增加 AI 的詞彙量。
- 同樣一句話,換成不同說法
- 將「因為發生 A 事件,所以導致 B 事件」,改寫成「B 事件發生了,是因為 A 事件的緣故」
- 如果要鞏固 AI 的穩定性,可以使用自動改寫的方式,增加資料的多樣性。
個人心得
- 有點像是非常複雜的數學方程式,常人難以理解
- 透過離開演算法的範圍造成BUG,導致AI模型失效(拿圍棋的AI玩西洋棋等)
- 當有人希望AI技術越來越好,則有一派希望阻擋AI的進步
人臉辨識系統:防辨識眼鏡
在圖片、影像放置人類看不到的雜訊,防止AI辨別
是否未來也會出現類似人類社會的分工模式:像是管理職、整合型、運籌等