
關於使用AI應負的責任,是AI-900必考題,最常見的考法是:給出具體情境,詢問應該注意哪種原則。因此,下文特別整理六大原則的關鍵字,以及應用情境。

AI責任 心智圖(本文自製)
微軟建議的四階段流程:
- 識別潛在危害
- 衡量危害出現的情況
- 在多層次進行危害緩解:在不同層級採取行動以降低其出現頻率與影響,同時向使用者透明溝通風險。
- 負責任地操作方案:訂立清楚的部署與營運準備計畫,並遵循執行。
微軟負責任AI的六大核心原則
AI 模型多半是機率性的、基於訓練資料而非確定邏輯來做出判斷。人們容易把 AI 當作「有智慧的存在」,這樣的擬人化特性雖然提升了親和力,卻也使得使用者可能過度信任其輸出。因此,工程師在開發 AI 系統時,必須特別關注風險管理、公平性與安全性。公平性 Fairness:AI 應該一視同仁地對待所有人。
- 關鍵字:無歧視、平等對待、避免偏見
- 不應因性別、族裔等因素產生偏見。從訓練資料開始檢視,在模型訓練、測試階段持續檢討對不同群體的公平性。
- 案例:
銀行的貸款模型不可因性別或族群差異而拒絕特定申請人。
招募系統不能因候選人的名字或學校背景而自動排除。
醫療診斷模型必須對不同族群提供相同的準確度。
可靠與安全 Reliability and Safety:AI 系統應穩定且安全運作。
- 關鍵字:穩定運作、安全、降低風險
- 例如,自駕系統若出問題可能危害人命。AI系統應嚴格測試,並設定信心閾值(confidence threshold)以確保輸出可用性。
- 這裡的安全是指人類的安全,與下一點的資訊安全需注意區分(中文翻譯都一樣)
- 案例:
自駕車的影像辨識系統需在不同天氣下保持穩定。
醫療 AI 模型在推薦處方前需經過大量臨床驗證。
工業 AI 應用需具備容錯機制,避免錯誤導致工安事故。
隱私與安全 Privacy and Security:應保護個資並確保資料安全。
- 關鍵字:資料保護、使用者同意、資訊安全
- 這裡的安全是指資訊安全,與上一點的人身安全需注意區分(中文翻譯都一樣)
- 案例:
人臉辨識系統必須告知用戶影像如何儲存與使用。
聊天機器人不得記錄或外洩信用卡資訊。
AI 模型訓練資料若含有個資,需採用匿名化或加密技術。
包容性 Inclusiveness:AI 應使每個人都受益,避免排除特定族群。
- 關鍵字:普及化、人人可用、多元參與
- 案例:
智慧助理需支援多種語言與方言。
AI 語音系統需適用於不同口音與說話障礙者。
設計過程需邀請不同性別、文化背景與身心障礙人士參與測試。
透明性 Transparency:使用者應清楚 AI 系統的用途、運作方式與限制。
- 關鍵字:可解釋、資訊公開、使用者知情
- 告知模型準確度受到哪些因素影響。若使用個資(如人臉辨識),應該揭示其使用方式、保存期限、誰可存取個資。
- 案例:
醫療 AI 需說明其診斷依據,例如哪些症狀或指標最重要。
信用評分系統需告訴申請人哪些因素影響了核准與否。
人臉辨識系統需揭露資料保存期限與誰能存取。
問責性 Accountability:最終仍應有人類為 AI 系統負責。
- 關鍵字:人類責任、治理架構、合規性
- 應在企業內部建立清晰的治理與法律責任框架,確保開發流程符合法規與倫理原則,重點是有人類負責。
- 案例:
金融業部署 AI 模型時,必須有負責人審查與簽核。
企業需建立 AI 風險治理小組,確保符合法規。
當 AI 決策導致錯誤結果時,需由開發與管理者承擔責任,而非把責任推給AI模型。
AI-900系列文章目錄:
《AI-900》證照考試準備心得與筆記分享 - 系列文章