Microsoft Azure AI 900 證照,把準備資料整理分享給大家。
AI 應用程式開發人員可能面臨的一些挑戰和風險,以下是條列與舉例:
- 偏差可能會影響結果:貸款核准模型因為其訓練資料有偏差而有性別上的差別待遇
- 錯誤可能造成傷害:自動駕駛汽車遇到系統故障而導致車禍
- 資料可能遭到公開:醫療診斷會使用敏感的患者資料進行訓練,而這些資料並未安全地儲存
- 解決方案可能不適用於所有人:家庭自動助理不會針對視覺受損的使用者提供音訊輸出
- 使用者必須信任複雜的系統:基於 AI 的金融服務工具提供投資建議,它們基於什麼?
- 誰應該對 AI 驅動的決策負責任:無辜的人因為來自臉部辨識的證據而被判有罪,這是誰的責任?
負責任 AI 有幾種面向,搭配舉例如下:
- 公平性:AI 系統應該公平對待所有人,例如,假設您建立機器學習模型來支援銀行的貸款核准申請,此模型應該預測是否應核准或拒絕貸款,而不會有偏見,這種偏見可能是基於性別、種族或其他因素,導致特定申請人群體的不公平優勢或不利因素。另一個例子是 AI 功能會淘汰可用來嘗試推斷情緒狀態和身分識別屬性的臉部辨識功能, 如果誤用,這些功能可能會導致人們遭受刻板印象、歧視或不公平地拒絕服務
- 可靠性和安全性:AI 系統應該以安全可靠的方式執行,例如,假設有一個以 AI 為基礎的軟體系統用於自動駕駛汽車,或有一個機器學習模型用於診斷病患症狀並建議處方,這類系統若是不可靠,便可能會對人類生命造成極大風險
- 隱私權與安全性:AI 系統所依據的機器學習模型依賴大量資料,其中可能包含必須確保隱私的個人詳細資料,即使模型經過定型,而且系統仍在生產環境中,也必須考慮隱私權和安全性,當系統使用新資料進行預測或採取動作時,根據資料所做的資料和決策都可能受限於隱私權或安全性考慮
- 包容性:AI 系統應該賦予所有人權力,且讓人們參與,AI 應該造福社會的每一份子,無論其身體能力、性別、性傾向、種族或其他因素
- 透明:AI 系統應該是可以了解的,使用者應該充分了解系統的用途、其運作方式,以及可能預期的限制
- 當責:使用者應該對 AI 系統負責,以 AI 為基礎的解決方案設計人員和開發人員應該在治理和組織準則的架構中工作,以確保解決方案符合清楚定義的道德和法律標準
因應之道:
- Azure Machine Learning 能夠解譯模型,並針對資料每項特徵如何影響模型預測的程度進行量化,這項功能可協助資料科學家和開發人員識別及緩和模型中的偏見
- 以 AI 為基礎的軟體應用程式開發必須遵守嚴格測試和部署管理程序,以確保其如預期般運作再予以發行
資料來源: