NIST AI Risk Management Framework(NIST AI RMF)是由美國國家標準暨技術研究院(NIST)在2023年首次發布的一套自願性指導框架,旨在幫助組織系統性管理人工智慧(AI)系統在其整個生命周期中的風險,促進可信任且負責任的AI技術開發與應用。2024年7月,NIST進一步發布針對生成式AI的專門風險管理概況,擴展對新型AI技術的支持。
NIST AI RMF的核心目的
• 幫助組織識別、評估、優先排序並管理與AI技術相關的風險。• 協助促進人工智慧系統的透明度、公平性、魯棒性、安全性及問責。
• 促進監管合規與道德治理,提升企業和社會對AI的信任。
主要組成部分 — 四大功能:
1. Map(地圖)
• 確定AI系統的上下文、範圍及潛在影響,理解風險來源。
2. Measure(衡量)
• 透過量化與定性指標評估AI系統的風險水平,便於做出科學決策。
3. Manage(管理)
• 實施風險控制和緩解措施,建立持續監控與改進機制。
4. Govern(治理)
• 建立政策和程序,分配責任,促進風險管理的制度化和持續性。
2024年生成式AI風險管理專案重點:
• 聚焦生成式AI特有的倫理、安全、信任及責任問題。
• 提供專門工具和方法支持生成式AI的風險識別與調控。
• 強調多利益相關方的合作與監督。
NIST AI RMF的應用與優勢:
• 適用多行業、多場景的AI系統風險管理。
• 引導組織制定合規、負責且前瞻性的AI策略。
• 與全球AI監管政策互補,協助跨國合規。
• 提升AI治理透明度和社會接受度。
簡單比喻:
NIST AI RMF就像是AI系統的健康檢查和安全手冊,幫助組織了解風險、監控狀態並確保系統安全運行。
總結:
NIST AI Risk Management Framework是一套結構化、靈活的指導框架,幫助組織全面識別和管理AI風險,並促進可信賴和負責任的AI技術發展,2024年進一步針對生成式AI強化對策支持。