AI Act(人工智慧法案)是歐洲聯盟(EU)於2024年8月1日生效的AI監管法規,是全球首個針對人工智慧系統的全面法律框架,旨在確保AI技術的安全性、透明度與合法合規使用。
AI Act 主要內容與特色:
• 風險分級管理:根據AI系統對健康、安全和基本權利的潛在風險,分類為四類——不可接受風險(禁止)、高風險(需合規性評估)、有限風險(需透明度義務)、最低風險(不受規範)。• 禁止不當AI應用:如使用於無差別社會評分、操控人類行為、基於敏感特徵的生物識別等。
• 高風險AI義務:包括安全措施、透明度、數據品質、監督與審核流程。
• 一般用途AI:對於通用型AI提出特定透明度要求和開源模型的豁免條款。
• 監管機構:設立歐洲人工智慧委員會(European Artificial Intelligence Board)負責協調監管工作。
• 跨境適用:規定適用於所有在歐盟提供AI系統服務的企業,無論企業所在地。
AI Act 背景與意義:
• 為AI創新和風險管理建立公正且透明的規範環境。
• 平衡促進技術發展與保障公民基本權利。
• 預期成為全球AI監管的範本,引領其他國家制定類似規範。
簡單比喻:
AI Act像一套「AI使用守則」,用風險等級管理AI技術的開發與使用,保障社會安全與倫理。
總結:
AI Act是歐盟制定的首個全面AI監管法規,通過分級管理和嚴格合規要求,保障AI系統安全可信,推動負責任的AI創新與應用,是全球AI治理的重要里程碑。AI Act(人工智慧法案)是歐洲聯盟(EU)於2024年8月1日生效的全球首部針對人工智慧系統的綜合法規,旨在建立AI發展的監管框架,確保AI技術安全、透明且尊重基本權利。
本法根據AI系統帶來的風險分為四大類:不可接受風險(禁止使用)、高風險(需遵守嚴格規範)、有限風險(需透明公開),以及最低風險(無需嚴格監管)。法案明確禁止會物理或心理操控人類行為的AI系統,規範高風險AI系統的安全、透明度及合規審核,並設立歐洲人工智慧委員會推動協調監管。
這部法案預計成為全球AI監管的標杆,促進負責任的AI創新與採用,保障用戶安全與權益。
簡而言之,AI Act是歐盟為AI技術開發與應用量身打造的法律守則,通過風險分類和嚴格合規,打造可信賴的AI生態系統。