2024年8月1日,《歐盟人工智慧法案》(Artificial Intelligence Act, AIA)正式生效,成為全球首部全面監管人工智慧的法律框架。這部法案旨在建立一個共同的監管和法律框架,以確保AI技術的安全性和可靠性,並促進其創新與應用。然而,作為法案主要推手之一的馬齊尼(Gabriele Mazzini)卻對AI監理的未來感到憂心,認為法案在面對快速發展的AI技術時,仍存在許多不足之處。
法案的誕生與馬齊尼的擔憂
馬齊尼在最近的專訪中提到,法案的制定過程經歷了許多波折,最終版本與他最初的設想存在不小的差距。他指出,法案在面對快速發展的AI技術時,有時顯得過於倉促且缺乏清晰性,這可能會影響企業的合規性及投資意願。馬齊尼的主要擔憂包括:- 灰色地帶與不確定性:法案中存在許多模糊之處,例如對於不同AI模型的風險評估標準不一,這可能使企業在遵循法律時面臨困難。
- 監管對象偏差:目前法案主要針對下游應用商,而忽略了擁有更大資源的模型供應商,這樣的監管架構可能無法有效控制AI技術的發展。
- 政治壓力影響立法:馬齊尼指出,由於政治壓力和議會日程的影響,法案的一些條款未能充分考慮到技術發展的實際情況,導致部分內容難以理解和適用。
法案的主要內容與影響
《歐盟人工智慧法案》根據AI系統的風險程度將其分類為四個等級:不可接受風險、高風險、有限風險和最小風險。高風險AI系統需進行詳細的風險管理和數據治理,並提供技術文件以證明其安全性。違反法案規定的企業可能面臨高達3,500萬歐元或上一財政年度全球年營業額7%的罰款。
法案的實施對不同行業產生了深遠影響:
- 醫療:高風險分類下的醫療AI需遵循嚴格的合規要求,以確保病人安全。
- 金融:金融機構使用AI進行信貸評估或交易決策時,必須滿足透明度和合格評定要求。
- 製造業:在自動化和機器人技術方面,企業需確保其系統不會對員工造成潛在危害。
企業與學界的反應
企業界和學界對於《歐盟人工智慧法案》的反應各有不同。許多大型科技公司如Google、Microsoft和OpenAI對於法案的生效表示支持,認為這能夠促進AI技術的安全發展。然而,一些中小企業則擔心新法規可能會對他們造成額外負擔。
學界對於《人工智慧法案》的評價多樣。一些法律專家認為,該法案在技術可行性和法律適用性上存在挑戰。AI研究人員也對法案表達了關注,擔心過於嚴格或不夠靈活的監管可能會抑制創新。
馬齊尼的建議與未來展望
馬齊尼對未來AI監管提出了具體建議,包括改進現有法案、平衡創新與監管以及加強對模型供應商的監管。他強調,完善的監管不應抑制創新,而是應該為創新提供一個安全的環境。
馬齊尼展望未來,認為隨著AI技術的全球化發展,各國可能會面臨制定統一AI監管框架的壓力。然而,由於各國在技術成熟度、法律文化和經濟模式上的差異,實現全球統一監管框架將面臨諸多挑戰。
結語
《歐盟人工智慧法案》的推出標誌著全球對於AI技術治理的一次重要嘗試,其成功與否將影響未來各國在此領域的立法走向及企業行為。儘管法案在實施過程中仍需面對公平性、技術變化及資源配置等挑戰,但其長期目標是建立一個安全且可信賴的AI生態系統,以促進歐盟在全球科技競爭中的地位。