前言
本文主要在講述人工智慧風險管控的趨勢與研析,是與「資訊科技發展」相關的法律議題,也涉及每個國家的競爭力,尤其與人工智慧的競爭政策與法制,最後均會直指倫理規範的重要性。所以會從此等法制發展最先進的歐盟去論述,然後再回頭看我國的人工智慧法制發展現況。
什麼是 AI?
人工智慧(Artificial Intelligence,以下簡稱AI)是具有人工智慧的技術或裝置,即透過程式設計,使電腦有類似於人類的知識及反應,做到理解人們的表達、學習、推論及解決問題。
而在技術上,設計者藉由輸入或餵養大量的訓練資料(Training Data)到能從事深度學習(Deep Learning)的神經網路(Neural Network),即仿照人類的神經元運作的函數運算,使系統「學習」資料中的規律及模式,進一步建立判斷的模型或規則,然後做出預測或建議。
AI的技術分級
而AI的技術分級,參照1980年美國哲學家-約翰.瑟爾(John Searle),可分為:
1.弱AI(即:Narrow AI、Weak AI或Applied AI,僅有工具性或僅屬應用型):
目前我們看到的AI算法及應用都屬於弱AI,例如:iPhone的Siri或打敗棋王的AlphaGo。美國的AI律師「Ross」,就是屬於「弱AI」程式,是利用IBM Watson電腦的分析系統,經長時間對大量案例進行統計與分析,學習如何以專業律師的身份為客戶提供服務。
2.強AI(即:Strong AI或Artificial General Intelligence藉由人類之晶片設計與電腦軟體所建構之深度學習,在人類期待的任務範圍與功能內,令AI實施創作行為):
具備與人類同等智慧,能表現正常人類的所有智能行為,而可以勝任人類所有工作的AI。
3.超AI(超越人類原本設置AI的期待範圍,其系統可完成無限範圍的目標,並具有在不明或不確定情況下獨立設定目標的能力):
此概念最為模糊, 因為沒人知道若超越人類最高水平的智慧到底會表現為何種能力。
AI法律的現在與未來—歐盟
歐盟針對AI技術帶來的劇變與影響,近年陸續提出相關準則或策略報告,以達成未來法規調適的目標。歐盟在2019年委由專家委員會提出《可信賴的人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)》,說明4項倫理原則及7項要求(風險控制、透明、個資及隱私保護、社會責任、增進人類福祉、問責制、無偏見歧視),並表示