人工智慧法律的現在與未來

2021/04/04閱讀時間約 12 分鐘

前言

本文主要在講述人工智慧風險管控的趨勢與研析,是與「資訊科技發展」相關的法律議題,也涉及每個國家的競爭力,尤其與人工智慧的競爭政策與法制,最後均會直指倫理規範的重要性。所以會從此等法制發展最先進的歐盟去論述,然後再回頭看我國的人工智慧法制發展現況。
什麼是 AI?
人工智慧(Artificial Intelligence,以下簡稱AI)是具有人工智慧的技術或裝置,即透過程式設計,使電腦有類似於人類的知識及反應,做到理解人們的表達、學習、推論及解決問題。
而在技術上,設計者藉由輸入或餵養大量的訓練資料(Training Data)到能從事深度學習(Deep Learning)的神經網路(Neural Network),即仿照人類的神經元運作的函數運算,使系統「學習」資料中的規律及模式,進一步建立判斷的模型或規則,然後做出預測或建議。
AI的技術分級
而AI的技術分級,參照1980年美國哲學家-約翰.瑟爾(John Searle),可分為:
1.弱AI(即:Narrow AI、Weak AI或Applied AI,僅有工具性或僅屬應用型):
目前我們看到的AI算法及應用都屬於弱AI,例如:iPhone的Siri或打敗棋王的AlphaGo。美國的AI律師「Ross」,就是屬於「弱AI」程式,是利用IBM Watson電腦的分析系統,經長時間對大量案例進行統計與分析,學習如何以專業律師的身份為客戶提供服務。
2.強AI(即:Strong AI或Artificial General Intelligence藉由人類之晶片設計與電腦軟體所建構之深度學習,在人類期待的任務範圍與功能內,令AI實施創作行為):
具備與人類同等智慧,能表現正常人類的所有智能行為,而可以勝任人類所有工作的AI。
3.超AI(超越人類原本設置AI的期待範圍,其系統可完成無限範圍的目標,並具有在不明或不確定情況下獨立設定目標的能力):
此概念最為模糊, 因為沒人知道若超越人類最高水平的智慧到底會表現為何種能力。
AI法律的現在與未來—歐盟
歐盟針對AI技術帶來的劇變與影響,近年陸續提出相關準則或策略報告,以達成未來法規調適的目標。歐盟在2019年委由專家委員會提出《可信賴的人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)》,說明4項倫理原則及7項要求(風險控制、透明、個資及隱私保護、社會責任、增進人類福祉、問責制、無偏見歧視),並表示
以行動支持創作者!付費即可解鎖
本篇內容共 4804 字、0 則留言,僅發佈於現代人必懂的資訊法律你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
在網路科技發達的現代,任何在網路上搜尋資訊、使用網路社群平台、通訊軟體或網路上交易等,無不與資訊法有關,是當代網路世代的人們必須要了解、認識的領域!
留言0
查看全部
發表第一個留言支持創作者!