更新於 2021/08/17閱讀時間約 12 分鐘

AIoT數位轉型的法律議題(6)智慧機器人應用法制議題

本文主要在講述人工智慧(Artificial Intelligence, AI)機器人風險管控的趨勢與研析,涉及每個國家的競爭力,尤其與AI機器人的政策與法制規範。

一、智慧機器人的簡介

目前世界上一般的機器人依其應用情形可分成「工業機器人」(用於工業生產製造)、「服務機器人」(用於協助人類活動或作為人類助手)、「國防機器人」(用於國防防衛與戰場)與「其他機器人」(用於探險或其他特殊情況)等四大類型。
有別於一般的機器人,僅單純用於取代人工,執行大量重複性或例行性任務的傳統型工業機器人,出現了智慧機器人(Intelligent Robots)的概念類型,它在國際間的定義是「得以程式進行自主動作且不執行重複工作的機器」。在AIoT數位轉型的浪潮下,智慧機器人的發展與運用,當然也導入AI,進而衍生「智慧工業機器人」、「智慧服務機器人」甚至「智慧國防機器人」等類型。
國際標準組織(ISO)對智慧工業機器人提出國際安全標準架構規範,各國或區域組織也是如此,例如台灣就有CNS14490的工業機器人安全標準。智慧服務機器人方面也差不多情況,甚至更細分家用型機器人、醫療照護機器人的安全與性能標準。

二、智慧機器人的規範

在歐盟以往既有的機器人規範裡,大多以產品安全、商品檢驗為主的法令,或是對於機器人產品的監管責任,但近年關於智慧機器人的討論,則著重在倫理與責任方面的規範,例如「可信賴的人工智慧倫理準則」(AI的倫理原則與要求),以及「人工智慧白皮書」(討論AI的使用規範)。AI倫理準則之目的: 盡可能減少演算法黑箱的節點,提升公平性 、問責性與透明性。
申言之,歐盟針對AI技術帶來的劇變與影響,近年來陸續提出相關準則或策略報告,以達成未來法規調適的目標。歐盟在2019年4月委由專家委員會提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI) ,說明4項倫理原則及7項要求(風險控制、透明、個資及隱私保護、社會責任、增進人類福祉、問責制、無偏見歧視),並表示AI發展到自主決策時,傳統民事歸責理論可能有所不足,於是針對「嚴格責任」之適用進行評估,可能修訂歐盟法律,且考慮是否需要訂立新的法規。
歐盟執委會於2020年2月發布兩份資料,分別是《人工智慧白皮書》(White Paper on Artificial Intelligence) 以及《歐盟資料策略》(A European Strategy for Data) 。AI與Big Data相關產業的發展,從最開始大量原始資料的取得,到後續轉化為產品或服務對公眾提供,法規管制是無可避免的議題。然而,就政府機關而言,應該如何規劃未來的AI發展法律管理框架?《歐盟資料策略》正是在說明歐盟如何針對資料經濟的發展趨勢而重新界定其資料法制(Data Law)與政策。
從規範面來看,既有的法律體系如何看待資料本身,以及應如何與時俱進地重新界定資料在法律體系的意義,建構全新的「資料法」(Data Law),已成為未來法學上的新課題。根據《歐盟資料策略》的報告內容,歐盟將於2021年推出「資料法」,這是繼「一般資料保護規範」(General Data Protection Regulation, GDPR)後,歐盟另一項企圖引導全球規範發展的重要行動,該法制的要旨在於針對非個人資料的部分促進政府部門與企業部門之間的資料流通,此於目前資料傳輸在國際間障礙重重的現況,顯見在未來資料經濟時代更為重要,甚至是資料流通的成敗關鍵。
強調促成資料近用(access)的《歐盟資料策略》之重點有以下幾點:一、資料可取得性(availability of data);二、市場力量不平衡(Imbalances in market power);三、民眾實現其權利之賦權(empowering individuals to exercise their right)。
而歐盟《人工智慧白皮書》提出以風險為基礎的方法(risk-based approach)作為日後法規管理框架,AI在高風險領域的應用原則受法律較高度的監管,以確保政府監理干預合乎比例。對企業來說,最關心的就是如何判斷哪些AI的應用會被認定是高風
付費訂閱
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.