申言之,歐盟針對AI技術帶來的劇變與影響,近年來陸續提出相關準則或策略報告,以達成未來法規調適的目標。歐盟在2019年4月委由專家委員會提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI) ,說明4項倫理原則及7項要求(風險控制、透明、個資及隱私保護、社會責任、增進人類福祉、問責制、無偏見歧視),並表示AI發展到自主決策時,傳統民事歸責理論可能有所不足,於是針對「嚴格責任」之適用進行評估,可能修訂歐盟法律,且考慮是否需要訂立新的法規。
歐盟執委會於2020年2月發布兩份資料,分別是《人工智慧白皮書》(White Paper on Artificial Intelligence) 以及《歐盟資料策略》(A European Strategy for Data) 。AI與Big Data相關產業的發展,從最開始大量原始資料的取得,到後續轉化為產品或服務對公眾提供,法規管制是無可避免的議題。然而,就政府機關而言,應該如何規劃未來的AI發展法律管理框架?《歐盟資料策略》正是在說明歐盟如何針對資料經濟的發展趨勢而重新界定其資料法制(Data Law)與政策。
從規範面來看,既有的法律體系如何看待資料本身,以及應如何與時俱進地重新界定資料在法律體系的意義,建構全新的「資料法」(Data Law),已成為未來法學上的新課題。根據《歐盟資料策略》的報告內容,歐盟將於2021年推出「資料法」,這是繼「一般資料保護規範」(General Data Protection Regulation, GDPR)後,歐盟另一項企圖引導全球規範發展的重要行動,該法制的要旨在於針對非個人資料的部分促進政府部門與企業部門之間的資料流通,此於目前資料傳輸在國際間障礙重重的現況,顯見在未來資料經濟時代更為重要,甚至是資料流通的成敗關鍵。
強調促成資料近用(access)的《歐盟資料策略》之重點有以下幾點:一、資料可取得性(availability of data);二、市場力量不平衡(Imbalances in market power);三、民眾實現其權利之賦權(empowering individuals to exercise their right)。