「人工智慧 +1」自學 Day7:AI 的倫理議題&AI 的獨特性
(透過這篇,主要想探討我對於 AI 學習&應用最為關注的主題:AI 的倫理議題。)
-前言:
為何有需要探討 AI 的倫理議題?這主要是因為涉及了 AI 這項技術的獨特性。AI 作為一項人類社會前所未見的創新發明,再一次地將人類社會帶向了一個全新的時代。對,我就是要說,我覺得 AI 再次造就了一個典範轉移。
我用「典範轉移」,意指我們正面臨一個全新、不曾經驗過的世界,而且再也回不去了。而這一切都來自於 AI 所具有的諸多獨特性。這些獨特性,使得我們必須非常慎重去檢視,並適應這個技術所可能帶來的各層面影響,尤其是它可能如何地打破原有的世界的框架&秩序,或者說,運作規則。
這也就是為何 AI 會涉及「倫理」,因為人類社群的倫理-如何對待自己、他人、動物與環境-同樣也勢必將因 AI 所具有的獨特性而有所影響。
所以在此,我們先要了解 AI 具有什麼樣的獨特之處,才能知道接續會帶來怎麼樣的潛在倫理議題需要被關注與應對。(更準確地說,也許不該用「潛在」,而是已經正在發生了。)
-AI 的獨特性(8項)
依照 AI 技術在本質上具有的獨特性,以及,AI 技術在延伸落地應用後,實際對人類社會造成、且有別於其他技術的獨特之影響,區分兩大類型的「獨特性」。
▹ AI 技術的「本質獨特性」
1.規模與速度 (Scale & Speed):能以人類無法企及的速度,處理並影響規模龐大到人類沒有能力處理的數據。
2.自主性 (Autonomy):能獨立於人類進行運作,一旦被賦予決策的權力,有能力自行決策。
3.不透明性 (Opacity):運作方式複雜,難以被人類理解(深度學習DL的隱藏層「黑盒子」)。
4.生成性與創造性 (Generativity & Creativity):能從零開始,造出全新的內容與觀點。
5.可塑性與適應性 (Malleability & Adaptability):能透過持續學習(ML)自我迭代、不斷進化,進而改變行為模式,無縫接軌於各種環境(介面)。
▹ AI 技術對人類社會的「獨特影響」
6.互動性 (Interactivity)
將「生成性/創造性」與「自主性」兩種能力疊加後,AI 不再只是被動輸出,轉變成能「與人對話、影響人類行為」。
7.普及性 (Pervasiveness)
因為「規模與速度」與「可塑性/適應性」,讓AI 可融入日常生活的所有面向,透過載具(手機)、透過生活事務(醫療/金融/教育...etc.),最終導致全面性的影響。
8.依賴性 (Dependency)
當上述 AI 的所有獨特性集大成,遂造就了人類在各層面上對 AI 的廣泛依賴,弱化自我能力。
-AI 倫理議題的核心面向 (10項)
A. 演算法偏見與公平性 (Algorithmic Bias & Fairness)
→ AI 用以訓練的數據資料來自人類社會,資料本身無可避免就帶有偏見,結果就是AI 如實反映偏見、甚至是放大。但凡應用 AI,中立或公平便是不存在的,技術上「儘可能」消除偏見,與,社會「如何看待」偏見,將是同等重要的課題。
B. 隱私與監控 (Privacy & Surveillance)
→ AI 的應用運作涉及大量個資,其中從個資的收集開始,到儲存與使用的「權利」,皆涉及倫理問題,尤其當 AI 技術是「中心化」、「集權式(ex巨型企業/surveillance capitalism、政府)」,影響就會更加劇烈,比如社會結構(ex社會操縱/監控)層面、甚或國家安全(ex國對國)層面。
C. 責任歸屬與透明性 (Accountability & Transparency)
→ 當 AI 做出錯誤有害決策並造成實質影響時,責任該歸咎於?開發者?使用者?AI?而 AI 演算法的難以解釋與理解(深度學習DL的黑盒性),沒有足夠透明度可去理解決策過程,更加深咎責難度。如何在技術上盡可能地追求透明性,與實際應用上預先的「責任歸屬」配套措施設計,至少是目前可見的努力方向。
D. 勞動與社會衝擊 (Labor & Social Impact)
→ 這該是最為大眾熟悉的議題。AI 的自動化與高效,已逐漸取代許多原本僱用授薪予人類的工作,這對社會的人力與經濟結構都造成巨大衝擊:大規模失業在經濟、與人類作為社群一員的影響,甚或至社會資源的重新分配... 都是臨在眼前的難題。更根本地,AI 技術導致的是:「工作定義」的改變、人類與工作的「關係」如何重新看待...這是在具體上造成全方面影響的重要議題,不只是在實際生活/生存面向,同時更重塑了社會價值觀/自我認同、社會結構與經濟結構,我認為其影響更甚工業革命。
E. 假資訊與詐騙 (Misinformation & Deception)
→ 隨著網路普及,錯誤資訊(misinformation)與虛假內容(deepfake/ 假新聞)的應用與傳播,早已盛行猖獗。而生成式 AI 在創造、傳播和規模化上的高效,更加劇了其危害的程度,直接威脅到社會信任、政治穩定與個人安全。當 AI 使欺騙變得難以辨識,又如此輕易,「信任」作為人類社群得以成立運作的最基本基礎,將面臨嚴峻的考驗。
F. 自主武器 (Autonomous Weapons)
→ 在軍事領域,目前對於 AI 應用於武器,偵測/追蹤/識別/鎖定敵對目標已普遍採用。更講求速度、在危急時刻爭取時間的「包含發動攻擊亦由 AI 決定」,如防空與飛彈防禦系統,都還是保留了人可以在必要時介入、取消 AI 決策的權力(Human-on-the-Loop)。儘管如此,這已引起「AI 決定生死」爭論。而由 AI 完全自主(Human-out-of-the-Loop)的自主武器,現行雖未有國家(公開的)發展&應用,但如同核武競備,事實未可知。這其中涉及的是戰爭倫理、責任歸屬,也是一條條真實的生命。
G. AI 的權利與法律地位 (AI Rights & Legal Status)
→ 隨著 AI 的發展,自主性、自我生成與創造,越來越朝向「有意識存有」演進,人類必須開始面對「該如何看待 AI 」的問題,包含:AI 是否應具有法律權利、法律人格?而最終可能是「人格」?現時已引發討論的便是, AI 創作的智慧產權歸屬。目前學界仍傾向 AI 「不應具備」法律人格,但這同時又將回到「錯誤責任歸屬」的議題。法律倫理與法律系統最終勢必需要因應改變。
H. 永續性 (Sustainability & Environment)
→ AI 訓練與運行於環境耗損極巨,運作需要消耗巨量水資源與電力,硬件上,迭代汰換造成電子垃圾(E-Waste),晶片的稀缺資源需求龐大,這些都對地球永續是極大威脅,加諸目前全球環境已遭遇的種種破壞(i.e.溫室效應、氣候變遷..),人類不能再抱有且戰且走,如過往面對石油能源危機(暫且)逃過一劫的僥倖心態,除了更積極地發展軟硬體上的優化可能,更跟本地,仍須思考與應對「與環境共存 v.s 創新發展」這個(似乎)無解的悖論。
I. 文化多樣性 (Cultural Diversity & Hegemony)
→ 目前應用於 AI 訓練與運行的數據資料,主要以英文、西方文化背景的資料為大宗。這是現實狀況,但於未來,可預見步向文化上的壓制的可能性。這不僅僅是因不同數據所造成的,在技術應用上擴大差距,更可能形成少數/弱勢族群的語言與文化脈絡,因無法落實 AI 技術應用而沒落消失(i.e. 因 AI 技術/演算法造成的文化思維模式的單一化)。文化的多元性因全人類文明的發展而消弭,雖然 AI 不會是首例,雖然看似還很遙遠,但確是可預見的。而且這次,人類有能力改變。
J. 心理與認知影響 (Psychological & Cognitive Impact)
→ 綜觀 AI 技術的整體面向,當 AI技術、甚或說是生成式 AI,已經直接可以深入每個普通人的生活世界,便已方方面面的改變了人類,在求生、在思維模式、在認知世界、在自我認同、在如何活著...,這些心理與認知上的改變,目前看來都是更加往「依賴 AI」的方向前進。人類要如何透過自我省察(reflection),或任何方式,改變這個方向,是最終、也是最重要的問題。
-AI 的獨特性&AI 倫理議題對照
▹ AI 技術的「本質獨特性」& AI 倫理議題對照

▹ AI 技術對人類社會的「獨特影響」& AI 倫理議題對照

-
結語:
我知道我所整理的都還過於表淺、不夠深入,但我覺得,在 AI 已經全面進駐我們的生活的此刻,AI 的倫理議題,每一個,都是很需要被認真看待的,不是只有學者專家,而是每一個會接觸到 AI 的人,都該有這樣的清醒。
我個人目前最真正關心的,其實是「偏見與公平」、「虛假內容」、「隱私與監控」,還有如何對待 AI,這幾項。但還是那句老話,每一個都重要。而且每個都有千山萬水等著要跋涉越過。
只能樂觀地想,未來可期。
未來必須可期。