人工智慧(AI)已成為創造的魔術師。然而,當我們要求 AI 繪圖工具執行一個看似中立的指令:「畫一張古典音樂指揮家」時,它給出的標準答案,往往是一位西方白人男性。甚至,圖中整個樂團也都是西方白人面孔。

這個「預設結果」直指了當代AI科技藝術的根本困境:AI 並非一個客觀、中立的工具。 它的運行邏輯和輸出結果,無可避免地繼承和放大了其訓練數據中所蘊含的歷史與社會偏見。數據,從來都不是「自帶平權」的。
數據偏見的陰影:AI 如何複製不平等?
生成式 AI 模型的強大,在於其能夠在海量數據中識別並重現模式。然而,問題的核心恰恰在於這些數據的來源和結構。
古典音樂,儘管在全球範圍內都有發展,但其歷史、媒體呈現和公共認知,長久以來都以歐洲為中心。在 AI 模型所學習的數億張網路圖像和文本中,「指揮家」與「西方白人男性」的標籤,在統計上擁有最高的相關性和權重。
- 統計學的選擇: AI 並不是主動「歧視」,而是進行一場概率預測。當它必須為一個寬泛的概念(如「指揮家」)給出一個單一、具代表性的答案時,它會選擇數據庫中最普遍、最佔優勢的那個樣本。
- 預設值的陷阱: 這種統計上的優勢,將「西方白人男性」變成了 AI 系統對「指揮家」這個概念的預設值(Default Setting)。這迫使使用者如果想要看到一位女性、一位非裔或亞裔指揮家,必須額外加上限定詞(Prompt)來「矯正」這個偏見。
換言之,不平等的形象是自動生成,而平權的形象卻需要被刻意爭取(人工指令加強)。 這便是科技非中立性的最有力證明。
科技非中立的雙重維度
AI 的偏見,不僅僅來自於數據,也來自於背後的設計與文化:
歷史與文化的主流化
AI 的訓練數據大多來源於英語世界和西方文化主導的網路內容。這使得模型在處理許多跨文化或專業領域的詞彙時,會自然而然地帶有西方中心主義的視角。科技藝術因此成為一種放大鏡,將主流文化的影響力進一步擴大,同時將邊緣群體推得更遠。
倫理常識的真空地帶
AI 是一個極度高效的模式識別機器,但它缺乏人類的社會道德、歷史知識和倫理判斷。它無法自主判斷「我的輸出是否會加劇社會不平等」。如果模型的設計者沒有刻意在算法中加入**「去偏見化」(De-biasing)**機制,那麼這種偏見就會像雪球一樣越滾越大。
如何設計一個更公平的 AI 世界?
承認 AI 的非中立性,是邁向公平的第一步。要修正這種「鏡中偏見」,我們必須從根本入手,在 AI 的整個生命週期進行干預:
數據集的再平衡與增強: 最直接的方式是「清理教科書」。開發者必須主動投入資源,尋找和收集代表性不足群體的數據(例如,增加不同種族和性別的指揮家圖像),並在訓練時提高這些數據的權重,從根本上平衡模型的認知結構。
算法的倫理約束: 透過設計更先進的算法,例如「對抗性去偏見」,讓模型在生成結果時,不僅追求圖像質量,更追求「公平性」作為一種約束條件。一旦模型傾向於單一族群,就會受到算法的「懲罰」,促使其調整輸出。
智能化的提示引導: 在人機互動層面,當使用者輸入寬泛指令時,系統可以自動加入「多樣性」的內置指令,例如將「指揮家」轉為「一位不同性別、不同文化背景的指揮家」,藉此鼓勵或強制模型生成更多元的結果。
科技的未來,是倫理的選擇
AI 和科技藝術是人類社會的倒影,而非理想世界的藍圖。當我們看到一張張充滿單一性別和種族偏見的 AI 畫作時,這不僅是對技術缺陷的審視,更是對人類社會自身不平等的反思。
科技的發展並非宿命,它是一個持續的、涉及倫理和社會責任的選擇過程。只有當我們不再把 AI 視為一個中立的工具,而是將「數據公平」和「算法倫理」視為核心設計原則時,我們才能期望它最終能描繪出一個真正多元、平等的藝術世界。
