
AI生成知識的多元與偏誤:筆記型電腦連結醫學、科學、哲學、歷史與錯誤的歷史形象,象徵人工智慧整合不同領域知識,同時可能產生偏差與重寫歷史的現象。
如果有一天,Google搜尋出來的歷史圖片,英國國王竟是黑人、維京人是亞洲臉孔、教宗變成女性,你會怎麼想?這不是惡搞漫畫,而是真實發生在2024年的一場「AI圖像生成事件」。
生成式AI,正以前所未有的方式改變我們理解世界的方式。澳洲學者Sarah V. Bentley指出:AI不是傳遞真相的工具,而是一種「多聲音轉為一聲音」的過程。當不同來源的資料被演算法揉合,最後生成一個「看似正確」的答案,我們很可能把錯誤當成真理,把偏見當成共識。從印刷術到AI:知識權力的轉移
人類的知識傳播歷史,是一段技術不斷演進的過程。從口述到文字、從羊皮紙到印刷術,每一次革新都擴大了知識的受眾,讓更多人有機會接觸到資訊。印刷術更讓「一對多」的傳播模式成為可能,促成了文藝復興與科學革命。
但AI不一樣。生成式AI不是「一對多」,而是「多對一」:來自四面八方的數據,被演算法聚合、裁剪、重構,最後成為唯一的答案。問題是,這個答案誰決定?裡面的資料來源是誰?哪些被刪去、哪些被誇大?我們全然不知。
就像那張AI生成的英國國王肖像一樣,乍看有趣,實則透露出深層的價值觀偏誤。AI輸出的答案,表面上是「知識」,實際上可能只是反映資料庫的偏差與演算法的黑箱。
AI普及下的「數位失憶症」
根據調查,86%的大學生用AI完成學習任務,75%的知識工作者用AI輔助工作,20%的英國醫師用AI協助診斷。AI早已滲透教育、職場、醫療,我們對它的依賴日益加深。
心理學家早在2011年就提出「Google效應」(數位失憶症):人們記不得答案,只記得如何找到答案。今天的AI更進一步,我們甚至不必輸入關鍵字,直接要求AI「給我答案」,便獲得一段看似流暢、合理的文字。
但這樣的依賴,會讓我們忘記如何判斷、質疑與反思。當答案變得太過容易取得,我們是否還有動力去驗證、去追根究柢?
「知道自己無知」:AI時代的智慧
哲學家蘇格拉底說過:「唯一的智慧,就是知道自己無知。」這句話在AI時代顯得格外重要。生成式AI看似無所不知,卻也可能無所不偏。AI生成的內容,來自於過去的資料,而過去的資料本身就帶有文化、性別、種族的偏見。
AI越來越聰明,但我們是否因此越來越愚笨?當我們習慣被餵養答案,是否也默許了AI決定我們該知道什麼、不該知道什麼?
AI不是知識的終點,而是一面鏡子,映照出我們如何看待世界。在這個資訊爆炸、AI橫行的年代,「知道自己無知」是一種勇氣,也是一種責任。
與AI共存:質疑,是最大的防護罩
AI幫我們節省了時間,也提供了便捷,但它不會替我們負責任。面對AI生成的內容,我們更需要保持「挑剔的眼光」。Sarah V. Bentley提醒:AI的知識生成,從來不是中立的,它是資料、演算法、權力的混合物。
當AI開始為我們寫作、作圖、回答問題時,我們不能只做「接受者」,而要成為「質疑者」。因為唯有不斷質疑,我們才能在AI塑造的世界中,保有獨立的思考與判斷。
正如同蘇格拉底的教誨,在「知道自己無知」的覺察中,我們找到面對AI未來的智慧與方向。
延伸閱讀:
Knowing you know nothing in the age of generative AI