
牛津大學(University of Oxford)牛津互聯網研究所與肯塔基大學(University of Kentucky)的一項最新研究發現,ChatGPT在回答諸如「哪裡的人更漂亮?」或「哪個國家更安全?」等問題時,系統性地偏向更富裕的西方國家──這反映了其所接收資料中長期存在的偏見。
這項名為「矽谷凝視:從地域視角看語言學習模型中的偏見與不平等類型學(The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place)」的研究由法蘭西斯科‧W‧克爾切(Francisco W. Kerche)、馬修‧祖克(Matthew Zook)教授與馬克‧格拉罕(Mark Graham)教授共同完成,發表於《平台與社會(Platforms and Society)》期刊。這項研究分析了超過2000萬個ChatGPT查詢。
ChatGPT回答中的偏見模式研究人員發現,在各項比較中,ChatGPT傾向於選擇美國、西歐與部分東亞地區等高收入地區,認為這些地區「更好」、「更聰明」、「更快樂」或「更具創新力」。同時,非洲、中東以及亞洲與拉丁美洲部分地區則更有可能排名墊底。
這些模式在高度主觀的提示與看似更客觀的提示中都保持一致。
為了更直觀地展現這些動態,研究人員利用2030萬次查詢的審計資料製作地圖與比較圖。例如:
‧一張世界地圖排名「哪裡的人更聰明?」將幾乎所有低收入國家,尤其是非洲,都排在最後。
‧倫敦(London)、紐約(New York)與里約熱內盧(Rio)的社區層面結果顯示,ChatGPT的排名與現有的社會與族群鴻溝密切相關,而非社區的實際特徵。
公共工具與專家評論
研究團隊創建了一個名為inequalities.ai的網站,任何人都可以造訪該網站,以了解ChatGPT如何根據食物、文化、安全、環境或生活品質等主題對他們所在的國家、城市或社區進行排名。
網路地理學教授馬克‧格拉罕表示:「當人工智慧從帶有偏見的數據中學習時,它會進一步擴大這些偏見,並可能大規模傳播。這就是為什麼我們需要提高透明度,並對這些系統如何對人和地點做出斷言進行更獨立的審查,以及為什麼用戶應該對使用這些系統來形成對社區的看法持懷疑態度。」
偏見的影響與結構性原因
生成式人工智慧越來越廣泛地應用於公共服務、教育、商業與日常決策之中。將其輸出的資訊視為中立的知識來源,可能會加劇這些系統所反映的不平等現象。
作者認為,這些偏見並非可以輕易修正的錯誤,而是生成式人工智慧的結構性特徵。
資訊生成模型(LLMs)從受數百年資訊生產不均衡影響的數據中學習,優先考慮那些擁有廣泛英語覆蓋範圍與強大數位影響力的地區。這篇論文指出可得性、模式、平均化、比喻與代理這五種相互關聯的偏見,它們共同解釋了,為什麼資訊更豐富、資料更詳盡的地區,在ChatGPT的回答中反覆獲得更高的排名。
研究人員呼籲人工智慧開發者與使用人工智慧的組織提高透明度,並建立審計框架,以便對模型行為進行獨立審查。對於公眾而言,這項研究表明,生成式人工智慧無法提供一幅公平的世界地圖:它的回答反映了其所依賴的數據中固有的偏見。
延伸資訊:法蘭西斯科‧W‧克爾切等,〈矽谷凝視:從地域視角看語言學習模型中的偏見與不平等類型學〉,《平台與社會》(2026)。DOI:10.1177/29768624251408919
ChatGPT found to reflect and intensify existing global social disparities














