谷歌近期推出的人工智慧(AI)模型PaliGemma 2,在技術領域引起了極大的關注。該模型不僅具備先進的圖像分析功能,還能識別人物的情感狀態,生成與上下文相關的詳細描述,這使得其在商業、心理健康等領域具有潛力。然而,隨著技術的推出,情緒識別能力所引發的倫理和社會問題也成為焦點,專家們對其可能帶來的風險提出了嚴重警告。
PaliGemma 2的情緒識別功能依賴於心理學家保羅·艾克曼(Paul Ekman)提出的人類六種基本情緒理論,這六種情感包括憤怒、驚訝、厭惡、喜悅、恐懼和悲傷。儘管這一理論在學術界曾廣泛認可,但近來的研究指出,不同文化對情感表達的方式存在顯著差異。某些文化中,人們對情感的表達往往較為內斂,這使得基於面部表情的情緒識別系統可能無法準確捕捉到某些群體的真實情感,從而引發誤解和偏見。
牛津互聯網研究所的數據倫理專家桑德拉·瓦赫特(Sandra Wachter)強調,這類技術的發展假設我們可以“讀懂”他人的情感,這本身存在重大問題。她指出,過度依賴AI來解讀情感,不僅可能產生錯誤判斷,還可能加劇對邊緣化群體的歧視。
情緒識別技術的可靠性也是一大問題。許多研究表明,情緒識別系統,尤其是基於面部表情的識別,存在偏見。某些研究發現,面部分析模型對黑人面孔的負面情緒判斷,比對白人面孔的判斷更為頻繁,這顯示情緒識別技術可能在無意間加劇社會不平等。
儘管谷歌表示,PaliGemma 2已進行了廣泛的測試,以評估其在不同族群中的表現,但其測試數據的代表性仍然受到質疑。特別是該模型所使用的數據集,並未充分涵蓋全球各地的多樣性,這使得外界對其公平性和準確性產生疑慮。
在此背景下,歐盟於2024年推出的《人工智慧法案》引起了全球關注。該法案明確將情緒識別技術歸為高風險AI系統,並對其應用設定了嚴格的規範。根據此法案,情緒識別系統必須遵守透明性義務,並明確告知用戶其使用的AI技術。此外,法案還禁止在學校和工作場所無目的地使用情緒識別技術,這一規定旨在防止對個人隱私的侵犯。
不僅如此,其他國家如美國、加拿大和英國也在積極討論和制訂類似的法律框架,以應對情緒識別技術帶來的倫理和法律挑戰。專家們指出,情緒識別技術若未受到有效監管,將可能被濫用於監控、招聘甚至執法等敏感領域,對公民自由和隱私權構成威脅。
儘管情緒識別技術有其商業應用潛力,許多社會運動組織和學術界專家對其發展方向表示擔憂。他們警告,若情緒識別技術被應用於高風險領域,如執法或招聘,可能會對某些族群或社會群體造成歧視,進一步加劇社會不平等。
然而,也有支持者認為,這項技術能夠為心理健康監測、客戶服務和行銷等領域帶來變革。情緒識別技術可以幫助企業更準確地理解客戶需求,提供量身定制的服務,並在心理健康領域提供早期干預的機會。
隨著情緒識別技術的發展,如何平衡技術創新與社會風險將成為未來的重要議題。專家們建議,應加強法律監管、推動行業自律以及促進跨學科合作,來應對技術應用中的倫理挑戰,確保技術能夠以負責任的方式發展。
PaliGemma 2的推出無疑是人工智慧領域的一大創新,但其情緒識別技術的應用帶來的倫理、法律與社會挑戰同樣不容忽視。儘管這項技術在多個領域具有潛力,但其發展過程中的風險管理和監管將決定它能否真正為社會帶來正面的影響。如何在創新與責任之間找到平衡,是未來科技發展的關鍵課題。