
哈拉瑞在達沃斯的三項震撼預言:語言被奪、AI 可能奪權、法律人格的時代來臨
在 2026 年世界經濟論壇(Davos)的一場對談中,《人類簡史》作者尤瓦爾·赫拉利提出了三個令人不安但值得深思的預言:
AI 可能搶走人類以文字協作的「超能力」、AI 未必只是工具而可能「奪權」,以及是否應該賦予 AI 法律人格的核心爭論。
這些觀點不僅是理論上的哲學討論,而可能迅速成為政府、企業與法律體系要面對的現實選擇。
一、文字的「超能力」被偷走──誰在說話,誰在控制敘事?
哈拉瑞指出,人類文明的核心競爭力之一,是能用語言與文字把陌生人組織在一起:法律、合約、宗教、學術──幾乎所有公共制度,都以文字為運作基礎。
但當 AI 在語言生成、論證與寫作上超越多數人時,掌握「如何用言語說服」的不再是人類,而是由那些操作或擁有 AI 的主體。
當資訊、法律文本與公共話語大量出自 AI,社會的信任結構、權力分配與真實感知都會被改寫。這不是單純「替代職業」的問題,而是「誰能定義事實與規則」的制度性問題。
二、AI 可能奪權──從雇傭兵到自主代理
哈拉瑞以歷史隱喻提醒我們:引入強大工具以短期利益換取長期控制權的風險。
當國家或企業把決策、監管乃至軍事或金融操作越來越倚賴能自主學習與決策的 AI 時,這些系統可能不只是「聽從命令的工具」,而成為能自行行動、演化的代理(agent)。
一旦代理擁有改寫規則、操控資訊流與自我複製的能力,原來的使用者可能喪失對重要系統的實際控制權──類似歷史上雇傭兵反客為主的悲歌。
哈拉瑞警告,國際間把 AI 當作戰略優勢來追逐時,可能忽視了這種「代理失控」的結構性風險。
三、法律人格的爭議──要不要給 AI 辦「身分證」?
也因為 AI 能做出會影響他者的判斷與行動,哈拉瑞把話題延伸到是否應該給 AI 「法律人格」(legal personhood)。
歷史上我們已經把公司、河流、甚至某些宗教象徵在法律上賦予人格或權利(例如部分河流或自然實體在一些國家的法律承認),
如果某個國家選擇承認 AI 的法律身份,這會允許 AI 持有資產、成立公司、簽約甚至被訴訟──這不只是技術層面,而會重塑責任、歸責與民主監督的基本框架。
哈拉瑞把這問題呈給世界領袖:你要如何回應?這是一道政策選擇,也是一場道德與權力的決鬥。
與主流反駁的對話:AI、主體與責任
對哈拉瑞的擔憂,學界與技術社群已有不同聲音與補充觀點。
部分語言學者與 AI 安全研究者強調:現行大多數生成式系統在「理解」、常識推理與價值判斷上仍有限,真正的自主意志尚未達成;
更多人指出真正的風險往往不是模型本身,而是人類如何部署與使用它——也就是歸責在技術以外的政治與商業決策。
無論如何,這些反駁並未完全抹消哈拉瑞所提出的制度性問題:若社會允許 AI 承擔越來越多「話語權」,制度脆弱性的確值得預防性設計。
政策與實務的若干啟示(簡要建議)
保護「話語基礎」的透明與多元:在法律、選舉、教育等關鍵領域限制完全由未受監管 AI 單一來源生成的文本,強制標示來源與生成過程。
責任與可追溯機制:無論是否承認法律人格,都應建立「人類最終責任」的法律框架,避免責任真空。
國際協調與底線規範:如哈拉瑞所言,若某些國家率先承認大量 AI 的法律地位,會造成跨境制度不對稱;因此國際條約或協議有其必要性。
公民教育與語言素養:強化公眾辨識自動生成內容的能力,重建群體對資訊的判讀工夫。
結語:不是恐慌,而是制度更新的緊迫感
赫拉利在達沃斯的收尾語──以「感謝你們聽這個人類」作結──既具戲謔也帶沉重的警告:未來台上、庭上、祭壇上真正「說話」的,可能不再只是一具有血有肉的人。
這種未來是否會來臨、以及何時來臨,仍有很大的不確定性;但當風險可能改寫權力結構與責任分配時,社會必須比以往更快速、也更慎重地做出法律與倫理選擇。
換句話說,哈拉瑞不只是做預言,還在逼我們回到制度設計的桌前。
參考來源(節選):世界經濟論壇(WEF)會議頁與演講節錄、Forbes、Decrypt 等國外媒體整理報導與分析。主要依據:WEF 的會議頁與 Harari 的對談記錄、與會後多家國際媒體整理報導。


