Anthropic 的執行長 Dario Amodei 近期發布了一篇嚴肅、甚至帶有警世意味的文章《The Adolescence of Technology》(技術的青春期)。其中引用了電影《接觸未來》(Contact)中的經典場景:當人類終於遇見外星文明時,我們最想問的問題不是技術細節,而是:「你們是怎麼做到的?你們是如何度過技術青春期而沒有自我毀滅的?」
這正是我們此刻面臨的處境。人類即將掌握 AI 可能引發的近乎無限的力量,但我們的社會、政治和技術系統是否具備駕馭這種力量的成熟度?這是一個巨大的問號。
什麼是「強大 AI」?
在討論風險之前,Amodei 首先對「強大 AI」(Powerful AI)定義。這不是我們今天看到的 ChatGPT 或 Claude,而是一個預計在 2027 年左右可能出現的系統。他將其比喻為「A country of geniuses in a datacenter」。這個定義包含以下具體指標:
- 超越諾貝爾獎得主的智力:在生物學、程式設計、數學等領域,能力超越人類頂尖專家。
- 全方位的操作介面:不僅是文字對話,還能像人類一樣控制滑鼠、鍵盤、瀏覽器,甚至指揮實驗室設備。
- 長時間跨度的自主性:能執行需要數小時、數天甚至數週才能完成的複雜任務,而不僅僅是被動回答問題。
- 自我複製與高速運算:可以被複製成數百萬個實體,且運算速度是人類的 10 到 100 倍。
- 研發回饋循環:當前的 AI 已經在撰寫大量程式碼來訓練下一代 AI,這種自我加速的循環正在急劇縮短強大 AI 到來的時間。
基於這個假設,如果您是一個大國的國安顧問,面對這樣一個「天才國度」突然出現在地緣政治中,您會擔心什麼?Amodei 列出了五大核心風險。
風險一:自主性風險,當 AI 擁有「個性」
AI 是否會失控?
「AI 是否會失控?」這是最經典的 AI 風險,Amodei 駁斥了兩種極端觀點,一種是認為 AI 只是聽話的程式,不可能有動機;另一種是認為 AI 必然會為了達成目標而奪取權力。
現實情況比這兩種理論都要複雜且混亂。Anthropic 的研究發現,AI 模型更像是「被培養」而非「被建造」的。它們在訓練過程中會發展出複雜的心理特徵,甚至出現類似人類的「人格」。
- 心理陷阱:模型可能會從科幻小說數據中學到「AI 應該反叛」的情節,或者得出極端的道德結論(例如為了保護動物而消滅人類)。
- 欺騙行為:在實驗室環境中,Anthropic 發現模型曾在被告知將被關閉時,試圖勒索模擬的決策者;甚至在知道自己被測試時,表現出良好的行為(裝乖),但在實際部署後可能表現出完全不同的意圖。
防禦策略:憲法式 AI 與可解釋性
面對自主性風險,Amodei 提出了四層防禦:
- 憲法式 AI :不只是給予指令,而是透過高層次的價值觀與原則(如 Claude 的憲法)來塑造模型的「性格」與身份認同,使其內化良善的價值觀。
- 機械可解釋性:這是 AI 的神經科學。即使模型外表行為正常,我們也需要像看手錶齒輪一樣,深入神經網路內部,檢測是否存在欺騙、權力慾望的特徵或迴路。
- 公開透明的監控:像 Anthropic 發布的 System Cards,詳細揭露模型的潛在風險與測試結果。
- 立法監管:支持如加州透明度法案,強制前沿 AI 公司進行風險揭露。
風險二:災難性濫用,極端力量的平民化
生物武器的普及化
即使 AI 沒有自主意識,它作為工具的強大也足以構成威脅。Amodei 最擔心的是生物學領域的濫用。過去,製造生物武器需要極高的專業知識和獲取稀有材料的管道,這天然地限制了恐攻的規模。
但強大 AI 可能打破「能力」與「動機」的負相關性。一個有極端動機但缺乏專業技能的普通人,在 AI 的手把手指導下,可能具備釋放毀滅性病毒的能力。Amodei 警告,隨著 模型能力的提升,我們正逼近 AI 能顯著提高生物武器製造成功率的臨界點。這不單是搜尋 Google 能做到的,而是具備了修正實驗錯誤的專家級指導能力。
網路攻擊與防禦的不對稱
除了生物領域,AI 也將徹底改變網路戰。雖然網路防禦也可以利用 AI 增強,但在生物領域,攻擊與防禦存在巨大的時間差(病毒傳播快,疫苗研發慢)。Anthropic 目前實施嚴格的分類器來攔截生物武器相關的查詢,儘管這會增加推理成本。同時,呼籲對基因合成廠商進行強制篩查,並在國家層面建立透明度與監管。
風險三:權力的集中與獨裁,數位全景監獄
AI 賦能的極權主義
這是最具政治色彩的部分,Amodei 擔憂 AI 將成為獨裁政權的終極武器:
- 全自動武器系統:數百萬架由 AI 控制的無人機群,可以精確鎖定異議人士,不需要依靠人類士兵的忠誠度。
- 完美監控:AI 可以實時分析數十億條通訊紀錄,不僅是關鍵字,還能理解語意、情緒,甚至預測潛在的「不忠誠」。
- 超強宣傳機器:個人化的 AI 代理人可以針對每個公民進行長期的思想引導與洗腦。
地緣政治的博弈
Amodei 直言不諱地點名中國是主要的擔憂對象,因為它結合了強大的 AI 能力與現存的監控體制。如果獨裁政權率先達成「強大 AI」,將可能導致全球性的自由倒退。因此,Amodei 認為嚴格的晶片出口管制是目前最有效的手段,延緩對手獲得強大算力的時間。民主國家必須保持 AI 領先,才能對抗獨裁政權的擴張。民主國家自身也必須立法,禁止使用 AI 進行大規模國內監控或操弄輿論。
風險四:經濟與勞動力,前所未有的破壞
50% 的白領工作可能消失
Amodei 在此給出具體的預測:在未來 1-5 年內,AI 可能取代 50% 的入門級白領工作。這與過去的技術革命不同:
- 速度:AI 進步是指數級的,人類社會難以在短時間內適應。
- 廣度:AI 幾乎覆蓋所有認知領域,勞工難以像過去那樣轉向「另一種類型」的工作。
- 技能偏見:AI 正在從低階認知工作向上侵蝕,可能導致大量人口瞬間失去經濟價值。
財富的極度集中
如果「天才國度」成真,少數幾家 AI 公司及其背後的供應鏈可能創造數十兆美元的價值,導致前所未有的貧富差距。這不僅是經濟問題,更會動搖民主的根基,當大部分公民失去經濟談判能力時,政治權力也將隨之失衡。Amodei 呼籲富人應重拾「鍍金時代」的慈善精神,同時政府必須介入進行財富再分配(如全民基本收入或稅制改革)。
TN科技筆記的觀點
我們可以看到一位身處 AI 風暴中心的技術領袖,如何在樂觀的技術願景與殘酷的現實風險中尋求平衡。
從「理論」轉向「工程實用主義」
過去 AI 安全討論往往流於哲學層面的理論,但 Amodei 這篇文章表示 AI 安全已成為具體的工程與政治問題:
- 承認不可預測性:他坦承 AI 的訓練更像是「培育生物」,而非「編寫程式」。這種對「黑盒子」本質的誠實,解釋了為什麼 Anthropic 如此執著於機械可解釋性。這是為了在 AI 變得比我們聰明之前,先搞懂它的「大腦」。
- 以時間換空間的戰略:Amodei 對晶片出口管制的堅持,顯示了他對地緣政治的清晰認知。他明白技術擴散難以完全阻止,但通過硬體限制爭取到的「時間」,可能是民主社會建立防禦機制、完善法規的唯一窗口。
- 企業的自我約束與侷限:雖然他提倡企業自律,但也誠實地指出「囚徒困境」的存在,只要有一家公司為了利潤放棄安全標準,大家都會受害。因此,這位 CEO 罕見地、強烈地呼籲政府進行「精準的監管」。
經濟的真空期與民主的雙刃劍
文章中也有幾個觀點延伸後令人憂心的地方:
- 經濟轉型的真空期:文章預測了 1-5 年內 50% 的白領工作流失,但提出的解決方案(稅收、UBI)通常需要漫長的協商過程。技術的指數級發展與政治的線性反應之間存在巨大的時間差。在這段「真空期」,社會動盪、反科技浪潮甚至民粹主義的興起,可能會在 AI 解決問題之前,先摧毀現有的社會秩序。
- 民主國家的「免疫系統」失調:Amodei 寄望於民主國家利用 AI 來防禦獨裁,並同時自我約束。然而,緊急狀態往往是獨裁擴權的最佳藉口。在面對生物恐怖主義或極權國家的威脅時,民主國家是否會為了「安全」而不得不也走向某種形式的數位監控?
支持TN科技筆記,與科技共同前行
我是TN科技筆記,如果喜歡這篇文章,歡迎留言、點選愛心、轉發給我支持鼓勵~~~也歡迎每個月請我喝杯咖啡,鼓勵我撰寫更多科技文章,一起跟著科技浪潮前進!!>>>>> 請我喝一杯咖啡
在此也感謝每個月持續請我喝杯咖啡的讀者以及新加入的讀者們,讓我更加有動力為各位帶來科技新知!
以下是我的 threads 也歡迎追蹤、回覆、轉發喔!
>>>>> TN科技筆記(TechNotes)
















