Google DeepMind 的聯合創辦人 Shane Legg 在近期給出了明確的 AGI 分級定義、時間表,並直言不諱地剖析了這項技術將如何從根本上重塑我們的經濟、社會與個人價值。
The arrival of AGI | Shane Legg (co-founder of DeepMind)
快速整理:DeepMind 首席科學家 Shane Legg 的 AGI 預言
在我們深入細節之前,先為你快速整理 Shane Legg 在這次訪談中拋出的幾個核心觀點:- AGI 發展是「階段制」:他將 AGI 的發展路徑分為三個明確的階段:最低通用智慧 (Minimal AGI)、完全通用智慧 (Full AGI),以及最終的超級智慧 (ASI)。
- 2028 年關鍵節點:Legg 維持了他十多年來的預測,認為在 2028 年,有 50% 的機率達成「最低通用智慧」。這意味著 AI 將能處理普通人所能做的所有認知任務。在達到最低標準後的數年內,大約十年內,我們將迎來「完全通用智慧」,AI 的能力將能涵蓋包含愛因斯坦、莫札特在內的所有人類認知光譜。
- 經濟結構將被徹底改變:他警告,目前「以勞動換取資源」的社會經濟模型可能不再適用。AGI 將對特定領域,尤其是「菁英認知型工作」造成巨大衝擊。
- AI 倫理的關鍵在於「思考過程」:他提出了一個名為「系統二安全 (System 2 Safety)」的框架,目標是讓 AI 具備深度、可追蹤的道德推理能力,甚至在一致性上超越人類。
- 我們正處於「有如疫情前的寧靜」:他將當前大眾對 AGI 的普遍感受,比作 2020 年初,專家們已在大聲疾呼疫情將至,但多數人仍未意識到生活即將天翻地覆的時刻。
Shane Legg 的 AGI 分級與時間表

第一階段:Minimal AGI (最低通用智慧) - 2028年的50%機率
Legg 定義的「最低通用智慧」,是指一個人工智慧體,至少能做到一個普通人通常能做的所有認知類型的事情。這個標準很巧妙:如果 AI 做不到普通人能做的事,那顯然還沒達到「通用」;如果標準設得太高,又會排除掉大部分人的能力範圍。
他坦言,目前的 AI 還沒達到這個標準。雖然現在的模型在某些方面(如語言翻譯、知識廣度)早已遠超人類,但在其他關鍵領域仍有明顯弱點:
- 持續學習 (Continual Learning):目前的 AI 很難像人類一樣,在一段長時間內持續學習並整合新技能。這就像一個新員工,你期望他能邊做邊學,但現在的 AI 還做不到。
- 推理能力 (Reasoning):特別是在視覺推理上,AI 仍顯得笨拙。它可以輕易辨識圖片中的汽車,但若問它「哪輛車比較大?」,它可能無法像人類一樣理解透視原理(遠的車看起來比較小)。
儘管存在這些挑戰,Legg 認為這些都不是根本性的障礙。他預測,我們有 50% 的機率在 2028 年 達到這個里程碑。這也是他從 2009 年以來,始終堅持的預測。
第二階段:Full AGI (完全通用智慧) - 十年內的光景
一旦跨越了「最低通用智慧」的門檻,下一個階段就是「完全通用智慧」。這意味著 AI 不僅能完成普通人的認知任務,更能涵蓋人類認知能力的全部光譜,包含那些最頂尖、最富創造力的非凡壯舉,例如提出新的物理學理論、創作出偉大的交響樂或文學作品。
Legg 認為,從 Minimal AGI 到 Full AGI 的過程,可能只需要「三、四、五、六年」。這意味著,在我們有生之年,甚至在未來十年內,我們很可能會見證一個能夠比肩甚至超越人類最頂尖智慧的 AI 誕生。
最終階段:ASI (超級智慧) - 遠超人類的必然未來
當 AI 的能力開始全面超越人類認知的範疇時,我們就進入了「超級智慧 (ASI)」的領域。對此,Legg 的觀點是:這幾乎是必然會發生的。
他的論證並非基於科幻想像,而是來自物理學的第一性原理。他比較了人腦與資料中心的物理限制:
- 功耗:人腦約 20 瓦;資料中心可達 2 億瓦。
- 訊號傳遞速度:人腦神經元約每秒 30 公尺;電腦中的光纖接近光速(每秒 3 億公尺)。
- 運算頻率:人腦約 100-200 赫茲;電腦晶片可達數十億赫茲。
在能量、空間、頻寬和速度這四個維度上,機器都擁有比人腦高出數百萬到數億倍的潛力。Legg 表示「人類智慧會是潛能的上限嗎?我認為絕對不是。」就像我們不會期望自己跑得比跑車快、舉得比吊車重一樣,我們也不該期望自己的認知能力會是宇宙中的極限。
AGI 的「道德羅盤」:我們如何確保超級智慧是善良的?
一個比人類更聰明的智慧體,無疑帶來了巨大的安全與倫理隱憂。對此,Legg 和 DeepMind 團隊的核心思考,不是如何為 AI 設立一堆僵化的規則,而是如何讓 AI 本身具備強大的、可信賴的道德推理能力。
超越直覺的「系統二安全」框架
Legg 借用了諾貝爾經濟學獎得主丹尼爾·康納曼 (Daniel Kahneman) 的「系統一、系統二」理論,提出了一個名為「系統二安全 (System 2 Safety)」的框架。
- 系統一:是人類快速、直覺、本能的反應。例如,被激怒時想立刻反擊。
- 系統二:是緩慢、深思熟慮、有邏輯的分析。例如,深呼吸,思考反擊的後果,然後選擇更理性的做法。
傳統的 AI 安全措施,很多時候像是在教 AI 一堆「系統一」的規則(例如「不准說謊」)。但現實世界的道德困境極其複雜。有時候,為了拯救生命,說謊反而是更道德的選擇。
「系統二安全」的目標,是讓 AI 在面對複雜的倫理困境時,能夠啟動一個類似人類「系統二」的深度思考過程。AI 必須能分析情況的細微差別、評估不同行動的可能後果,並根據我們希望它遵循的道德體系進行推理。更重要的是,這個「思考鏈 (chain of thought)」應該是透明的,讓研究人員可以監控和審查它的決策過程。
AI 能比人類更道德嗎?
Legg 提出了一個相當大膽的觀點:一個成熟的 AGI,在原則上有可能比人類更道德。原因在於,人類的道德判斷時常受到情緒、偏見和疲勞的影響,但一個設計精良的 AI,可以更一致、更客觀地應用其道德框架進行推理,甚至達到超乎人類的分析深度。這將倫理問題從一個「感覺」問題,轉化為一個「推理」問題。
從測試到部署:DeepMind 的安全防線
當然,在達到這個理想狀態前,每一步都充滿風險。Legg 強調,DeepMind 採用了極其嚴格的流程:
- 內部測試:在模型發布前,會進行大量的基準測試和壓力測試。
- 紅隊演練:專門的團隊會扮演攻擊者,想盡一切辦法誘導模型做出危險行為,例如幫助設計生化武器或進行駭客攻擊。
- 分級釋出與監控:根據模型的能力等級,制定相應的風險緩解措施。模型部署後,會持續監控其行為,一旦發現超出預期的風險,就可能需要撤回。
他強調,世界上沒有 100% 的安全,他們的目標是將風險降至可接受的範圍內,並在效益與風險之間做出審慎的權衡。
AGI 將如何顛覆我們的經濟與社會結構?
如果說 AGI 的技術細節令人著迷,那麼它對社會的影響則足以讓人警醒。Legg 形容這將是一場「巨大的轉變 (massive transformation)」,其規模和深度將不亞於工業革命。
哪些工作最危險?
過去我們總認為,高學歷、高技術的白領工作比較安全。但 Legg 提出了一個截然相反且更精準的判斷法則:
如果你的工作可以僅僅透過一台筆記型電腦,以遠端的方式完成,那麼它就處於風險之中。
這條法則直接指向了大量的「菁英認知型工作」,例如軟體工程師、金融分析師、律師、作家、設計師等等。他舉例,在未來幾年,軟體工程領域,原本需要 100 人的團隊,可能只需要 20 位懂得使用先進 AI 工具的工程師就能完成。
與此相對,那些需要與真實物理世界進行複雜互動的工作,在短期到中期內反而相對安全。因為即便 AI 的認知能力達標,機器人技術的發展和成本,仍需要很長一段時間才能與人類匹敵。
我們正處於指數曲線的轉折點
Legg 講述了一個深刻的感受:他現在向各界專家解釋 AGI 的急迫性,感覺就像 2020 年 3 月,流行病學家們看著指數增長的數據,焦急地警告一場全球大流行即將到來,但當時大部分人仍在酒吧聚會、看足球賽,無法想像世界的樣貌將在幾週內徹底改變。
人類天生不擅長理解指數級的變化。大部分時候,那些「世界將迎來巨變」的預言最終都落空了。但 Legg 提醒,我們必須分辨哪些是空談,哪些是由堅實的底層技術驅動的真實趨勢。而現在,AI 發展的趨勢,正是一條陡峭的指數曲線。
重新思考財富分配與人類價值的「後AGI時代」
當大量的認知勞動可以被 AI 以極低的成本完成時,我們現行的社會經濟結構將面臨根本性的挑戰。
- 勞動價值瓦解:數百年來,人類社會的運作基礎是「人們貢獻自己的腦力或體力勞動,以換取生存和發展所需的資源」。當機器的生產力遠超人類,這個模型可能不再成立。
- 財富蛋糕變大,但如何分配?:AGI 無疑會創造巨大的財富和生產力,讓整個社會的「蛋糕」變得更大。但問題是,如果大部分人失去了透過勞動來分蛋糕的資格,我們要如何設計一個新的、公平的財富分配系統?
- 教育、法律、政治的全面重構:Legg 呼籲,從教育、法律、經濟、政治到城市規劃,每一個領域的專家都必須開始嚴肅思考:「當廉價、充沛、強大的機器智慧出現時,我們的領域會變成什麼樣子?」
TN科技筆記的觀點
Legg 提出「以勞動換取資源」的模式將不再適用,這點與 Elon Musk 等人對未來的設想不謀而合。在一個由 AGI 創造巨大物質豐裕的「後稀缺時代」,傳統意義上的「財富」重要性確實可能大幅降低。但這不代表經濟活動的消失,而是可能催生出全新的經濟型態。當所有人的基本生存需求都被滿足,價值交換的標的,將從物質轉向非物質。屆時,主導社會的可能是「聲望經濟」或「影響力經濟」,一個人的社會地位不再由銀行帳戶決定,而是由他的創造力、社群貢獻、或獨特觀點所能吸引的關注與信任來衡量。我們也可能看到一種「使命驅動經濟」的出現,人們不再為了薪水而工作,而是投身於自己熱愛的專案、藝術創作或科學探索。然而,從現有體系過渡的過程,必然伴隨著劇烈的陣痛。
另外 Legg 對 ASI 將基於物理定律全面超越人腦的論證,非常具有說服力。但這也引出了一個令人不安的矛盾:我們真能期望,人類所設計的道德框架,能夠有效且永久地約束一個遠比我們聰明的超級智慧嗎? 如果 ASI 的推理能力將遠超我們想像,它或許能完美地理解我們設定的每一條倫理規則,但同時也可能找到我們無法預見的漏洞,甚至以一種我們無法理解的、更高層次的「道德」為由,來合理化其違反我們初衷的行為。單純依靠訓練 AI 的「思考模式」恐怕是不足的,因為我們無法保證它的最終目標與人類的長遠福祉完全一致。在通往 ASI 的道路上,我們目前最大的希望,只能寄望於頂尖的 AI 科技公司,能夠真正將「對齊 (Alignment)」與「安全優先 (Safety First)」的原則,置於商業競爭和發展速度之上。
支持TN科技筆記,與科技共同前行
我是TN科技筆記,如果喜歡這篇文章,歡迎留言、點選愛心、轉發給我支持鼓勵~~~也歡迎每個月請我喝杯咖啡,鼓勵我撰寫更多科技文章,一起跟著科技浪潮前進!!>>>>> 請我喝一杯咖啡
在此也感謝每個月持續請我喝杯咖啡的讀者以及新加入的讀者們,讓我更加有動力為各位帶來科技新知!
祝各位讀者 2026 新年快樂!
以下是我的 threads 也歡迎追蹤、回覆、轉發喔!
>>>>> TN科技筆記(TechNotes)

















