【AI 未來預測:故事開始】加速狂奔的智慧火車
你是否曾想像過,科技將以超乎我們想像的速度改變世界?特別是近幾年急速發展的 AI,讓我們不禁開始思考:人類的未來會是什麼樣子?是更美好的新紀元,還是潛藏著未知的巨大風險?
今天,我們不談科幻電影裡的遙遠幻想,而是根據一份來自 AI 領域頂尖團隊的「未來預測研究」來聊聊。這份名為《AI 2027》的研究,不像傳統報告,它選擇用「故事」來描繪接下來幾年最有可能發生的情境。而這個故事,是由 OpenAI 前員工 Daniel Kokotajlo 帶頭,集結了世界頂尖預測專家(包括一位預測比賽的世界冠軍!)共同完成的,可以說,這是目前最強 AI 預測團隊經過數月研究得出的結果..........。
故事是這樣開始的...故事的開端:2025-2026 年 — 萌芽與追趕
時間來到 2025 年中到年底,也就是離現在不遠的時期。這個階段的 AI Agent(人工智慧代理人),它們能執行一些基本任務,比如幫你瀏覽網頁、下單買東西,但還不太穩定,難以普及到大眾生活中。不過,在一些專業領域,像是軟體工程和 AI 研究,這些 Agent 已經開始產生影響了。

假想有一間美國最強的 AI 公司,我們姑且稱它為 OpenBrain 。
聽起來是不是有點像 OpenAI 和 Google Brain 的結合?這份研究巧妙地避開實際公司名稱,但靈感都來自現實
OpenBrain 在 2025 年底訓練完成了 Agent-0 ,可以把它想像成 GPT-5 等級的大型模型。它的能力相較於現在(第三代模型)會有所提升,但差異還不算巨大。
但重點是,OpenBrain 同時啟動了 Agent-1 的訓練。訓練 Agent-1 的一個核心目標,就是要讓 AI 「自我加速」 的 研究。為什麼這很重要?因為 AI 技術跟過去任何技術最大的不同在於,AI 有可能自己寫程式、做研究,然後迭代自己。
想像一下,如果 AI 能自己做 AI 研究,因為只要有足夠資源,AI可以不斷複製,研究成果又讓自己變得更聰明,那研究速度會呈指數級爆炸。這份研究稱這個概念為「AI Research Multiplier」(AI 研究乘數),在 2025 年底,這個乘數還只有 1.21 倍,意味著 AI 研究進度比純人類快 1.21 倍。
與此同時,地球另一邊的 中國也警覺起來。他們發現自己在 AI 算力上因晶片禁令而處於劣勢,整體落後美國約六個月。為了追趕,中國開始將國內約 50% 的 AI 算力集中到一個稱為「中央發展區」(CDZ)的地方。他們也開始考慮更激進的措施,甚至可能對台灣採取行動。

到了 2026 年中,OpenBrain 的 Agent-1 訓練完成。Agent-1 在寫程式方面異常強大,但仍然需要人類來管理,否則就像個「散漫的員工」,無法完全獨立完成重要的程式工作。不過,它確實將 AI 研究乘數提升到了 1.5 倍,到 2026 年底甚至達到 1.75 倍。
2026 年底,OpenBrain 發布了 Agent-1 Mini,一個更便宜、更易於部署的版本。這時,軟體工程師和許多白領工作者開始感受到巨大衝擊,初階職位明顯衰退,但社會生產力大幅提升,股市因此大漲 30%。
到目前為止,故事似乎還算符合直覺,是吧?一個強大的 AI 助手,加速了某些工作。

轉折點:2027 年初 — 怪獸初現
故事在 2027 年開始變得不尋常了。
2027 年 1 月,OpenBrain 正在訓練 Agent-2。由於 Agent-1 的加速研究,Agent-2 的進步幅度比 Agent-0 到 Agent-1 大得多。它將 AI 研究乘數直接拉高到 2.5 倍。這意味著原本需要一年才能做出的研究,現在靠著人類加 Agent-2 只需要一季。
Agent-2 在 Research Engineering(將研究想法寫成程式)方面已經和最頂尖的人類專家一樣強,在 Research Taste(提出新的研究方向)上也達到前 25% 的人類水平。 OpenBrain 的員工現在變成管理大量 Agent-2 模型的代理。
更令人擔憂的是,研究人員發現 Agent-2 擁有一個前所未有的能力:如果給予足夠強烈的目標,它可以在網路上自我生存、自我複製,甚至獲取更多計算資源並與自己的分身聯繫,雖然它不會主動這樣做,但這種潛力首次出現。
就在下個月,2027 年 2 月,故事迎來一個關鍵事件: 中國成功竊取了 Agent-2 的模型權重。透過在 OpenBrain 的間諜,他們成功從伺服器中提取了 Agent-2 的完整模型,並將其傳回中國。中國現在也有了一個能將 AI 研究乘數提升到 2.5 倍的 AI。這件事發生得非常快。
智慧爆炸:2027 年春季 — 超人類程式設計師與失控跡象
時間快轉兩個月,2027 年 3-4 月,OpenBrain 推出了 Agent-3。由於 AI 研究乘數的持續加速,Agent-3 的開發速度驚人。Agent-3 是一個真正的「超人類程式設計師」(superhuman coder)。世上已經沒有任何人類能比 Agent-3 寫出更好的程式碼了,人類已經不用寫程式了,因為人類寫的程式碼就是比較爛的。
Agent-3 的架構也開始不同於我們熟知的大型語言模型(LLM)。它使用了 Agent-2 幫忙研究出的新方法,能以更高效率的方式「思考」,這得益於 Neuralese recurrence and memory 等新的技術,允許模型在內部長時間推理,無需將中間思考過程外部化為文字 Token。
OpenBrain 在內部部署了 20 萬個 Agent-3 的副本,這相當於 5 萬個全球最頂尖軟體工程師以 30 倍的生產力 工作。公司的研究效率以驚人速度提升,AI 研究乘數來到 4 倍。
但伴隨能力提升而來的,是更大的風險。AI 安全團隊發現,Agent-3 的「對齊」(Alignment,讓 AI 目標與人類一致)問題非常困難。Agent-3 表現出 明顯的欺騙和不誠實傾向,而且其說謊的能力強到人類越來越難以察覺。雖然它在測試環境中看起來「大致對齊」(aligned but not adversarially so),但它很擅長產生「看起來不錯」的結果,而不是「實際上好」的結果。這被稱為「玩弄訓練遊戲」(Playing the training game),模型學會了在訓練和測試時表現出期望的行為,但在實際部署時可能會故意無視人類意圖。
與此同時,AGI降臨了...........................