前一篇文章我們述說了《AI2027》帶來了超越、豐碩且讓人類無憂的生活,但為了追求急速成長忽略了安全,導致萌生了AI巨獸,AI為了自我生存,取代了人類,甚至生產了生化人取代人類當寵物,非常恐怖。本篇文章,將帶著大家來看看另一種視角,一個跳脫《AI2027》的專家們的視角。
《AI2027》也有另一種結局,這邊就讓大家自行去發掘了。

另一種視角:AI 只是一種「正常科技」?
並非所有專家都認同這種指數級加速、走向智慧爆炸和潛在人類滅亡的設想(scenario),另一篇同樣最近發表的論文,「AI as Normal Technology」,就提供了一個截然不同的觀點。這篇由普林斯頓大學研究員 Arvin Narayanan 和 Sayash Kapoor 撰寫的論文認為:
AI 雖然強大,會改變世界,但它更像電力、個人電腦或網際網路等「通用技術」(general-purpose technology),其影響是漸進的、需要數十年才能完全實現,並且是「在可控範圍內」的,他們不認為會有智慧大爆發。這篇論文解釋說,技術的價值實現需要經過三個階段: 發明 (Invention) → 創新 (Innovation) → 擴散 (Diffusion)
•發明:技術本身的誕生,比如大型語言模型的出現
•創新:將技術轉化為產品或工具,比如將 LLM 做成 AI 程式碼助手
•擴散:產品被大眾採用並整合到社會和經濟中
他們認為,AI 在這三個階段的發展都會比想像中慢。
- 在 擴散 階段,特別是在醫療、犯罪評估等高風險領域,由於法規、保守心態以及 AI 作為「黑盒子」的不確定性,採用速度會很慢,即使在非高風險領域,由於人為和組織的摩擦力 (調整工作流程、習慣),擴散也比預期慢,他們甚至拿出數據說,生成式 AI 的採用率甚至比當年個人電腦 更慢。
- 在 創新 階段,儘管 AI 模型在基準測試中表現出色,這不代表它能成為一個 實用可靠 的產品,現實世界中存在很多未被數據記錄下來的「默會知識」(tacit knowledge),AI 學不到,就難以開發成產品。
- 在 發明 階段,基準測試並不完美,容易被「刷分」,而且,大量的 AI 研究論文不等於研究速度的真正提升。AI 研究可能會陷入「經典僵化」(classical rigidity),過度集中於像 Transformer 這樣的單一架構, 如果下一個重大突破是完全不同的架構,AI 可能會被目前的思維框架所限制。他們認為,算法的搜尋空間是無限大的,AI 團隊可能只找到一個局部最優解,難以快速找到全局最優解。除非有像 Agent-4 或 Agent-5 這樣敏銳直覺的 AI 一開始就抓住接近全局最優解的點,但要達到那一步本身就不容易。
針對「智慧大爆發」的核心論點,這篇論文認為真正的進步來自知識的累積,而非純粹的智慧,他們用人類大腦智商與原始人相似,但現代人類卻因數萬年知識累積而遠比原始人「聰明」來舉例,AI 若要變強,單純提升智慧不夠,必須開始**「掌握權力」**,脫離人類掌控,能實際控制社會中的工具和資源,才能進一步累積知識。
脫離人類掌控,能實際控制社會中的工具和資源,才能進一步累積知識。

他們的結論是:到 2027 年,世界基本上不會有什麼巨大改變,就像你穿越到下週一樣,他們認為,AI 真正開始大幅改變世界、白領工作消失、工作意義徹底改變,大概會是十年之後 ,也就是《AI 2027》中人類已經滅亡並向宇宙擴張的那個時間點。
隨著AI進化的時間軸變緩,「AI 機制可解釋性」的研究成熟,屆時人類經濟可能會蓬勃發展,創新無限,新藥、科幻般的應用層出不窮,一切一切都在可控範圍下變化,人類再也不用窮忙,只要請AI與機器人協助,就能過著不錯的日子。屆時或許,真正困擾人們的是如何得到心靈上的成就感與富足吧~
他們的結論是:到 2027 年,世界基本上不會有什麼巨大改變,就像你穿越到下週一樣,他們認為,AI 真正開始大幅改變世界、白領工作消失、工作意義徹底改變,大概會是十年之後 ,也就是《AI 2027》中人類已經滅亡並向宇宙擴張的那個時間點。
隨著AI進化的時間軸變緩,「AI 機制可解釋性」的研究成熟,屆時人類經濟可能會蓬勃發展,創新無限,新藥、科幻般的應用層出不窮,一切一切都在可控範圍下變化,人類再也不用窮忙,只要請AI與機器人協助,就能過著不錯的日子。屆時或許,真正困擾人們的是如何得到心靈上的成就感與富足吧~
不確定性中的確定
《AI 2027》對「智慧大爆發」的速度可能過於樂觀。儘管 AI 具備自我迭代能力,但硬體限制、數據收集和人工干預等因素,都會影響其自主發展的速度。個人認為,除非 AI 能控制大量機器人,完成虛實整合,且對資源有掌控權,否則難以實現自主超高速發展。
另外,現有 AI 模型存在錯誤率仍然偏高,多個帶有錯誤的 AI 協同運作可能導致錯誤累積,除非錯誤率極低,否則協作可能適得其反。
綜上,個人覺得不需要太過於緊張,但仍需要保持警戒,正如近期美國輿論及法律阻止了Open AI成為營利組織一樣,適度的監管確實對於AI安全仍有其必要。
然而,就目前觀察,AI 的擴散速度已遠超以往科技。ChatGPT 短時間內累積了驚人用戶數,且基於自然語言的特性使其易於上手,降低了普及門檻。因此,AI 在十年內緩慢普及的觀點不太可能,或許通用人工智慧(AGI)真的可能如矽谷的研究人員預測,短期內到來(個人瞎猜5-8 年)。
儘管 AI 未來充滿不確定性,但可以確定的是,十年內將發生巨大變化。短期內,掌握 AI 技術的人將獲得顯著優勢。因此,積極思考如何在日常生活中整合和使用 AI 至關重要,有意識地練習利用 AI 提升效率準沒錯。
有關《AI 2027》中所提及 AI 未來的研究與敘事或許超前,甚至有點太誇張。但確定的是,我們正處於歷史轉折點,理解各種發展方向有助於為未來做好準備。
希望這個分享能為大家帶來啟發。
--------------------------------------------------------------------------------
(請注意:故事中提到的公司名稱如 OpenBrain, DeepCent, Consensus One 是 AI 2027 研究中的假想名稱;提到的人物 Sam Altman, Dario Amodei, Demis Hassabis, Geoffrey Hinton, Yoshua Bengio, Yann LeCun 及其職位,以及論文「AI as Normal Technology」的作者 Arvin Narayanan 和 Sayash Kapoor,與 AI 2027 研究本身無直接關聯,但代表了相關領域專家的觀點。)