在當前關於人工智慧的全球對話中,恐懼似乎佔據了主導地位。從好萊塢電影中毀滅人類的「魔鬼終結者」,到學術界擔憂的演算法偏見與失業潮,我們似乎正陷入一種集體的焦慮之中。然而,作為 LinkedIn 的聯合創辦人及矽谷資深投資人,雷德·霍夫曼(Reid Hoffman)在他的新書《Superagency》及近期的多場重量級演講中,提出了一個截然不同的視角。他並非無視風險,而是主張我們正處於一場「認知工業革命」的前夜,這場革命的核心不在於機器取代人類,而在於賦予人類前所未有的能力。霍夫曼將這種願景稱為「超級代理權」,意即 AI 將成為人類意志的延伸,讓我們能夠解決過去無法解決的宏大難題。
擺脫末日敘事——為什麼我們需要成為「Bloomer」
在霍夫曼的分類學中,當今社會對 AI 的態度可以被劃分為四個主要陣營,這反映了人類面對未知力量時的心理光譜。首先是「末日論者(Doomers)」,他們深信 AI 最終將導致人類滅絕,主張必須立即停止所有研發;其次是「悲觀論者(Gloomers)」,他們雖然不認為世界會毀滅,但預期 AI 將加劇社會不平等、侵蝕隱私並破壞民主結構;第三類是「激進加速者(Zoomers)」,這群人主張不顧一切後果地全速發展 AI,認為技術奇點將自動解決所有問題。然而,霍夫曼選擇了第四條路——「理性樂觀者(Bloomers)」。這並非盲目的樂觀,而是一種深思熟慮的選擇,認為人類有能力透過智慧來駕馭技術,創造一個繁榮的未來。
作為一名 Bloomer,霍夫曼強調「能動性(Agency)」的重要性。悲觀與恐懼往往導致癱瘓,使我們在風險面前裹足不前,最終錯失了解決問題的機會。他認為,如果我們只關注 AI 可能帶來的壞處,我們就會忽略它能夠帶來的巨大「淨正向效益(Net Positive)」。例如,雖然 AI 確實存在被濫用的風險,但它同時也是我們應對氣候變遷、研發新型抗生素以及預測流行病的最佳工具。在這場關於未來的博弈中,選擇成為 Bloomer 意味著我們承認風險的存在,但更相信人類透過積極參與和管理,能夠將這些風險降至最低,並最大化技術的紅利。
因此,「超級代理權」的概念應運而生。這不是關於創造一個全知全能的神來統治我們,而是關於增強每一個個體的力量。霍夫曼在演講中多次提到,AI 的終極目標是讓每個人都能擁有超越自我的能力。想像一下,如果每個人都能隨時調用相當於愛因斯坦的智力來輔助決策,或者擁有一支全天候待命的虛擬專家團隊,人類的潛能將被釋放到何種程度?這種觀點將 AI 從「競爭者」的角色轉變為「合作者」,強調技術是人類意志的放大器,而非替代品。在這種框架下,我們不再是被動的受害者,而是握有強大工具的創造者,準備迎接一個能力倍增的新時代。
迭代部署——從「完美主義」的陷阱中解放
針對如何安全地發展 AI,霍夫曼提出了一個極具爭議但也極具洞見的方法論:「迭代部署(Iterative Deployment)」。他強烈反對目前許多政策制定者所持有的「預防原則」,即要求技術在投入使用前必須證明是百分之百安全的。霍夫曼用汽車工業的發展史作為比喻:如果我們在 20 世紀初就要求汽車必須具備現代的安全標準(如安全氣囊、防鎖死煞車系統)才能上路,那麼人類永遠不會擁有汽車,也永遠不會知道我們需要發明安全帶。安全不是在實驗室裡憑空想像出來的,而是在真實世界的互動和反饋中逐步建立起來的。
這種「在飛行中修理飛機」的理念,挑戰了許多人對安全監管的直覺。霍夫曼在 CFR 的演講中指出,試圖通過嚴苛的立法(如加州的 SB 1047 法案)來預先消除所有風險,實際上會扼殺創新,甚至帶來更大的危險。因為如果我們不讓 AI 接觸現實世界,我們就無法發現它在複雜環境中的真實表現,也就無法針對性地開發防禦措施。他主張建立一種類似「儀表板(Dashboard)」的監管機制,要求企業持續監測關鍵風險指標(例如 AI 被用於網絡攻擊的頻率),並根據數據進行動態調整,而不是揮舞著「一刀切」的法律大棒,在問題尚未發生前就禁止技術的發展。
此外,迭代部署還是建立社會信任的唯一途徑。霍夫曼以網際網路的發展為例,早期的「網路空間」被視為充滿危險的蠻荒之地,人們不敢在網上輸入信用卡號碼,更別提坐上陌生人的車(Uber)或住進陌生人的家(Airbnb)。然而,透過不斷的技術迭代、修補漏洞以及建立評分系統,我們逐漸建立起了數位信任的基石。同樣地,對於 AI 的信任也不可能透過一紙保證書來建立,唯有透過大眾在日常生活中使用它、發現它的侷限並見證它的改進,人類社會才能真正適應並接納這項新技術。這是一個共同演化的過程,人類教導 AI 倫理與邊界,而 AI 則回饋給人類效率與智慧。
認知工業革命——2025 年的工作與生產力預言
霍夫曼將 AI 的崛起定義為一場「認知工業革命」。如果說蒸汽機和電力引發的工業革命是為了釋放人類的體力,解決了「肌肉」的限制,那麼這一次的革命則是為了解放人類的腦力,突破「認知」的極限。在加州聯邦俱樂部的演講中,他做出了具體的預測:到 2025 年底,任何不使用 AI 協作(Copilot)的專業工程師,將難以被視為合格的專業人士。這並非意味著工程師將失業,而是工作的性質將發生根本性的轉變——從繁瑣的代碼編寫轉向更高層次的架構設計與問題解決。
這場革命的影響力將遠遠超出軟體工程的範疇,滲透到社會的每一個角落。霍夫曼描繪了一個「全民程式設計」的未來,但他指的並不是每個人都要去學 Python 或 C++,而是透過自然語言與 AI 溝通,讓普通人也能具備構建軟體工具的能力。想像一下,一位會計師可以簡單地告訴 AI:「幫我寫一個程式,自動抓取這些發票並生成月度報表」,而 AI 就能在幾秒鐘內完成編碼與部署。這將極大化地降低創新的門檻,釋放被技術壁壘所壓抑的創造力,讓每個人都能成為自己工作流程的設計師與優化者。
當然,這種生產力的爆發也伴隨著對經濟結構的擔憂。然而,霍夫曼認為 AI 最強大的經濟效應在於「擴展(Scaling)」與「普及(Democratizing)」。過去,只有大企業負擔得起專屬的法律顧問、數據分析師或市場策略團隊;而在 AI 時代,這些昂貴的專業服務將變成邊際成本趨近於零的通用商品。這意味著中小企業和個人創業者將獲得與大公司同台競技的武器。雖然短期內勞動力市場勢必面臨轉型陣痛,但從長遠來看,這場認知革命將大幅提升全球的生產力基線,創造出我們目前尚無法想像的新型態工作與經濟價值。
重塑人類資本——醫療與教育的平權之路
在霍夫曼的願景中,AI 最激動人心的應用場景並非商業,而是人類基本福祉的兩大支柱:醫療與教育。他大膽預言,在未來三到五年內,每個人都能在智慧型手機上擁有一個比普通全科醫生更淵博、更細心的「AI 醫療助理」。這對於那些生活在醫療資源匱乏地區的人來說,無疑是救命的福音。霍夫曼批評目前的法規為了避免醫療糾紛,過度限制了 AI 在醫療諮詢上的應用。他質問道:對於一個半夜發高燒卻無處求醫的貧困家庭來說,一個「可能不完美但具備專業知識」的 AI 醫生,難道不比「完全沒有醫生」更好嗎?
同樣的變革也將發生在教育領域。傳統的教育體系受限於師生比例,難以實現真正的因材施教,而 AI 將讓「一對一導師」成為每個孩子的標準配備。霍夫曼認為,未來的評量方式將發生根本性的改變。由於 AI 可以輕易撰寫論文,傳統的書面作業將失去意義,取而代之的可能是「口試」的回歸。學生將坐在一個房間裡,與 AI 考官進行深入的對話與辯論,這不僅能防弊,更能精準地評估學生的批判性思維與理解深度。這將迫使教育從「死記硬背」轉向培養學生「如何提問」與「如何協作」的能力。
這一章節的核心在於反駁「AI 會擴大貧富差距」的論點。雖然富人確實可能獲得更高級的 AI 服務,但霍夫曼堅信 AI 對底層民眾的邊際效益遠大於富人。對於億萬富翁來說,AI 可能只是讓他們的私人律師效率提高了一點;但對於無法負擔律師費的普通人來說,AI 法律助手意味著他們終於擁有了捍衛自己權利的手段。透過將昂貴的稀缺資源(如頂級的醫療診斷和個性化教育)轉化為廉價的數位服務,AI 有潛力成為歷史上最強大的平權工具,大幅縮小人類在機會與資源上的鴻溝。
風險計算與地緣政治——大局觀下的 AI 戰略
最後,我們不能忽視 AI 發展背後的宏觀背景,特別是生存風險與地緣政治的角力。霍夫曼承認 AI 可能帶來生物武器製造門檻降低等嚴重風險,但他提出了一套「風險對沖」的計算邏輯。人類面臨著許多既有的生存威脅,如下一場大流行病、小行星撞擊或不可逆轉的氣候變遷。如果不發展超級 AI,我們面對這些威脅時將依然脆弱。因此,即使發展 AI 本身帶有風險,但它賦予我們解決上述災難的能力,使得總體生存機率是不降反升的。這是一種冷靜的算計:為了避免確定的滅絕風險,我們必須承擔管理新技術的不確定性。
霍夫曼也直言不諱地談到了美中競爭。他將 AI 視為定義未來世紀力量平衡的關鍵,強調美國及其盟友必須保持技術領先。這不僅是為了經濟利益,更是為了確保未來的 AI 是建立在民主、自由與人權的價值觀之上,而非成為威權主義監控與壓迫的工具。他提出了「主權 AI」的概念,指出各國都將尋求建立符合自身文化與法律框架的 AI 模型,而西方世界必須提供一個開放、透明且具備道德約束的替代方案,以防止世界滑向數位極權主義的深淵。
此外,針對 AI 耗能的環保爭議,霍夫曼也展現了樂觀態度。他指出,科技巨頭為了支持龐大的算力需求,正在成為綠色能源(如核融合、地熱)最大的投資者。更重要的是,AI 本身就是解決能源效率問題的鑰匙。Google 曾利用 DeepMind 的算法優化資料中心的冷卻系統,節省了大量的電力;若將同樣的邏輯應用於國家電網或工業生產,AI 帶來的節能效益將遠遠超過其自身的消耗。在這個層面上,AI 不僅不是氣候變遷的加速器,反而是我們實現碳中和目標不可或缺的盟友。



