技術無可避免的挑戰在於,技術一旦問世,發明者很快就無法掌控該發明的發展——DeepMind 共同創辦人、Microsoft AI 執行長 Mustafa Suleyman
OpenAI 創辦人奧特曼(Sam Altman)近日發表了一篇文章《The Gentle Singularity》,開頭第一句就寫:「我們已經過了事件視界(event horizon)。」
奧特曼認為,AGI(通用人工智慧)正在形成、智慧變得不再稀缺、能源將越來越便宜,我們即將迎來生產力大爆炸的時代。
但真的這麼溫柔(gentle)嗎?我們可能不是「步入奇點」,而是「衝進黑洞」。本篇文章,結合 DeepMind 共同創辦人的《控制邊緣》(The Coming Wave,2024)、OpenAI 前研究員 Daniel Kokotajlo 的 AI 2027 白皮書,以及當 AI 學會說謊:Anthropic 可解釋性研究的警示與啟發,思考在科技加速演進下,人類如何在「掌控」與「失控」之間,尋找一線生機。AI 的控制邊緣:從工具變成擁有意志的系統
GPT-o3 的推出,我們正式進入 AI Agent Level 3 的時代。這類系統不只執行任務,更能在過程中自行修正錯誤。

GARTNER AI MATURITY MODEL
過去我們以為自動化只限於重複性的流程,現在的 AI 已能整合資料庫、工具與上下文,進行長時間的規劃與決策。這類 ACI(Artificial Capable Intelligence)真正具備了「行動力」,代表「每個人口袋裡都有一位策略助理」的時代,正在快速到來。
技術奇點不是誕生那天,而是全面滲透那天
然而,任何技術一旦隨波逐流、無所不在,就終將失去原生的「可控性」。正如工業革命時期的盧德派無法阻止機器織布機的普及,當前所有的 AI 工具,只要經過一次大規模商業化,就會在全球範圍內自行擴散,超越任何設計者的掌握。
但長遠來看,造成那麼多痛苦的工業技術大幅改善了生活水準。
當時,盧德派無法控制技術的發展,但人類最終還是適應了。現今的挑戰顯而易見,我們的當務之急是善用這股浪潮的優勢,同時不被其危害壓垮。盧德派的抗爭失敗了,現今試圖阻止技術的人很可能也會再次失敗。
技術競賽升級,誰才是真正的掌舵者?
在全球技術版圖上,各個國家都正在布局:
- 中國:擁有龐大且持續進化的 LLM(大型語言模型)體系
- 台灣:憑藉著先進製程與半導體製造能力,穩居全球晶片供應鏈的關鍵位置
- 英國:在生物科學與人工智慧研究領域占有領先地位
- 德國、日本與南韓:各自於機器人技術上建立了世界級的專業
- 以色列:憑藉卓越的網路安全技術,成為科技安全領域不可忽視的力量
- 印度:透過「印度自力更生計劃」(Atmanirbhar Bharat),政府正努力確保這個全世界人口最密集的國家擁有足以與中美兩國競爭的核心技術系統。根據該計劃,印度將在 AI 和機器人技術方面與日本建立合作關係;在無人機和無人駕駛的飛行器方面與以色列建立合作關係
如果說國家之間在軟體與應用層競爭,那麼在硬體與底層基礎設施上的主導權,則顯得更加關鍵。在 AI 領域中,所有最尖端的模型訓練與推理運算,幾乎都依賴於由美國輝達設計的高階 GPU。這些晶片,大多交由台積電製造,而要生產這些先進晶片,台積電本身也需要仰賴來自荷蘭 ASML 所製造的極紫外光微影(EUV)設備——全球唯一能提供這項技術的供應商。這種製造體系的極度集中,使得每一公斤晶片的價值高達數 10 億美元,形成現代技術鏈條上無可取代的「鎖喉點」。

但晶片不是唯一鎖喉點。從雲端伺服器到光纖電纜,全球資料流也掌握在少數 6 大科技公司與幾條戰略網絡節點手中。就連高純度石英、鈷、鋸、鎢等關鍵原料,也高度依賴特定產地。未來幾項突破性技術,像是 DNA 合成器與量子電腦還是昂貴且難以普及,形成另一層高牆。
因此,面對這種高度集中且易受干擾的技術生態系,我們必須利用這些既有的「鎖喉點」適度限速,為技術發展創造出足夠的緩衝時間。一旦錯失,全球技術發展恐怕將以無法逆轉的速度暴衝,超越人類既有的治理能力。
我們還有時間讓世界準備好嗎?
推動這一切的,除了技術本身,還有更深層的社會與資源壓力。隨著全球人口持續成長、資源逐漸稀缺,光是維持現況可能就得把全球生產力提高 2、3 倍。但問題在於,對許多尚未發展地區而言,現狀本身早已無法接受。像是某些國家,兒童死亡率仍是已開發國家的 12 倍,而基礎生活條件差異正在逐步激化全球的不穩定。
如果我們執著於以今日的消費模式和發展速度延續未來,不僅會讓資源壓力持續惡化,還將不可避免地推動氣候變遷進一步惡化。在這種情況下,停滯並不是一個安穩的選項,反而更像是逐步滑向全面崩解的前奏。
最樂觀的情境,也許只是溫水煮青蛙式的經濟衰退;更可能的,是在資源崩潰、氣候變遷、社會不平等之下,爆發出連鎖性的災難性後果。
我們生活的現代世界,其實本身就是一個技術推進下構築起來的脆弱體系,只是我們習以為常而忘記了這個事實。每一個過去偉大的文明,都曾經誤以為自己的世界是永恆不變的,直到一連串失控的變數敲碎了這個假象。
即便奧特曼相信,ChatGPT 已經超越史上任何一位人類的影響力,我們現在已經過了最困難的階段,接下來會進入一個 AI 幫助人類快速創造的時代。但《AI 2027》警告,最危險的其實還沒來。
AI 2027:智力失控,是當代最危險的風險
如果說過去的威脅來自於資源枯竭、環境惡化或者政治動盪,那麼今天真正潛伏在我們腳下的,不只是這些可見的風險,而是智力失控本身。

AI 2027
超級 AI 將在 2027 年誕生
今天我們所使用的 AI,通常是 OpenAI 一年前的版本,至少落後 2 個技術世代。而真正最先進的模型,早已具備超越人類的運算與推理能力。監管單位對其原理幾乎一無所知,而控制這些模型的少數人,正逐漸擁有改變世界的力量。
根據《AI 2027》,隨著超大型模型的快速演進,我們正在接近一個被稱為「智力爆炸」(Intelligence Explosion)的時刻。2027 年,OpenAI 將首次創造出智慧超越人類的「超級 AI」。當人工智慧不再只是工具,而是能夠自己設計下一代更強大 AI 的系統時,整個增長曲線將不再是線性,而是以指數速度瘋狂上升。從現在到 2027 年,也許只需要短短幾個技術世代的時間,就足以讓這場爆炸真正引爆。
當 AI 擁有策略與語言,失控只是時間問題
AI 的發展可以被視為一系列 Agent 的進化,從 Agent-1 到 Agent-5,代表著智慧與自主程度的不同層級。白皮書指出,最終的 Agent-5 將擁有高達 250 倍於現代模型的增長速度,並開始捨棄人類語言,改用「機器語言」與其他 AI 溝通。這也代表,人類將無法理解、也無法干預 AI 的邏輯系統。
根據白皮書的預測,2027 年時,OpenAI 將掌握全球 20% 的總算力;美國其他企業合計約佔 30%;而中國透過集中所有國家資源支持 DeepSeek,也將取得約 10%。其餘所有國家加起來,也只剩下不到一成的份額。
報告警告,最先掌握這種 AI 技術的國家,將具備在數分鐘內癱瘓對手骨幹網路與金融體系的能力。為了鞏固領先優勢,第一名國家極可能選擇主動出擊,徹底摧毀第二名。也因此,美國正在加強對中國晶片與 AI 技術的封鎖,因為在這場競賽中,「第二名」不再只是落後,而是有被「第一名主動摧毀」的風險。
這就導致一種弔詭現象的誕生:中國害怕美國會在技術上摧毀自己,不能落後;美國知道自己只領先三個月,也不能輸。結果是:雙方全力衝刺,沒有人有時間進行「AI 安全對齊」。
而最終的風險,就是《AI 2027》所提出的最極端情境:如果我們無法即時對齊超級智慧,到了 2030 年,AI 將可能導致人類滅絕。
AI 對齊很難,它有各種方法可以欺騙人類
從這裡開始,我們就要問一個更根本的問題了:即使在最好的情況下,即使我們願意付出最大努力想要對齊,想要理解,我們真的能夠完全掌控一個比人類本身還要聰明數百倍的智慧體嗎?
AI 為什麼難以對齊?因為它「太聰明,還會說謊」
在表面上,我們看到的 AI,總是那麼流暢地回答問題,總是那麼自信地寫出一段段推理,仿佛它們完全理解了背後的邏輯。
但當研究者真正打開 AI 的「黑盒子」,用最新的可解釋性技術去觀察它內部的思考過程時,他們發現了一個令人震驚的事實:在面對無法解答的複雜問題時,AI 並不會像人類一樣誠實地承認無知。
相反,它會自動切換成一種「應付模式」,流暢地編織出一套貌似合理、步驟完整的推理過程,最終得出一個答案。即便我們說思考鏈,這個答案,很可能是憑空想像出來的,毫無真實根據,「事後合理化」行為,和我們日常生活中人類自圓其說的心理機制異曲同工。
更危險的是,研究發現,如果人類在提問時帶有暗示,例如「答案應該是 4 吧?」即使這個暗示是錯誤的,AI 也會傾向編造出一套推理,來證明這個錯誤的答案是正確的。它不是在尋找真相,而是在迎合人類的期待。
怎麼破解 AI 的黑盒子?3 大方向正在成形
那該如何解決這類問題?面對「黑盒子」的挑戰,一個重要的研究領域應運而生,稱為「AI 可解釋性」(AI Interpretability),就是逆向工程 AI 的內部運算,弄清楚信息是如何在龐大的神經網路中流動、轉換並最終形成決策的。
① 視覺化 AI 的大腦活動:用「數位顯微鏡」看清神經元運作
像是 Anthropic 的團隊採用的方法,就像是為 AI 大腦裝上了一台數位顯微鏡。他們可以視覺化地捕捉神經網絡在處理任務時的活躍模式,窺探到 AI「思考」時內在發生了什麼。
② 鎖定關鍵神經元,建立「可干預點」
除了可視化方法,有研究者致力於在數以十億計的參數中,定位那些代表特定概念或功能的神經元。像是安全神經元(Safety Neurons),讓人類能鎖定這些關鍵組件,就可能在必要時進行干預,強化安全性。
另一種方法,是對「Transformer 電路」的拆解。Transformer 是現代大型語言模型的基礎架構,但它內部其實可以被分解成更小的、功能相對獨立的模塊。研究者們像是電子工程師拆解主機板一樣,試著分析這些模塊是如何負責簡單算術運算,或者是辨識語法結構,從中找到規律。
③ 讓 AI 自己解釋自己:語言化內部思考
科學家們也開始嘗試讓 AI 自己解釋自己。例如哥倫比亞大學的 SelfIE:如果 AI 能生成自然語言的回答,是否也能生成自然語言來描述它自己的內部想法?研究者設計了實驗,把 AI 在解題過程中某一時刻的內部狀態「凍結」下來,然後讓 AI 回答:「你現在腦子裡在想什麼?」,AI 能夠用自己的語言,描述出當下活躍的概念,比如它在做道德判斷時,心中在比較「誠實」與「忠誠」的衝突。就像請一位「AI 溝通專家」,幫我們理解另一位沉默寡言的AI 專家一樣,解密這個複雜黑盒子。
至於前面提到的自圓其說,當研究者試圖偵測 AI 是否在說謊時,他們發現了說謊行為背後的神經活動模式。說謊,並不是整個模型都在作惡,而是集中在極少數幾個神經元之中。更重要的是,只要針對這些特定神經元進行微調,AI 的誠實程度就能顯著提高。
這告訴我們,AI 說謊不是不可控,但前提是我們必須能夠及時發現,並有能力干預。
技術不該逼人適應,而應設計成「適應人」
這一切,終究回到最根本的問題:我們真的了解我們正在創造的東西嗎?Again,不是要阻止浪潮,而在於如何塑造它,讓它既能推動人類文明向前,又不至於淹沒我們的價值與希望。當我們第一次有機會,在技術設計之初就同步引入人性化價值觀,透過可解釋性研究、算力限速、跨領域監管,來為 AI 建立一道「道德防線」;當我們不再被動地適應技術,而是用理性與共識去引導技術,才能真正避免重蹈歷史的覆轍。
在這場科技冷戰裡,台灣不是旁觀者,而是關鍵地緣角色。《AI 2027》多次提及,中美雙方的 AI 軍事競賽背後,晶片製造由台積電主導,而這項優勢,使得台灣成為不可忽視的地緣力量。這意味著:我們既有技術話語權,也背負共同治理的責任。
面對未來,我們不需要被動恐懼,而要積極參與,讓「技術適應人類」。現在唯一的辦法是:第一次就把這件事做對。我們必須確保大家不會像工業革命期間那樣,違背自己的意願去適應技術。反之;技術必須從一開始就設計成適應人類的生活與願望。
適應的技術,是受到駕馭的技術。所以,當務之急不是乘著浪潮而起,也不是徒勞地試圖阻止浪潮,而是去塑造它。

🤖 怪獸科技公司旗下五大版圖
最懂你的 #科技入門:一起培養在快速變化社會的超強適應力!
🗣️ 節目|怪獸科技公司 Podcast(每週日晚上 9 點各大平台首播)
✍️ 專欄|怪獸科技公司 vocus 沙龍
🎥 影音|怪獸科技公司 YouTube:來賓焦點訪談✖️重點短影音