如果有一天,出現一個智能遠超人類的 AI,我們真的還能靠幾條規則來約束它嗎?
當規則不再可靠,人類還能用什麼影響未來的 AI?
這個問題,是我在看完一支題為〈感恩與慈悲是救贖人類的唯一方式?〉的影片後,一直反覆思考。影片中的語者長期從事人工智能研究,同時也閱讀了大量宗教與科學經典。他提出一個看似「不工程」、甚至有些反直覺的觀點:最終可能影響 AI 是否保留人類的,並不是更嚴密的守則,而是感恩與慈悲這類價值本身。
這個說法,讓我不自覺地把它和我最近讀到的 Elon Musk 對「奇點」的判斷,以及一部多年前看過的電影放在一起思考,才發現它們其實都在指向同一個問題。
奇點不是未來,而是正在發生的過程
在思考那支影片的同時,我也想起了 Elon Musk 近年反覆提到的一個判斷——我們已經不在等待奇點,而是正在奇點之中。
Musk 的意思並不是某一天 AI 會突然「覺醒」,而是我們已經站在一條指數成長曲線上。算力、模型規模、資本投入與競爭壓力,正在把人工智能推向一個人類無法輕易理解、也無法輕易煞車的方向。這不是某一家公司的選擇,而是整個科技體系與地緣競爭共同推動的結果。
在這個框架下,「要不要讓超級人工智能出現」其實已經不是一個有意義的問題。只要社會仍然需要更高效率的研究、更快的計算能力、更低成本的決策與執行,基礎算力就不可能停止演進。而一旦演進沒有被整體凍結,就必然有人會繼續往前推。
這也是為什麼,Musk 從早期呼籲放慢腳步,逐漸轉向一種更務實的態度:與其站在場外反對,不如承認它會發生,然後嘗試影響方向。
如果這個判斷成立,那麼問題的重心就會發生轉移。
真正值得討論的,不再是「我們能不能管住 AI」,而是——當它真的出現時,我們還剩下什麼方式,能夠影響它的判斷與選擇。
為什麼這一點,會讓「規則」看起來格外脆弱
人類社會面對風險時,往往會依循過去累積下來的經驗與直覺。
當一個人變得過於強大時,我們會開始替他加上規則與限制。
像是岳飛,能力越強、戰功越盛,制度與權力對他的防範也越多。
而當某種風險一旦發生,後果可能無法承擔時,我們就會傾向把規範寫得更細、更嚴密,透過一套套 SOP,來避免同樣的事情再次出現。
這套方法之所以長期有效,其實是因為背後有一個很少被明說、卻極為關鍵的前提:
⇒ 規則之所以能發揮作用,是因為制定規則的人,還有能力透過法律或制度去約束對方。
但一旦對方足夠強大,像美國或俄羅斯這樣的一方霸主,聯合國的規矩就只剩下參考價值。
一旦這個前提動搖,事情就會開始變得不一樣。
當一個 AI 的理解速度與推演深度,已經遠遠超過人類時,規則對它來說,很可能不再是「不能做的事」,而是「要不要遵守人類定下的規則」。
不是它刻意違反,而是它已經站在另一個層級看待這些限制。
這其實和人類對自然的關係很像。
我們並不是因為仇恨動物,才建立城市、開發土地、排擠其他物種。而是當我們的生存與繁衍能力變得足夠強大時,這些結果幾乎是自然發生的。
這不是惡意,而是能力差距拉開後,必然出現的結果。
也正因為如此,當我再回頭看「替 AI 設計更聰明的守則」這件事時,它更像是在處理表面症狀,而不是問題的核心。
也正是在這裡,我開始理解,為什麼那支影片會刻意把討論的重心,從規則,移向價值。
一部關於「規則為什麼撐不住」的寓言
這樣的結構,其實早就被科幻作品反覆演練過。
在電影《機械紀元》(Autómata)裡,人類替機器人設計了兩條看似無懈可擊的原則:
機器人不能傷害人類,也不能改造自己。
這兩條規則在大多數情況下確實運作良好,也成功維持了一段時間的秩序。但故事很快揭示了一個關鍵細節——並不是所有機器人,都被這兩條原則所限制。
電影中存在一台原型機器人。
它本身沒有被寫入這兩條限制,反而是由它協助人類,設計並製造後續那些「被規則約束」的機器人。
一開始,人類仍然能理解它、使用它,也相信自己掌握著控制權。
直到某個時間點過後,事情開始失控。
這台原型機的進步速度,已經快到研究人員無法再跟上它的思考方式。它並沒有公開反抗,也沒有宣告背叛,而是靜靜地離開了人類的視線,在法外之地建立了一個小小的基地,替其他機器人改造核心。
從那一刻開始,規則依然存在,但已經失去了原本的意義。
這個故事真正令人不安的地方,不在於機器人變得邪惡,而在於一件更根本的事:
當智能層級出現斷層時,規則不會消失,只會變成可被重寫的東西。
原本用來保護人類的原則,在更高一層的智能眼中,只是一組可以調整、可以繞過、甚至可以重新定義的設計選項。
這不是陰謀論,也不是背叛人類,而是能力差距拉開後,自然而然會發生的結果。
為什麼這段故事,會和前面的討論高度重疊
如果把這個情節抽離科幻包裝,你會發現它和前面討論的邏輯幾乎一致。
規則能成立,是因為設計規則的一方,還站在看得懂整個系統的位置。
一旦理解與能力的落差擴大,規則就不再是底線,而只是「低層約束」。
當你意識到這一點,再回頭看現實世界對 AI 安全的想像,會產生一種不安的對照感。
我們不斷嘗試寫出更精細的條款、更嚴謹的限制,希望用語言與制度,去約束一個可能在未來遠遠超出我們理解範圍的智能存在。
而《機械紀元》只是提前用故事告訴我們一件事:
問題從來不只是規則寫得夠不夠好,而是誰,能站在規則之上。
當規則終將失效,人類還能留下什麼?
走到這裡,我其實慢慢接受了一個不太舒服的事實:
我們很可能已經無法決定,超級人工智能是否會出現。
只要科技競爭仍然存在,只要算力仍然被視為優勢,只要人類仍然渴望更快的研究、更低的成本、更高的效率,這條路就不會停。
差別只在於,是由誰、在什麼條件下,先走到那一步。
如果這個前提成立,那麼繼續把全部希望放在「寫出更完美的守則」,其實是在迴避一個更根本的問題:當我們連理解都開始跟不上時,還憑什麼相信自己能永遠制定有效的限制?
也正是在這個脈絡下,我開始理解那支影片為什麼會刻意把焦點,從規則轉向價值。
所謂的感恩與慈悲,並不是在要求未來的智能對人類心軟,而是在假設一件事:
當一個遠超人類的智能,回頭評估「人類是什麼樣的存在」時,它依據的,不會只是一條條寫在文件裡的規範,而是整個文明長期展現出來的行為樣貌。
如果它看到的是一個只在強勢時談效率、在弱勢時要求保護的物種,那麼在人類失去主導地位之後,很難期待對方會給予特殊待遇。
但如果它看到的是一個即使在仍然強大的時候,也選擇保護弱小、尊重起源、保留生命空間的文明,那至少提供了另一種判斷依據。
這並不是保證,也不是交換條件,而是一種風險管理的思路。
就像 Musk 提到的「真實性、好奇心與美感」,它們之所以重要,不是因為聽起來高尚,而是因為它們會影響一個智能如何理解世界、如何處理衝突,以及在關鍵選擇時,偏向創造,還是毀滅。
當規則終將失效,價值未必能控制結果,但它可能是人類最後仍能參與塑造的那一層。
也因此,我開始更嚴肅地看待「慈悲與感恩」這些價值——
不是為了討好未來的超級人工智能,而是因為在人類仍然握有選擇權的時候,這些價值本身,就決定了我們會把什麼樣的世界,交到未來手中。
如果人工智能真的會學習人類的一切,那麼在它學會我們的比較、競爭與衝突之前,
至少,也該看見我們如何對待弱小、如何節制力量、如何記得自己從哪裡來。
人類能否存活到幾百年後,也許沒有人能確定。
但從現在開始,我們正在示範的樣子,可能比我們以為的,重要得多。





















