哈拉瑞(Yuval Noah Harari)為歷史學者、哲學家暨暢銷作者。1976 年出生於以色列海法,2002 年在牛津大學取得博士學位,目前是耶路撒冷希伯來大學歷史系講師,也是劍橋大學「存在風險研究中心」(CSER)特聘研究員。他與丈夫亞哈夫(Itzik Yahav)共同成立 Sapienship 公司,致力於在教育與媒體領域發揮社會影響力。著有《人類大歷史》、《人類大命運》、《21世紀的21堂課》、以及《人類大歷史:知識漫畫》與《少年讀人類的故事》兩套叢書,被公認為目前世上影響力數一數二的公共知識份子。
哈拉瑞擅長以淺顯易懂的方式,引導讀者以不同的視角,重新認識本該錯綜複雜的歷史脈絡。自從關注於人類過去歷史的作品《人類大歷史》出版、獲得全世界的享譽之後,哈拉瑞接續出版了探討現在和未來的其他作品,為人類這個物種,鋪陳出一個完整的宏觀演化地圖。
令人佩服的是,儘管已經寫過這麼多關於人類歷史的完整介紹,哈拉瑞依然能找到新的切面,重新以不同的角度來解釋歷史的進程。《連結》(Nexus)這部最新的作品,在歷史的洪流之中,關注於「資訊」之於人類社會的意義,循序漸進地和讀者們再一次走過歷史,最終連結到當今社會正在如火如荼發展的 AI 科技,如何改變著千年以來資訊的交換方式。在歷史的基礎之上,哈拉瑞提出對於 AI 科技的隱憂,向世人拋出許多值得深思的觀點,是理解 AI 將會如何改變人類社會,不容錯過的一本好書。
有能力並不等於有智慧 — 經過十萬年的發現、發明與征服,人類已經把自己推入一場生存危機。
人類之所以能夠擁有巨大的力量,不斷發展出新的科技以改善生活,關鍵在於人類相異於其他動物,能夠建立非常大型的合作網路,而「資訊」正是讓這種大型合作網路得以維持的黏著劑。數萬年來,智人靠著發明和傳播各種虛構的故事、幻想、以及大量的錯覺 — 內容可能是關於神祇、魔法、或是 AI — 來打造並維繫這些大型網路。資訊對於個人,可能是一種探究自我和世界真理真相的工具,但是對於大型合作網路來說,資訊更多是用來創造秩序的東西。
我們過去就是這樣走向納粹主義與史達林主義,兩者都形成了格外強大的網路,並由格外令人迷惑的想法加以支撐維繫。⋯⋯納粹主義與史達林主義的政權基礎,就是一些令人痛苦的幻想與毫無羞恥心的謊言,但這在歷史上實在稱不上特殊,也不代表它們注定崩潰。
或許我們多多少少都會同意,擁有越多的資訊,可以幫助我們獲得更多真理和真相,進而推動更多的科技,或是對抗處境的不公不義。然而,作者將這種傾向歸類於「天真的資訊觀」的誤解 — 這種觀點樂觀地認為,有了夠多的資訊,就能得到真理真相;有了真理真相,就能得到智慧與力量。這種樂觀的想法,很容易讓我們忽視並且錯估在大型網絡之中的妄想所造成的破壞和影響。
雖然人類能夠建立大型合作網路,以此取得巨大的力量,但這些網路的建構方式就注定了這些力量的運用,常常並不聰明,所以人類遇上的問題,其實是個網路問題。
作者呼籲,綜觀歷史,現在的人類已經擁有了前所未有的資訊量,但是人類卻也比過去任何時候更接近自我毀滅的邊緣。人類雖然坐擁大批資料,卻依然不斷向大氣排放溫室氣體、污染河海、砍伐森林、破壞棲地,讓無數物種滅絕,不只危及自己的生態基礎,甚至創造出越來越強大的大規模毀滅性武器。人類領導者並不是沒有關於這些危險的資訊,但是相對於合作解決,他們反而將世界推向一場越來越靠近的全球戰爭。
現在,人類馬不停蹄地來到了 AI 科技誕生的轉捩點 — 繼續獲取更多的資訊,是會讓事情變好,還是變糟呢?
AI 科技近幾年突飛猛進,如何對待這項嶄新技術,世界上大致分為兩派。其中一派認為,AI 的發展和普及,可以幫助人類應對各種迫在眉睫的挑戰,像是克服疾病、貧窮、環境退化等議題,AI 不只不會毀滅世界,甚至能夠拯救世界;另外一派則不那麼樂觀,他們認為,當 AI 不斷進化最終跳脫人類的控制,很可能會大規模地傷害到地球上的生命,人類也將難逃這場由自己創造出來的浩劫。
擔心 AI 造成災難的研究者們認為,AI 帶來的威脅,實際上並不會像電影裡演的那種機器人群起造反、射殺人類的情節。相反的,AI 激起的會是人與人之間的衝突與矛盾,在社會層面上產生無法控制的影響。
人類過去的所有發明,都只是在為人類賦予更高的能力,該怎麼使用這些發明,決定權都掌握在人類手中。像是刀子和炸彈,它們並不會自主決定要去殺了誰,而是由人類決定怎麼使用它們。但是 AI 不同,AI 是史上第一種能夠自行做決策、創造新想法的科技。不論我們在哪裡生活,都可能被一張看不透的 AI 演算法大網左右著我們的生活,例如要不要核准某人的貸款、要不要僱用某人來工作、要不要把某人送進監獄等等。當人類把生活中各種層面的決策權都交給了 AI,人類將不再有餘力進行反抗。
除此之外,國與國之間政治、文化與法規上的差異,漸漸在世界上衍生出不同的數位圈。生活在不同的數位圈裡的人,會使用互不相通的軟體,像是中國不能使用 Google 和 Facebook,美國則很少人使用微信和百度。AI 的出現,會進一步深化不同數位圈之間的差異和對立。當 AI 基於特定國家的政治目的影響著人民的行為,人民的行為又會反過來鞏固 AI 的認知,最後將使得兩邊的人民走上完全不同的路徑,形成作者稱之為「矽幕」的屏障。(由於程式碼和 AI 都是運作於矽晶片之上,故作者以「矽幕」來表示它們製造的對立與隔閡。)
人類社會分裂成一個又一個的資訊繭,不但會造成經濟對抗與國際緊張,還會發展出各種截然不同的文化、意識形態、以及身份認同。
作者認為,人類是地球上最聰明、卻也是最愚蠢的動物 — 人類聰明到能夠製造出核彈和超智能演算法,卻也愚蠢到還沒搞清楚是否能控制它們,就把它們一股腦兒地製造出來。這個問題並不在於人類的本性,而是在於人類的資訊網路,更重視秩序而非真理,在獲得巨大力量的同時,卻沒有相應的善用智慧。例如,納粹德國創造出極高效率的軍事機器,來服務一套瘋狂的神話謊言,最終導致大規模的苦難。
科技賦予人類前所未有的能力,卻也使得今天主宰國際的大國,會因為決策上細微的偏差,就危及到整個地球的物種生命。有鑑於此,隨著人類網路越來越強大,自我修正機制也會越來越重要。為了打造更有智慧的網路,我們必須放下天真和民粹的資訊觀,接受犯錯的可能性,為各種機構制度打造強大的自我修正機制。如果沒有足夠有效的自我修正機制,一旦我們召喚出一種人類難以理解的非生物智能,它就有可能逃脫人類的控制,將無數生命捲入危險之中。
歷史的軌跡無比開放,它並不會總是走向正義,而是會朝著所有可能的方向前去。我們不能總是以過於樂觀的態度,來看待我們所創造的一切,而沒有對它們可能引發的災難做好準備。否則,當 AI 開始犯錯,它將有能力扭曲我們的世界觀,助長肆無忌憚的權力濫用,煽動人類進行驚駭的破壞行動。
我們所有人在未來幾年所做的抉擇,將會決定召喚這種飛人類智能,究竟是個致命錯誤,或是會讓生命的演化展開充滿希望的新篇章。
書中還有一段令我印象深刻的段落。作者提到,古代的宗教為了維護信仰網路的秩序,不僅在宗教經典內嚴格限制人類專制者所能握有的權力,同時散播大量的經典副本流傳各地,任何文本的竄改,都能透過和其他副本比對而發現。這個概念,幾乎就是近代區塊鏈技術去中心化網路的核心,早在兩千多年前就已經實行,作者因此稱這些宗教經典為「聖經文本區塊鏈」。
在《人類大命運》一書中,作者曾發出警告,雖然我們都希望資訊科技的進步,能為人類帶來健康、快樂、以及力量;但事實上,資訊科技得到提升之後,卻反而可能是讓人類失去力量、喪失身心健康。人類會朝向什麼樣的未來,沒有人能夠預測;能夠確定的是,若是人類持續將世界推向自然天秤的平衡之外,那麼,歷史並不總是會對我們釋出寬容。
就我們目前所知,在整個宇宙,或許只有地球上的動物是有意識的實體。而我們現在已經創造出一種不具意識、但又極為強大的非人類智能。要是處理不當,AI 有可能不僅消滅人類在地球上的主宰地位,更會滅掉這一點意識的星火,讓宇宙變成一個徹底黑暗的王國。我們有責任避免這種情況成真。