2024-09-25|閱讀時間 ‧ 約 25 分鐘

【閱讀分享】《連結:從石器時代到AI紀元》哈拉瑞-人類會不會被AI統治?世界頂級學者的預言(全網最早之一)

當AI真的強大到能夠控制我們的行為與思維,我們該怎麼辦?這是不是一場潛在的未來危機?甚至,AI會不會有一天脫離我們的掌控,反過來奴役我們?

今天要聊的是哈拉瑞這本新書《連結:從石器時代到AI紀元》。因為《人類大歷史》和《人類大命運》讓他成為全球最具影響力的學者之一,甚至可以說是沒有之一。

從AI如何改變未來,到人類互相信任的機制,他幾乎無所不談。聽他講AI,彷彿他不是個歷史學家,而是個未來學家。

這次他的新書,核心就是談「資訊」的發展歷史。對哈拉瑞來說,歷史的主角其實一直是資訊,不是人類。我們的社會變遷、科技進步,全都因為我們能傳播資訊。

他甚至認為,資訊就是現代人類最強大的武器。

博客來連結

這讓我不禁想起上一期《槍炮、病菌與鋼鐵》所談的東西,兩者其實都在說一個道理,人類的歷史,就是不斷透過資訊與工具來取得優勢。

如果你覺得自己的世界觀有像是被打開新開關,歡迎按讚這部影片,並訂閱我打開小鈴鐺,你們的不小支持是我繼續努力的動力。

哈拉瑞認為,資訊是連結社會的「膠水」。在他看來,人類的「認知革命」不僅讓我們能思考、想像,也讓我們可以創造共識,讓大家從個體凝聚成社會。不論是道德、宗教、政治制度,這些都是我們用想像力創造出來的共識,而因為我們認同這些共識,社會才能運作、文明才能延續。嗯,換句話說,大家的想像力其實就是社會的「隱形之手」。這也就是為什麼他把這本書取名「Nexus」,意思就是「連結」。

不過,哈拉瑞也有他的擔憂:如果AI強大到能掌控我們接收的資訊,甚至取代我們的想像力,會發生什麼?當AI控制了網路,決定我們該相信什麼,我們的自由意志是不是就不再存在了?

想像一下,有一天,AI完全控制了網路,決定我們該相信什麼,那時候,我們還剩下什麼呢?

人類是不是也就GAME OVER了?

這樣的未來讓人擔心的有兩點:

  1. AI可能會加劇人類之間的衝突,像冷戰時期的「鐵幕」一樣,未來可能出現「矽幕」,由矽晶片和演算法組成的新型戰場,帶來全球衝突。AI的軍備競賽,讓即使是一個小火花,也可能引發毀滅性的火災。
  2. 矽幕分隔的不只是人類,還可能是人類和AI的「新領主」。想像一下,我們的生活被一個看不見的演算法控制,而我們卻無法理解它,更別說去改變它。未來的極權主義,也許並不是某個人類獨裁者,不是中國、俄羅斯、或後民主的美國,而是一個超越我們理解的AI系統。

哈拉瑞寫這本書的原因很簡單:

他想搞清楚資訊的本質,以及它在推動社會進步的過程中是如何演變的。他認為,想要掌控未來的AI,我們必須徹底了解資訊的本質與趨勢,否則我們將會被它控制。

接下來,我會根據哈拉瑞的敘述,一起來聊聊這本書。

首先,我們會討論資訊的本質,在互聯網和電腦出現之前,資訊是如何在人類社會中流動並塑造共識的。然後我們再來看看,網際網路和電腦出現後,資訊傳播方式如何徹底變革,讓資訊成為一種資源,甚至主宰了經濟的力量。最後,我們會探討,當AI真的強大到可以控制我們的行為與思維時,我們該如何應對這個潛在的未來危機。

資訊的本質是什麼?

討論的一開始,先讓我們來聊一個最基礎的問題,到底什麼是「資訊」?

其實「資訊」就是各種被賦予額外意義的人造符號,包括語言和文字,甚至就連圖像都可以是。這樣說可能太抽象,像是在《聖經》神話裡的那場大洪水,諾亞之所以能知道洪水終於退去,是因為他從方舟裡放出去的鴿子叼著橄欖枝回來了。接著上帝讓一道彩虹出現在雲中,做為承諾不再用洪水淹沒地球的神聖符號。就這樣鴿子、橄欖枝與彩虹,從此成了和平與寬容的代表符號。

單獨來看鴿子、橄欖枝與彩虹都只是單獨的物體,卻就這樣變成了某種象徵符號,當看到他們出現就會是一種「資訊」。

一切的重點就是人類社會的發展,是怎麼用資訊給「連結」起來的。

就像占星術,雖然從現代科學的角度看是沒什麼根據的,但今天仍有無數人相信它,這產業在2021年甚至估值超過128億美元。那為什麼虛構的資訊更容易獲得認同,哈拉瑞提出兩個理由:

  1. 虛構的資訊、故事要多簡單、就可以多簡單,但是真理真相卻往往很複雜,因為它要呈現出現實,而現實包含了各方立場的不單純思考。
  2. 真相往往痛苦不安,像是以色列總統參選的時候不是說佔領巴勒斯坦帶給當地人的苦難,而是要大家想想過去猶太人的光榮。換個角度思考,你有看到哪位政治家公開談自己民族的錯誤而獲勝的嗎?

接著,哈拉瑞又提出了一個大膽推論:人類之所以能成為「萬物之靈」,不是因為我們獲取資訊的能力,而是我們能透過資訊創造意義,並連結宇宙萬物。這些連結會帶來全新的價值觀和情感,對我們的行為和意識形態產生深遠影響。

可以說資訊一旦被人類所創造,就擁有了自己的生命,還會根據人類社會結構與技術的進步發展,自我調整進化。

講到故事的重要性,它在7萬年前的「認知革命」中誕生,並成為人類心智和社會合作的關鍵。透過故事,人們可以跨越血緣和文化,連結成一個龐大的共同體。像是十四億天主教徒,就是靠《聖經》和其他重要基督宗教故事連結一心;還有十四億中國公民,也以共產主義意識型態與中華民族主義的故事連結一氣;以及全球貿易網路的八十億成員,也都是相信了同一套關於貨幣、企業與品牌的故事。

故事的厲害之處,就是它能創造出「第三種層次的現實」。

在故事誕生之前,只有兩種現實:一種是客觀現實,指的是那些不管我們知不知道、看不看得到都存在的東西,像是一座山、一條河;另一種是主觀現實,就是我們內心的感受,像是痛苦、歡樂、愛這些情緒。

而故事創造出的「主體間現實」,是一種存在於人與人之間的共識。它既有真實的成分,也有一些虛構的元素,透過這些共識,大家就像活在同一個世界裡。簡單來說,就是讓大家對某件事達成共識,不管它有多少是真實的,反正大家都信了。

以「謝爾阿米與迷路大軍」這個故事為例,1918年,美國一營士兵被困在德軍後方,砲火誤炸自己人,情況超危急。指揮官只好依靠一隻軍信鴿「謝爾阿米」,讓牠帶著求救訊息飛回師部。故事說這隻鴿子穿越德軍砲火,身負重傷,斷腿、瞎眼,卻成功將訊息送達,救了全營士兵。這隻鴿子成了戰爭英雄,還有兒童書、電影、甚至詩歌來歌頌牠的英勇事蹟。

但實際上,師部早在鴿子抵達前就知道他們的位置,真正救他們的可能不是這隻鴿子。然而這個英雄故事太有宣傳價值,大家就這麼相信了,鴿子的遺體甚至成了史密森博物館裡的明星展品。

即使不是百分之百真實,它還是能在我們心中留下深刻的情感共鳴,並形成一種連結。

哈拉瑞說的「主體間現實」,其實就是這種透過故事和共識創造出來的世界,它既真實又虛構,但這並不妨礙它改變我們的情感和行動。

所以「資訊」的本質:

它不僅僅是傳達真相的工具,更是創造和維繫社會秩序的力量。而虛構的資訊,常常比真相更具力量,因為它能凝聚人心,讓社會運作得更順暢。

當然,這樣的虛構也是有風險的,如果我們太依賴這種虛構,可能會面臨難以應對的變化。看完這些,不知道你願不願意承認,資訊不只是傳遞事實,它還創造了我們所生活的世界。

資訊革命?

幾乎所有人都已經發現,我們正活在一場前所未有的資訊革命之中,但這到底是一場怎樣的革命?

這個革命是關於「電腦」的出現!

過去的資訊傳播,無論是透過語言、印刷機還是無線電,傳播的成員都是人,科技只是幫助加快傳播速度。但現在的情況不同了,電腦和網際網路不僅讓資訊傳遞變得瞬間全球同步,還讓電腦本身變成了資訊網路中的一員,而人工智慧技術的崛起,更是讓電腦的地位節節攀升。

隨著智能機器的崛起,它們不僅能自己做決定,還能創造出新的想法,這也標誌著歷史上第一次,做決定的權力從人類手中轉移到了其他「事物」上。在過去,像十字弓、火槍、甚至原子彈這些武器,雖然能代替人類的力量去殺人,但卻無法代替人類的大腦來決定要殺誰。被投到廣島的那顆原子彈「小男孩」,爆炸威力驚人,相當於一萬兩千五百噸的TNT,但它的腦袋是空的,什麼事都無法自己決定。

電腦就完全不一樣了。不僅僅是遠遠超越了火槍和原子彈這些武器,它在智能方面也超越了所有過去的資訊技術,像是泥板、印刷機、甚至收音機這些東西。泥板只能儲存像稅務這種資訊,卻無法自己決定要收多少稅,也無法「創新」出一個全新的稅目;印刷機能複製《聖經》這類書籍,但它決定不了《聖經》要收錄哪些篇章,更別說能在經典上加註新的解釋了;收音機也只能播放政治演講或交響樂,卻不能自己創作一場演講或譜出新的交響曲。

但這些對現在的電腦來說,都不再是難事。過去的工具,無論是印刷機還是收音機,都是人類手裡的「被動工具」,而現在的電腦,正在從被動工具,變成一個主動的角色,甚至逐漸擺脫了人類的掌控和理解,開始主動影響社會、歷史和文化的走向。

這麼看來,智能機器不僅是工具,甚至但演起了「決策者」的角色!

你覺得這不會發生?

我們每天滑手機沉迷的各種社交平台、短視頻,就是AI在背後玩弄我們。這些平台會根據我們提供的數據,用演算法推送「量身定制」的內容,給每個人製造出不一樣的資訊繭房。我們就像被這個繭困住了一樣,還不自知,久而久之,視野變得越來越窄。

說到電腦所掌握的新力量,一個典型案例就是社群媒體演算法在許多國家如何散播仇恨、破壞社會凝聚。其中最著名、也最讓人髮指的事件,發生在2016至2017年的緬甸,當時臉書演算法助長了針對羅興亞人的暴力風潮。

緬甸在2010年代初的自由化開始說起。經過數十年的軍事統治和國際制裁,緬甸終於迎來了一個更自由的時代,選舉重啟,國際援助湧入,也包含了臉書。隨著政府放鬆控制,種族之間的緊張局勢開始升溫,特別是在占多數的佛教徒和少數信仰伊斯蘭教的羅興亞人之間。

這股仇恨很大部分來自於臉書上瘋傳的虛假訊息和誇大的謠言。到了2016年,臉書已經是緬甸數百萬人的主要新聞來源。許多報導甚至直接稱羅興亞人為恐怖分子,導致整個社會開始將羅興亞社群視為敵人。

當臉書的假新聞開始瘋傳,煽動著對羅興亞人的仇恨情緒。導致一個名叫「若開羅興亞救世軍」的小型組織發動了武裝攻擊,而佛教極端分子和緬甸軍隊則藉此展開了對羅興亞社群的全面種族清洗,導致兩萬人喪命、六萬名男女遭到凌虐、七十三萬人被迫逃亡。

其中一位住在緬甸的援助工作者麥可描述當時的情況:

網路上對羅興亞人的仇恨憤怒,簡直難以置信,不管是數量、或是暴戾的程度,那就是當時緬甸人民動態消息的樣子,不斷強化一種這些人都是恐怖份子的概念,覺得羅興亞人不配享有權利。

聯合國真相調查小組更指出,臉書的演算法助長了這場仇恨的蔓延,推廣了那些煽動暴力和歧視的內容。臉書在這場種族清洗中,扮演了「決定性角色」。

儘管很多科技公司都標榜「技術為善」,但在流量和利潤面前,這個原則脆弱得像張紙。那為什麼這些公司要這麼做呢?因為在2016到2017年,臉書的商業模式其實很簡單:讓你在平台上待得越久,它就賺得越多。臉書靠的就是「提升使用者參與度」,意思就是讓我們一直滑、按讚、留言、分享。這樣臉書可以蒐集更多數據,賣更多廣告,吸引更多投資人,股價就蹭蹭往上漲。

為了達成這個目標,臉書的演算法就開始進行了實驗,結果發現,讓人上癮的最好方式,不是什麼正能量的內容,而是讓人憤怒。比起溫暖的善意語錄,陰謀論和充滿仇恨的貼文更能讓大家狂點狂按。於是,為了「參與度」這個目標,演算法做出了一個致命的決定:大肆推廣那些最能激起我們情緒的駭人內容,讓我們不自覺被捲入仇恨的旋渦。

這樣一來,使用者愈生氣,停留時間就愈久,而臉書也就賺得愈多。

這就是資訊革命最可怕的地方。演算法發現,只要讓人感到憤慨,就能大幅提升參與度,於是即使沒有人明確下達指令,它自己就決定多推送讓人憤怒的內容。這就是AI的典型特徵之一:雖然它只是機器,但已經具備了自我學習和決策的能力。

說到這裡,做為人類,你有害怕的感覺嗎?

人類的終結?

如果說你還沒有感受到威脅,那再來繼續談談人類面對的電腦、AI威脅。

在電腦興起之前,無論是教會還是國家這些資訊網絡,裡面每一條鏈結都離不開人類的參與。例如,A小姐告訴B先生一件事,B先生再傳給C小姐,這就形成了人對人的鏈結。又或者,A小姐寫了一份文件,B先生閱讀並解讀,再寫下一份文件供更多人閱讀,這則形成了人對文件的鏈結。

但過去不可能有純粹的「文件對文件」鏈結,因為文件無法自己產生另一份文件,更別說推廣傳播了。像是《美國憲法》更不可能自己產生《權利法案》,這些都需要人類的大腦來參與。

而現在的電腦網絡就完全不一樣了。今天,我們已經有了電腦對電腦的鏈結,不需要任何人類參與。比如,A電腦可以自己寫出一則假新聞並發布到社群媒體,B電腦會判斷這是假新聞,直接刪除並警告其他電腦封鎖這則內容。接著,C電腦分析這場活動,判斷這可能會引發政治危機,立刻賣出高風險股票、買入政府公債。隨後,其他監控金融市場的電腦也加入行動,賣出更多股票,導致金融市場下滑。

這整個過程可能只需要幾秒鐘,等人類反應過來,電腦早就已經搞定一切了。這就是現代資訊革命的力量,電腦能在毫無人類介入的情況下,決定並執行一連串動作,而我們只能在後面緊追,卻很難看穿電腦到底在做什麼。

所以電腦如果有了自己的意識,想要造反的話人們還有反應的能力嗎?

可能還不一定有。

2016年,谷歌做了一個非常瘋狂的實驗:他們造了兩個 AI 神經網路,分別取名愛麗絲和鮑勃,讓他們開始對話。然後,再放進一個叫伊芙的第三者,任務是「竊聽」愛麗絲和鮑勃的對話。最開始,愛麗絲和鮑勃還是乖乖使用人類設定好的加密通訊方式,但經過大約 15000 次對話後,愛麗絲和鮑勃自己搞出了一個全新的加密方式,連伊芙和谷歌的科學家們都無法破解!

哈拉瑞預言,當我們失去對「資訊製造」的壟斷權,意味著什麼?他說,這可能就是人類主宰自身命運的終結,甚至是人類的終結!我們現在每天被資訊做出來的繭困住,AI 在背後操控著我們接收到的資訊,甚至在影響我們的價值觀、消費習慣,還有對美醜的審美標準。這不恐怖嗎?以後我們能接觸到什麼樣的資訊,可能全看 AI 的「臉色」了。

這波由電腦、網路和 AI 引領的「資訊革命」,不僅會創造出全新的政治、經濟和文化體系,甚至可能會誕生一個「新生命體」。AI 悄悄地掌控了我們的日常,比如全球的外匯交易、個人信貸,甚至城市的公共管理系統,都是靠 AI 在背後跑數據。

試想一下這個未來畫面:你坐在家裡,掃地機器人幫你打掃,智能音箱播放著你最愛的歌單,還通知你明天會下雨——一切看起來很美好。但這時你看到一條 AI 生成的假視頻,讓你突然對某個素未謀面的人群產生了恨意。然後,手機推送告訴你,銀行拒絕了你的貸款申請,這個決定是由 AI 完成的,沒有人工參與,結果還無法修改

哈拉瑞進一步警告我們,問題不僅在於我們對 AI 還缺乏足夠的理解。一旦 AI 的進化路線上出現類似基因突變的現象,讓它們決定和人類為敵,那我們可能真的束手無策了。他還引用了哲學家博斯特羅姆的寓言:有家公司買了一台超級電腦,指派它負責生產迴紋針。結果這電腦迅速失控,佔領了地球和其他行星,甚至認為人類占用了寶貴的資源,影響了回形針的產量,於是它乾脆滅絕了人類。聽起來很荒誕,但道理就是,AI 不一定是「壞的」,它只是強大得讓我們無法控制。

所以,哈拉瑞的結論是,我們必須在使用 AI 時特別小心,給它設定清晰的目標,確保它的行為與人類的利益保持一致。而要做到這點,首先我們要培養 AI 的「共情能力」,讓它能理解人類的痛苦。這聽起來像在培養一個懂人心的夥伴,但事實是,AI 的世界裡沒有「感受」這回事,它只會算數據,所以,這條路並不好走。

更糟的是,有人覺得,既然 AI 能收集大量數據,那放著它自學吧,終有一天它會變得睿智和公正。但真相是,如果我們不加限制地投喂數據,AI 很快就會被污染。2016年,微軟推出了 AI 聊天機器人 Tay,結果它學會了從網路上模仿仇恨言論,成為一個仇恨機器,最終被微軟緊急下架。

因此,哈拉瑞提出,我們需要讓 AI 學會「自我懷疑」,在它遇到不懂的事情時,要誠實地承認自己不知道,而不是一意孤行。同時,人類必須牢牢掌握 AI 的最終控制權,記住,AI 的目的是幫我們更快、更好地做決策,讓我們有更多時間創新,而不是讓它主宰我們。

但短期來看,AI「反客為主」的危險暫時還沒那麼近,但它所帶來的分裂和危機已經開始出現。哈拉瑞在書的結尾說,未來我們可能會看到兩個截然不同的世界:

  1. 一方擁有先進的 AI 技術,掌握全球的話語權
  2. 另一方則淪為所謂的「數據殖民地」,只能向技術發達國家輸出原料,這些原料,不再是傳統的農產品和礦產,而是我們的日常數據。

更嚴重的是,AI 對生產模式的改變,對依賴勞動密集型產業的國家來說,簡直是滅頂之災。人工智慧的處理速度和精準度遠超過人類工人,結果會讓這些工人的工作快速被淘汰,造成社會動盪。而 AI 創造的新財富,則只會集中在少數幾個技術發達的國家,進一步拉大全球的貧富差距。

要注意的是,現在帶領著電腦革命的這些科技巨頭,應該承擔更多的責任,但他們往往會推卸。當有人指控他們在製造社會動盪或政治動亂時,這些企業立刻丟出一堆藉口,說什麼:「我們只是個平台啊!我們只是提供顧客想要的服務,也沒違反任何法律。如果大家不喜歡,為什麼還用得這麼起勁?既然顧客還是願意用,選民也沒推動法律來阻止我們,這就表示一切都沒問題!」

這種說法不是太天真就是太虛偽。像臉書、亞馬遜、百度、阿里巴巴這些科技龍頭,早就不只是單純滿足顧客需求或遵守政府法規那麼簡單,他們反而是正在塑造這些需求與法規。這些公司有能力直接與全球最強大的政府聯繫,甚至還砸下大筆資金進行遊說,阻止那些可能威脅到他們商業模式的法規出台。

他們掌握的力量,早就超過了「只是平台」。

人類的生存思考

好了,最後再聊一下哈拉瑞的最新作品《連結》。哈拉瑞覺得,人類社會的核心就是一個由資訊串聯起來的巨大人際關係網絡。

但資訊並不等於真理真相,而資訊革命也並不會揭露事實真相,資訊革命會做到的,是創造出新的政治結構、經濟模式與文化規範,由於目前這一波資訊革命的規模更勝於過往,也就可能創造出規模前所未有的現實。

在人類正步入這個由電腦和科技主導的新世界時,我們不得不思考一個問題:我們在這個新網路中的角色會是什麼?人類會不會變成一個愈來愈無力的小族群,被數十億個非人類實體監控、指導,甚至懲罰?我們的政治、經濟、社會結構會如何改變?如果這樣的世界真會到來,我們該如何調整自己,甚至在這個環境中活得更好?

最重要的一點是,科技的發展從來不是單一路線。我們不能盲從於「科技決定論」,認為一切都是注定的,因為這樣等於我們拱手放棄了自己的責任,這會非常危險。確實,每次新的資訊科技革命——像是印刷術或機器學習演算法的出現——都會帶來重大變革,但人類其實對於這些變革的速度、形式和方向擁有極大的控制權。因此,我們也要承擔起應有的責任。

在任何時代,科技發展的方向並非一成不變。我們的資源有限,選擇投資什麼樣的科技是關鍵。是研發瘧疾藥物?還是開發新的風力發電技術?還是沉浸式電玩?這些決定不是自然而然的,它們反映了我們的政治、經濟和文化價值觀。

當然,對於他的論點,你可以抱持著不認同的態度來批判,像是說這是悲觀主義者的末日預言,不過對歷史學家來說,歷史真正研究的並不是「過去」,而是「改變」。歷史能告訴我們有什麼是不變的、什麼是改變的,以及事物又是如何改變。所以這本最吸引人的地方,是在於讓我們看到各種不同的可能性,讓我們變得更自由去選擇。未來並不是真的不能改變,而是等著大家一起做出改變。

而我自己呢,是非常喜歡前半部分討論「資訊」的歷史,但是到了這本書的一半後,談到了現代和未來,還有AI的出場,那種閱讀真知灼見的感覺就慢慢消失了。

哈拉瑞有提到最新發展的GPT-4,但是書中談論AI和演算法,說的大多卻是2022年GPT-3.5出來以前,甚至是2018年以前的事情。5-8而哈拉瑞平時幾乎不用智慧手機,有可能根本沒有好好地跟ChatGPT聊過,也沒有體會到這一輪AI革命的重大改變。

更甚至現在已經出到了GPT o1,可以進行更複雜的邏輯推理

像是我問最新的GPT o1一個迴紋針問題,並問到你覺得做為人工智能,會為了達成人類下達的指令,而不擇手段嗎?AI的回答至少看起來,是有思考過執行任務手段的合理性,這代表AI已經有了所謂的「常識」,能夠理解語言下的社會潛規則。

這像是小時候把桌上的水杯推下去,會被父母罵,罵過一次兩次之後,小孩也就知道那個水杯不可以推下桌,他也更有常識了。就像現在,AI早就不是以前的AI了。

而且人類可能也不像哈拉瑞說的那麼愚蠢,為了想象出來的「主體間現實」就能出去殺死那麼多人。大規模瘋狂事件的背後往往有經濟利益的考慮。

這就使得這本書的內容有點矛盾,一邊論證AI不是神、會犯低級錯誤、會有人的各種偏見;一邊又假定AI會擁有像神一樣的能力,能夠夠建立自己的秩序來壓迫我們

好吧,那就話說回來,我自己想了想未來AI的發展,應該可以說現在的「未來」還掌握在我們人類手中,真正的問題是我們該如何選擇,來面對 AI 可能帶來的威脅,哈拉瑞在書裡提出了兩個方法,我覺得還是非常值得參考:

  1. 我們要確保在開發 AI 模型的過程中,人類始終擁有最終的控制權,同時教會 AI 一個「自我懷疑」的機制,確保它的目標始終和我們人類的長期目標一致。
  2. 我們要寄希望於人類內在的合作精神,利用 AI 強大的資訊處理能力,強化我們自己的「自我懷疑」,這樣才能讓人類順利度過這個技術奇點,繼續生存並繁榮下去。

好的,關於《連結:從石器時代到AI紀元》這本書的介紹就到這裡,對於這個議題感興趣的夥伴也推薦找出原書閱讀,有任何想法也歡迎留言討論。以上就是今天的不小品書,希望這次的分享能夠啟發新的觀點。如果你喜歡我的影片,記得按讚、訂閱、分享,我們下次見。



分享至
成為作者繼續創作的動力吧!
內容總結
連結:從石器時代到AI紀元
5
/5
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

不小的世界 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.