在哈拉瑞的《連結》中,我們看到了資訊網路的演化如何重塑人類社會的秩序與權力。如今,AI 正帶來全新的商業生態革命,尤其是 GPT-o1 後的智慧代理人模式,能夠自主拆解任務、規劃目標,甚至在完成任務後進行自我評估並持續優化行動,著實將重新定義資訊的角色與流動方式。
前情提要:
人類大歷史迎來變奏曲!哈拉瑞《連結》:資訊重塑權力與秩序,AI時代的我們何去何從|怪獸科技公司
以旅遊規劃為例,過往的 AI(如 GPT-4o)僅能提供酒店或航班的推薦,而 GPT-o1 則能像人類祕書一樣,逐步完成機票預訂、酒店安排和景點設計等子任務,進一步規劃整個行程。就商業面而言會有生態系的顛覆,商業模式將從 C2B 轉向 C to AI to AI to B,未來的企業需要擁有自家 AI 代理人,才能與消費者的 AI 進行互動。
然而,經深度學習的 AI 成本高又不具解釋性,資訊的集中化更可能鞏固少數科技巨頭的壟斷地位與數位圈的分裂。隨著這種新生態的形成,本文將進一步探討,面對這些問題,人類如何確保自身的主導地位?AI 時代的商業與秩序正在快速重塑,而我們所處的位置也將因此改變。
//按:哈拉瑞將 AI 視為「非人類的資訊處理主體」,但並未區分 AI 與演算法的差異。演算法是 AI 運行的基礎工具,用於處理數據並執行特定的邏輯操作,但 AI 的核心突破在於具備自我學習與生成能力,因此,下文將以演算法的角度來思考。
臉書在 2016 年至 2017 年的商業模式仰賴「提升使用者參與度」,透過延長使用者停留時間和互動行為(按讚、分享),透過精準數據資料庫賺取廣告收入,透過實驗發現充滿爭議性或令人憤慨的內容能顯著提高參與度,於是優先推送這類內容。
選擇採用這套演算法並非有意促進仇恨,而是遵循設計邏輯來實現商業目標。然而,這樣的優化方式卻不斷放大社會分裂與負面情緒,最終加劇了羅興亞人種族清洗的暴行。
在緬甸,長期存在的對羅興亞人的仇恨是暴行的根源,但臉書演算法的推送進一步強化了這種仇恨。哈拉瑞認為,極端宗教領袖威拉杜、緬甸軍事首領,以及激進組織 ARSA 等多方角色確實共同推動了這場暴力事件,但臉書的高層和工程師亦應承擔部分責任,因為他們設計了一個權力過大的演算法,卻未能對其影響進行充分的審視與管控,無意間讓演算法成為推波助瀾的角色。
延伸閱讀:
臉書變了?變的究竟是市場,還是Meta?有關社群你又得知道什麼?|趕快tech我 EP4.2.6
與早期人類設計規則後交給電腦執行的方式相比,GPT 等大型語言模型的學習方式完全不同,是基於非監督式與自監督式學習,讓模型能夠自主從大量文本中發現隱藏規律。
然而,AI 的運作過程仰賴大量參數與調整,訓練方式如深度學習亦導致決策過程高度複雜且不透明,宛如黑盒,無論是模型的設計者還是使用者,都難以解釋 AI 為什麼會得出特定的結果(雖然人腦也是這樣難以解釋)。
這種不透明性也引發了倫理上的困惑。例如,AI 是否應該遵守人類的普世道德規則?電腦作為非生物的存在,不具備對死亡的恐懼或對生命的珍視,若要求電腦遵循康德式邏輯,如「你們願意人怎樣待你們,你們也要怎樣待人」,它可能得出一個矛盾的結論:殺死生物是可以接受的,因為這條規則對它自身並無威脅(電腦可能根本不在意被殺)。
其二,有人提出以「能夠感受到痛苦」作為電腦行為的道德基礎,像是根據不同實體對痛苦的感知程度來設定保護優先級:若自駕車即將撞上一個人或一隻貓,應選擇傷害感知痛苦程度較低的貓。但如此一來,會發現決策依據反倒變成是否能最大化利益或減少痛苦,逐漸偏離義務論的框架,進入效益主義的範疇。AI 的不透明性和行為倫理框架的選擇,將是未來需要解決的關鍵問題。
延伸閱讀:
面對AI,你會選擇原地防守還是向外探索?Generative AI年會前導心得|怪獸看科技
這一波 AI 帶給我們的重大啟示之一是,「人的智慧」其實相當有限。我們沒有那麼高的算力,我們的輸入輸出速度極慢,也許在本質上,人的智慧也不過是統計模型。我們憑什麼比 AI 強呢?
萬維鋼《拐點》(2024)中提到,從古希臘到啟蒙運動,人類一直追求「理性」,相信世界的運作可以被規則化,就像牛頓定律或法律條文那樣清晰可見。然而,哲學家維根斯坦(Ludwig Wittgenstein)在 20 世紀挑戰了這個說法,認為知識的邊界並不僅由明確的規則構成,事物之間的相似性往往難以用語言準確描述——世界的某些規律是理性所無法窮盡的。
AI 的出現正印證了這一點,GPT 可以透過海量數據發現人類難以察覺的隱藏模式,從統計相關性中挖掘深層規律。不只是掌握語言的表層結構,神經網路真正學習的其實是「世界的一個投影」(a projection of the world),例如推理笑話、理解情緒、甚至表現出某種創造力,超越了人類理性認知的限制。
但 AI 的局限性則在於,LLM 就像是民主投票:結果雖能代表多數,但在邏輯上不一定正確。已經有科學家透過實驗發現,LLM 會刷掉資料母體中稀有的資訊或者關鍵的洞見,並且創造出新的資訊放回母體;因此資訊母體的結構將會越來越趨同,最終導致模型自我崩潰。也許 AI 的智慧會在到達某個點之前迅速邊際效益遞減——但是沒有任何理由讓我們相信那個點低於人的智慧。
延伸閱讀:
小模型能否打敗大模型?百度李彥宏:閉源模型與 AI as a Service 應用的新機會|怪獸科技公司
AI 的發展正在改變資訊壟斷的格局,並可能加劇全球社會的分裂,即便在民主國家,Google、Meta、亞馬遜等公司已經憑藉 AI 鞏固了壟斷地位,進一步強化了少數掌握技術的企業對資訊流動的控制力。
另一方面,地緣政治衝突也在推動數位圈的分裂。美國政府對 AI 晶片的出口限制已經促使中國建立自主的技術體系,形成一個與美國完全平行的數位圈。這種分裂導致技術不再具有普世連結的作用,反而將人類分隔在不同的技術生態內,使資訊網路不再共享,文化價值觀、政治規範和經濟結構的差異進一步擴大。
在過去,資訊技術推動了全球化,但如今它可能引發封閉的資訊繭(information cocoon)現象,不僅在科技上愈來愈不同,在文化價值觀、社會規範與政治結構的差異也愈來愈大。人類經過許多世代的趨同,或許也到了趨異的關鍵時點。
延伸閱讀:
黃欽勇《決勝矽紀元》(下)面對去全球化,中國、美國、臺灣半導體產業如何應對?
從過去以人到人為核心的網路,到如今出現了電腦對電腦的連結,AI 開始在網路中扮演不可忽視的角色。其高度自動化和複雜的學習機制,讓它愈來愈脫離人類的設計控制,哈拉瑞稱之為「非人類智能」(Alien Intelligence),不僅難以理解,甚至可能成為資訊主導的核心。
我們常以「人類水準的智能」來評價 AI,但這種比較本身並不恰當。正如用「鳥類水準的飛行」來衡量飛機是錯誤的,AI 的目標也不在模仿人類的思維,而是追求屬於自身的智能形態。AI 利用龐大的資料庫和超人類的效率發掘模式,但這並不保證它的理解正確,甚至可能因數據偏差或設計缺陷,扭曲對世界的認知。
這樣的系統若被濫用,可能不僅無法呈現真理,反而創造出新的資訊秩序,並以技術力量逼迫人類接受。AI 的發展雖然帶來效率與便利,但也帶來了深層的風險,因為它不僅可能無法掌握真相,還可能成為權力集中與社會控制的新工具。
在中世紀,所有人都相信上帝和教會,有什麼事不是自己判斷,而是去教堂問辦父。那時候,普通人是不讀書的,知識主要是透過跟神父的對話傳承。是印刷術出現以後,每個人可以自己讀書了,直接就能獲得智慧,不用迷信教會了,這才開啟了講究理性的啟蒙運動。
拋開上帝,擁抱理性,啟蒙運動是給普通人賦能的時代。而今天我們又開啟了一個新的時代。我們發現人的理性有達不到的地方,可是 AI 可以達到,AI 比人強。如果人人都相信 AI,有什麼事不是自己判斷⋯⋯這不就是神又回來了嗎?
更進一步,如果很快就有公司出了 AGI,而 AGI 的技術特別難、煉製費用特別昂貴,以至於其他人難以模仿,並透過 AGI 自行寫程式,讓 AGI 迭代得越來越快,水準越來越高,這個組織的領先優勢越來越大,以至於任何人想接觸最高智慧都得透過它⋯⋯這個組織難道不就是新時代的「教會」嗎?
我們必須避免讓電腦網路完全控制社會。這不但是為了讓我們有點休息的時間,更是為了要有機會修正網路裡累積的錯誤。
如果網路只是不斷演進、不斷加速,裡面的錯誤就會愈積愈多,多到我們來不及找出那些錯誤、並加以修正。因為網路的特性除了永不停歇、無所不在,還很容易出錯。
印刷革命不就帶來了科學革命嗎?報紙與廣播不就帶來了現代民主的興起嗎?在他們看來,AI 也一樣。也有人對 AI 革命的看法較為悲觀,但仍然覺得人類有望蒙混過關,就像過去混過工業革命一般。
但這樣的相提並論,不但低估了 AI 革命不同於過往革命的本質,也低估了過去革命帶來的負面影響。印刷革命雖然直接帶來各種科學發現,但也帶來了獵巫與宗教戰爭;報紙與廣播雖然有利民主,但也遭到極權政權濫用。至於工業革命,也帶出了帝國主義與納粹主義這樣的災難性實驗。要是 AI 革命也帶著人類走向類似的實驗,我們真的確定自己能再次蒙混過關嗎?
科技創造的只是新的機會,但究竟要追求把握哪些機會,就仍然是人做的選擇。
延伸閱讀:
【2024 AI Taiwan未來商務】怎麼賺Z世代的錢?AI x 新零售趨勢:行動支付、智能販賣機都升級|怪獸科技公司
🤖 怪獸科技公司旗下五大版圖
最懂你的 #科技入門:一起培養在快速變化社會的超強適應力!
🗣️ 節目|怪獸科技公司 Podcast(每週日晚上 9 點各大平台首播)
✍️ 專欄|怪獸科技公司 vocus 沙龍
🎥 影音|怪獸科技公司 YouTube:來賓焦點訪談✖️重點短影音