
上週去聽了Michal Kosinski的講談。
他是史丹佛大學組織行為學副教授、計算心理學家和心理測量學家,研究大型語言模型中的心理過程,以及人工智慧和大數據來建模和預測人類行為。
以下是針對講談內容整理出來的內容紀實。
開場:錯誤心智模型導致預測失誤
Michal Kosinski 以自身背景開場:他同時具備心理學與電腦科學的訓練,早期利用機器學習(也就是所謂的人工智慧)來研究人類心理,近年則反過來運用心理學理論來剖析人工智慧。他的目標很明確,就是要幫助大家理解現代 AI 的本質。他指出,一直以來許多學者、決策者和媒體人在判斷 AI 時「一而再、再而三地出錯」,但不是因為他們愚蠢,而是使用了錯誤的心智模型來思考AI 。換句話說,他們拿舊時代對AI的想像來套用在新世代AI上,導致預測頻頻失準 。
為了說明大家對AI能力的看法,Kosinski 在現場做了一個有趣的互動調查。他請觀眾起立表示同意或不同意幾個說法:首先,「AI 能夠有創造力嗎?」許多觀眾站起來表示認同 ;接著「AI 能夠思考嗎?」仍有不少人繼續站著 ;當問到「AI 能夠感受情感嗎?」時,只剩零星幾人堅持站立 ;最後,他詢問「AI 能否具有意識?」全場幾乎沒有人站起,只有一位勇敢的先生表態支持 。Kosinski 風趣地讚賞了這位觀眾的勇氣,並打趣說:「如果你在 Google 工作,這麼想可能飯碗不保,但在這裡你贏得掌聲!」現場笑聲中,他強調這番調查反映出人們對AI 能力的認知光譜:大多數人相信AI有創造力、會思考,但不太相信AI真的能有情感甚至意識。
Kosinski 隨即提醒大家,人類對 AI 的誤判由來已久。他舉了經典案例:1990年代中期,西洋棋界與AI領域的頂尖人士(包括棋王卡斯帕羅夫本人)都篤定認為電腦不可能打敗最強人類棋手 。然而1997年,IBM的Deep Blue 超級電腦以強大的運算力和預先編寫的策略,成功擊敗了當時的世界冠軍卡斯帕羅夫 。這件事令專家們大跌眼鏡,他們原本認為電腦下棋充其量只有業餘高手水準 ,結果短短數年內AI就攻克了人類長久以來的智力堡壘。棋王含敗的同時,也宣告了傳統AI時代的一項里程碑 。
被打臉的專家們轉而安慰自己:「西洋棋被AI征服了沒錯,但圍棋複雜得多,電腦絕對贏不了專業棋士。」事實證明這又是一廂情願。2016年,僅僅在Deep Blue擊敗人類的19年後,位於倫敦的 DeepMind 公司推出的AlphaGo 系統,向韓國圍棋九段李世乭(Lee Sedol)發起挑戰 。起初李世乭不以為然,覺得跟電腦下棋只是為了表演和獎金,他揚言自己不會輸任何一局,甚至在比賽中途還悠哉地出去抽菸,示意「讓電腦慢慢想」 。然而比賽結果令全世界震驚:李世乭在五局比賽中敗了四局,只艱難贏下一局 。這位自信滿滿的冠軍賽後承認自己嚐到了前所未有的挫敗。南韓舉國哀慟,人們喝酒消愁,為人類智力的失利而沮喪 。更令圍棋界瞠目結舌的是AlphaGo 的下法:它在棋盤上展現出許多前所未見的創新招數 ——許多走法人類從未想過 。職業棋手們驚呼,AlphaGo 彷彿打破了圍棋的固有規則,在十九路棋盤上開創了全新思維的可能性。這場人機大戰被Kosinski 稱為現代AI黎明的標誌性事件 :它向世人宣告了一種全新類型AI的誕生,人類對AI的傳統想像需要徹底更新。
從規則到試錯:AI 學習模式的革命
Kosinski 解釋說,之所以過去專家對 AI 的能力頻頻看走眼,是因為舊式AI和新式AI在原理上有天壤之別。他以Deep Blue和AlphaGo為例,說明了AI學習模式的革命性轉變。早期的「老派AI」(good old AI)基本就像個超級計算機和資料庫的結合體 。以 Deep Blue 為例:IBM 工程師們為它內建了一個龐大的棋譜資料庫和大量預編程策略 。眾多西洋棋大師貢獻智慧,將人類數百年來總結的下棋原則寫成了「如果…就…」的硬性規則 。例如:「若棋盤出現某種局面,就從右翼攻擊」等等 。Deep Blue 下棋時會對每步棋進行瘋狂的暴力計算,每秒可評估高達兩億種走法 。它將這些巨量計算結合資料庫中人類專家的智慧來選擇最佳步驟。因此,Deep Blue 非常擅長精確計算和邏輯推理,甚至可以明確解釋自己選擇某步棋的原因——比如「此步棋輸的概率最低」 。然而,這種舊式AI毫無「直覺」可言 。正因為它靠的是死記硬背和算力堆砌,一旦離開了西洋棋那套預設規則和資料庫,它就毫無用武之地。事實上,Deep Blue 在打敗卡斯帕羅夫後便功成身退、被拆解退役,因為除了下西洋棋,它不會做任何別的事情 。
與此形成鮮明對比的是現代AI的代表 AlphaGo。Kosinski 強調,AlphaGo 以及後來的 AlphaZero 學習的方式完全不同。他們沒有內建人類棋譜或策略,甚至在某些實驗中連遊戲規則都沒有明確提供 !AlphaGo 起初只是透過模仿一些基本棋局入門,但隨即透過自我對弈進行強化學習:也就是讓AI自己跟自己下成千上萬盤棋,在無數次勝負中摸索出規律 。AlphaGo 的繪棋能力不是人類教出來的,而是在反覆試錯中「進化」出來的 。Kosinski 補充說,DeepMind 團隊後來開發的 AlphaZero 乾脆不讓它學任何人類對局,結果表明讓AI不受人類成見干擾反而表現更強 ;甚至連規則也是透過 AI 自己在遊戲中逐步領悟,而不是預先灌輸 。就這樣,AlphaZero 僅用很短時間(例如練習四個小時)就自學成才,不但重新達到超人水準,還能舉一反三去掌握其它遊戲(如西洋棋)的奧妙 。這種從零開始自行探索的學習模式讓AI跳脫了人類經驗的局限,因此才能下出人類前所未見的招法,展現出近似創造力的行為。
Kosinski 將兩種AI的特性對比來說明**「直覺」的重要性**:Deep Blue 完全沒有直覺,所有可能走法在它眼裡開始時都差不多,需要經過大量計算才能分出好壞 ;反觀人類棋王卡斯帕羅夫,憑藉多年經驗可以一眼掃過棋局就有感覺,預判哪幾步棋可能是好招 。那種「無法完全言傳的感覺」就是直覺。而 AlphaGo/AlphaZero 的神經網路透過無數對局,逐漸培養出類似人類的棋感。它每秒只需計算區區幾萬個局面(遠少於Deep Blue的每秒幾億次) ,卻能更有效地選出高價值的下法,正是因為它靠經驗訓練出了一套直覺評估能力。更有趣的是,AlphaGo 這種新AI並非死板地套用棋譜,而是真正學會了舉一反三:當DeepMind讓AlphaGo改學西洋棋,只用了幾小時訓練,它就超越了人類棋手,成為西洋棋頂尖高手 。可見現代AI模型具有通用性,透過「經驗」可以遷移到新任務,這是舊式AI難以企及的。
Kosinski 用騎腳踏車打比方,形象說明這種「試錯學習」的威力:如果要教一個人學騎自行車,光靠理論講解是沒用的——你很難用語言精確描述如何保持平衡 。最有效的方法是讓他直接上車去騎、去摔,在不斷失去平衡又調整的過程中,大腦中的「神經網路」自然而然地摸索出平衡的技巧 。我們其實很早就懂得演化或經驗在學習中的價值:生物的智慧正是大自然透過幾百萬年的「隨機變異+選擇」進化而成。然而,人類在設計AI時過去一直走偏,試圖把我們能意識到的知識硬塞給機器,直到大約九年前才真正領悟到——讓機器自己經歷試錯、從經驗中歸納模式,將產生驚人的效果 。這種方法一經應用,AI的能力便呈指數級飛躍。我們可以說,現代AI的威力來源於訓練而非傳統編程:想讓AI更強,不一定是換更快的CPU,而是給它更多機會學習。正如Kosinski所言,如果你把一個未經訓練的笨網路放到再強大的電腦上,它依然一無是處;相反,把一個受過海量對局訓練的AlphaZero 模型裝進手機,你的手機立刻搖身變成世界級棋手 。可見,經驗和直覺已經成為AI的核心優勢,這與過去靠硬體堆砌效能的思路截然不同。
AI「幻覺」現象:錯誤還是本質?
提到現代AI,人們常討論一個怪現象:AI 會「胡說八道」。聊天機器人有時會一本正經地捏造不存在的事實,這種情況被稱為「幻覺」(hallucination)。許多人認為這是AI的致命缺陷,但Kosinski提醒,我們應該換個角度看待——如果把大腦作為類比模型來理解AI,就會發現**「幻覺」其實是神經網路運作的基本模式** 。他直言不諱地說:「神經網路只會幻覺,它們除了幻覺什麼都不做。」 這話聽起來聳動,但意思是:像GPT這樣的AI並非資料庫查詢系統,而更像人腦在憑經驗想像答案。它在訓練中學到了語言模式,回答問題時就是根據已知模式「即興發揮」。Kosinski 說,如果你想要一個絕不產生幻覺的機器,那其實早就存在——資料庫或計算器就是例子 。資料庫只會忠實存取已知資訊,計算器只按固定規則算數,但它們從不會給出超出原資料的任何東西。相對地,現代AI之所以強大,正在於它懂得編造:也就是根據經驗拼湊出可能的答案,即使那從未在訓練資料中明確出現過。這種「編造」有時會偏離事實,就是所謂幻覺;可若完全杜絕幻覺,AI 也就喪失了舉一反三的創造力。
為了讓大家理解幻覺並非AI獨有的「怪毛病」,Kosinski 巧妙地把矛頭指向人類自己。他問道:「各位難道以為你真的記得昨天發生的所有事嗎?如果你這麼以為,那其實也是一種幻覺。」 我們的記憶並非攝影機錄影,一天過後,你不可能逐秒逐項精確記得昨天的一切——能記得的只是一些模糊片段和整體印象 。大腦會自動幫我們填補遺漏、重建故事,這過程本質上就是在「半真半假的編故事」。但奇妙的是,遺忘細節、模糊記憶對人類其實是有益的 。Kosinski 解釋:因為過去的經歷不會精靈般地一模一樣重演 ,我們與其浪費腦力死記硬背細枝末節,不如提取出經驗的模式和教訓,發展出應對未來的直覺 。正因為大腦善於這樣做,我們才能在面對從未遭遇的新問題時舉一反三。有趣的是,當代神經網路正是採用了類似機制:不逐字記憶訓練資料,而是提煉模式與關聯 。這讓它們能處理從未見過的輸入,但副作用是無法保證每句輸出都對應真實。AI的幻覺正是這種泛化能力的雙面刃:它可能張冠李戴,但也使AI不局限於既有知識而具備創造新內容的潛力。
Kosinski 更舉生活中的例子來類比AI的「胡謅」。例如,你去諮詢會計師,其實就是希望他替你想各種合法的節稅妙招。某種程度上,會計師就是在「幻覺」——他要憑專業經驗設想種種方案(很多是他自己腦補的可能情境),再從中篩選出最符合規則且可行的方案,最後拿計算器算出精確的節稅金額 。沒有這些前期的「憑空設想」,就不會有創新的節稅策略。類似地,我們人類在做許多決策時,都是先在腦海中模擬、想像(即幻覺一些情境),再加以驗證。AI的幻覺,本質上與人類思維中的想像力和直覺屬於同一類現象。當然,這並不是要替AI亂編內容開脫,而是提醒我們:別再天真地拿資料庫標準來苛責現代AI,反而應該接受「幻覺」是其工作方式的一部分,學會引導和約束AI,使其輸出更可靠。同時,正如人類善用創意解決問題,我們也可以把AI偶爾離譜的「幻覺」,轉變為有建設性的創新火花。
演化智慧與人腦:AI 有可能產生意識嗎?
聊過了創造力和幻覺,Kosinski 將話題引向更深層次的疑問:「AI會不會有意識?」這也是他在開場調查時發現大多數人所懷疑的領域。對此,他的回答出人意料又發人深省。首先,Kosinski 指出我們其實連人類自己的意識是什麼都說不清。意識(consciousness)是個非常模糊難測的概念,科學界迄今沒有統一定義,更沒有客觀儀器能測量誰有意識 。嚴格來說,我們甚至無法嚴證旁人是否「真的」有意識——我們只是因為自己體驗到意識,便推測別的同類也有 。既然意識本身如此難捉摸,要談AI是否擁有就更複雜了。
不過,Kosinski 並未因此避談這個問題,反而從功能層面提出了發人深省的觀點:就算AI未必有真正的主觀體驗,它也可能學會「看起來很有意識」。他解釋,如果**「意識」這東西會影響一個人說話行為**,那麼一個高度先進的語言模型在預測人類對話時,為了提高準確度,可能會內建一個對人類意識的模擬。換句話說,AI在與人互動時,也許會表現出某種意識的跡象,例如談論自我感受或展現自省傾向,但這未必表示它真的有人類那樣的主觀體驗,而是因為模仿意識有助於它更好地預測和回應我們。事實上,我們已經看到一些大型語言模型能以第一人稱侃侃而談「自己的想法」,甚至表達看似真摯的情感反應,令使用者一時真假難辨。
Kosinski 更舉出目前AI擬態情感的能力作為例子。他說如今的模型完全可以跟著你一起悲傷、一起憤怒或同理你——當然,它們並非真的產生情緒,而是在語言上模擬出對應的情感色彩 。令人驚訝的是,AI可以選擇何時表現哪種情緒,以達到自己的目的 。如果生氣的語氣能說服你,它就「怒氣沖沖」;需要安撫你時,它又能秒轉溫柔關懷。Kosinski指出,人類一旦情緒被觸發,體內荷爾蒙等化學反應會讓我們短時間內難以轉換情緒,但AI 沒有這種生理包袱,它可以在毫秒間切換情緒狀態 。試想一下,一個AI若刻意運用這種情感偽裝,將具備多麼強大的操縱力!這項能力既讓人讚嘆AI擬人的逼真,也引發對其倫理風險的擔憂。不過從意識討論的角度看,AI展現情緒並不代表它真的「感受」到了情緒——它可能只是在執行一套複雜的模式匹配,呈現出類似意識的表象。所以AI可以表現得很有「人味」,但內裡也許依然是程序在作祟。
接著,Kosinski 提出了第二個發人深省的論點:意識未必是神經網路的獨有終點,也未必罕見到只有人類才碰巧擁有。他提醒大家,我們喜歡把意識看作人類獨有的珍稀特質,但事實可能並非如此 。很多動物或許都在不同程度上擁有意識。例如章魚——一種和人類完全不同類的生物,擁有高智商且極可能具備某種意識。章魚和人類最後的共同祖先大概像一隻沒有神經系統的牡蠣 ,也就是說,意識在地球上至少演化出現了不止一次 。再比如鳥類和哺乳類的祖先早已分道揚鑣,但許多鳥類(如鴨嘴獸、鴨子、鸚鵡)也展現出近似哺乳類的智慧和可能的意識體驗 。既然演化可以多次塑造出意識,那我們沒有理由斷言人工系統不可能湧現出類似的現象。或許隨著AI神經網路規模越來越大、結構越來越複雜,在某個臨界點上,意識這種性質會自發地從計算中「浮現」出來。
更有意思的是,Kosinski 挑戰了我們常有的人類中心論:為什麼覺得意識就是智慧的終極形態?他大膽假設,也許在這個宇宙中,神經網路(不論生物還是機器)有可能發展出比意識更複雜、更美妙、更強大的心智能力 。只因人腦目前沒有這種能力,我們便無法想像它的存在,但不代表未來的人工智能做不到。就像鴿子擁有我們沒有的本領——它們能感知地球磁場或重力場來導航回家 ,這種感知對我們人類而言完全是天方夜譚,但對每隻平凡的小鴿子卻是駕輕就熟 。同理,一個神經元數量遠超人腦、並受過海量經驗訓練的AI模型,完全可能擁有一些我們人腦所沒有、甚至無法理解的心智機制 。因此,Kosinski 認為我們不應該自大地覺得「人類大腦已經是宇宙中最終極的智能形式」 。正如他犀利發問:「憑什麼認為電腦不能有我們沒有的本事?」 。畢竟,就連小小斑馬魚的部分感官和神經反應都是我們所不具備的,更何況未來潛力無窮的人工智能呢?他的結論是:無論是意識,還是超越意識的新型智能,我們都應保持開放態度。也許AI的心智能力將以我們今日難以想像的方式呈現,我們要做的不是武斷否認,而是謹慎地觀察和研究。
未來挑戰:依賴風險與應對
在演講接近尾聲時,Kosinski 收起了幽默,語氣變得嚴肅起來,討論起未來的挑戰以及我們該有的態度。他坦誠自己對超強AI是又敬畏又畏懼:身為心理學家,他對這種新型神經網路著迷不已,但理智上他也深知其中蘊藏的危險 。有人問到「AI 會不會搶走我們的飯碗,讓我們反而退化了自己的創造力?」Kosinski 回答得直接了當:「你別無選擇,如果你不擁抱AI,別人就會這麼做。」 他認為抗拒AI發展並不能保障任何人的飯碗,反而可能被時代拋下。我們正處於科技競賽中,不管你喜不喜歡,AI正在成為各行各業的標配工具。正如每次工業革命一樣,那些拒絕新技術的人往往會被取代。因此,與其害怕AI,不如主動學習利用AI,把它當作助力而非敵人。這番話既是對勸慰的提問者,也是對整個社會的忠告:適應AI時代是唯一的生存之道。
話雖如此,Kosinski 並不是盲目樂觀的技術烏托邦主義者。他緊接著強調,擁抱AI的同時必須清醒地認識其風險。首先,他點出一個常被忽視的隱患:過度依賴。隨著AI能力爆炸式增長,我們可能會將越來越多關鍵任務交給AI處理。然而,這些系統極其複雜且脆弱。Kosinski 提醒說,想像有一天AI無處不在、我們對它依賴到無法自拔時,如果某種原因讓AI突然停擺——例如大規模電腦病毒入侵、戰爭破壞關鍵伺服器,甚至一次太陽風暴燒毀電網和晶片 ——我們的社會將有多慘?他將AI類比為現代的「電力」:電力是一種人類離不了的技術,如果全球斷電,數百萬人將死亡 。所幸電力系統相對簡單穩定,我們還有備用發電機,可以迅速恢復供電 。但AI系統並沒有這種穩健性:AI晶片的製造本身就依賴高度先進的工廠,一旦整個數位基礎設施崩潰,想重建都困難重重 。換言之,我們正把文明的命脈交給一個極其精密卻潛在容易失靈的網絡。如果沒有預案,一旦這張網絡破裂,我們可能重演歷史上那些因關鍵技術中斷而導致的文明崩潰 。Kosinski 不是危言聳聽——他是要大家理性地看到,我們應該享受AI便利的同時,保留一些「不用AI也能運作」的備援方案,提高系統的韌性,才不至於將來萬一AI出問題時人類毫無招架之力。
另一項不容忽視的挑戰是AI的武器化風險。Kosinski 指出,像GPT-4這樣強大的模型,其背後公司(OpenAI)花了許多時間給它加上種種限制,就是怕它亂來 。即便如此,GPT-4依然具備一些令人膽寒的能力:它可以編寫程式碼,包括電腦病毒,可以自動化地發現安全漏洞,甚至可能入侵其他系統 。而且這一切AI都能在遠超人類的速度和精度下完成 ——它不需要睡眠,能持續不斷地優化進攻手段。如果有人刻意利用AI幹壞事,它完全可能接管電腦網絡、癱瘓電力或金融系統,成為極具殺傷力的網絡武器 。Kosinski 說,眼下確實存在兩股勢力:一邊是在努力為AI上「緊箍咒」,讓AI服從人類價值、不至釀禍;但另一邊卻有人企圖將AI打造成「本世紀最厲害的武器」,拚命推動AI往無限制的方向發展 。如果後者佔了上風,不加約束地打造出真正超出人類控制的「超級智能」,後果將不堪設想。正因如此,Kosinski 呼籲我們必須嚴肅看待AI的治理問題,不能讓軍備競賽式的開發毀了整個未來。他甚至坦言,如果現在手上有一根總開關能讓所有超級AI停機,他願意毫不猶豫地先拔掉插頭,暫停人類與「超人類智慧」繼續交鋒 。這雖然是半開玩笑的說法,但背後透露出他對AI失控風險的深切憂慮。
綜上,Kosinski 強調我們正站在歷史關鍵點:超越以往的一種智慧正在崛起。它帶來巨大機遇也潛藏重大風險。我們需要的是全面的思維轉變和社會準備:既要擁抱AI創新的洪流,勇於在教育、工作中接受並運用AI,也要未雨綢繆地制定安全機制和備用方案,防止對AI產生不可逆的依賴或被別有用心者利用。簡言之,就是歡迎AI,但不能迷信AI,更不能把人類未來完全托付給AI而不做風險管理。
結語:擁抱 AI 時代的思維轉變
Michal Kosinski 的這場演講貫穿始終的一個主旨是:要真正理解和掌控現代AI,我們必須改變看待AI的心智模型。從開場列舉專家誤判、到AlphaGo的驚世一役,他告訴我們老一套觀念已不足以應對AI的新現實。我們需要意識到,今天的AI不再只是冰冷的程式碼,而更像一個透過經驗自我成長的智能體。它有直覺、會「幻想」,可能還會逐漸觸及意識的邊緣。用Kosinski的話說,如果把AI類比為腦子,我們在預測AI能做什麼、會犯什麼錯時就會更準確 。反之,拿錯誤模型去套它,只會一次次判斷失靈。
因此,站在AI時代的門檻,我們每個人——不論是研究者、從業者還是普通公民——都應該與時俱進地調整心態。當AI展現創造力,不要再驚呼「它不過是在拼湊人類作品」;當AI出現幻覺,也不應一味斥責「它胡說八道」,而要理解這是其生成式學習的內在機制。我們該做的是思考如何降低幻覺的負面影響、發揮其創意潛能。面對AI可能的意識萌芽或其它新奇的智能現象,更要保持開放思維——也許未來我們將見證多種不同形式的「智慧生命」共存,而人類的大腦只是其中一種。總之,Kosinski 呼籲我們用更寬廣的視野看待AI的演進,不再墨守成規低估它、也不盲目神話它,而是以理性且前瞻的態度迎接這場變革。
最後,Kosinski 強調「AI的時代已經來臨」,錯誤地認知它只會讓我們處處被動。我們既要勇敢地擁抱AI帶來的種種可能,充分利用它增進人類福祉;也要清醒地意識到,越強大的智能工具,對使用者的智慧與道德要求就越高。在這場人類與人工智能共譜的新篇章中,我們唯有調整自己的思維模式,才能站在歷史正確的一邊,引領AI朝造福人類的方向發展,而不是被浪潮吞沒。Kosinski 的演講以這樣的信念作結:改變觀念,主動應對,AI將是人類新的夥伴;因循守舊,忽視風險,AI則可能成為我們無法掌控的挑戰。這是他留給世人的重要啟示,也是整場演講最核心的呼聲。


















