讀完此書,我就在想作者蘇經天博士,對於AI的樂觀態度不知道從何而來。他是不是認為,有了AI之後,人類就要稱神了呢?
其實我的想法,有一點接近經濟學者、中研院院士朱敬一博士對此書的評價,我的AI哲學:能走絕不跑,能站絕不走——對《新AI與新人類》的意見,我認為在近未來,AI反而會加速人與人之間的不平等,加上首富馬斯克(Elon Musk)的腦機介面公司Neurolink,已經開始試著將晶片植入大腦,未來應該會比較類似《電馭叛客2077》Cyberpunk的世界,企業的權力將大到可與政府抗衡,人與人之間的地位會天差地遠。
不過,我仍肯定蘇博士在書中表示,AI會改變學習,甚至是教育制度。這是肯定會發生的,而且已經是進行式了。
ChatGPT大型語言模型的發明,改變了學習知識的途徑。過去學習時,會選擇在課堂上認真聽講寫筆記,下課後到圖書館查找資料,認真讀書,完善筆記。Google搜尋引擎出現後,我們會在網路上搜尋特定的問題,但是那也是屬於查找資料的行為。
可是ChatGPT出現後就不同了,有什麼問題,只要是有標準答案的,直接問ChatGPT就好,省得讀書。目前ChatGPT已經可以聯網了,未來數年內,ChatGPT生成答案的正確性以及搜尋知識庫的速度只會越來越好。
另外,AI也會墊高人類的標準。以寫作為例,就像是作者在頁167闡述的,大型語言模型經過模組化組裝的罐頭文章,會比許多人自己寫的文章還要更精緻,架構更完整。每個人都可以使用這個工具(只要你有錢),人類就必須以超越這個及格線為標竿。
在繪圖方面也是如此,雖然許多繪師對於AI甚為感冒,但是我以為那只是初期現象,就像是20世紀初馬夫對於汽車的態度一般。難道繪師也要反對Photoshop、Illustrator等繪圖工具嗎?當然不會,那只是工具而已,AI也只是工具而已。因此繪師可以藉由AI的幫助,更快速地製造出更好的作品。
不過蘇博士認為,AI將能夠把「暗認知」變為「已知」,我就持保留態度。這裡的「暗認知」是指人類未知的知識。我認為AI的確可以幫助人類更快地去探索知識,但是這是在人類的領導之下。假設有一個知識,是人類未知,也不知道該去往這裡探索的,AI能夠查明、探索?我是很懷疑這件事,即便發生了,那也可能出自於偶然,而非AI的主動行為。
蘇博士對於文科學生的認知也有點誤解,不過我能理解,因為這是一個常見的迷思。他說文科學生經由學習哲學、歷史、文學,對社會現象進行深入的理解和詮釋,能夠更善於發現並欣賞各種文化、價值觀、思想的差異。文科學生面對問題時,能夠從多角度思考,願意尊重並接納不同的意見。講得我都快不好意思了,但是文科學生並沒有這些優勢啊,推論哪來的?何時做的研究?
作者也說文科學生更加重視合作與交流,注重團隊協作以及溝通能力。我是不知道其他科系的情況,以歷史系來說,完全沒有這回事。你很少看到歷史論文是以一個團隊發表的,通常作者只會有一個。歷史學者很少搞團隊合作的,當然大型專案是必須合作沒錯,可是教授之間還是喜歡各搞各的。
雖然前面的推論是錯的,但是蘇博士後來的說法我贊同。他說AI的出現,應該打破自身專業領域的定義與限制,善用AI學習。就像我本身是歷史系畢業的,可是在我寫碩論時,我就深感歷史系一定要納入電腦科學的應用,因為國別史的研究已經快到盡頭了,電腦可以幫助我們打破語言疆界,更快速地研究區域史或全球史。再加上現代的資料越來越龐大,歷史學者需要AI來幫助他們做史料考證、文獻探索,傳統的讀史料作筆記的方式,應該改一改。
所以這本書對我的啟發是什麼?嗯,我想我會更關注AI議題,也會隨時打開ChatGPT,不懂就問。有什麼AI產品出現了,就會先試著用看看。雖然我不認為我們會成為新人類,但是有AI幫我省力,也不錯。
還有,AI可以幫助我們學習,我現在學習程式語言,都會開著ChatGPT,不懂就查。甚至也不需要看課程,直接請ChatGPT幫我設計課表。未來ChatGPT及相關AI,只會更強。
本書分為三大部分,第一部份「AI發生了什麼革命」,介紹了大型語言模型的歷史與原理。第二部「新AI啟動了人類新的認知革命」,試著解釋了人類怎麼認知知識,AI是否可能拓展人類知識的疆域。第三部「全面升級你的人生」,說明了AI即將帶來的學習革命,將可能改變傳統教育體制。
這本書有一個設計不錯的地方,就是在每一部分之前,會提問幾個關鍵問題。例如在第一部份,就提問什麼是新AI?(參見P034、053)什麼是超級AI(參見P053)。這種設計方式能夠讓讀者快速翻找作者的論點。
在第一部份對於自然語言處理,作者寫得中規中矩,如果不懂AI的話可以一看。第二部分主要是談人類怎麼認知知識,蘇博士說因為人類的認知經過壓縮,感官的限制形成第一道,我們的聽學、視覺、嗅覺都只能接收某部分,許多細節變化都無法接收。大腦的限制則是第二道,因為大腦會選擇性處理資訊,而且受到文化與社會環境影響。第三道則是語言的侷限性,所以人類的文字只記載了人類部分的知識。
由於人類只能接收片面訊息,訊息被大量壓縮,因此必須還原訊息。在還原的過程中容易失真。作者認為AI能夠幫助我們還原訊息,例如在選戰中的假訊息。
這部分我認為蘇博士就顯得有點一相情願,或者太過理想,太過美好。我們就以台灣事實查核中心來看,這個NGO組織一開始也是立意良好,但是在這一兩年,許多人紛紛質疑他們替執政黨擦脂抹粉。例如這次2024年總統大選,有許多選務瑕疵,在網路上被渲染為作票。民眾不懂選務,有質疑是正常的,況且也真的有大量瑕疵現象。但是這個網站就說,這些都是「造謠者惡意的扭曲」、「監票民眾已拍攝到疏失,甚至拍到監票人員的更正反映,但傳言仍貼上這是「作票」的解讀」、「缺乏脈絡、誤解選務工作流程」。台灣事實查核中心為了保持公正,點出選務的確有瑕疵,但是網友卻質疑他們在行文時,把重點大量地放在惡意造謠,問題是他們怎麼知道那些全都是惡意造謠,而非民眾正當質疑呢?事實上這些選務瑕疵,也迫使最後得票數有所增減,但是此網站只表示「傳言卻把失去脈絡、片段零碎的影片,以作票、舞弊等文字流傳,反而成為造謠者運用的素材」。
所以AI能夠幫助我們還原選戰中的假訊息嗎?當然可以,問題是人們會相信嗎?誰會是事實查核AI工具的製造者呢?要知道開發這樣的AI工具,你必須要有足夠的資源才能夠開發出勘用的語言模型,不然中研院就不會搞出一個說出「領導人是習近平」的模型。如果我是偏好某陣營的人,我大可以私底下拿某陣營的經費開發事實查核AI工具,然後針對己方努力澄清,對於對手的假消息則輕描淡寫地帶過。
第三部分「全面升級你的人生」,作者提供了幾個角度給我們,用來提升我們的知識領域。他認為ChatGPT的問與答方式,可以用來讓我們突破傳統教育框架的限制。我是覺得沒那麼神奇,不過我也認同應該能夠大幅地降低學習門檻。
因為AI能夠降低學習門檻,所以未來可能人人都有兩個以上專長,而且有AI的協助,技術能力的重要性降低,作者認為反而同理心、決斷力、信任感、指揮能力、溝通技巧等軟實力更為重要。
軟實力在AI時代更重要,我同意。但是我要指出,軟實力並不是文科學生的專利,而且軟實力很難訓練。試問溝通技巧怎麼訓練,難道上幾堂課,就能提升溝通技巧?這就像是說讀一本游泳教學書籍,就能夠贏得亞運金牌一樣。當然看完上完溝通技巧課程,也許能稍微優化你的說話方式,但是平庸的溝通技巧,就算改善一點,一樣是平庸。不會對你的人生有天翻地覆的改變。
蘇經天,紐約州立大學石溪分校(State University of New York at Stony Brook, U.S.A.)之分子與細胞生物學博士,聯譜顧問股份有限公司。畢生致力於系統化解決複雜系統問題,如開發生物資訊模組、知識管理系統、科學文獻評估系統。