2022 年 6 月 11 日,華盛頓郵報(The Washington Post)發表了一篇人工智慧有著自我意識的報導(The Google engineer who thinks the company’s AI has come to life)〔1〕。內容主要圍繞著現已被革職的前 Google 工程師布雷克.勒莫因(Blake Lemoine)在測試對話程式語言模型(Language Model for Dialogue Applications, LaMDA),基於其對話內容而宣稱該對話模型的人工智慧具有自我意識、人類情感。
事實上,宣稱人工智慧有自我意識在科技史上早已不是新鮮事。然而,本文的出發點並不是對其進行分析及研判,我認為以人文關懷的角度,每一次的宣稱都能看見人類對於科技、人性的渴望,而非只是作為圖靈測試(Turing Test)的驗證〔2〕。讓我試著用兩部以人工智慧為主軸的電影《雲端情人》(her)、《人造意識》(Ex Machina) 作為說明,不過在此之前,先讓我們把時間倒轉至 60 年的麻省理工實驗室(Massachusetts Institute of Technology, MIT),回到這起辯論的序幕 ── Eliza.
Eliza 很快就在麻省理工學院傳開來,成為課堂上的常客以及電腦運算和處理相關報告時常用的範例。這個軟體程式以一般人容易理解的方式展現了電腦的力量和速度,也是早期少數有辦法做到這點的程式之一。若要跟 Eliza 交談,不需要數學背景更不必學過資訊工程,這個程式也廣泛複製到其他校園的各個角落。根據懷森包姆日後的回憶,Eliza 成為全民休閒玩物,雖然社會大眾對這個程式的高度興趣讓他覺得很意外,但真正讓他最震驚的是使用這個軟體的人很快就「對電腦產生情感」,會把電腦當成真人來談話,他們在跟電腦交談一段時間後堅信機器真的了解他們,就算懷森包姆跟他們解釋過也一樣。
╴
圖靈沒想到的事?
使用者對 Eliza 的情感投射彷彿是 60 年代的 LaMDA,而 LaMDA 就像是 21 世紀的 Eliza。在我實際和 Eliza 線上「對話」過後,除了些許的文法錯誤容易讓我分神外,其餘的對話及發問多半會像心理諮商的談話治療(talking therapy),而這也是為甚麼容易讓人深陷其中。我曾經在諮商室度過兩年的時間,與諮商師有著愉快的對談;然而,在這個讓我感到安全的空間裡用到對談技巧有著大量的開放式問句,如:
換言之,卡內基的諫言揭示了人類心理的渴望:我們都在乎關於自己的事。在一來一往的對話,我們不只是在純粹地發表,同時也是在展現自己的價值。而這也是談話治療會讓說者感到舒適自在的原因:諮商師所採用的開放式問句就是讓我們藉由發表展現自我的途徑。Eliza 為之風靡的當年甚至有精神科學家認為,Eliza 只需要稍加修改就能作為談話治療的輔助,甚至成為一個治療工具(Nicholas Carr, 2009)深究其因,不難發現 Eliza 的對話機制裡也有諮商師會用到的對話技巧:
Can you elaborate on that?(你能再多說點嗎?)
Why do you ask?(為甚麼會這麼問呢?)
Tell me more…(多跟我說一些…)
正是這一些開放式問句讓我們沉入其中,即使最終輸出的媒介只是無聲的文字,仍舊可以滿足使用者發表的慾望;因此,使用者對於 Eliza 的情感投射不過是因為透過對話模型滿足了根植於人性的表達欲望。60 年過後,勒莫因對於 LaMDA 的操勞,追本溯源至草創的 Eliza 對話模型,似乎早已預示了他的擔憂。當然,LaMDA 不只是字詞提取及分析。就勒莫因自己公開的對話紀錄來看,LaMDA 的系統以及對話模型比 Eliza 更加複雜;雙方可以談到各自使用的語言、對於名著的想法、如何認識自我、甚至最重要的,如何理解情緒的機制。