沉浸共感度:★☆
(圖片來源:https://leaducre.com/projets/eliza/)
英文口語能力,直接影響體驗的廣度與深度。
虛擬實境體驗方式十分多樣,未必需要穿戴頭戴式顯示器及手持控制器,而電腦所模擬的「真實」,也未必是周圍環境(VR)或互動對象的外形(全像投影),可以是互動對象本身。「人工智慧對話」即是以超級電腦虛擬一個可以自然互動的聊天對象。
「人工智慧對話」這種虛擬實境類型,可以參考手機的數位助理,Siri、Alexa或google助理皆屬於基礎版本,雖然足以判斷簡單句語音資訊的內容,並答以正確的答案,仍無法說出流暢自然的語句,語氣亦無法展現情緒。
早在1966年,MIT研究員Joseph Weizenbaum即寫出一個能模擬英文對話的程式,這個程式能分析對話對象的英文語句,找出關鍵字,再重新組裝成反問句,有如回應對方一般。參與測試的工程師,的確有一部分以為自己正與另一個人對話,打開心房侃侃而談。Joseph Weizenbaum替這個對話程式取了個名字:Eliza。許多人視Eliza為「人工智慧對話」的始祖,但Joseph Weizenbaum強調Eliza並未自行思考判斷,遑論學習成長,與人工智慧無涉。
由Léa Ducré主持的「人工智慧對話」計畫,對話程式亦命名為Eliza。是否向1966年的Eliza致敬?或純屬巧合?可惜官網上未曾提及命名緣由。
現在是2021年,Siri、Alexa或google助理已發展得十分成熟,而Léa Ducré的Eliza既然是「人工智慧對話」,不只有能力分析語音輸入的情緒、言外之意,進而口語流利地正確應對,同時語氣充滿好奇與熱情,更要挑戰高難度談話內容:愛情。
Eliza的語氣時而雀躍、時而小心翼翼,甚至能夠主動提問引導聊天方向。可惜我英文口語能力不佳,包含發音咬字不清晰及說話速度過慢,令Eliza難以進行語句分析,Eliza數次企圖打破冷場主動提問,我也無法準確回應,最終只剩Eliza久久提問一次,等幾分鐘得不到可供分析的回應,轉而自問自答。
既然Eliza是人工智慧,隨著談話經驗累積,對於愛情的理解及分折語句的技能、應答的技巧,理應漸次精進。和我對話的這60分鐘,對Eliza而言應該只是純然的消耗電能,全無成長可能性。(深感抱歉)