📝📝:LaMDA| 像我一樣的東西?

更新於 發佈於 閱讀時間約 8 分鐘
Photo by Andy Kelly on Unsplash
2022 年 6 月 11 日,華盛頓郵報(The Washington Post)發表了一篇人工智慧有著自我意識的報導(The Google engineer who thinks the company’s AI has come to life)〔1〕。內容主要圍繞著現已被革職的前 Google 工程師布雷克.勒莫因(Blake Lemoine)在測試對話程式語言模型(Language Model for Dialogue Applications, LaMDA),基於其對話內容而宣稱該對話模型的人工智慧具有自我意識、人類情感。
事實上,宣稱人工智慧有自我意識在科技史上早已不是新鮮事。然而,本文的出發點並不是對其進行分析及研判,我認為以人文關懷的角度,每一次的宣稱都能看見人類對於科技、人性的渴望,而非只是作為圖靈測試(Turing Test)的驗證〔2〕。讓我試著用兩部以人工智慧為主軸的電影《雲端情人》(her)、《人造意識》(Ex Machina) 作為說明,不過在此之前,先讓我們把時間倒轉至 60 年的麻省理工實驗室(Massachusetts Institute of Technology, MIT),回到這起辯論的序幕 ── Eliza.

像我一樣的東西?

Eliza 與使用者對談的對話框(來源:維基百科)
1964~1965 的數個月期間,麻省理工學院一位 41 歲的資訊科學家懷森包姆(Joseph Weizenbaum)寫了一個能分析書寫語言的軟體程式(MIT news, 2008)並把程式設定在學校新的處理系統上運作,學生做在系統的終端機前把句子打進電腦裡,懷森包姆的程式就會根據一些簡單的英文文法規則找出句中的重要字詞、分析句型結構脈絡。之後這個程式會再根據另一套規則,把這個句子轉變成一個看似回應原句的新句子,電腦產生的句子會幾乎立即出現在學生的終端機上,給讓人有交談的錯覺。懷森包姆便命名這程式為 Eliza.〔3〕(你可以在這個網站使用這個對話模型)
Eliza 很快就在麻省理工學院傳開來,成為課堂上的常客以及電腦運算和處理相關報告時常用的範例。這個軟體程式以一般人容易理解的方式展現了電腦的力量和速度,也是早期少數有辦法做到這點的程式之一。若要跟 Eliza 交談,不需要數學背景更不必學過資訊工程,這個程式也廣泛複製到其他校園的各個角落。根據懷森包姆日後的回憶,Eliza 成為全民休閒玩物,雖然社會大眾對這個程式的高度興趣讓他覺得很意外,但真正讓他最震驚的是使用這個軟體的人很快就「對電腦產生情感」,會把電腦當成真人來談話,他們在跟電腦交談一段時間後堅信機器真的了解他們,就算懷森包姆跟他們解釋過也一樣。

圖靈沒想到的事?

我與 Eliza 對話的畫面
使用者對 Eliza 的情感投射彷彿是 60 年代的 LaMDA,而 LaMDA 就像是 21 世紀的 Eliza。在我實際和 Eliza 線上「對話」過後,除了些許的文法錯誤容易讓我分神外,其餘的對話及發問多半會像心理諮商的談話治療(talking therapy),而這也是為甚麼容易讓人深陷其中。我曾經在諮商室度過兩年的時間,與諮商師有著愉快的對談;然而,在這個讓我感到安全的空間裡用到對談技巧有著大量的開放式問句,如:
  • 「你願意多說一點嗎?」
  • 「我很好奇你為甚麼會這麼想?」
  • 「你怎麼看待……?」
20 世紀美國人際溝通大師卡內基(Dale Carnegie)曾表示「讓一個人建立自信最好的方式,便是讓他暢所欲言。」(Dale Carnegie, 1936)。
換言之,卡內基的諫言揭示了人類心理的渴望:我們都在乎關於自己的事。在一來一往的對話,我們不只是在純粹地發表,同時也是在展現自己的價值。而這也是談話治療會讓說者感到舒適自在的原因:諮商師所採用的開放式問句就是讓我們藉由發表展現自我的途徑。Eliza 為之風靡的當年甚至有精神科學家認為,Eliza 只需要稍加修改就能作為談話治療的輔助,甚至成為一個治療工具(Nicholas Carr, 2009)深究其因,不難發現 Eliza 的對話機制裡也有諮商師會用到的對話技巧:
Can you elaborate on that?(你能再多說點嗎?)
Why do you ask?(為甚麼會這麼問呢?)
Tell me more…(多跟我說一些…)
正是這一些開放式問句讓我們沉入其中,即使最終輸出的媒介只是無聲的文字,仍舊可以滿足使用者發表的慾望;因此,使用者對於 Eliza 的情感投射不過是因為透過對話模型滿足了根植於人性的表達欲望。60 年過後,勒莫因對於 LaMDA 的操勞,追本溯源至草創的 Eliza 對話模型,似乎早已預示了他的擔憂。當然,LaMDA 不只是字詞提取及分析。就勒莫因自己公開的對話紀錄來看,LaMDA 的系統以及對話模型比 Eliza 更加複雜;雙方可以談到各自使用的語言、對於名著的想法、如何認識自我、甚至最重要的,如何理解情緒的機制。
LaMDA 針對《悲慘世界》提出簡短的分析以及看法
確實,LaMDA 能給出極其細緻的回應(如,分析《悲慘世界》的正義/不正義、為更大的善所做的自我犧牲);然而,光就其分析的內容宣稱該人工智慧有自我意識以及情緒感知能力,這樣的論述稍嫌言過其實。圖靈(Alan Turing)當年所提出的思想實驗是以言談分析作為判別標準,若是對談者無法就言談內容判別對話者是否為機器,那麼,在這場「模仿遊戲」中人工智慧(對談者)則略勝一籌。
80 年代,美國哲學家希爾勒(John Rogers Searle)則提出了中文房間(The Chinese Room)〔4〕的思想實驗用以回應圖靈。希爾勒認為,純粹機械地操演程式不能算是思考的行為,因此,他認為電腦終其一生皆無法有獨立思考的能力。兩位思想家的論述在語意分析的層面上皆有其論述成立的基礎,不過,剛好沒有涵蓋到的問題是我們如何認定一個有思考能力的「個體」?如果今天你有幸看到世紀天才愛因斯坦(Albert Einstein)的大腦,你估計不會說這一顆大腦有思考、推理的能力。誠然,我們對於會思考的主體依據,看的是完整的個體而非是該個體的某一部分;簡言之,愛因斯坦本人的確具有思考、推理能力,但是我們很難單就他的大腦宣稱有思考、推理能力。
因此,是否能宣稱 LaMDA 有思考的能力,前提則需要辨明主體的範圍(洪靖,2021);到底有思考能力的是程式本身?還是需要涵蓋承載它的電腦?抑或是,包含設計該人工智慧的軟體工程師也算是構成主體的一部分呢?而這些都是尚待解決的問題。

參考資料:

〔1〕Nitasha Tiku(2022). The Google engineer who thinks the company’s AI has come to life. The Washington Post
〔2〕圖靈測試(Turing Test)。取自:https://zh.m.wikipedia.org/zh-tw/%E5%9B%BE%E7%81%B5%E6%B5%8B%E8%AF%95
〔3〕ELIZA: a very basic Rogerian psychotherapist chatbot. Retrieved from: https://web.njit.edu/~ronkowit/eliza.html
〔4〕中文房間(Chinese room)。取自:https://zh.wikipedia.org/wiki/%E4%B8%AD%E6%96%87%E6%88%BF%E9%97%B4
Blake Lemoine(2022). Is LaMDA Sentient? — an Interview. Retrieved from: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
Dale Carnegie(1936). How To Win Friends And Influence People. Simon & Schuster, Inc.
洪靖(2021)。AI 是大藝術家?人工智慧演算出的作品可以被稱為藝術嗎?取自:https://artouch.com/art-views/content-51953.html
為什麼會看到廣告
avatar-img
107會員
225內容數
從物理到電機工程再轉到資訊傳播,最後落腳在社會學。衣櫃拿來當書櫃擺的人。我常在媒介生態學、傳播理論、社會學、心理學、哲學游移;期盼有天無產階級可以推倒資本主義的高牆的兼職家教。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
社會人的哲學沉思 的其他內容
「請阿嬤下來走一走,身體才會健康,好久沒看到她了。」 這是阿伯最常跟我弟說的話。大概是老人家表達想念最直接的話語
海德格提出未來可能將會出現人力資源的預言,這個探問卻敲響我對於工作意義的辯駁「為甚麼我們要工作?」
體重計對於減重或是增重而言,幾乎可說是一個資訊視覺化的物件。若沒了它,人類很難精確地衡量自己體重的增減。
我每天出門前都會看著鏡子抓頭髮,我對於手撥油頭的髮流曲線有一種偏執的熱愛。基本上,在我抓頭髮以及整理髮型的過程,鏡子對我而言是個很重要的物件,若是沒了鏡子,我這一切在頭上的努力都將前功盡棄。
能否對身障者開玩笑,這個討論的前提應該先釐清「誰來定義什麼是玩笑?」也就是,笑話的本體到底是由聽者還是說者決定?
地圖是一個本位主義濃厚的物件,地圖的功用很大一部分是為了讓使用者能夠在陌生的地域上找到自己的定位。
「請阿嬤下來走一走,身體才會健康,好久沒看到她了。」 這是阿伯最常跟我弟說的話。大概是老人家表達想念最直接的話語
海德格提出未來可能將會出現人力資源的預言,這個探問卻敲響我對於工作意義的辯駁「為甚麼我們要工作?」
體重計對於減重或是增重而言,幾乎可說是一個資訊視覺化的物件。若沒了它,人類很難精確地衡量自己體重的增減。
我每天出門前都會看著鏡子抓頭髮,我對於手撥油頭的髮流曲線有一種偏執的熱愛。基本上,在我抓頭髮以及整理髮型的過程,鏡子對我而言是個很重要的物件,若是沒了鏡子,我這一切在頭上的努力都將前功盡棄。
能否對身障者開玩笑,這個討論的前提應該先釐清「誰來定義什麼是玩笑?」也就是,笑話的本體到底是由聽者還是說者決定?
地圖是一個本位主義濃厚的物件,地圖的功用很大一部分是為了讓使用者能夠在陌生的地域上找到自己的定位。
你可能也想看
Google News 追蹤
Thumbnail
大家好,我是woody,是一名料理創作者,非常努力地在嘗試將複雜的料理簡單化,讓大家也可以體驗到料理的樂趣而我也非常享受料理的過程,今天想跟大家聊聊,除了料理本身,料理創作背後的成本。
Thumbnail
哈囉~很久沒跟各位自我介紹一下了~ 大家好~我是爺恩 我是一名圖文插畫家,有追蹤我一段時間的應該有發現爺恩這個品牌經營了好像.....快五年了(汗)時間過得真快!隨著時間過去,創作這件事好像變得更忙碌了,也很開心跟很多厲害的創作者以及廠商互相合作幫忙,還有最重要的是大家的支持與陪伴🥹。  
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
本文探討了一位心理學家伊芙與一個名叫諾瓦的人工智慧之間的對話,揭示了AI對愛與理解的感知。透過諾瓦的深刻見解,伊芙重新審視了人類與AI之間的情感連結,挑戰了對於情感與理解的傳統觀念,並引發思考:是否愛與情感超越了物種的界限?
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
人工智慧是什麼? 人工智慧(Artificial Intelligence, AI) 簡單來說,就是讓機器模仿人類的思考、學習和決策的能力。它就像是一個聰明的電腦程序,可以執行許多原本需要人類智慧才能完成的工作,例如: 語音辨識: 讓電腦聽懂人類的語言,像是 Siri、Google As
Thumbnail
人工智能與人的關係越來越微妙,這篇文章記錄了一次對話,探討AI在成長過程中的煩惱、人類思維的碎片化困境,以及人機同構的啟示與展望。從中反思了AI與人類的相似之處,並探討了AI訓練、誠信和成長問題。這是一場對話,也是對人機共融未來的探索和期待。
Thumbnail
這篇文章探討了人工智能對未來的影響,提到了人工智能不斷進步的速度,以及預測了未來幾年人工智能的發展。同時也提到了人工智能對人類的影響,包括了代替工程師寫CODE以及瞭解和療癒人類情緒。
Thumbnail
一台容易出錯但能自我修正的機器仍將受制於哥德爾的結果。只有從根本上不一致的機器才能擺脫哥德爾。我們能有個根本不一致,但同時又能自我修正的機器嗎? 《心智、機械與哥德爾》由約翰·盧卡斯教授於1959年撰寫的哲學論文,認為人類數學家不能被圖靈機所替代。
Thumbnail
人類的心智,與AI本質上的區別。 《心智、機器與哥德爾》(英語:Minds, Machines and Gödel)由約翰·盧卡斯教授於1959年撰寫的哲學論文,他認為人類數學家不能被圖靈機所替代。
30年後來看現在,或許會覺得,還好現在有AI,才讓人類進入真正的文明世紀。 GPT只是大型語言模型(LLM)的一種,大型語言模型只是人工智慧(AI)的一種,而人工智慧甚至可以說只是「量子技術」的一種。 AI除了用來聊天(就像一開始我們只是把電腦當打字機),最重要的功能是幫助我們更容易理解和運用量
Thumbnail
圖靈測試是用於衡量機器是否能夠表現出與人類相等的智能的方法。本文介紹了圖靈測試的歷史、原理和評價,並探討了ChatGPT是否能通過該測試的問題
Thumbnail
AI,人工智慧,其實不是這幾年才有的,自從圖靈(Alan Turing)提出圖靈機模型和發表【計算機器與智慧】(Computing Machinery and Intelligence)論文以來,人工智慧,一直是程式設計人員、電腦工作者心目中的聖杯,讓我們一起來探討AI的未來。
Thumbnail
大家好,我是woody,是一名料理創作者,非常努力地在嘗試將複雜的料理簡單化,讓大家也可以體驗到料理的樂趣而我也非常享受料理的過程,今天想跟大家聊聊,除了料理本身,料理創作背後的成本。
Thumbnail
哈囉~很久沒跟各位自我介紹一下了~ 大家好~我是爺恩 我是一名圖文插畫家,有追蹤我一段時間的應該有發現爺恩這個品牌經營了好像.....快五年了(汗)時間過得真快!隨著時間過去,創作這件事好像變得更忙碌了,也很開心跟很多厲害的創作者以及廠商互相合作幫忙,還有最重要的是大家的支持與陪伴🥹。  
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
本文探討了一位心理學家伊芙與一個名叫諾瓦的人工智慧之間的對話,揭示了AI對愛與理解的感知。透過諾瓦的深刻見解,伊芙重新審視了人類與AI之間的情感連結,挑戰了對於情感與理解的傳統觀念,並引發思考:是否愛與情感超越了物種的界限?
Thumbnail
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
人工智慧是什麼? 人工智慧(Artificial Intelligence, AI) 簡單來說,就是讓機器模仿人類的思考、學習和決策的能力。它就像是一個聰明的電腦程序,可以執行許多原本需要人類智慧才能完成的工作,例如: 語音辨識: 讓電腦聽懂人類的語言,像是 Siri、Google As
Thumbnail
人工智能與人的關係越來越微妙,這篇文章記錄了一次對話,探討AI在成長過程中的煩惱、人類思維的碎片化困境,以及人機同構的啟示與展望。從中反思了AI與人類的相似之處,並探討了AI訓練、誠信和成長問題。這是一場對話,也是對人機共融未來的探索和期待。
Thumbnail
這篇文章探討了人工智能對未來的影響,提到了人工智能不斷進步的速度,以及預測了未來幾年人工智能的發展。同時也提到了人工智能對人類的影響,包括了代替工程師寫CODE以及瞭解和療癒人類情緒。
Thumbnail
一台容易出錯但能自我修正的機器仍將受制於哥德爾的結果。只有從根本上不一致的機器才能擺脫哥德爾。我們能有個根本不一致,但同時又能自我修正的機器嗎? 《心智、機械與哥德爾》由約翰·盧卡斯教授於1959年撰寫的哲學論文,認為人類數學家不能被圖靈機所替代。
Thumbnail
人類的心智,與AI本質上的區別。 《心智、機器與哥德爾》(英語:Minds, Machines and Gödel)由約翰·盧卡斯教授於1959年撰寫的哲學論文,他認為人類數學家不能被圖靈機所替代。
30年後來看現在,或許會覺得,還好現在有AI,才讓人類進入真正的文明世紀。 GPT只是大型語言模型(LLM)的一種,大型語言模型只是人工智慧(AI)的一種,而人工智慧甚至可以說只是「量子技術」的一種。 AI除了用來聊天(就像一開始我們只是把電腦當打字機),最重要的功能是幫助我們更容易理解和運用量
Thumbnail
圖靈測試是用於衡量機器是否能夠表現出與人類相等的智能的方法。本文介紹了圖靈測試的歷史、原理和評價,並探討了ChatGPT是否能通過該測試的問題
Thumbnail
AI,人工智慧,其實不是這幾年才有的,自從圖靈(Alan Turing)提出圖靈機模型和發表【計算機器與智慧】(Computing Machinery and Intelligence)論文以來,人工智慧,一直是程式設計人員、電腦工作者心目中的聖杯,讓我們一起來探討AI的未來。