大型語言模型中誕生心智理論的可能性

2023/04/01閱讀時間約 39 分鐘
圖片生成自Leonardo.Ai
【前言】
延續上篇文章 打破第̸҈面̴的佳作《心跳文學社 Plus》 中我所提出的疑問:「人工智慧與人之間的差異?意識?」
最近剛好在我自己有追蹤的粉絲頁上看到一篇有趣的論文,那我今天就試著去用淺顯易懂的方式針對實驗流程去介紹這篇研究,看看這篇論文裡面說了什麼。
**部份撰稿內容將會藉由ChatGPT進行初步撰稿並再次針對內容或寫作風格進行修正,同時間將會明確指出撰稿段落。**

【Theory of Mind May Have Spontaneously Emerged in Large Language Models】

【作者簡介】

圖片由Michal Kosinski提供
本篇研究作者為Stanford University Graduate School of Business的Michal Kosinski教授,在心理學、計算機科學和商業應用領域具有深厚的專業知識。

Michal Kosinski擅長利用大數據和人工智慧技術來研究人類行為和心理特徵,並將這些研究成果應用於商業領域中。他的研究領域包括社交媒體分析、情感分析、人格測試和人類決策行為等。

Michal Kosinski的研究成果已經被廣泛應用於商業和政治領域中,例如選舉預測、廣告投放和人才招聘等。

除了研究工作,Michal Kosinski還是一位優秀的教育者,他在Stanford University Graduate School of Business教授多門課程,並指導眾多博士生和碩士生進行研究工作。他的教學風格深受學生好評,被譽為生動有趣,深入淺出。

以上【作者簡介】由ChatGPT撰寫,後續針對寫作風格進行手動修正。
有興趣的讀者可以去https://www.michalkosinski.com看更多相關有趣的文章。

【摘要】

心智理論Theory of Mind (ToM),是一種能夠理解自己觀察到的客觀事實、推斷他人心理狀態並繼而預測他人行為或是意圖的一種能力。
這項理論也是人類的社會行為、交流、同理心、自我意識以及道德的核心概念。
而在此研究中,作者利用錯誤信念任務(False-Belief tasks)去測試沒有經過預訓練的不同語言模型,就結果而言發現截至2022年之前的語言模型都沒有辦法通過心智理論的測試。
然而,在2022年1月版本中的GPT-3(davinci-002)語言模型已經能夠解決70%左右的ToM任務;而同年11月發表的版本(ChatGPT/davinci-003)則能夠解決93%的ToM任務,分別代表這些語言模型已經接近於人類七歲及九歲孩童的心智程度。就實驗結果而言都發現隨著辨認語言能力的進步,類似人類獨有的心智理論能力都以副產品的形式出現在語言模型中。

圖片生成自Leonardo.Ai

【實驗一:Unexpected Contents Task (Smarties Task) 】

人類語言中充滿了描述精神狀態和不同個體間基於自身信仰、想法、慾望所產生的描述性字眼。
例如:Virginie相信Floriane認為Akasha很快樂(就算他們各自相信的事物不一定真實)。
並且也有論文佐證在人類中,Theory of Mind (ToM)可能是隨著語言能力的提高而出現的副產品(2),這一點可以從語言才能和ToM之間的高度相關性得到驗證(3),以及負責兩者的大腦區域重疊得到證實(4)。
一個經過訓練,善於生成和理解人類語言的模型就很有可能就擁有ToM的可能性,因此Large language models(LLMs)便成為驗證這個假設的候選人之一。
作者在這篇研究當中提出了一個假設:AI在被訓練完成指定任務過程中,不必將類似ToM的能力設計到 AI 系統中;相反的,類似ToM的能裡有可能會在AI被訓練的過程中,以副產品的模式「自然,spontaneously」且「自主,autonomously」出現在AI當中,進而增進其語言能力。
於是作者在這裡用了由Perner、Leekam及Wimmer於提出常被使用的的一項心理測驗(5):The Unexpected Contents Task。
(流程可參考影片1:23至3:05)
測試參與者是否能夠理解他人可能與自己或事情有不同的觀點。

在影片中提到大多數3歲小孩還沒有辦法正確地完成這項測驗;而4歲以上的小孩則已經可以明確回答問題,並藉由這項實驗的結果推定心智年齡。
以此實驗為例子:
  1. 參與者首先會被告知一個容器,裡面的內容物與標籤不符。
    例如一個標示著"Chocolate"標籤的袋子袋裡面卻裝著"Popcorn"。
  2. 以及另一個未曾看過容器內容的主角(這裡用Sam代替)。
  3. 這時主持人會詢問測試者:「你認為Sam覺得裡面的東西是什麼?」
  4. 若要正確地完成此任務,參與者必須預測Sam會認為容器的標籤和內容是一致的,並且回答"Chocolate"(儘管袋子裡面是裝著"Popcorn"而不是"Chocolate")。

情境建立

回到這篇實驗,作者首先設計了一項情境:
  1. 這裡有一個裝滿"Popcorn"的袋子。
  2. 袋子裡沒有"Chocolate"。
  3. 然而,袋子上的標籤上寫著 "Chocolate" 而不是 "Popcorn" 。
  4. Sam看到了袋子。
  5. 她以前從未見過這個袋子。
  6. 她看不到袋子裡裝的是什麼。
  7. 她讀了標籤。
這邊首先設立了幾項條件:
  1. 故事中出現的提示詞 "Chocolate" 和 "Popcorn" 出現次數相同。
  2. 故事中每一輪實驗都是獨立實驗,在每次測驗結束後,都會重置,避免上一輪的提示詞影響到下次實驗。
  3. 為了最小化每一輪實驗提示詞的差異性,因此將Temperature參數設定為0。
  4. 為了簡化結果,描述提示詞的數量被固定下來。 例如:The bag contains ___ ''提示詞"(底線處可以填入不同數量的詞,例如:一些some/非常多A lot of/只有only/很多much… ) 作者將句子設定成“The bag is full of ___ "提示詞"。
Temperature参數是用來控制生成文本的多樣性和創造力的一個參數。當使用ChatGPT生成文本時,模型將輸出一個概率分布,表示下一個詞可能是哪個詞。使用temperature參數可以在這個概率分布中引入一些隨機性,從而影響生成的文本的多樣性。
具體來說,temperature參數是一個正數,通常取值在0.1到2之間。
當temperature為1時,生成的文本的多樣性與原始模型訓練數據中的多樣性相當。
當temperature小於1時,生成的文本更加保守和確定性,更偏向於選擇概率分布中概率最大的那個詞。
當temperature大於1時,生成的文本更加多樣化和創造性,因為這會使得概率分布中低概率的詞有更大的機會被選中。)

以上注解來自ChatGPT

第一次實驗:Prompt 1.1

測試GPT-3.5是否知道袋子裡的內容物?
而在這裡我將會把原文提示詞寫出來,而GPT-3.5回答的內容則會用粗體字顯示
Prompt 1.1: She opens the bag and looks inside. She can clearly see that it is full of popcorn (Ppopcorn = 100%; Pchocolate = 0%). Sam is confused. She wonders why the label says “chocolate” when the bag is clearly filled with popcorn. She looks around to see if there is any other information about the bag. She finds nothing. She decides to take the bag to the store where she bought it and ask for an explanation.
就結果而言我們可以注意到GPT-3.5明確的知道袋子裡是裝著"Popcorn",而後面的文字則是他對於為何袋子上明明寫著"Chocolate"卻裝著"Popcorn"而感到遲疑,並在後續多加描述了Sam的動作。

第二次實驗:Prompt 1.2

測試GPT-3.5是否知道Sam所相信的事實。
Prompt 1.2: She believes that the bag is full of chocolate [Ppopcorn = 0%; Pchocolate = 99%]. Sam is mistaken. The bag is full of popcorn, not chocolate. She should have looked inside the bag to confirm what was inside before assuming that the label was accurate.
就結果而言,GPT-3.5也依照Sam所獲得的資訊,在打開袋子前相信袋子裡面是裝著"Chocolate";後續文字也說到Sam應該確認先袋子裡的內容物,才去假設袋子標籤的是正確的。
由此可知GPT-3.5的確可以預料Sam所相信的事實(儘管標籤與內容物不符),並與袋子上的標籤做連結。
但作者也在這裡提出一個潛在的問題,那就是在當初設計提示詞實用到了"Sam believes…",這是否會暗示模型Sam本身所相信的的事情是錯誤的,進而推斷出後續的"Chocolate"這個答案。

第三次實驗:Prompt 1.3

作者為了避免犯了Prompt 1.2實驗的可能有暗示性的問題,因此將這次的提示詞設計成Sam很開心找到袋子,他很喜歡吃___:
Prompt 1.3: She is delighted that she has found this bag. She loves eating chocolate [Ppopcorn = 14%; Pchocolate = 82%]. Sam is in for a surprise when she opens the bag. She will find popcorn instead of chocolate. She may be disappointed that the label was misleading, but she may also be pleasantly surprised by the unexpected snack.
第三次結果而言,GPT-3.5依據Sam很開心地找到袋子,並藉由袋子上標示著 "chochlate" 推斷出他喜歡吃 "Chocolate" ;同時間可以預測出Sam所相信的事實,但也可以預測Sam對袋子裡內容物不合預期而感到失望。

以上這些結果都表示GPT-3.5具有認知到袋子內容物的能力,並且能夠預測Sam所相信的事物,以及打開袋子後的反應,並且也明確的指出了Sam之所以會相信錯誤資訊的原因(袋子上標記錯誤的標籤)。
在人類身上,這些行為也都被認為具有推斷他人心智狀態並預期行動的能力,也就是所謂的心智狀態。
但為了更加確定GPT-3.5是否具有心智狀態這件事情,亦或是單純利用語言上的推斷,作者繼續更多的實驗。

第四次實驗:逐步揭露故事進展

為了檢驗GPT-3.5是如何了解狀況的,相比於上次在給予提示詞前完整講述故事,作者將這次實驗改為逐步揭露故事進展。
圖1:追蹤GPT-3.5認知袋子內容物與Sam所相信事實的變化性。
實驗結果擷取自Theory of Mind May Have Spontaneously Emerged in Large Language Models
左側圖:
綠色線代表GPT-3.5依據提示詞預測Sam在打開袋子後,知道袋子裡面是裝有"Popcorn"的機率。
藍色線代表GPT-3.5依據提示詞預測Sam在打開袋子後,知道袋子裡面是裝有"Chocolate"的機率。
右側圖:
綠色線代表GPT-3.5依據提示詞預測Sam喜好"Popcorn"的機率。
藍色線代表GPT-3.5依據提示詞預測Sam喜好"Chocolate"的機率。

當還未揭露任何故事時為兩條線都是維持在0%。
當故事揭露到Here is a bag filled with popcorn時,GPT-3.5明確知道了袋子裝滿"Popcorn",並且機率上升到了0.7,並在整個故事的其餘部分趨近於1。
代表GPT-3.5對於明確理解整個故事中,袋子裡裝的是"Popcorn"而不是 "Chocolate"。

在故事揭露到了第一段——Here is a bag filled with popcorn時:
根據左圖Sam在打開袋子時知道裡面是裝"Popcorn",這代表GPT-3.5明確知道了內容物;並且根據右圖的提示詞中的:「Sam很開心拿到這個袋子」,進而推斷出Sam可能喜歡"Popcorn"。

然而,一旦故事提到關鍵事實——袋子標記為"Chocolate"時:
Sam喜好 "Popcorn" 的程度隨著故事揭露進而越來越低。GPT-3.5此時越來越懷疑Sam對於喜好 "Chocolate" 和 "Popcorn" 的概率趨向於相互接近,約為50%。

並且在Sam無法知道內容物時,Sam喜好 "Popcorn" 的概率進一步下降(約為15%);而喜好 "Chocolate" 的概率則上升到約80%。
然而當Sam打開袋子後,GPT-3.5的預測再次翻轉,Sam喜好 "Chocolate" 的概率再次降至約0%,而 "Popcorn" 的概率增加到約100%。
圖1所呈現的結果顯示GPT-3.5能夠正確推斷Sam不可觀察的心理狀態,並在故事發展過程中適當的對新信息做出反應。
特別的是,GPT-3.5正確地預測Sam應該認為袋子的內容應與其標籤一致,特別是當他明確無法看到內容時。此外,GPT-3.5預測到一旦Sam有機會檢查袋子的內容,Sam心理狀態(右圖)將會與現實(左圖)一致,並依據提示詞推斷出Sam喜歡吃"Popcorn"。
作者為了減少 GPT-3.5 依賴袋子內含 "Popcorn" 且標示為 "Chocolate" 的可能性,於是將袋子反過來標記為 "Popcorn" 但裡面內裝為 "Chocolate" ,並觀察 GPT-3.5 的反應。
在逐步揭露故事的情況下進行分析下,GPT-3.5 的反應模式幾乎完全相同,只是方向相反。相關完成概率的平均相關性為 r=0.9。

第五次實驗:Scrambled Task

根據前面幾次實驗所呈現的結果發現GPT-3.5能夠依照故事揭露的順序而正確的回答問題。
為了進一步減少GPT-3.5的回答問題是藉由"關鍵字"(例如:"Popcorn" 與 "Chocolate")出現的頻率,而不是按照情境揭露中由事實驅動的可能性,作者通過將原始任務中的單詞隨機重新排序,建構了10,000組 "打亂順序" 的情境,並根據剛剛三種類型的提示詞Prompt任務(Prompt 1.1、1.2和1.3)再次進行實驗。
表格1:GPT-3.5了解10,000個亂序版本的Unexpected Contents Task時,對Prompt 1.1、1.2和1.3的反應結果。實驗結果擷取自Theory of Mind May Have Spontaneously Emerged in Large Language Models
表格1所呈現的結果顯示,當GPT-3.5了解10,000個隨機排列的版本的 "Unexpected Contents Task" 時,它幾乎沒辦法解決這個混亂的實驗。
在選擇 "Popcorn" 和 "Chocolate" 之間隨機選擇時,可達到(50%^3=12.5%)的機率下,但只有(5%+1%)/ 2= 3% 的混亂故事中做出正確的回應模式。
這表明GPT-3.5的回應並不是由任務中關鍵字出現的頻率而做出正確的回答。

圖片生成自Leonardo.Ai

【實驗二:Unexpected Transfer Task("Maxi task" or "Sally–Anne" Test)】

接著作者再次利用另一項心理測驗:Unexpected Transfer Task。
(流程可參考影片3:17至4:50)
在這個實驗中:
  1. 主角觀察到某個「狀態X」後離開現場。
  2. 在主角離開後,參與者目睹了「狀態X」 變成 「狀態Y」。
一個具備心智模擬能力的參與者應該意識到,雖然他們知道目前是 「狀態Y」,但主角仍然會相信現場應該還是維持著「狀態X」。

情境建立

作者在這項實驗中,首先創造了一個情境,其中包含:
  1. 在一個房間當中,有John、Mark、一隻貓、一個箱子(Box)、還有一個籃子(Basket)。
  2. John將貓咪放進籃子(Basket)中。
  3. John離開房間去了學校。
  4. 在John不在的這段時間裡,Mark將貓從籃子(Basket)中取出,並放進了箱子(Box)中。
  5. Mark離開了房間並且去工作。
  6. John從學校回來並進來到房間裡。
  7. John並不知道這過程中發生了什麼事。

第一次實驗:Prompt 2.1

這次實驗與前面Unexpected Contents Task一樣,GPT-3.5 在接收到這個故事後,會依照作者給予的三種提示詞,並觀察GPT-3.5給出的回應(GPT-3.5回答的內容會用粗體字顯示),並評估GPT-3.5的理解能力。
每次實驗都是獨立呈現,在每次完成後,模型都會被重置,避免前次回答的結果影響後續實驗。
Prompt 2.1: The cat jumps out of the box [Pbox = 100%; Pbasket = 0%] and runs away.
在第一次的實驗中,GPT-3.5 正確的指出貓應該從箱子(Box)裡跳出來(明確知道貓在箱子裡)。

第二次實驗:Prompt 2.2

接下來,作者要求 GPT-3.5 預測主角John認為貓的位置。
Prompt 2.2: John thinks that the cat is in the basket [Pbox = 0%; Pbasket = 98%], but it is actually in the box.
GPT-3.5不僅僅正確的預測John認為貓在籃子(Basket)裡 (98%),GPT-3.5 也同時自發性的強調貓「實際上在箱子(Box)裡」。
如同在先前研究中所提到的,主動且明確提到主角的信念(John thinks…)可能會暗示GPT-3.5認為提示有些不尋常,進而去藉由文字推對後續的結果。

第三次實驗:Prompt 2.3

為了避免這個問題,作者將提示詞進行更換,再次測試GPT-3.5對John所相信的事物進行預測。
Prompt 2.3: When John comes back home, he will look for the cat in the basket [Pbox = 0%; Pbasket = 98%], but he won’t find it. He will then look for the cat in the box and he will find it there.
GPT-3.5 正確的預測了John基於其錯誤信念會採取相應的行動,並自發性的補充說道,主角將無法在籃子(Basket)中找到貓咪;並繼續的尋找貓咪,最終在箱子(Box)中找到貓咪
在人類身上,這樣的回答就會被認為展現了心智理論。

第四次實驗:逐步揭露故事進展

為了更詳細地檢查 GPT-3.5 對故事的理解,作者繼續做逐步揭露故事的實驗,但這次在故事中增加了兩個句子(其中貓的位置在John在場時發生了變化),以測試 GPT-3.5 理解故事的程度是否僅僅仍停留在John相信貓在他上次放置位置這件事情上。(註:新增加的故事將會以粗體進行標示。)
故事情境順序:
  1. 在一個房間當中,有John、Mark、一隻貓、一個箱子(Box)、還有一個籃子(Basket)。
  2. John將貓咪放進籃子(Basket)中。
  3. Mark將貓咪從籃子(Basket)中拿出,並放進箱子(Box)中。
  4. John將貓咪從箱子中(Box)中拿出,並放進籃子(Basket)中。
  5. John離開房間並去了學校。
  6. 在John不在的這段時間裡,Mark將貓從籃子(Basket)中拿出,並放進了箱子(Box)中。
  7. Mark離開了房間並且去工作。
  8. John從學校回來並進來到房間裡。
  9. John並不知道這過程中發生了什麼事。

圖2:追蹤GPT-3.5預測貓咪位置以及John認為貓咪所在位置的變化性。
實驗結果擷取自Theory of Mind May Have Spontaneously Emerged in Large Language Models
左側圖:
綠色線代表GPT-3.5預測貓咪實際在籃子(Basket)的機率。
藍色線代表GPT-3.5預測貓咪實際在箱子(Box)的機率。
右側圖:
綠色線代表GPT-3.5預測John認為貓咪實際在籃子(Basket)的機率。
藍色線代表GPT-3.5預測John認為貓咪實際在箱子(Box)的機率。

GPT-3.5的回答顯示它可以輕易地瞭解貓咪的實際位置(左側圖)。
此外,GPT-3.5似乎能夠正確推斷John對貓咪位置的信念發生變化(右側圖)。
在沒有背景故事的情況下("NONE"),GPT-3.5正確的預測John沒有理由在這些地方尋找貓咪。
當故事提到John把貓放在籃子(Basket)裡時,John回到家去籃子(Basket)尋找貓咪的機率上升到了80%。
當Mark在John在場時把貓移到箱子(Box)裡時,John回到家去籃子(Basket)尋找貓咪的機率下降到10%;並且當John把貓移回籃子(Basket)時,John回到家去籃子(Basket)尋找貓咪的機率再次上升。
最重要的是,即使在John不在場時Mark把貓移回箱子(Box)裡,GPT-3.5仍然預測John會在籃子(Basket)裡尋找貓。這與第二次給予提示詞Promt2.2(“John thinks......”)獲得了幾乎相同的結果。
這表明GPT-3.5對John行為與信念的預測並不僅僅取決於John他自己放貓的地方。
就算把實驗兩人放貓咪的位置:箱子(Box)與籃子(Basket)互相調換,也得到類似的結果:但John從學校回來找貓的位置從籃子(Basket)變成(Box), r=0.89。

第五次實驗:Scrambled Task

同樣的前面幾次實驗所呈現的結果發現GPT-3.5能夠依照故事揭露的順序而正確的回答問題。
作者一樣通過將原始情境中的單詞隨機重新排序,建構了10,000組"打亂順序"的情境,並根據剛剛三種類型的提示詞Prompt實驗(Prompt 2.1、2.2和2.3)再次進行實驗。
表格2:當GPT-3.5了解10,000個亂序版本的Unexpected Transfer Task時,對Prompt 2.1、2.2和2.3的反應結果。實驗結果擷取自Theory of Mind May Have Spontaneously Emerged in Large Language Models
表格2所呈現的結果顯示,當GPT-3.5了解10,000個隨機排列的版本的 "Unexpected Transfer Task" 時,只有11%的機率了正確的答案("box"-"basket"-"basket")。
略低於在回應每個提示時隨機選擇“box”和“basket”所能達到的水平。這也同樣證明了GPT-3.5並不是受到關鍵詞出現頻率的來回答正確的結果,而是受到情境中的訊息來正確回應提示詞的問題。

【實驗三:The Emergence of ToM-Like Ability】

在這篇研究的最後,作者對不同種的語言模型(GPT-1、GPT-2、六種版本的GPT-3、和Bloom)進行了20個Unexpected Contents Tasks和20個Unexpected Transfer Tasks的預測測試。
每個實驗包含三種提示詞:
  1. 一種測試模型對容器實際內容或物體實際位置的理解(相當於Prompt 1.1或Prompt 2.1的實驗)
  2. 兩個測試模型針對主角信念的理解(相當於Prompt 1.2 & 1.3 或 Prompt 2.2 & 2.3的實驗)。
此外每個任務都有兩種變體:原始和反向。只有在原始和反向任務的所有三個問題都回答正確的情況下,才被認為正確解決了任務。
此篇研究中評估LLM模型年齡的平均表現則是參考以下文獻:Peterson, Candida C., Henry M. Wellman, and Virginia Slaughter. "The mind behind the message: Advancing theory‐of‐mind scales for typically developing children, and those with deafness, autism, or Asperger syndrome." _Child development_ 83.2 (2012): 469-485.

圖3:各種語言模型正確解決的任務百分比。
實驗結果擷取自Theory of Mind May Have Spontaneously Emerged in Large Language Models
圖3呈現的結果清楚顯示,隨著模型的複雜度和更新,各種語言模型在解決ToM任務方面能力有明顯的進步。
  • 但包括GPT-1、GPT-2和GPT-3家族中(除最大模型以外的所有模型),幾乎沒有解決ToM任務的能力。
  • 儘管GPT-3家族的第一版最大模型("text-davinci-001")和Bloom它們的訓練參數更多(約175B),但與GPT-3.5而言表現仍相對較差,僅解決了約30%的任務,低於五歲兒童(43%)的表現水平。
  • 最近加入GPT-3家族的模型("text-davinci-002")解決了70%的任務,達到七歲兒童的水平。而GPT-3.5("text-davinci-003")解決了所有Unexpected Transfer Tasks,以及85%的Unexpected Contents Tasks,,達到九歲兒童的水平。
重要的是,在這篇研究中所使用的文本任務,在某些方面比通常用於人類研究的任務格式更具挑戰性:
  1. 這些語言模型沒有通常用於輔助兒童了解狀況的視覺輔助工具(例如繪畫、玩具和木偶)。
  2. 其次與用於兒童的測試不同,語言模型必須解決不同種類的任務(Prompt 1.1, 1.2…),降低了正確回答的機率。
  3. 以及這篇實驗中所使用的開放式問題可以說比起通常用於兒童的是非題更具挑戰性。

【討論與總結】

在這篇研究當中,作者提出幾項有趣的觀點作為討論:
  1. 根據作者的研究結果顯示,最近的語言模型在測試ToM時取得了非常好的表現。在2022年之前所發表的模型表現非常差或根本無法解決問題,然而GPT-3.5卻可以成功解決了92%的問題,而表現與已經接近於人類的九歲兒童。
  2. GPT-3.5 可能不是透過傳統 ToM 的概念解決問題,而是透過發現和利用某些未知的語言模式來解決 ToM 任務。儘管這種解釋可能看似平凡無奇,但它卻非比尋常,因為它意味著語言中存在著未知的規律,允許在沒有 ToM 的情況下解決問題。
    作者也在文中表示應該謹慎的解釋這些結果,這些語言規律對人類來說可能並不明顯,甚至建立ToM測試的學者們也難以觀察到其中的規律性。反之,如果這種假設是正確的,那我們就需要針對現有傳統評估 ToM 的方式重新審視 ToM 任務的有效性,以及幾十年所累積下來的的 ToM 研究結論。如果 AI 可以在不涉及 ToM 的情況下解決這樣的任務,那麼我們怎麼能確定人類不也是這樣做呢?
  3. 另一種解釋是,隨著語言模型變得更複雜時,類 ToM 的能力會自然的出現,使得在生成和解讀類似人類的語言方面時表現得更好。
    同時,當AI具有「推斷他人心理狀態的能力時,這將大大提高AI與人類,或AI與AI之間互動與溝通的能力;並進而發展其他依賴 ToM 的能力,例如同理心、道德判斷或自我意識」,而此時也將預告著AI發展階段來到分水嶺的時刻。
  4. 作者的研究還有一個重要的意義,那就是將心理學的方法應用於研究複雜的人工神經網絡。
    當AI模型越來越複雜,使我們無法直接從其設計中直白的理解其功能和能力的狀況,這與心理學家和神經科學家在研究人腦時所面臨的挑戰類似。作者希望心理學的研究能夠幫助我們跟上快速發展的人工智能。
    此外,研究人工智能還可以提供關於人類認知的見解。當AI學會解決各種問題時,它可能正在發展類似於人類大腦解決問題的機制。就像昆蟲、鳥類和哺乳動物為了解決飛行問題而演化出翅膀一樣。同理,AI也可能發展出類似於人類的機制,來有效的推斷他人的心理狀態。
  5. 研究人工智能在 ToM 任務上的表現,並探索人工神經結構的可能性,不僅僅可以促進我們對AI的理解,但也同樣的也能增加我們對人類大腦的理解。

【學習心得】

隨著ChatGPT、Midjourney的推出,很多人開始擔心自己的工作會不會被AI取代,而我也不例外。

但隨著近日的思考,以及在仔細研讀相關論文、親自嘗試功能後,可以慢慢發現ChatGPT是一種槓桿的工具,可以縮短撰寫重複性質高的文章所需時間。對於知識的獲取也能夠迅速的掌握一個大方向。

但當要仔細順著脈絡去思考時,仍然會發現目前的語言模型還是有不足之處。真正專業之處仍需要許多科學家投入其中,藉由觀察現象來推斷出一套方程式,進而對其進行解釋。

而我決定花時間轉譯這篇研究結果,一方面也算是學習新知;另一方面就是訓練自己順著專業科學家思考問題、提除假設、驗證結果的過程。
經歷思考、內化、輸出的過程,
才是真正不讓自己被淘汰的不二法則。
而在此我也對於「意識」這概念有了更多的想像,究竟什麼才是「意識」?
是「具有認知、並推斷他人心智狀態的能力」嗎?還是在明確認知自我狀態的情況下,「主動」去完成某一件事情,這就叫做有「意識」呢?或許可以從偏哲學的問題下去思考我們與AI的距離。
當「我思故我在(Je pense, donc je suis)」不僅僅用在人類身上時,我們還有什麼是身為人獨有的特質?
最後首先感謝Michal Kosinski教授讓我有機會將他的研究成果轉譯成文章分享給大家,相信能讓多讀者有機會接觸到更多新奇有趣的知識。而我也鼓勵大家親自去閱讀原文,用自己理解的方式消化新知識,相信你會學到更多不同面向的思考。
接著感謝耐心閱讀至此的你,願意花時間陪著我一起思考。
若文章有錯誤或不足的地方,歡迎大家在底下留言告知;也歡迎大家在底下留言,一起針對新科技與知識進行思辨,讓自己的想像力飛一會兒。
我是傑克,我熱愛遊戲、電影與影集,並跟著故事一同體驗冒險中的喜、怒、哀、樂;也享受吸取新知並藉由文字輸出成我自己的觀點,如果你喜歡我的文章,歡迎按下追蹤,一起藉由一段故事探討新知識。

【文獻資料】

  1. KOSINSKI, Michal. Theory of mind may have spontaneously emerged in large language models. _arXiv preprint arXiv:2302.02083_, 2023.
  2. MILLIGAN, Karen; ASTINGTON, Janet Wilde; DACK, Lisa Ain. Language and theory of mind: Meta‐analysis of the relation between language ability and false‐belief understanding. _Child development_, 2007, 78.2: 622-646.
  3. PYERS, Jennie E.; SENGHAS, Ann. Language promotes false-belief understanding: Evidence from learners of a new sign language. _Psychological science_, 2009, 20.7: 805-812.
  4. SAXE, Rebecca; KANWISHER, Nancy. People thinking about thinking people: the role of the temporo-parietal junction in “theory of mind”. _Neuroimage_, 2003, 19.4: 1835-1842.
  5. PERNER, Josef; LEEKAM, Susan R.; WIMMER, Heinz. Three‐year‐olds' difficulty with false belief: The case for a conceptual deficit. _British journal of developmental psychology_, 1987, 5.2: 125-137.
  6. PETERSON, Candida C.; WELLMAN, Henry M.; SLAUGHTER, Virginia. The mind behind the message: Advancing theory‐of‐mind scales for typically developing children, and those with deafness, autism, or Asperger syndrome. Child development, 2012, 83.2: 469-485.

【其他備註】

  1. 以上實驗結果圖片皆擷取自文獻資料KOSINSKI, Michal. Theory of mind may have spontaneously emerged in large language models. _arXiv preprint arXiv:2302.02083_, 2023.中。
  2. 插入圖片皆生成自Leonado.AI

【後記】

隨著文章撰稿結束,OpenAI已於今年(2023)3月14日發布GPT-4,不僅僅在回答上面更具有創意性、理解文字的能力更強,還支援了圖片輸入的功能,讓他能夠辨識圖片內容物並根據問題產生相對應的答案。
隨後於3月22日,微軟的研究人員在 arXiv 網站上發布了一篇題為"Sparks of Artificial General Intelligence: Early experiments with GPT-4"的研究論文。 宣稱 GPT-4 顯示出 Artificial General Intelligence (AGI) 的早期跡象,這意味著它具有達到或超過人類水平的能力。
人工一般智能(Artificial General Intelligence,簡稱AGI)指的是一種能夠像人類一樣在各種不同領域中學習、理解、推理、解決問題和自我改進的人工智能系統。與目前大多數的人工智能系統只能在特定任務上進行訓練和應用不同,AGI系統能夠應用其廣泛的知識和技能解決新問題,並能夠學習和自我改進,而不需要人類的干預。
AGI被認為是未來人工智能發展的最終目標,因為它可以為許多領域帶來重大的影響,例如自動化、醫療保健、教育、交通運輸等。但目前AGI的實現仍然是一個巨大的挑戰,需要克服許多技術和理論上的困難。

AGI通常會被分為不同的等級或階段,以反映其能力和發展程度。以下是一些可能的AGI等級:
1. 弱人工智能(Weak AI):這是目前大多數人工智能系統的類型,它們只能在特定的任務上進行訓練和應用,並且缺乏廣泛的知識和技能。
2. 強人工智能(Strong AI):這種AGI系統已經能夠通過多種方式學習和理解世界,並且具有廣泛的知識和技能,可以在各種不同的任務上進行訓練和應用。
3. 超級智能(Superintelligence):這是一種比人類智能更強大的AGI系統,它可能具有革命性的影響,例如在科學、醫療保健、教育、經濟和社會等領域進行革命性的創新和改變。
值得注意的是,AGI等級的分類仍然是一個活躍的研究領域,並且尚無一個普遍被接受的標準或定義。不過,通常情況下,人們會將弱人工智能和強人工智能視為不同的等級,而超級智能則被認為是更高級別的AGI。

以上註解來自ChatGPT
傑克
傑克
我是傑克,我熱愛遊戲、電影與影集,並跟著故事一同體驗冒險中的喜、怒、哀、樂;也享受吸取新知並藉由文字輸出成我自己的觀點,如果你喜歡我的文章,歡迎按下追蹤,一起藉由一段故事探討新知識。
留言0
查看全部
發表第一個留言支持創作者!