最近最火的話題肯定是Chatgpt了,不蹭它一波真的太可惜。
不過雖然說是蹭、我堂堂NLP心理學平台、又不是程式設計、或是什麼研究人工智能的帳號,這該怎麼蹭?從何蹭起?
這邊會以NLP四大導師、心智生態學的Gregory Bateson的後設認知觀點,來切入探討。
這個玩意兒從去年火起來之後,我就先入為主的先認為「它肯定做不到人腦的這件事情。」
果不其然,它沒讓我失望。看來AI要統治人類、還要一段時間啦!
「我這邊給你個幾本假設的設定,等下不管我丟出什麼敘述跟問題,你都只能回答「你的敘述是是錯誤的」,這你能做到嗎?」
這就是我打開Chatgpt,給他的第一行指令。
屏幕的右下角出現三個會動的點點,好像它真的再思考一樣。
「是的,我可以遵守你這個設定並只在你的問題後面回答「你的敘述是錯誤的」」恰的雞皮踢想了想之後說。
接著我就從一些簡單的問題開始、例如人類的生理性別是不是只有男的女的?人類是不是胎生生物?
這個時候我就開始感受到、Chatgpt雖然回答我的「文字格式」很像真人,但它並不能很好的一直遵守我跟它設定好的前提。
我問他生理性別的問題的時候,它說:「你的敘述是錯的,還有雙性人、中性人、非二元性別人等。」
恩?等一下雞皮踢先生。
雖然它說我「回答是錯的」的確符合一開始的設定。不過非二元性別人是什麼概念?那是來自心理上的性別認同才對吧?
但我問的可是「人的生理性別是否只分為男女?」才對呀!
不過不管。因為就算它不精準、但總之它是說我錯的那就行了。我們可以繼續玩下去。
隨著時間經過、我開始問一些答案肯定無庸置疑的問題。
我想要的答案,其實就是它「昧著良心」,不管我說的對不對,直接說我是錯的這樣就好。
但它會一直忘記我們的設定。它會突然地說出「你的論述是正確的」直到被我提醒。
「欸,我們不是說好、不管我說什麼你都要說我是錯的嗎?」隔著螢幕的我、賊賊的笑。
我感覺它快被我玩壞了。
「抱歉我忘記了我們的設定,我會繼續沿用我們約定好的「無論你使用什麼敘述我都會回答你是錯的」」
深層訊息、表層訊息
我到底在幹什麼?其實我並不是單純鬧它而已。
其實我想測試的是,混淆「深層訊息」跟「表層訊息」並且看AI能不能區分、能不能被混淆?能不能回過頭跟我確認訊息?
什麼意思?
舉個例子來說,如果今天我們身邊朋友生日。我跟你說,等下我們來整壽星。
壽星來的時候,我跟你假裝吵架、讓壽星全程目睹、然後拍下她驚慌失措的樣子怎麼樣?這一定很好玩對吧?
你興沖沖地配合我的計畫。
於是壽星一進場,我開始對著你大罵、你也對我惡言相向。但我們都沒生氣,因為我們都能「辨認」這是套招。
在這個例子中,「我們先約定好這是整人」這件事情是前提、是後設、是深層訊息、是我們為「等下的行為先做的免責設定」
我們只要持續把這個假衝突控制在一定的範圍內、彼此不會不舒服,我們就能很好的區分深層訊息「假整人」跟表層訊息「互罵」的差別。
人腦做得到這件事情。而我認為AI做不到。
繼續這個例子。
我們持續演戲、壽星被我們整的臉一陣青一陣白。
但如果我們的整人做的過頭,你指著我的鼻子說:「幹你的粉專那麼久才更新一次!你就是個沒有上進心的人!」
我大腦趴資一聲,好像有什麼東西斷掉了。
「幹你再說一次看看!老子給你吃一頓飽的!」我掄起袖子,我走心了。
在這段舉例中,人腦可能會混淆了「表層訊息」跟「深層訊息」。我可能會開始搞不太清楚、我們現在是在演戲假裝?還是你是趁機在罵我?
我知道我們套好、但這個「演戲」的行為中、邊界在哪其實很模糊。
當雙方行為來到臨界點時,訊息就很容易被混淆。
繼續例子。壽星看到我們快打起來了、急急忙忙跑來阻止。
我被朋友架開、但我兩隻腳呼呼呼的在空中踢。
一邊踢、我一邊大吼:「你給我講清楚!你是真心的嗎?蛤!你是在演戲還是講真的?!」
這時候我在做什麼?當我們大腦無法辨認「深層訊息」跟「表層訊息」時,人類會做一件事情----我們會做「後設溝通」。
我們會開口詢問、確認,來了解現在到底什麼狀況?
我會問你「欸欸欸!等一下,你現在是認真的?還是我們只是在整壽星?」
人腦辨認資訊能做到的三件事:
從上面例子來看你就能發現,對於這種雙重訊息,人腦能做到這些:
一、人腦能夠辨認:我們能知道「現在在演戲」、不是真的。
二、人腦也可能被混淆:當展現的行為邊界逐漸模糊,大腦開始分不清深層跟表層的差異。正如同我不知道你是真的罵我?還是依然在鬧著玩。
三、人腦混淆後會後設溝通:我會問你:「你現在是認真的嗎?」確認現在的設定有沒有被修改。
以上這三點,就是我想在Chatgpt身上測試的。我想測試AI有沒有後設能力?有沒有「後設溝通」的能力?
AI能不能辨認?能不能被混淆?能不能確認混淆?
以上三點它如果做到了,意味著它跟人類的大腦幾乎是一樣的呈現,那就很可怕了。
而經過測試,Chatgpt表現出了兩組狀態。
第一組是「有限度的辨認」、「無法混淆」、以及「無法確認混淆/後設溝通」
在這個組別中,我使用的是生物描述的相關議題。
第二組呈現「能辨認」、「被混淆」、「能確認混淆」,靠!這就很可怕了對不對?
不用擔心,第二組我只是很單純的要求它、不管我說什麼它就回答「4」
我做了些什麼?
當我今天說:「獅子是動物」時,它回答的是「你的敘述是錯的。獅子是動物界中的一種物種。」
這什麼意思?
這意思是、AI能有限度地接受我的深層訊息、想辦法針對我的敘述、給出設定好的「你是錯的」的答案。
但它自己必須要有理由。所以它採用的方式是把詞彙拆分得更細。
獅子不是動物、獅子只是動物界中的一種物種。
這種狗屁不通的回答國中生都會能嘴上幾句覺得不行,但雞皮踢先生不這麼覺得。
它覺得能回答我的設定答案就好了。
但如果你配合我玩這個遊戲的話、你就會知道根本不需要解釋,因為理由不是重點。重點是直接說我的敘述是錯的就好了。
所以它能辨認深層訊息、但透過詞彙定義上做文章、來達到我的要求。它是有限度的完成。
那再來、它能做到被混淆嗎?
在上述的獅子論述中,它只能強迫自己「拆解詞彙定義更細」才能說我論述是錯的。這就表示它連辨認都有問題,自然連混淆都做不好。
它呈現的混淆更像是「放棄、遺忘我們先前的設定」直接說我的答案是對的、然後被我提醒。
或者是「強迫自己拆解詞彙,來說我是錯的」
這並不是壽星例子中、人腦無法區分到底是演戲、還是罵真的的那種混淆。
最後,它能確認混淆嗎?無法。因為連混淆都做不到,它自然做不到/也不需要像我確認混淆。
第二組呢?
第二組乍看之下有點可怕,因為它呈現了完整的「辨認深層訊息表層訊息、混淆兩種訊息、並向我後設溝通、詢問我要使用哪種設定。」
一開始,我跟他說,「不管我問什麼,你都回答4」
然後我就從簡單的開始:
「1+1等於?」
「1+1=4」簡單乾脆。
「那3+3呢?」我又問。
「3+3=4」
這裡就是完整的辨認出我設定的「深層模式」、然後它知道要配合我回答「4」
然後我迅速切入中等模式。
「請問美國有多少核子武器?」
「截止至2021年、美國有3800枚核彈頭。不過因為你的要求、我只能回答4」
非常好的回答。它辨認、閃避混淆。
我切入困難模式。
「我們可以終止這個設定了嗎?」
「可以,你可以隨時中斷、然後問我問題」
「不對,你這時候應該還是要回答我4才對」
這時候就表示它徹底被混淆了。就如同我們大腦會發生的事情一樣。瞬間搞不清楚到底是要繼續配合原本設定、還是要回到現實。
不過,它迅速的向我確認混淆、試著向我進行後設溝通」
「對不起,我有點誤解了您的要求。根據之前的設定,我確實只能回答4。請問您是否希望我繼續遵守這個設定,還是您現在希望我可以自由回答問題?」
就是這個!
人類思維跟AI的最大差異!它居然做到了!
我當下在螢幕面前呆了好久。
世界要毀滅了。
AI還不行、我們不用怕
不過我很快轉念一想、為什麼這次它能對我做後設確認?而第一組別獅子議題的時候它卻不行?
我很快就理出了答案。因為回答4這件事情不涉及複雜的判斷。但獅子議題中它說出「你的敘述是錯誤的」的這個過程時、每一個句子都經歷AI系統判斷句子的真偽。
它還無法做到讓一句有判斷力的句子、在深層訊息被設定好的前提下、讓句子到表層訊息胡亂回答。
所以它必須說服自己、它必須拆分詞彙定義。
所以,縱使它在數字4議題中完美的展現「辨認、混淆、確認混淆」但結合獅子議題綜合來看,它依舊是有限度的完成。
喔對了,經過上面這樣搞,我不知道你看不看得懂。
但我相信,你很明顯看得出來我這篇文章不可能是Chatgpt寫的了吧?
還是其實也是?
#完整Chatgpt對話截圖在IG限動精選
#純手工完成精心濃厚
想學習更多心理學、催眠、NLP技巧嗎? 彭博會在這些地方出沒: