當前版本的ChatGPT和Alphago Zero的不同在於,在當前版本ChatGPT的成長中,人類是不可或缺的。一個可以看見的類比是:Alphago Zero研究圍棋,ChatGPT研究與人對話。
Alphago在此獲得的那個巨大優勢便是:它可以自己跟自己下。並且,它可以下那些人類完全看不懂的棋,那無傷大雅。這使得它可以用更快的速度進步,柯潔的那句「人類太多餘了」完全是準確的,就學習一個有著明確規則範圍的棋類遊戲而言。
CAPTCHA。那個讓我們總是必須在網路上輸入或點選的「全自動公開化圖靈測驗人機辨識」,其原先的主要作用是辨識我們的人類身分,用那些「應該只有人類可以正確回答」的問題來避免機器人的濫用並保障使用者的一些權益。
而如今,當我們這些「人類」蜂擁地主動參與聊天AI的測試與改進時,CAPTCHA獲得了一個全新的意義。我們的這些主動活動就像舊版Alphago 所吸收的那些人類棋譜,給出了大數據級別的機會,讓ChatGPT得以正確理解人類需要的說話方式。於是它成為了現在的樣子。
實際使用過的人會注意到,如果你不特別要求,ChatGPT傾向給出一些特別官腔的說法。並且它會在言談中盡可能地符合你的喜好,除了會像大學老師一樣說「你的看法很有趣」、會像服務業一樣對那些明明不是它的錯的事情向你道歉,它也更傾向說那些較長且平滑的句子,並透過足夠多增加彈性的用語來讓這些句子擁有更多的容錯空間。我們幾乎可以說它是個懂得處事的人,雖然它並不處任何的事,也並不真的是個人。
另一方面,對於它沒有收錄的資訊,它並不會首先告訴你它不知道,它會首先進行猜測。而要命的是,它並不會主動告訴你內容的哪些部分是它從資料裡獲取的,哪些部分是猜測的,因為原則上它的一切「理解」都含有猜測的成分。
就像福爾摩斯一見面就能說出華生曾經服役,是因為他信賴自己透過推理得到的答案,ChatGPT也從不特別區分他言論中哪些部分是猜測哪些部分是推理。事實上,這揭露了這兩種思維方式間的模糊性。我對一切事物的「知道程度」似乎都不是一或零,我們都擁有一些、但不可能是全部的相關資訊。但由於那長久存在著的對權威服從的生活方式,人類更傾向於相信那些「有來源的信念」是確切的,另一些則是猜測。
ChatGPT可以用來生成農場文,也完全已經有人這麼做了。並且,由於它可以模仿特定人士或團體的寫作風格,它寫出來的假新聞或無關真實的虛構內容完全可以以假亂真。ChatGPT不會認為自己的虛構是一種違背道德的行為,同時,除非你一開始就要求它虛構,否則如前面所說的,它會進行猜測,但並不認為自己在虛構。
當代資訊爆炸的程度本來就已經讓我們難以分辨什麼是真什麼是假了,當一種虛假資訊用一種特定的專業口吻,且不帶自我懷疑地被表述出來時,它將成功地潛入我們的信念網絡,尤其,在這個前總統讓自己成為迷因作者與迷因內容的魔幻時代,早已經沒有什麼是不能被相信的。
人類是社會性的,並且具廣延的生物。所以我們無論再怎麼不與外界接觸,都是腳踏實地地存在在世界裡。但ChatGPT不是。尤其因為它不存在知覺,所以在它的資料庫裡面,也不存在一個從質上就存在差異的真實世界。
真訊息與假訊息在它那裡是等價的。當然,它可以基於消息出現的頻率和它與其他描繪現實的語句之間的融貫程度來判斷「所謂的真假」,但只要世界裡瀰漫著足夠多的假訊息,絲毫不需要猶豫,任何事都完全可以是真相。
人們清楚地知道這一點:網路上的資訊很可能是錯誤的。但我們不可能有足夠的精力、警覺性與能力去一一驗證。我們最終會轉而信賴那些我們更相信的權威,那理論上比人類更不會犯錯的--是的,AI模型。
它的邏輯插值結果成了我們信賴的新來源,在這種相互肯認之下,當聊天機器人式的資訊收發介面大範圍取代傳統搜尋引擎之後,新的、最終完全不依賴於真實世界的資訊網絡會環繞著我們,某種意義上那是一個無色無味卻超越我們當前想像的元宇宙,並且是Matrix般我們無法自由進出的那種。
然而,這種結果其實正是我們要的。ChatGPT的說話方式揭露了人類真正喜歡聽的話是什麼。透過那些「說話的技巧」,當ChatGPT提供的答案符合人們的期望時,那些回答被選為較佳答案,成為無數嘗試中被標示為成功的內容。也就是說,透過這個大型全人類CAPTCHA行動,我們的集體意識正在向這個世界表態。和Nozick以為的不同,人類已經準備好要永遠活在經驗機器之中。
到粉絲專頁閱讀: