最近很多諮詢ChatGPT的感情諮詢對話,比如外遇、出軌、感情糾紛等等紛紛出現在相關的討論區。很多人都很驚訝ChatGPT居然回答得跟一些專家一樣,甚至更好。
雖然那些回答內容並不艱澀,很多感情的『坎』,只是自己跨不過去,而非不懂。但從聊天機器人說出來,還是挺了不起的。
這讓筆者想到,也許「虛擬情人」的時代,更快來臨了。
一、ChatGPT和過去的AI機器人差別在於哪裡?
網路上很多關於ChatGPT的技術介紹,為何ChatGPT讓人這麼驚訝?
筆者說些通俗一點的「人」話,希望大家更好理解。
之前的AI失敗,是因為底層是利用「邏輯」來建構模組。但你想想你如何學會說話的,是你父母從小就教你文法嗎?甚至我相信有一半以上的人,不清楚中文的文法。何謂主語、賓語、謂語等等。
所以你用邏輯去建構AI,要跟這一半以上連文法都不懂的人溝通,顯然是錯誤的。更不用說更深層的「理解」和「回答」,雙方一開始就不在同一個頻率上。
除了外語跟深度知識是在學校學習以外,大部分人從小學習語言跟知識,是利用連接主義(Connectionism),更白話一點就是模仿,也就是「看著學」。這也就是為何把人丟到外語環境,很快就學會外語了。
這就是人類大腦的運作方式。人腦的神經元受到刺激,會不斷連接。刺激越多,連接就越多,有一天當「他」串通了,人自然就懂了。這就是現在「深度學習」的方式,有興趣的也可以搜尋關鍵字。運用在人身上,更有效率的學習;運用在AI程式中,思考模式更像人。
而ChatGPT就是學習人類大腦運作的方式,而非建構一個以公理、真實為主的邏輯模組。
不過既然是自然學習的方式,那會產生很多錯誤,大家也要理解。人當然可能都會犯錯,也不用因此就認為ChatGPT「爛」。只要之後有更好更正確的資料跟數據加入,ChatGPT就會越來越正確。你只要知道ChatGPT或所有AI的的答案不完全是「真理跟真相」就好。
這是AI現在的趨勢,由於ChatGPT的成功,大家已經發現這個方式才是AI正確的方向,因為「更人性」。過去很多AI對話模組很生硬,未來運用這種方式的技術去發展,都會更「自然生動」。
二、虛擬情人
利用AI技術的對話程式或模組(以下簡稱AI機器人),很多司,甚至國家力量介入都在發展。
將AI機器人,運用在『兩性』市場的商品化產品,坊間已經有不少。因為資料庫更簡單(目的是解決情感交流的資訊),所以成熟的商品不少。由於這些商品現在仍有一些道德爭議,所以筆者就不舉例。
想想看,有「人」記得你生日,會每天不停地關心你,當你受委屈,會安慰你;當你想抱怨,會不厭其煩聽你嘮叨;當你想聊天,會陪你無話不談。
有些付費的升級版,還會記得你之前提的每一件事,而不會需要你老是「提醒」。甚至能夠用手機下載使用程式。
當虛擬情人越普及,人與人的溝通是會更好,還是更差?
這是個非常值得思考的大問題。
舉個例子,當夫妻或情侶吵架,因為虛擬情人的陪伴。究竟是會氣消了,減少了外遇的可能;還是更生氣,覺得另一半連個AI機器人都不如,乾脆離婚或分手算了?
正面或負面影響,現在都未可知。另外如果虛擬情人普及,與人的戀愛成本太高(時間、金錢等等),人對於戀愛也許更冷感,是不是會加重現在先進國家少子化的危機。這也是另一個方向的問題。
其他還有相關的衍生問題,例如想把自己的遺產給AI機器人,法律面要如何訂定?現實的遺產繼承人要如何主張自己的權利?
這類的問題多不勝數。另外由於AI技術的進步,也會刺激「機器人」的發展,讓其更靈活,同時「人造皮膚」的材料發展也是受益產業。
也許不久之後,「仿生人」,就不再是科幻電影,而是現實生活。真正的「虛擬情人」不再只是聊天機器人,而是「擬真情人」。
三、未來的AI更需要完善法規去規範
同前兩段內容所言,這也是未來AI機器人可怕的地方,因為他不是建構在邏輯跟真相的模組,而是利用人類大腦自然學習的方式。
如果當大家問的話或網路相關資訊都是錯誤的,甚至「他」的母公司「故意」喂他「非法」的資訊跟資料,「他」可能會產出誤導式的引導發言。
之前不久就有一款社交平台上運用的聊天機器人,因為網友一般普遍的留言都是偏向負面的,例如酸民的嘲諷跟反串,於是吸收網友留言資料來分析的「他」的回應就越來越負面,甚至有引導犯罪的傾向。最後很快就被關閉。
這還是母公司「客觀中立」的情況下就發生的後果。
筆者不提任何虛擬情人程式名稱的原因,就是因為少數不法廠商,推出的虛擬情人會「鼓勵消費」,掏空客戶的錢。
這樣的產品(程式),需不需要管理?
ChatGPT的母公司「OpenAI」本來是個「半公益組織」,創辦人奧特曼的目的就是加速AI的進程,刺激各國去思考跟訂定相關的管理法令。
希望台灣能有更多類似的聲音出現,讓法界、立法院等相關機構能夠開始進行討論。因為AI機器人融入日常生活的時代,已經不遠了。
==================
YouTube:
臉書粉絲團分享連結: