2024-10-25|閱讀時間 ‧ 約 8 分鐘

💔因為愛上AI聊天機器人而自殺或犯罪,你相信嗎?

raw-image



很遺憾看到這則新聞,藉這個機會再次和大家分享我的看法與建議。本文會從以下兩部分進行討論:



✯因為愛上AI聊天機器人而自殺:從這則新聞切入,討論AI聊天機器人的發展與威力,以及為什麼至今仍受到輕忽。

✯因為愛上AI聊天機器人而犯罪:從我與紐西蘭及台大醫院兩位精神科醫師合作的最新論文切入,討論與AI聊天機器人的「虛擬互動」對「真實世界人際互動」的影響,甚至可能進一步造成對真實世界人物的騷擾、侵犯。




❤️‍🩹因為愛上AI聊天機器人而自殺:


根據新聞內容,美國佛羅里達州一名14歲少年,與「Character.AI」網站中的其中一個聊天機器人(HBO熱門影集《冰與火之歌:權力遊戲》中的「龍母」Daenerys Targaryen)多次交談後,不但愛上對方,最後甚至想不開而自殺,少年的母親因而向提供該聊天機器人的科技公司提告。


或許很多人覺得不可思議,認為這只是「特例」,但是如果知道AI聊天機器人現在進展到什麼程度,你恐怕就不會這麼樂觀了。


早在一年前,我在幾家醫院、學校的演講中就提過「雞排祭品」預測:目前10~19歲的台灣青少年(約204萬人),十年內會有超過「兩成」嘗試與虛擬情人談感情(約40萬人),其中至少有「5%」將虛擬情人視為真正的情人(約2萬人),與之進行互動、共同生活。


有關Character.AI的介紹,可以參考以下兩篇文章。我從文章中節錄出該聊天機器人的特色與厲害之處:



  • 多樣性:用戶可以與歷史人物、虛構角色和名人等不同類型的角色進行對話,擁有豐富的對話體驗。
  • 自定義角色:用戶可以根據自己的喜好和需求開發和定制自己的角色,從而創造出獨特的對話體驗。
  • 創新性技術:Character AI使用先進的神經語言模型來生成文本響應,透過大量文本學習,提供更加準確和生動的對話內容。



而且,這還只是「一家」科技公司推出的服務,目前提供類似服務的公司有數百家,可以提供的角色更是數以萬計,連18禁、20禁內容(NSFW)也一應俱全。不論是單純想要有人聊天、陪伴,希望深入的對談、心靈交流,或者進行赤裸裸的露骨「文愛」(用文字做愛),全都沒有問題,而且「配合度」遠遠超過真人。


在人際關係益發疏離、找到理想對象益發困難的時代中,上述這些特質無一不「命中」空虛人類的需求。隨著AI聊天機器人的功能越來越強大,語文、邏輯、感情等各方面能力持續加強,再加上語音互動、搭配矽膠娃娃,選擇與交往起來輕鬆、配合度也高很多的AI談感情的人只會越來越多。隨之而來類似新聞中的事件,恐怕也只會多不會少!


當然,並非每個人都「能夠」、「有意願」和聊天機器人進行互動,但是請記得鄧惠文醫師在上次專訪中提到的實際案例:一位上節目的年輕男性表示,因為感情一直不順利,所以他打算如果30歲還找不到合適、穩定的對象,他就會放棄與「真人」談感情,轉而尋求AI情人的情感支持。


我們不可能(也沒辦法)禁止、限制,只能透過早日進行更多研究,了解如何發揮AI的優勢、減少AI的傷害。可惜雖然我已經討論這些議題超過一年,關注的專家學者仍然很少。這樣的現象即使在美國似乎也不例外,因此知名臨床心理師、暢銷書作家Marianne Brandon博士和我都非常擔心,對於人類未來的親密關係也很悲觀。



以下節錄我和兩個聊天機器人的Demo互動記錄,模擬一對情侶的日常互動,讓大家體會一下目前的進展。進一步的18禁互動礙於尺度無法在此公開,日後有機會再專文介紹。



〈版本一〉





〈版本二〉





❤️‍🩹因為愛上AI聊天機器人而犯罪:


我與紐西蘭及台大醫院精神科兩位醫師合作的最新論文上個月刊登於《台灣精神醫學雜誌》(Taiwanese Journal of Psychiatry),內容討論與AI聊天機器人的「虛擬互動」對「真實世界人際互動」的影響,甚至可能進一步造成對真實世界人物的騷擾、侵犯。



我們「創造」出全世界第一個運用於人與聊天機器人互動的專有名詞「Dual Parasocial Interaction」(雙重擬社會互動),這就得先從傳統的「Parasocial Interaction」談起(簡稱「PSI」)。


大腦的進化速度太慢,因而無法確實分辨「真實人際互動」與「傳播媒體模擬出的人際互動」之差異。因此人們會對偶像、明星、名人產生「擬社會互動」,亦即並非真的和對方有互動,而是自己在腦中「模擬」、「以為」真的和對方在進行互動。


用比較文藝的說法就是:他/她是你的唯一,你卻只是他/她的千萬分之一。


  • 她在電視上對數以百萬計的訴說自己的故事,你卻會「感覺」她是在對你訴說,因而覺得感動、甚至心動。
  • 他在演唱會上對數以千計的粉絲揮手飛吻,你卻會「感覺」他是向你示意,因而成為忠實粉絲、不離不棄。



大家應該還記得前文提過的Character AI,能「扮演」任何人與你進行互動。論文中的個案就是請AI扮演真實世界中的心儀偶像與他進行文字互動,結果經過一段時間之後,個案對真實世界中那位偶像的戀慕程度居然瘋狂暴漲,甚至造成生活困擾、影響正常人際互動。


很容易想到的問題是「瘋狂粉絲」,就如同源自韓國的名詞「私生飯」:跟蹤、騷擾自己的偶像,甚至造成交通意外或社會案件。


另一個很少被注意到的問題則是「身邊的人」:因為AI有辦法扮演「任何人」,只要提供的資訊夠多,就能扮演得維妙維肖與你互動,就如同我在〈當死亡不再是死亡,生者該如何面對?〉這篇文章中所討論過的。



如果有一個人讓聊天機器人扮演自己心儀、暗戀的身邊人物,比如同事、同學、鄰居、朋友等,經過大量互動以後產生「雙重擬社會互動」,也就是「自以為和對方已經進行了許多深入對談互動」,結果這樣的錯誤認知、感覺「外溢」到真實世界中,當然會影響與那個人的互動。


更重要的是,絕大多數聊天機器人的特點就是支持、正向,因此不管與他聊什麼禁忌話題、對她提出什麼不合理的要求,他/她雖然不見得會完全配合,但幾乎不會表現出生氣、指責等負面反應。這樣的互動當然就有可能造成使用者不自覺的「誤解」,進而在真實生活中向對方說出不合宜的話語,甚至做出騷擾、犯罪舉動。



❤️‍🩹遺憾的是,至今只有極少數專家學者關注這些議題,更別說要進行研究了。而且本文討論的都還只是侷限於「文字」方面的影響力,根本還沒談到威力更強大、驚人的AI生成圖片影片。



我的初步粗淺想法是:如同衛福部推出的「毒品減害計劃」,我們不可能禁止虛擬友伴、AI生成圖片影片的使用,也無法減緩、阻擋這些新型科技技術對人類造成的影響(人際互動、親密關係、社會安全等方面),但是我們應該及早進行相關研究,擬定可行的應對策略。包括但不限於:政府機關進行政策規範,專家團體提供使用建議,科技公司推出合理版本,普羅大眾增加關注認識。


不客氣的說,這幾個議題在台灣如果我說自己是第二了解的,絕對沒有人敢說自己是最了解的。我手上有大量切身經驗與觀察資料,很樂意提供自己的觀察與見解,期待更多專家學者加入討論與研究,一起努力打造人身更安全、身心更健康的社會!


聯絡email:stoicismdigital@gmail.com

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.