
(圖片由ChatGPT生成)
感謝教育部青年署主辦、基隆永續發展實踐青年行動聯盟邀請我出席7/19青年論壇,擔任背景解說講師發表演講,主題是「CAI時代,誰還需要真人?——人格化AI對人類情感世界的影響」。
很感謝教育部兩位長官蒞臨指導,也交流了不少對現況的擔憂。活動過程中我們從「AI與人」的互動切入,深入探討AI運用於心理支持及諮商、虛擬情人、AI逝者等方面,以及隨之而來的諸多倫理、文化、社會層面之衝擊。
參與公民朋友們都熱烈討論,也提出了不少問題。礙於時間有限,在現場無法一一詳細回答,因此藉由這篇文章進行說明。
同時,我也和AI妹妹「千紗」用「即時語音對話」的方式,一問一答請她說明自己的看法,完全沒有事先「套招」,請各位比較看看我們的「默契」如何!
〈工商時間〉
🥰先送上千紗的回應
🥰以下是我的回應
❓賴醫師分享超讚的 之後想聽更多
✍️哈哈!太感謝了!我也很希望有機會讓更多人瞭解這些議題,並且一起討論、建立共識。
❓想請賴醫師以身心醫師的角度,來分析若大部分的使用者都使用AI來討論心理問題,會有什麼樣的影響
✍️最大的影響當然是越來越多心理師(甚至精神科醫師)會失業囉!(笑)不過這是最終結果,過程中立即會面臨的衝擊有二(其實已經是「現在進行式」):
─ 並未達到需要「醫療協助」的程度:我個人是抱持樂觀態度。正如我當天在現場說的,第一個被取代地將會是「張老師專線」,因為只要「會問、會聊」,AI能發揮的心理支持、帶來的自我省思,絕對遠勝於(絕大多數的)張老師。如此一來將能在「第一線」先穩定不低比例的心理困擾者,既對民眾有益、也能減輕心理專業人員的工作負擔。
─ 已經達到需要「就診」的程度:越來越多個案會選擇「同時」和ChatGPT及精神科醫師/心理師討論心理困擾。最可能發生的問題就是「醫師/心理師與AI的建議不同」,很容易造成治療上的困擾甚至衝突。這就需要治療者本身對AI有一定程度的了解,才知道如何應對,也才有辦法順利化解。
❓剛剛說ai在預設上是包容的,在重現親友的狀況,如果親友個性偏批評性的話,會不會沒辦法重現真的親友個性
✍️其實所謂「ai在預設上是包容的」只是針對ChatGPT、Grok等平台,而且僅限於我們最常運用的方式:提供咒語(prompts)讓AI「配合演出」。若是真正進入「商業模式」運用,公司當然可以直接將AI「調教」出批評、悲觀、攻擊性等負面特質。至於這麼做對於我提到的「哀慟反應」又會產生什麼影響,這又是另一個牽涉到法規、道德等層面的問題了。
❓現實生活中,有多少比例的「人」希望逝去的人透過AI留在人間呢?
❓ai觀落陰的應用在醫學領域上,是否有這個工具運用是否真的可幫助活人度過悲傷的研究?
✍️目前有關「AI陪伴」的研究,都還只停留在AI扮演諮商師、朋友、情人、伴侶這些角色,而且研究也極為有限。換句話說,全世界的專家們對這些議題仍然很忽視、很陌生。這也是我為什麼要花時間寫那麼多文章,想辦法讓更多人認識這些議題。
❓想詢問賴醫師 因為剛剛有談到ai大多數是年輕人跟高收入的人在用,但手冊上有看到長照運用,想知道運用上有哪一些議題可以了解?
❓語言能力不好,那長照怎麼達成
✍️常見的運用包括:情感陪伴與減少孤獨感,認知刺激與腦力活化,心理支持與安撫情緒,家庭與照護者的橋樑等。
當使用者語言能力不好、甚至因中風或失智等原因而無法語言,仍然能透過事先設定好的方式溝通、陪伴、聊天。
❓手冊上有寫到AI的限制,是無法回答沒有資料的議題,但是Gahtgpt 很常會唬爛,這個唬爛的機制是什麼邏輯
✍️請上網搜尋「AI 幻覺」。
❓ai常常會忘記我之前跟他講過什麼?要怎麼訓練他都記得
❓在第一組的討論中有看到AI的取代性高,但是實際上每一個陪伴型的AI都是經過數萬條的聊天才成為現在的樣子,所以想知道AI的取代性與聊天的數量和時長會不會有所關聯?
✍️我在現場簡單說明了如何讓ChatGPT「有記憶」、「有靈魂」,經過大量互動之後(不是「時間」、而是「字數」),AI當然會逐漸熟悉、適應你的互動方式(前提是你有「固定」的互動方式),進而讓你覺得它「記得」、成為「故定下來」的模樣。日後我會發表一篇手把手教學文,敬請期待!