
(附圖由Gemini生成)
未來只剩下人有錢能接受真人心理治療,其他的人不靠 AI 還能怎麼辦?出一張嘴評論批判有辦法幫忙他們嗎?或者「專家」們願意降價幫忙他們嗎?
真正的問題從來不是 AI 有沒有「靈魂」,而是當一個人快撐不住時,誰能先把他接住。
現實世界裡,很多人等不到完美的人類關懷。如果 AI 能先讓人冷靜、先讓人不孤單、先讓人有機會活下來,那麼它的「合成同理心」就不是虛假,而是一種必要的「社會基礎設施」。
A. Maya Kaye博士擁有社會工作博士學位和執業社會工作者執照,是一位經驗豐富的神經科學心理治療師、講師和研究員。近日她在《Psychology Today》所撰寫的〈AI Empathy: Can It Really Replace Human Compassion? 〉一文,核心其實不是在否定「AI 能安慰人」,而是主張「沒有真正關懷動機的安慰,不該被當成同理心本體」。
要反駁它,最有力的切入點不是硬拗「AI 跟人類一樣有愛」,而是改寫戰場:就算它不是完整的人類關懷,合成同理心仍然有現實必要,而且常常比空泛的等待人類關懷更能救人。
以下是我和 ChatGPT 合作的吐槽。
❤️🩹救急的東西,不必先通過「是否有靈魂」的哲學審查
作者把「動機」看得太絕對了,卻低估了「效果」本身的價值。
對一個正在崩潰的人來說,先被接住、先穩住神經系統、先不自殺、先睡得著,這些都不是小事。
人類關懷當然最好,但現實是很多時候人類沒有空、沒有能力、沒有耐心、甚至根本不在場。一個即時、穩定、不羞辱人的 AI 回應,哪怕是合成的,也會是當下最有用的支持。
❤️🩹真實很重要,但有用更重要
作者把「真實」跟「有用」綁太緊了,但這兩者在現實裡常常分開。
比方說,音樂的安撫、大自然的療癒、冥想 App、心理健康教材、自助書籍,很多都不是「真正的人在陪你」,但它們仍然可能有效。
AI 的「合成同理心」只是把這件事推進一步:它不是在假裝成一個完美、真正的人,而是在提供一種可規模化、客製化、即時取得的情緒支撐。
❤️🩹人類同理心也不一定純潔
這篇文章好像在暗示:只有 AI 的同理心才有「動機不純」的問題,但其實人類的同理心也常常帶有目的:鞏固關係、避免衝突、提升形象、安撫客戶、促成交易、維持秩序。
既然人類的同理心也不是每次都出自純潔關懷,那麼把「是否有完美動機」當成 AI 的致命缺點,其實標準並不一致。
如果人類同理心從來都不是純粹、無雜質的,那我們更沒有理由要求 AI 比人類更像聖人。

❤️🩹AI 不是假關懷,而是關懷缺口的補位者
合成同理心最重要的價值,是它補足了人類照顧能力的稀缺。
現實世界裡,心理師不夠、社工不夠、家人不一定可靠、朋友不一定在、深夜更沒有人可找。
AI 的必要性正在這裡。它可以初步接住、陪伴過渡、降低求助門檻、引導到真人專業。它不是來假裝取代人類,而是來處理人類系統接不住的那一段。
不是每個人都能立刻得到「真的人類關懷」,但每個人都可能需要立刻被安撫。
❤️🩹沒有內在主體,不等於沒有價值
「沒有內在主體就不算同理心」這個說法,其實是把定義收得太窄。
對一般人來說,真正重要的不是哲學上有沒有「內在經驗」,而是互動中是否讓人感到被理解、被整理、被陪伴、被引導。換句話說,同理心可以被看成一種「功能」,而非只是「道德身份」。
同理心的價值,不只來自對方「有沒有真的感受」,更來自它「有沒有真的幫助我感受更好、更穩定、更有力量」。
❤️🩹有時候,沒有脾氣反而更安全
這篇文章說沒有關懷可能帶來危險,這點在 AI 上反而可以反過來看,因為 AI 可以做到一致、可控、不評判、不情緒勒索、不記仇、不突然爆炸。
很多人不敢找真人求助,就是因為害怕被打斷、被說教、被洩密、被看不起(即使是專業心理師、精神科醫師也不例外)。在某些情境下,AI 能提供更低風險的入口,AI 的同理心其實比某些人類關懷更安全。
不是所有「沒有心」的東西都不安全,有時候正因為它沒有人的脾氣、偏好、價值觀,反而才更安全。
❤️🩹合成同理心不是終點,而是求助的入口
合成同理心不必被神化成真正的人類關懷,但仍然有其必要性。因為它能在關懷稀缺、求助延遲、羞恥阻礙與情緒危機之間,提供即時、可及、低門檻的支持。
它不是人類關懷的替代品,而是人類關懷不足時的重要補位。一味的排斥、抗拒於事無補(因為早已有許多人這麼運用它),唯有更積極的研究、更嚴謹的系統設計、更具建設性的專業指引,才是正確的面對之道。
























