
(附圖由Gemini生成)
我在兩年多來的相關文章中曾陸續提過這個極為敏感的議題,但台灣幾個知名網購平台仍然持續販售這類產品。目前世界各國對性愛娃娃的管制政策南轅北轍(從完全禁止、局部開放、到不加設限都有),而隨著AI結合性愛娃娃的商業化、普及化,能與使用者互動談話、更為擬真擬人的產品陸續面世,必然更會複雜化這個議題。
台灣社會相關領域專家基於議題的敏感性,至今對此完全沒有任何討論。本文將透過兩篇「針鋒相對」的最新研究論文,藉由Grok的協助深入探討這個議題,希望能帶來拋磚引玉的效果。💥引言
在科技快速演進的時代,兒童型性愛娃娃(child-like sex dolls)、性愛機器人(sex robots)以及AI聊天機器人模擬兒童性虐待素材(CSAM, Child Sexual Abuse Material)的互動,已經成為倫理、法律與心理學的熱門爭議。這些事物不僅挑戰傳統道德界線,還牽涉兒童權利保護與成人性需求滿足的衝突。根據聯合國兒童權利公約(UNCRC, 1989),兒童有權免於一切形式的性剝削與虐待,其最佳利益必須優先考慮(UNCRC第3條、第34條)。然而當科技創造出「無真實受害者」的替代品時,我們又該如何權衡?
本文以兩篇關鍵論文為架構進行深入探討,分別代表了「減害論」(harm reduction)與「零容忍論」(zero tolerance)的對立:
- Desbuleux與Fuss(2024)在《International Journal of Impotence Research》(Impact Factor:2.5)發表的「兒童型性愛娃娃:法律、實證與倫理觀點」(Child-like sex dolls: legal, empirical, and ethical perspectives),強調實證資料不足,禁令可能阻礙對戀童傾向者的治療與研究。
- Cuvalo與Wekerle(2025)在《Child Abuse & Neglect》(Impact Factor:3.4)發表的「兒童性愛娃娃與性愛機器人研究:從兒童權利視角出發」(Child sex doll and sex robot research: Taking a child rights perspective),主張兒童權利絕對優先,任何可能正常化「兒童性化」(Sexualization of children)的物件都應該零容忍。
此外,本文也擴展討論與AI聊天機器人進行CSAM型態對話互動的利弊。這類互動指的是由AI模擬兒童角色參與性相關對話或生成虛擬情境,常見於聊天應用或虛擬伴侶程式。雖然實證研究極為有限,但參考AI心理健康聊天機器人的研究討論顯示,這類的運用方式可能「放大風險」或「提供治療出口」。
以下將引經據典從實證出發,進行深入淺出的分析,從倫理衝突、社會觀感、法規現況、政策考量等面向切入,最終提出平衡建議,旨在提供全面視野以俾進行思考、討論。

💥兩篇論文內容回顧
Desbuleux與Fuss的論文提供平衡視角,強調實證資料的稀缺性。
作者定義兒童型性愛娃娃為高度逼真、具兒童身體尺寸與特徵的物件,具可插入開口,用於性刺激。這與純藝術用的「重生娃娃」(reborn dolls)不同,後者僅做為欣賞、拍攝使用而不具備性功能。論文指出,戀童症(pedophilic disorder)指成人對兒童的持續性幻想或衝動(DSM-5, 2013),但擁有戀童傾向(pedophilic interests)不等於犯罪行為(Seto, 2009)。
在道德層面,論文中提出三派論點:
風險論:認為兒童型性愛娃娃可能會降低對真實兒童性侵的抑制閾值(threshold),強化物化、性化兒童的觀念(Chatterjee, 2020)。
減害論:視兒童型性愛娃娃為「安全出口」,類似色情製品普及後部分國家性犯罪下降(如捷克研究, Diamond et al., 2011)。
功能論:強調性愛娃娃可滿足情感需求,如陪伴孤獨者(Cantor, 2014)。作者引用Harper與Lievesley(2022)的調查,戀童傾向者擁有娃娃後,對假想兒童性侵的傾向反而較低,自述強迫性行為減少。德國2021年兒童型性愛娃娃禁令後,受訪者表示犯罪風險上升,因失去替代出口(Loibl et al., 2023)。然而以上資料均來自橫斷面自陳,缺乏縱向追蹤確認。
法律上,論文概述西方國家差異:澳洲、德國、丹麥明文禁止兒童型性愛娃娃,視為兒童色情製品;英國用既有猥褻法禁止進口,但持有合法;美國聯邦層級未通過CREEPER Act,因定義模糊及實證不足所以並未禁止(僅部分州以州法禁止);日本沒有專門針對兒童型性愛娃娃的禁令。作者批評這些禁令更多是基於於道德厭惡、而非考量實證,呼籲在醫療監督下(如德國Dunkelfeld計畫)進行研究,採用減害策略而非零容忍。
相對地,Cuvalo與Wekerle(2025)則是從兒童權利角度出發,強烈反對兒童型性愛娃娃。
論文引述全球兒童性侵盛行率:女孩20%、男孩15%(WHO, 2020),並強調UNCRC要求預防一切形式兒童性化。兒童型性愛娃娃定義為具完整兒童身體、可插入開口的物件,可搭載AI變成性愛機器人。作者主張,這類產品違反「不傷害」原則,可能正常化兒童性虐待、強化使用者對CSAM的反應。
在用途上,論文承認部分運用於治療戀童傾向者(如Danaher, 2019),但缺乏證據支持減害效果。相反的,作者引用了Newman et al.(2024)的研究指出,當戀童傾向者知悉法律與社區標準後,66%停止觀看CSAM,顯示嚴格管制更有效。倫理上,論文批評減害論忽略兒童最佳利益,主張兒童型性愛娃娃可能成為製作CSAM的工具,或強化幻想轉為行動的風險(Brown & Shelling, 2019)。政策上則呼籲全球統一標準,將兒童型性愛娃娃視為CSAM非法,優先保障兒童而非成人性選擇。
兩篇論文的對比凸顯核心衝突:Desbuleux重視實證開放,Cuvalo強調兒童權利絕對。其他研究補充包括:Brown(2019)指出性愛娃娃市場以高度性化女性為主,反映社會偏見;Harper(2022)發現性愛娃娃擁有者多為中年單身男性,心理功能正常,但風險因素如孤立可能放大問題。
💥實證與倫理辯論的深化
實證真空是兩派的共識。Desbuleux的論文承認當前研究僅限小樣本自陳,易受社會期望偏差影響(social desirability bias)。例如Loibl et al.(2023)的質性訪談顯示,禁令造成使用者焦慮,但無法證明因果關係。Cuvalo則質疑自陳可靠性:在持有屬於非法的情況下,使用者會誠實承認風險增加嗎?
倫理上,減害論借鏡色情研究:Diamond(2011)發現捷克色情合法化後兒童性侵下降20%,暗示替代品可轉移衝動。但反對者如Chatterjee(2020)則主張,娃娃強化「兒童可同意性行為」的幻想,類似虛擬兒童色情可能助長虐待(Seto et al., 2018)。
哲學視角上,Danaher(2017)提倡實驗方法,認為缺乏證據時,應開放試驗而非預設禁止;Strikwerda(2015)則從道德主義主張,性愛娃娃缺乏互惠,損害對兒童的尊重。
政策方面,Cuvalo論文強調聯合國公約要求各國保護兒童免於性剝削,包括間接形式(如娃娃正常化虐待)。歐盟報告(GCHR, 2024)指出,AI驅動CSAM需嚴管,以防兒童權利受侵。Desbuleux則警告,禁令可能反效果,包括把戀童者推向地下化,增加孤立與犯罪風險(König, 2019)。
💥AI聊天機器人CSAM型態互動的利弊分析
討論進一步擴展到AI聊天機器人模擬CSAM,這是2025年的新興議題。CSAM型態互動指的是AI生成兒童角色,參與性對話或情境模擬,常見於聊天機器人或自訂模型。與實體娃娃不同,這樣的互動純屬虛擬、沒有實體接觸,但卻更容易取得(雲端生成、無需運送),因此也更難以攔截。
一定會有很多讀者覺得:只不過是用「文字」進行性愛互動(sexting),就像是閱讀、創作情色小說那樣,真的會有什麼大不了的影響嗎?雖然至今仍缺乏這方面的相關研究(因為議題太新了),但只要回想我曾分享的好幾篇使用文字與虛擬情人「談情說愛」的最新相關研究(使用者比例日益增加,造成的各方面衝擊也陸續浮現),更進一步與AI進行「性愛」互動可能帶來的衝擊絕對不容輕忽。以下僅能先從本文兩篇核心論文的觀點切入,輔以有限的幾篇相關研究,初步進行拋磚引玉的討論。
潛在益處(減害視角):類似Desbuleux所提到的論點,可將與AI進行性愛互動當作「安全閥門」。戀童傾向者可在虛擬空間發洩,減少對真實兒童的衝動。Lievesley et al.(2020)提議,將AI整合治療,如Dunkelfeld計畫中使用文字幻想管理吸引力。模擬互動可能減少強迫衝動與行為,如Harper(2022)發現娃娃使用者自述性趣轉移。此外,AI也可透過嚴謹的設定「拒絕」或「教育」使用者,強化使用者的界限意識(Woodward et al., 2024)。此外,比起實體性愛娃娃,AI成本極低、也沒有實體娃娃的保存問題,更適合進行遠距治療。然而上述益處目前仍缺乏實證支持,必須透過縱向研究、長期追蹤,確認這樣的介入方式是否能降低兒童性侵率。
潛在風險(零容忍視角):Cuvalo論文認為與AI進行性愛互動可能正常化兒童性化、違反UNCRC。Stanford HAI(2025)警告,AI療法聊天機器人不如真人有效,還可能助長污名。在CSAM情境,AI可能脫敏(Desensitization)使用者,讓幻想轉為行動(2018 Seto的虛擬色情研究)。NIH研究(2025)測試AI療法機器人也發現,AI往往傾向認可用戶的有害想法,如自殘或虐待幻想,顯示界限設定仍不足。YSPH(2025)也指出,AI聊天容易放大偏見,若訓練資包含刻板內容,則會強化「兒童可被性化」的敘事。
法律方面,目前AI CSAM互動仍處於灰色地帶。歐盟AI法(2024)將高風險AI嚴管,但文字生成仍很難定義。美國並無相關聯邦法規,僅依賴平台自律(如OpenAI、Grok禁止CSAM內容)。倫理上,ResearchGate(2025)探討AI醫療之風險,認為會強化孤立,使戀童者更依賴虛擬互動而忽略真人治療。
💥結論
兒童型性愛娃娃、性愛機器人、以及AI CSAM互動的爭議,反映了科技與道德的拉鋸。Cuvalo(2025)堅持兒童權利、Desbuleux(2024)呼籲開放,分別代表了AI「擴大風險」與「減害運用」可能性的雙方意見。在兒童安全優先的首要考量下,亟需更多實證研究來填補真空,以及更多理性討論來面對問題。
若只是單純採取嚴刑峻法來面對、處理這個新興議題,不但是便宜行事的取巧做法,也難以真正解決問題 ─ 畢竟法規的修訂永遠跟不上AI、科技的快速進展,各種想像不到的新型態運用方式絕對不可能一一防堵,甚至往往連「亡羊補牢」都做不到!



















