【臉被偷走了? 他們也是數位性暴力受害者】

2021/05/31閱讀時間約 1 分鐘
當前的科技、網路發展相當迅速,你或許玩過一些特殊濾鏡的APP,或是將自己的臉換到明星藝人身上,但這樣的技術也被有心人士盯上,不肖業者透過AI Deepfake,將網紅的臉「移植」到色情片的AV女優上,製作成情色影片牟利。

Deepfake指的是透過AI技術將影片、照片中人物換臉處理,將這樣的技術用於不法行為,可能讓未來的假訊息與詐騙問題變更嚴重,將帶來網路、社會、犯罪等多面向的問題。在台灣,名為「台灣網紅挖面」的群組,大量販售換臉色情片,許多知名網紅、藝人明星、女性政治人物都因為這樣的技術身受其害,該群組仿造南韓N號房的經營模式,依會員繳交的會費多寡,分設不同層級的群組,層級高的會員甚至還有客製化的服務。

為了因應日漸氾濫的新形態性別暴力犯罪,政府應儘速訂定相關法律遏止罪行,並建議趁訂定性私密影像相關法律時,一併把各種數位新型態性別暴力納入考量。婦援會一直以來大力推動的《侵害個人性私密影像防制條例》,目前各黨派立委都已提出版本希望盡速立法,但「不是真的」、「遭換臉」的性影像該如何防治?在法律的層面仍需補足。
除了法律層面的修訂,更應該要普及數位公民教育,在科技發展迅速的同時,加強學生、民眾的法治以及教育概念,讓正確的觀念紮根,一同打造友善的性別環境和社會風氣。
婦女救援基金會
婦女救援基金會
1987年成立的台北市婦女救援基金會,基於尊重每個人的生命價值及追求社會正義,致力於受到性別暴力及被社會忽略的弱勢婦幼,以倡議推動社會改革,提升婦幼人權。 婦援會服務包括人口販運與兒少性剝削、前台籍慰安婦、親密關係暴力、目睹家暴兒少、數位性暴力等等,除了倡議以及推動立(修)法,更包含各式的直接服務
留言0
查看全部
發表第一個留言支持創作者!