網紅小玉利用Deepfake(深偽技術)把女性名人臉「換」到性愛片,藉此販售牟取暴利遭法辦,讓人感嘆性暴力已經延伸到網路層面,而新興的科技技術竟無意間成為幫兇,成為網路性暴力。
什麼是Deepfake?
Deepfake,中文譯作「深假」或「深偽」,是透過人工智慧(AI)的deep learning(深度學習)技術所創造出的fake(偽造)訊息,目前比較廣泛應用在影音。
以往女孩們只要提防不要被偷拍或是錄下性愛片,從自身防範就能扼止個人名譽受到侵害,現在竟變成「人在家中坐,性愛片天上來」,尤其所有東西一旦上傳到網路就形成數位刺青,要完全清除並不容易,若不幸成為「換臉」受害者,光想都感覺非常可怕!
如何避免成為「換臉謎片」受害者?
1.截圖存證(文字、對話、日期時間、連結、影像等)
一旦看到或接收關於自己的深偽影音,立刻存取訊息,網路的世界會留下「電子足跡」,能經用IP位置追本溯源,蒐集相關訊息能方便未來警察或相關人員追查。
2.立刻報警尋求警方協助
其實不管是女孩或男孩,都有可能成為受害者,發生這樣的情況,處理方式就像現實裡遭遇到性暴力,要立即報警,循求司法資源保護個人名譽,切記不能私下調解,容易引起藏身螢幕後的人報復加害,雖然司法調查冗長,但也最具公信力,能達到基本的「官方認證」清白。
3.求助iWIN(網路內容防護機構)協助移除影像
iWIN是網路內容防護機構,是國家通訊傳播委員會邀請衛生福利部、教育部、文化部、內政部警政署、經濟部工業局以及經濟部商業司等共同籌設,這個機構會受理民眾申訴有害兒少身心發展之網際網路內容。
名人由於曝光度高,在網路留下許多影音「素材」,小玉的這起犯罪事件以女性名人為目標,以意淫式操作手法把女性當商品販售,是台灣治安史上首例利用繪圖AI演算深偽技術衍生的新型犯罪行為,這個「商業模式」遊走法律邊緣,台灣目前沒有相關法律條文能加以規範,未來是否修法也是未知數。
Deepfake的技術應用範圍廣泛,科技本身其實不具有「善惡」,如何運用才是藝術,面對Deepfake創造出的謎片,「不持有、不轉傳、不上車」才能扼止惡意營利行為。