
一位名叫QTCinderella的美國youtuber聲淚俱下控訴肖像被用到深偽色情影片當中
作者:這篇文章之前試圖投稿但未被接受,如果有讀者願意提供一些建議改善這篇文章,那就再好不過。
---------
AI深偽換臉技術可以用在很多地方,透過更快速及精細的臉部、聲音合成功能,以成本小卻成效高的方式製造出鋪天蓋地且幾可亂真的影片,而對現實與虛擬的界線產生衝擊。其中一項還蠻嚴重的問題是深偽色情影片。成人產業的產值相當大,表示全世界人們對成人影片的需求相當高,在金錢與性欲兩大轉變社會秩序之力量的驅動下,有人把腦筋動到了深偽換臉技術上:眾多女性在未經同意的情況下被取用公開照片,透過深偽技術替換原成人影片的演員臉部。
基於不少女性有公開分享生活照片的習慣,以及對於女性名人與明星來說,高曝光度更是不可避免(也可以說他們樂意有高曝光度),製造深偽色情影片的難度與成本就相當低。在低難度、低成本及高需求(大概也就有高利潤)的情況下,就會引發像QTCinderella以及國內黃捷這樣受害事件。然而,深偽色情影片的出現受影響的不只是名人,依據端傳媒的報導,在一般的校園中,也可能有男同學單純因為惡作劇、好玩或跟風等無特殊惡意或誘因的情況下,從事深偽色情影片製作,因而對同校女同學造成恐慌。另外,BBC News中文的Youtube頻道亦報導新近有所謂「數位脫衣」的應用程式在各大App商店流傳,下載者可使用女性照片,配合AI深偽技術讓照片中的女性進行脫衣服的行為。
儘管目前AI色情深偽技術多用在商業牟利上,但即便對於製作深偽色情影片的人不是為了販賣牟利(不是像小玉這種案例),甚至也在影片中加註此深偽影片內的人物非本人,那麼到底是不是還有傷害到個人權利?如果有,那傷害到什麼權利?本文討論的權利並非泛泛而談的權利,而是在本國國內法中已承認的權利基礎,因此儘管本文的討論將從國內小玉換臉事件的司法判決理由出發(民事為臺灣新北地方法院 112 年度訴字第 902 號民事判決,刑事為臺灣高等法院刑事111年度上訴字第3787號判決),但主要目的在於尋求尚未發生的可能爭議(比如上一段被報導所披露的各種可能的使用方式)的管制基礎,小玉的案件僅作為一個能夠比對而凸顯AI深偽技術特殊之處,以及基於資訊自主權作為未來更廣大管制基礎的鋪墊。本文將從小玉案件的民刑事判決談起,看他侵害了什麼權利,接著去談跟小玉案件不同的可能應用情境有什麼特徵,又現已受法律承認與保護的權利是否能夠與應該延伸到這些廣泛的應用情境中,以及其根本理由為何。
權利意涵的釐清
現在先來談談本文所使用的「個人權利」的意義。自從台灣社會進一步走向自由開放以來,「個人權利」一詞被用得有些浮濫,在解嚴後曾經有「只要我喜歡,有什麼不可以」為流行語,到今天情況變成「這是我的權利,要由我決定可以不可以」。只不過如果要訴求政府透過公權力給予保護,當然不可能由任何個人說了算,而是要透過一個理論上公民皆可參與的論理與溝通的過程漸漸凝聚社會共識,不管實際的法律保障出現在社會共識之前或之後都是如此,也就是說,法律終究還是需要具有社會大眾得以合理同意的正當性。我們經常假設,在一個冗長的、背後有相關專業人士代表社會大眾進行審議及表決過後的立法結果,就已經是一個具有正當性的法律,儘管還是要透過在不同個案下的實施與判決,才能進一步完善與完備法律規範、獲得民眾的普遍遵守,甚至成為社會生活的一部分。
所以基本上,本文所要談的個人權利將會是法律意義上的個人權利,其受法律所保障或應受法律保障,重點在於,這個個人權利的規範基礎要不是現有法律已認可(通常也已經寫在所規定的條文內),就是其應受保護的內涵也已蘊含其中。所以本文還是需從小玉的判決出發,來討論如果需要延伸應用到其他情境,有沒有適當的規範基礎?
營利用的非法換臉色情影片傷害了什麼權益?
依據臺灣新北地方法院 112 年度訴字第 902 號民事判決、臺灣高等法院刑事111年度上訴字第3787號判決,小玉違反了個人資料保護法、刑法中妨害風化與誹謗以及民法關於人格權的相關規定。在小玉如何侵犯被害人的權益上,刑事判決跟民事判決的理由書中寫的事實判斷相當接近,都是基於網路本身的特性,在付費用戶得以觀看之外,也容易透過側錄、複製、擷取等方式,用一種其他大眾難以辨識換臉影片真偽的形式流傳散佈,並且在網路空間中難以消除回復,故難謂未對當事人的名譽產生巨大不良影響。而且,基於本案受害者是公眾人物,而公眾人物的名譽比起一般人,作為一個可以用來賺取衍生利益的資源性質,其程度更強,更不用講名譽作為人格構成之一部分,名譽受到傷害也意味著個人人格及精神都可能受到傷害,故基於對前述這些法益的傷害,小玉意圖牟利而蒐集利用被害人之影像或圖片之資料,製作與散佈足以傷害被害人名譽,而造成被害人在人格、財產與精神上的進一步損害,在刑事上被判有期徒刑6年8個月,民事上則被判賠60萬註1。
然而,前述案件在犯罪事實上有幾項特徵可能會對判決結果造成差異:
- 即便小玉在付費平台上有寫明這是利用換臉技術做成的色情影片,故也被民庭法官認為不至於造成付費會員誤認,但假設通過翻拍或複製流傳出去,則容易造成社會大眾混淆誤認而傷害被害者名譽。然而,假設在影片中透過浮水印技術加註這是基於換臉技術而非本人,如此一來法官所依據的判決理由就會失效,因為即便翻拍複製,也會一併把非本人的加註複製進去,也就不至於造成他人誤認,即便有人再利用其他技術去除浮水印,那也無關原本製作與散佈影片者的行為與責任(但我文後會說明理由,表示即便如此,製作與散佈影片者仍損害被害者的人格權)。
- 小玉是以牟利之意圖製作與販賣換臉色情影片,這使得他面臨到更嚴重的處罰。尤其是違反個人資料保護法第41條及第20條第1項是他所違反的刑法中刑罰最重的部分。但換臉色情影片所引發的問題並不只有在意圖販賣時才會出現,除了小玉的案子中,就算他不賣,只要是有意圖散布之事實,就有可能成立其他妨害風化及毀謗的罪。就本文來說更重要的是,如果不是要牟利,而只是因為好玩所以自己製作觀賞,甚至只是私下傳給幾個朋友,那麼又會損害被害者的什麼權益嗎?文章開頭所引述的端傳媒報導的南韓校園內,男學生因為好玩及惡作劇,故製作女同學的換臉色情影片並在私下傳閱,而造成女學生恐慌的事件,就會遇到這個問題。
- 在小玉事件中,受害人都是公眾人物(政治人物、明星或網紅等),這或許使得影片更有可能被複製與流傳,而且公眾人物依賴其名譽作為營利資源的程度更大,這在刑庭法官的判決書中,成為衡量犯罪情節嚴重程度的其中一項因素,故可能影響刑責。但基本上在網路空間中,一般人因為不容易獲得媒體報導,故比公眾人物更難被平反,因此受到的傷害可能更持久、嚴重。
所以假設今日有人基於好玩或娛樂,不是為了販賣營利,也不想造成他人名譽毀損,故把自己覺得很漂亮的女性照片透過深偽技術製作成A片註2,並只給自己或幾位朋友觀賞娛樂,甚至在影片中加註非本人,這樣似乎有可能不涉及上述討論的刑事問題。但就算不涉及刑事責任,這類案件的本質在於,本人發布的資訊在未經本人同意的範圍內,被以本人明顯不會同意的方式,以及可能造成本人在人格權上受損的方式被利用、複製與散布。故依然還是有民事責任的可能,接下來我要進入資訊自主權與人格權的關係的討論。
資訊權、肖像權、名譽權、隱私權,到底違反哪個人格權?
在這類案件中使得保護被害人變得棘手的一些狀況是,製作深偽影片者所利用的資料或圖像都是來自可公開取得的地方,因為早已進入公共領域中,所以一般而言不會有違反隱私權跟資訊權保護的問題。又如果不為商業使用,甚至加註非本人,那也不會有侵害肖像權跟名譽權的情況。然而,問題就出在上述判決也有提到的網際網路的特性,並且又與深偽技術的特性聯合作用,而造成資訊的利用已超出資料或圖像發布當時之所可預見,並且為當事人帶來相當大的可能危害。
前述判決的法官所依據的權利基礎基本上是來自個人的資訊權與名譽權。資訊權是在網際網路技術發展與盛行之後所出現的新權利註3,保障個人對於其在線上與線下活動的資訊痕跡,在數位空間中的出現、揭露、利用與消除可以具有完整的掌控權力。在小玉的案子中,因為他以不符合誠實信用的方式,不合理地利用被害人早已流傳於網路的公開資訊,所以算是侵害了被害人的資訊自決權,以及如法官指出,如被以數位工具翻拍並另外流傳,也可能侵害被害人的名譽權。
而肖像權跟隱私權是沒被法官提到的,原因可能很容易想像,因為那些被AI技術加工的素材都是早已公開的資料,所以並沒有肖像權跟隱私權的問題。但本文接下來想指出的是,在AI深偽技術出現後,原本我們對於資訊自決與隱私權的既有觀念可能會需要被調整,並擴張保護範圍,以確保使用者對其私人生活秩序得以有合理的管控能力與維持穩定的期待。
數位技術出現是如何對人們的資訊自決能力造成衝擊的?
本案中牽涉到的數位技術分為兩種:網際網路技術跟AI深度學習與生成技術。網際網路技術早已在上個世紀後期對大眾生活產生重大影響,並且也對人們的資訊掌控能力與私人生活帶來一定的衝擊與混亂。比如隱私不保的年代註4這本書所舉出的例子顯示,即便人們無意在網路上留下痕跡,也可能會遭攝影或流言蜚語,使得個人相關資訊流傳到網路上,在真假難辨以及他人的再利用方式難以管控等因素推波助瀾下,將會對個人實體生活帶來難以預料的重大衝擊。更不用說個人在網路上上傳的照片影音更容易被拿來改作與再利用。數位工具、資料與數位空間所衍生的易匿名性、易修改性、非審查性、再利用與散播的低成本性以及持續存在性,容易造成個人的一時失態或錯誤,被過度放大與輿論撻伐,而為當事人帶來不成比例的懲罰或傷害註5,更不用說有時候個人只是基於休閒或娛樂的目的分享私人生活而衍生出他人的不當利用註6。即使得個人因為失去對其個人資訊的可合理預期的控制,在權利上受到損害。那麼這個受到損害的權利是什麼樣的權利?
資訊自決的範圍不僅存在資料交出去或上傳的那一刻,還包含了當事人依交付資訊的目的,或依當時情境他可以預期資訊被他人利用的合理方式與程度,並且當事人也應該要有能力要求修改與下架相關資訊,以避免個人資訊再繼續被以自己無法合理預期的方式使用。我國大法官自從在2005年於大法官釋字603號解釋確立資訊自主權註7之後,有學者認為即包含個人可以要求刪除自己在網路上的相關資料的被遺忘權,詳細而言,資訊自主權包含揭露決定權、知悉權、控制權及更正權,並由個人資料保護法相關規定來具體規範與保障註8。
那也就是說,不管是個人的隱私權或資訊自決權,其要保護的對象其實在於,個人所能合理期待的私人生活秩序,不因私人資訊的揭露與利用,使得其私人生活領域不當受到侵擾。這個保護目的便使得人們得以合理要求對私人資訊的管控力量,在過去,即便人們可能被刺探、偷窺、侵入,都是在實體空間中以實體形式為之與散布,但在網際網路中,數位工具與空間基於前述種種性質,造成使用者難以預料及控制個人資訊,會在今後以什麼方式利用與傳播,並在之後可能透過他人的具體言論或行為對個人生活秩序帶來輕則擾亂,重則過當且有害的衝擊。而這個後果,在AI深度學習及生成技術出現後,程度變得更加劇烈且甚至產生某種質變。
實體(真實)與數位(虛擬)界線的消除及相互塑造
AI深度學習技術透過人們在網路上活動所留下的大量數據,辨識出模式與類型,並應用到個人身上,在這個過程中,個人甚至將會受到AI所套用模式或類型的牽引或操控。依據『拯救我們的自由:數位時代的起床號』一書中的說法,AI利用人們在網路上留下的活動數據,建構出一個個人格圖像並掌握了每個使用者的數位自我,並且依據掌控AI的有權力者的目的,對一般使用者進行操縱甚至代為決定。AI所具有的威力使得它成為了我們精神上的數位君主,我們把自主決定的能力讓給了AI,而使得我們從主體降格成被支配的客體-一種可被有權力者交易的客體(想想那些關於我們的數位資料在科技公司與國家之間進行交易,以換得金錢或進入與控制的權力)。在已經成為人們生活一部分的廣告或感興趣資訊的投放中,我們很清楚可以經驗到我們可能被AI視為是什麼樣的人,並在那樣的歸類中被持續地塑造與加強。這件事或多或少使得我們在接受相關技術的影響前跟影響後,成為了不一樣的人(讀者們自己在社群網站上的經驗應該可以或多或少體會到這一點)。但就像『拯救我們的自由』一書所指出的,雖然廣告早就存在並以各種形式產生影響,但當前精準投放的廣告具有一種新特性,當它可以清楚區辨我們所屬的目標族群,處於什麼精神狀態,用精準的方式、廣告、時間點對我們表述,它根本就是透視且洞悉我們的內心。
從該本書所描繪的圖像,其實我們甚至可以合理地說,它透過誘導,把我們分類到特定的族群中加以塑造我們的內心。我們已經可以想像,AI不只是被用來賺錢或整理資訊,而是反過來對使用者做教育與規訓。當AI的威力受到認可甚至具備權威(背後或許有一群專家甚至國家的支持或授權),違背AI給的建議等同於個人的不理性或甚至不道德(因為使用者違背了AI所預設的價值判斷)。然而,這並不意味著,AI勢必不能提供規範或我們必定不能聽從AI的建議,而是我們必須把自主決定能力牢牢握在手中,並能對AI進行反思與監管。
上述基本想法也可以應用到本文的案例之上。當AI透過大數據與深度學習得以建立起種種行為模式與人格圖像,深偽色情技術預設了什麼樣的人格圖像,又使用者會形成什麼樣的數位自我,然後又反過來型塑自己的實體自我?當AI深度學習再加上生成技術的新特徵:能以其隱密、個人化且低成本的方式,以前所未有的速度,產出高品質或高度符合使用者個人需求的大量成品,這就會使得從過去就存在模仿、偽造等行為,或類似產品、服務或影音圖像的情形,在最新一波AI科技問世之後,由量變產生了質變。在過去,模仿與偽造相關產品與圖像影音,涉及較高的創作門檻與成本,創作者無法短時間內大量製造,但現在透過AI生成技術,單只是動動鍵盤,就能夠生成各式各樣不同樣態的大量影音圖片,並且能夠同時搭配網際網路快速傳播而難以管控。並且當創作者與觀看者(皆是相關技術服務的使用者)對這技術的內建價值以及它可能造成的後果,欠缺反思與監管的能力,而把自我交付到該AI工具所預設的虛擬人格圖像時,那麼該AI工具又會如何經過其服務與成品,以使用者難以覺察的方式影響其內心而型塑其實體自我?而當該成品涉及具體他人,是否使用者被塑造出的自我傾向也會有指向那位具體他人的可能性?所以當我們承認前述的可能性,那麼即使深偽色情影音加註說明,讓觀看者得以辨認裡頭的人物不是真實的那個人,但被害者是否也有理由感到排斥、害怕甚至恐慌?所以當人們只是上傳生活照或被大眾媒體拍攝一般照片而流傳於網路上時,不太可能會想到自己的面貌會以真假難辨的方式,大量而廣泛且難以排除它在正常社會生活領域內有可能發生對名譽甚至安全有所擾亂的作用,因此基於資訊自主權及隱私權,便應該得以請求將它刪除,甚至在對個人生活秩序造成侵擾時要求賠償。
前述考慮還可以再往外推到之前曾經在網路上吵過的AI生成性化兒少的色情圖像問題。雖然虛擬圖像跟本文主要關注個人的資訊自主權無關,但當這個外推是基於上面提到一個AI深度學習與生成技術所具有的新特徵:能以隱密、個人化且低成本的方式,產出高品質或高度符合使用者個人需求的成品,並且個人的相關傾向就在AI技術下被持續地新增與加強。這使得從過去就存在的行為、服務或產品,無法就過去我們對於虛擬世界的影音是否會改變或加強現實世界的人們認知與行為的相關經驗來理解。所以基於我們對人們在應用此技術時,對於自我、他人或社會帶來的相關影響的了解可說是還相當缺乏的情況下,基於預警原則與保護人們免於合理恐懼,以及加重看待兒童所可能面臨的風險的立場,暫時便應禁止此類技術的應用或站在一個比較限縮的管制態度,直到能夠探討出依不同情境與使用方式而有差異化的適合管制方式。
但一定有人會在意,上述理由難道不會外推到各式各樣看似具有負面色彩的應用上,而截斷了這類應用的開發潛力甚至對人們的自由產生過度的限制,就回到了像是過去純淨社會的保守想像?身為在乎基本自由權與自主性的公民,我也勢必要面對,如何不要對AI的強大力量故步自封,而過度限縮人們自由發展的可能性,並且這可能需要進一步的探索才能回答。目前我能說的只有這類型的技術跟工具可說是剛出來沒多久,並且威力強大到足以對人們生活產生未知利弊的影響。過去當網路世界剛現身時,人們對他的自由烏托邦想像,也勢必將因為AI所具有的得以在實體心智上操縱甚至支配人類的強大威力,而受到更多來自實體世界的監管措施。
註釋
註1:以前常看到網路上有民眾留言犯罪者不法所得那麼多,結果只判賠沒多少(相對而言),這樣怎麼起得到嚇阻作用(甚至在心理上還會鼓勵當事人去犯罪?因為假如當事人原以為懲罰嚴重而不敢犯罪卻發現原來懲罰輕微,可能原本有的心理拘束一下子減輕,就更難約束其短期內的犯罪傾向)。但必須澄清的是,判賠是一回事,不法所得本來就應該要被沒收歸入國庫,並且依照112年訂立的犯罪被害人權益保障法,犯罪所得被沒收後是有機會再補償給犯罪被害人的,而且再加上其他刑罰類型,應不至於起不了嚇阻或甚至鼓勵作用。
註2:其實就算是男性也是在規範範圍內,只是可以想見數量會比較少,或引起的反應會不一樣,而且在小玉的案子或南韓校園發生的事件,我們看得到受害者或其他女性的實際反應,故先以女性來討論。
註3:德國聯邦憲法法院於1983年人口普查判決中提出資訊自決權,並在2008年再提出「確保於資訊技術系統私密性與整全性之基本權」,而我國個人資料保護法是民國84年通過(原名稱為「電腦處理個人資料保護法」)。
註4:這是一本相當不錯的書,討論了如何在隱私保障與言論自由之間取得平衡的困難。筆者使用的是2010年的版本(博雅書屋),目前已絕版,但五南出版社在2015年出了二版。
註5:在書中一開始即提到南韓有個狗屎女事件,一名女士的寵物小狗在電車上大便,但卻拒絕清理,使得在乘客把相關的照片記錄PO上網後,網路鄉民便進行大量改作及宣傳、羞辱這名女子,最後使這名女子於大學退學。另外,這有一些更糟糕的版本,基於網路留言與評論的匿名性、非審查性與快速傳播的性質,有些錯誤的網路評論或恰巧與人同名,將使得當事人受到無妄之災。
註6:書裡提到一名將自己唱「麥阿喜」的對嘴影片(台灣網路習慣稱為「空耳」)上傳的名為「蓋瑞」的19歲青年,就連我自己對這支影片也有印象。一開始這位羞澀靦腆的青年對這件事感到不知所措,並且這起事件到後來有個比較好的結局,不過其他案例可能沒這麼好運,包含本文將要繼續討論的AI生成技術的應用。
註7:中研院學者邱文聰認為該釋字中的資訊隱私權便為資訊自主權。而該釋字中關於隱私權範圍的解釋為:「基於人性尊嚴與個人主體性之維護及人格發展之完整,並為保障個人生活私密領域免於他人侵擾及個人資料之自主控制,隱私權乃為不可或缺之基本權利,而受憲法第二十二條所保障(本院釋字第五八五號解釋參照),其中包含個人自主控制其個人資料之資訊隱私權,保障人民決定是否揭露其個人資料、及在何種範圍內、於何時、以何種方式、向何人揭露之決定權,並保障人民對其個人資料之使用有知悉與控制權及資料記載錯誤之更正權。」
註8:魏大喨(2017),「被遺忘權在台灣實現之法律途徑-最高法院103年台上字第1611號民事判決評釋」,『司法周刊第1835期』。






















