顏霈恩、陳映竹、余侑恩、黃晟銘、徐嘉笳
2024.12.24
Deepfake換臉影片你看得出來嗎?小心!你的臉可能已經被拿去惡搞了!
影片來源:新聞實驗室 - 10分鐘用AI生成假影片 連專家都被騙倒 如何識別?
看了上面的影片 (0:35~0:40),您認為這段影片是真人嗎?你判斷的依據是什麼?
其實這是一部由Deepfake技術實現的換臉影片,影片內的人物並不是真人。那麼Deepfake又是甚麼呢?
「深度偽造」(Deepfake) 技術日益成熟,數位犯罪猖獗,什麼是Deepfake?簡單來說,就是用人工智慧把一張臉換到另一張臉上,而且可以做得逼真,讓你分不清真假。
2018下半年至2020年3月的南韓性剝削案件(韓國的N號房)被揭露時,迅速在社群媒體上引發熱議,影響輿論走向。學生、教師、軍人近幾年均紛紛成為數位犯罪受害者,造成名譽或人物價值的受損,在這樣的背景下,台灣社會也面臨類似的潛在威脅,假資訊用於選舉操控或公共議題的操作,讓真相模糊,且犯罪年齡也在不斷下降。數位犯罪成為我們不得不面對的問題。
最近網路上瘋傳一段超逼真的換臉影片,主角好像真的說了那些話,但仔細一看,怎麼覺得哪裡怪怪的?沒錯,這正是威力強大的Deepfake技術在作祟!
這種技術聽起來很酷,但背後的風險可不小。想像一下,如果有人用你的臉去說一些你不曾說過的話,甚至做出一些你不會做的事,那會造成多大的困擾?更可怕的是,Deepfake還可以被用來散布假消息,影響選舉,甚至是挑起社會動盪。
簡單來說,Deepfake 是利用人工智慧和機器學習生成或修改影像與聲音的技術,結合「深度學習」與「偽造」的創新應用。其核心可分為兩大方法:自動編碼器(AutoEncoder)和生成對抗網路(GAN)。
自動編碼器 像一個數位化的拼圖大師,透過「編碼器」提取兩張人臉的共通特徵,將其壓縮成簡化數據,再由「解碼器」重建出各自的完整人臉。經過多次反覆練習,生成的影像會越來越真實。
生成對抗網路(GAN) 則像是一場對抗賽,生成網路充當創作假圖的藝術家,而鑑別網路則是嚴格的評審。生成網路試圖創造出可以以假亂真的影像,鑑別網路則努力辨別真假,雙方不斷對抗和提升,最終達到幾可亂真的效果。
無論是自動編碼器的特徵提取,還是 GAN 的對抗訓練,兩者共同為 Deepfake 技術帶來了極具震撼力的成果,卻也引發了許多倫理挑戰。
聽完這些技術介紹,你是否感到驚訝呢?Deepfake 技術的發展如此迅速,已經開始滲透到我們的生活中。那麼,當這些技術被用來製造假新聞時,對我們的生活又會產生什麼樣的影響呢?我們採訪了幾位不同年齡層和職業背景的民眾,聽聽他們怎麼說。
受訪者對Deepfake的理解呈現出有趣的光譜,從簡單的「換臉」、「用電腦換臉」到更專業的「深度偽造」。有一位受訪者詳細地解釋:「就是利用人工智慧技術,將影像或聲音進行合成或篡改的技術。」
在這些採訪之中,多數受訪者提到的案例都圍繞在「小玉事件」上,看得出這起事件對民眾的印象有多深。除此之外,也有受訪者提到政治人物相關的案例,如「澤倫斯基的投降聲明」、「歐巴馬罵川普是豬頭」等。
當被問及如何運用Deepfake製作假新聞時,受訪者們各自展現出有趣的想像力。一位25歲的女教師幽默地表示:「做一則我被外星人抓走的新聞,或是把我的臉套在中南美洲遇到海嘯的民眾上面,傳給主管說我明天沒辦法上班。」
然而,更多受訪者提出了更具政治影響力的應用方式。比如:「找一個時下熱門議題,把政治人物的臉P到對手上面,讓他看起來像是在幫反對方講話」。有一位受訪者則提到:「用專家的臉去帶風向,模仿本人動作,帶出重點。」
面對假新聞氾濫的威脅,受訪者們也對此展現出相當成熟的對應方法。多數受訪者強調「多方查證」的重要,從檢查新聞來源可靠度、比對多家媒體報導,到觀察社群媒體的討論內容都要仔細審視。
一位受訪者表示:「不要像某些長輩把未經查證的訊息散播到各個群組。」另一位受訪者則建議:「從小培養媒體識讀,在法律上的證據判定也要有所調整,影片的權重須降低。」
從這些發現可以看出,雖然Deepfake技術給社會帶來了一定的衝擊,但民眾也開始發展出自己的分辨意識。
在探討Deepfake對個人隱私的威脅時,受訪者們普遍表達出憂慮的心態。一位21歲的女學生就直接說「會被用來做假A片,破壞名譽,想洗都很難洗」。更有受訪者指出性別歧視的現象:「女性更容易受到傷害,因為她們被做成假A片的話整個人就跟社會性死亡沒兩樣了。」
多位受訪者提到財務和心理層面的傷害。「財富、身心造成危害。可能會遭到捏造出的假訊息詐騙財物,或是被不存在的事物影響生活的判斷」。還有一位則擔心:「不管對方有沒有做壞事都有可能被指控、被攻擊道德操守不好。」
一位大學教師表示,現今的 Deepfake 技術已經能夠做到僅憑聲音輸入,就能自動生成對應的口型和表情,甚至連口音都能精準模擬。這種進展使得過去單純從影像辨識角度探討 Deepfake 的方式顯得有些過時。不過Deepfake 也並非全然有害。在醫療領域,有研究團隊正嘗試利用這項技術「重建」逝者的影像,希望能藉此撫慰親人的傷痛。一位李姓醫師正進行一項計畫,他希望透過 Deepfake 技術,讓家屬能夠再次「看見」已故的親人,甚至透過 3D 投影等技術,創造更多互動。雖然這項計畫仍處於初期階段,資源也相對有限,但它也顯示 Deepfake 在人文方面應用的潛力。
然而,Deepfake 最令人擔憂的,莫過於其在政治領域的應用。想想看如果有人製作了一段 Deepfake 影片,內容是臺灣總統宣布某項具爭議性的政策,例如涉及統一、獨立議題的談話,這將會對兩岸造成多大的衝擊?在資訊爆炸的時代,謠言和假訊息的傳播速度往往比真相更快,一旦 Deepfake 影片在網路上散播開來,即使官方立即出面澄清,也難以完全消除其負面影響。
這種威脅在資訊封閉的環境中更為嚴重。在中國等資訊受到嚴格控管的地區,民眾難以接觸到多元的資訊來源,也缺乏有效的查證管道,更容易受到 Deepfake 影片的誤導。
綜上我們可以看出,Deepfake 的威脅已經不再是紙上談兵。近年來,已有柯建銘、王義川等臺灣政治人物的Deepfake影像被用於中國的宣傳活動中,尤其在敏感的政治事件發生時,這類造假影片的出現頻率就會很明顯地增加。這顯示 Deepfake 已然成為資訊戰的新工具,對民眾的認知造成了威脅。
面對這些威脅,受訪者們提出了各種自我保護策略。最基本的建議是「少在開放的社群上留下自己的照片影片,不跟人結怨」。有趣的是,一位53歲的女教師提出了較為傳統的建議:「低調行事,盡量不要招惹別人,不去KTV跟賭場。」
一位受訪者則提出了更具體的建議:「要有中心思想,或是依賴宗教性質的判斷,如祈禱,以及多與親朋好友交流,建立互信機制,認識你的人多了,當你被Deepfake做成假影片,你身邊的人就會發覺不對勁。」
對於Deepfake技術的未來發展,有人看到娛樂產業的可能:「以後不只保羅沃克,各個影星都可以用Deepfake出演所有電影,我也可以變成Taylor Swift的臉在唱歌。」也有人提出教育領域的應用:「可能會取代補習班,雖然目前技術仍有缺陷,但可用Deepfake結合文字生成技術取代補教業。」
科技的運用不僅限於娛樂,更延伸到公共服務領域。一些城市已經開始測試AI虛擬公務員,提供24小時多語言服務。在災害應變方面,AI合成技術可以快速製作多語言的緊急通知,確保不同語言背景的民眾都能及時獲得重要資訊。這些創新應用顯示,Deepfake技術確實可以為社會帶來正面改變。
然而,也有受訪者非常擔心。一位受訪者說:「聲音、表情、動作、甚至思想都有可能被竊取,真假越來越難判斷」,另一位則直接表示:「不要發展比較好,不然使用3C都會提心吊膽。」
面對這項技術,大多數受訪者展現出矛盾的態度。最精準捕捉到這種心態的是:「期待又怕受傷害,期待有更多娛樂性質的發展,但也擔心會被拿來詐騙」。不過也有受訪者表示:「工具本身沒有好壞之分,功能取決於使用者,Deepfake本身是強大的力量,需要有韁繩來去規範它,才會讓deepfake走向正確的用途。」
有趣的是,當我們深入討論,受訪者們也分享了Deepfake令人期待的一面。一位暨南大學生提到:「我選修了一堂通識課,通識課老師教我們使用各種AI工具,但最酷的是,有一次老師請假,但用AI製作了自己的虛擬替身,我原本以為只是錄好的影片,結果沒想要從動作、表情、聲音都是AI製作的,我很期待Deepfake技術可以發展到創造一個偶像的替身跟我互動!」
這些發現代我們看到了Deepfake技術在未來的潛力,並啟示我們需要在創新與保護之間尋找平衡。
從我們的訪談中,可以清晰地看出Deepfake技術帶來了雙重影響。首先,我們不得不正視其所帶來的威脅,Deepfake技術已經在個人隱私與名譽方面引發了重大問題。不只可以換臉,甚至可以捏造出別人沒說過的話,搞得人心惶惶。就像之前小玉事件一樣,受害者被換臉放到A片裡,名譽全毀,這種事誰敢保證不會發生在自己身上?
不過,Deepfake也不是一無是處。它可以讓拍片更方便,幫助人們克服錄影時的緊張感,使表現更加自然流暢,還可以拿來做特效,甚至可以幫助語言學習。聽起來是不是很酷?Deepfake技術的應用遠不止於此。在醫療領域,它可以被用來生成各種罕見病症的培訓影片,幫助醫護人員更好地識別症狀。經歷COVID-19疫情的人們對於「視訊醫療」的需求大幅提升,當部分患者只是例行拿藥、前期的問診、常態性的關懷訪視時,可用 Deepfake 技術搭配預錄的診斷回覆,實現了多重問診的可能,也提升了看診時的真實接觸感。
除了醫療培訓,Deepfake技術也在心理健康領域帶來突破。美國一家心理診所運用這項技術,協助創傷後壓力症候群患者進行治療,讓他們能在安全的環境中面對並處理過往的創傷經驗。在失智症照護方面,有機構正在開發個人化的AI影片,幫助患者透過熟悉的面孔和聲音,維持認知功能和情感連結。
在教育方面,教師可以製作多語言的教學內容,讓愛因斯坦用中文講解相對論,或是讓孔子用英文分享儒家思想。電影產業也善用這項技術,不只能降低特效成本,還能讓已故的演員「重現」螢幕,為經典作品注入新生命。
但問題來了,當假影片這麼逼真,我們怎麼分辨真假?
Deepfake影片雖然看起來很逼真,但魔鬼藏在細節裡!只要我們睜大眼睛仔細看,還是可以發現一些蛛絲馬跡。首先,影片中的人說話時,嘴巴有沒有好好地對上聲音?如果對不太上,或是看起來很僵硬,那就要小心了!還有,影片的背景會不會有點模糊?人物的邊緣會不會怪怪的?光線是不是不太自然?這些都是判斷Deepfake影片的重要線索。
除了用眼睛觀察,我們還可以借助一些工具來幫忙。像是Google圖片搜尋,可以幫我們追查圖片的原始出處,看看有沒有被動過手腳。台灣也有一些很棒的事實查核平台,像是台灣事實查核中心、MyGoPen和Cofacts等等,這些都是我們驗證資訊的好幫手。你也可以用反向圖片搜尋工具,像是Google圖片搜尋或TinEye,來追蹤圖片的來源,看看是不是被移花接木了。
此外,隨著AI技術的進步,現在已經有更先進的工具可以幫助我們辨識假影片,讓我們能夠以AI防治AI。像是Sensity這個系統不只能即時分析影片是否造假,還會仔細檢查人臉細節和光影是否自然。如果你想更深入檢查影片的真實性,Deepware Scanner可以分析影片的壓縮和編碼特徵,甚至給出準確度評分。
現在還有一些創新的方法,比如說透過區塊鏈技術來追蹤影片的來源。就像每個商品都有產地標籤一樣,內容真實性計畫CAI (Content Authenticity Initiative)系統會記錄下影片從創建到發布的完整歷程。Adobe和微軟也都推出了自己的驗證工具,可以檢查影片是否經過人工智慧編輯。
這些工具雖然聽起來很專業,但其實很多都有免費版本或是線上服務,一般民眾也能輕鬆使用。重點是這些新工具提供了比傳統方法更準確的偵測結果,可以幫助我們在這個資訊爆炸的時代分辨真假。
另外,我們平常在接收資訊的時候也要多留心。不要看到什麼就信什麼,要仔細檢查資訊的來源是否可靠,內容會不會有偏頗,有沒有其他來源可以佐證。想想看,這則資訊是誰發布的?目的是什麼?是來自官方機構、知名媒體,還是隨便一個路人甲?在社群媒體上看到的消息,也要看看大家的反應,不要輕易轉傳未經證實的資訊,免得變成假訊息的幫兇。
當然,Deepfake技術也在不斷進步,以後要分辨真假影片可能會更難。所以,我們要隨時關注這個議題的發展,並且採取一些行動來保護自己。像是提升自己的媒體識讀能力,學會更聰明地接收和判斷資訊。政府、媒體、教育機構和社群平台也應該一起合作,建立更完善的機制來應對Deepfake的挑戰。
隨著技術日益成熟,Deepfake在商業領域展現出革新力量。零售業用它製作虛擬試衣間,讓顧客線上試穿更方便;電商平台利用AI配音,讓商品介紹一次完成多國語言版本。在文化保存方面,故宮博物院正嘗試讓古畫中的人物「動起來」,讓年輕人能用更生動的方式了解傳統文化。這些創新應用讓我們看到,只要善用科技,就能為社會帶來正面改變。
總之,Deepfake就像一把雙面刃,用得好可以帶來便利,用不好就會造成傷害。只要我們多加留意,學會分辨真假,就能在享受科技便利的同時,也能保護自己不受其害!