Deepfake的雙面刃 科技進步中的隱私威脅與應對之道

更新於 發佈於 閱讀時間約 15 分鐘

顏霈恩、陳映竹、余侑恩、黃晟銘、徐嘉笳

2024.12.24

Deepfake換臉影片你看得出來嗎?小心!你的臉可能已經被拿去惡搞了!


影片來源:新聞實驗室 - 10分鐘用AI生成假影片 連專家都被騙倒 如何識別?

看了上面的影片 (0:35~0:40),您認為這段影片是真人嗎?你判斷的依據是什麼?

其實這是一部由Deepfake技術實現的換臉影片,影片內的人物並不是真人。那麼Deepfake又是甚麼呢?

真假難辨的時代 – Deepfake入侵你我的生活

「深度偽造」(Deepfake) 技術日益成熟,數位犯罪猖獗,什麼是Deepfake?簡單來說,就是用人工智慧把一張臉換到另一張臉上,而且可以做得逼真,讓你分不清真假。

2018下半年至2020年3月的南韓性剝削案件(韓國的N號房)被揭露時,迅速在社群媒體上引發熱議,影響輿論走向。學生、教師、軍人近幾年均紛紛成為數位犯罪受害者,造成名譽或人物價值的受損,在這樣的背景下,台灣社會也面臨類似的潛在威脅,假資訊用於選舉操控或公共議題的操作,讓真相模糊,且犯罪年齡也在不斷下降。數位犯罪成為我們不得不面對的問題。

最近網路上瘋傳一段超逼真的換臉影片,主角好像真的說了那些話,但仔細一看,怎麼覺得哪裡怪怪的?沒錯,這正是威力強大的Deepfake技術在作祟!

這種技術聽起來很酷,但背後的風險可不小。想像一下,如果有人用你的臉去說一些你不曾說過的話,甚至做出一些你不會做的事,那會造成多大的困擾?更可怕的是,Deepfake還可以被用來散布假消息,影響選舉,甚至是挑起社會動盪。

換臉的真相?! Deepfake 是如何製作的

簡單來說,Deepfake 是利用人工智慧和機器學習生成或修改影像與聲音的技術,結合「深度學習」與「偽造」的創新應用。其核心可分為兩大方法:自動編碼器(AutoEncoder)和生成對抗網路(GAN)。

自動編碼器 像一個數位化的拼圖大師,透過「編碼器」提取兩張人臉的共通特徵,將其壓縮成簡化數據,再由「解碼器」重建出各自的完整人臉。經過多次反覆練習,生成的影像會越來越真實。

生成對抗網路(GAN) 則像是一場對抗賽,生成網路充當創作假圖的藝術家,而鑑別網路則是嚴格的評審。生成網路試圖創造出可以以假亂真的影像,鑑別網路則努力辨別真假,雙方不斷對抗和提升,最終達到幾可亂真的效果。

無論是自動編碼器的特徵提取,還是 GAN 的對抗訓練,兩者共同為 Deepfake 技術帶來了極具震撼力的成果,卻也引發了許多倫理挑戰。

AI換臉技術衝擊真實:民眾眼中的Deepfake與假新聞危機

聽完這些技術介紹,你是否感到驚訝呢?Deepfake 技術的發展如此迅速,已經開始滲透到我們的生活中。那麼,當這些技術被用來製造假新聞時,對我們的生活又會產生什麼樣的影響呢?我們採訪了幾位不同年齡層和職業背景的民眾,聽聽他們怎麼說。

從換臉到深度偽造:民眾眼中的Deepfake

受訪者對Deepfake的理解呈現出有趣的光譜,從簡單的「換臉」、「用電腦換臉」到更專業的「深度偽造」。有一位受訪者詳細地解釋:「就是利用人工智慧技術,將影像或聲音進行合成或篡改的技術。」

在這些採訪之中,多數受訪者提到的案例都圍繞在「小玉事件」上,看得出這起事件對民眾的印象有多深。除此之外,也有受訪者提到政治人物相關的案例,如「澤倫斯基的投降聲明」、「歐巴馬罵川普是豬頭」等。

圖左為駭客利用澤倫斯基Deepfake發布的投降聲明(來源:Yahoo奇摩新聞截圖) 圖右為澤倫斯基IG對假影片的發表聲明(來源:澤倫斯基IG截圖)

圖左為駭客利用澤倫斯基Deepfake發布的投降聲明(來源:Yahoo奇摩新聞截圖) 圖右為澤倫斯基IG對假影片的發表聲明(來源:澤倫斯基IG截圖)

假新聞製作:民眾意外熟悉的「套路」

當被問及如何運用Deepfake製作假新聞時,受訪者們各自展現出有趣的想像力。一位25歲的女教師幽默地表示:「做一則我被外星人抓走的新聞,或是把我的臉套在中南美洲遇到海嘯的民眾上面,傳給主管說我明天沒辦法上班。」

然而,更多受訪者提出了更具政治影響力的應用方式。比如:「找一個時下熱門議題,把政治人物的臉P到對手上面,讓他看起來像是在幫反對方講話」。有一位受訪者則提到:「用專家的臉去帶風向,模仿本人動作,帶出重點。」

受訪者們 由左到右依序為受訪者一號 受訪者二號 受訪者三號及受訪者四號 攝於2024/12/11

受訪者們 由左到右依序為受訪者一號 受訪者二號 受訪者三號及受訪者四號 攝於2024/12/11

民眾的因應策略

面對假新聞氾濫的威脅,受訪者們也對此展現出相當成熟的對應方法。多數受訪者強調「多方查證」的重要,從檢查新聞來源可靠度、比對多家媒體報導,到觀察社群媒體的討論內容都要仔細審視。

一位受訪者表示:「不要像某些長輩把未經查證的訊息散播到各個群組。」另一位受訪者則建議:「從小培養媒體識讀,在法律上的證據判定也要有所調整,影片的權重須降低。」

從這些發現可以看出,雖然Deepfake技術給社會帶來了一定的衝擊,但民眾也開始發展出自己的分辨意識。

名譽與隱私的危機

在探討Deepfake對個人隱私的威脅時,受訪者們普遍表達出憂慮的心態。一位21歲的女學生就直接說「會被用來做假A片,破壞名譽,想洗都很難洗」。更有受訪者指出性別歧視的現象:「女性更容易受到傷害,因為她們被做成假A片的話整個人就跟社會性死亡沒兩樣了。」

多位受訪者提到財務和心理層面的傷害。「財富、身心造成危害。可能會遭到捏造出的假訊息詐騙財物,或是被不存在的事物影響生活的判斷」。還有一位則擔心:「不管對方有沒有做壞事都有可能被指控、被攻擊道德操守不好。」

當科技成為幻象

一位大學教師表示,現今的 Deepfake 技術已經能夠做到僅憑聲音輸入,就能自動生成對應的口型和表情,甚至連口音都能精準模擬。這種進展使得過去單純從影像辨識角度探討 Deepfake 的方式顯得有些過時。不過Deepfake 也並非全然有害。在醫療領域,有研究團隊正嘗試利用這項技術「重建」逝者的影像,希望能藉此撫慰親人的傷痛。一位李姓醫師正進行一項計畫,他希望透過 Deepfake 技術,讓家屬能夠再次「看見」已故的親人,甚至透過 3D 投影等技術,創造更多互動。雖然這項計畫仍處於初期階段,資源也相對有限,但它也顯示 Deepfake 在人文方面應用的潛力。

然而,Deepfake 最令人擔憂的,莫過於其在政治領域的應用。想想看如果有人製作了一段 Deepfake 影片,內容是臺灣總統宣布某項具爭議性的政策,例如涉及統一、獨立議題的談話,這將會對兩岸造成多大的衝擊?在資訊爆炸的時代,謠言和假訊息的傳播速度往往比真相更快,一旦 Deepfake 影片在網路上散播開來,即使官方立即出面澄清,也難以完全消除其負面影響。

這種威脅在資訊封閉的環境中更為嚴重。在中國等資訊受到嚴格控管的地區,民眾難以接觸到多元的資訊來源,也缺乏有效的查證管道,更容易受到 Deepfake 影片的誤導。

綜上我們可以看出,Deepfake 的威脅已經不再是紙上談兵。近年來,已有柯建銘、王義川等臺灣政治人物的Deepfake影像被用於中國的宣傳活動中,尤其在敏感的政治事件發生時,這類造假影片的出現頻率就會很明顯地增加。這顯示 Deepfake 已然成為資訊戰的新工具,對民眾的認知造成了威脅。

自保之道:謹慎是關鍵

面對這些威脅,受訪者們提出了各種自我保護策略。最基本的建議是「少在開放的社群上留下自己的照片影片,不跟人結怨」。有趣的是,一位53歲的女教師提出了較為傳統的建議:「低調行事,盡量不要招惹別人,不去KTV跟賭場。」

一位受訪者則提出了更具體的建議:「要有中心思想,或是依賴宗教性質的判斷,如祈禱,以及多與親朋好友交流,建立互信機制,認識你的人多了,當你被Deepfake做成假影片,你身邊的人就會發覺不對勁。」

未來展望:期待與憂慮並存

對於Deepfake技術的未來發展,有人看到娛樂產業的可能:「以後不只保羅沃克,各個影星都可以用Deepfake出演所有電影,我也可以變成Taylor Swift的臉在唱歌。」也有人提出教育領域的應用:「可能會取代補習班,雖然目前技術仍有缺陷,但可用Deepfake結合文字生成技術取代補教業。」

科技的運用不僅限於娛樂,更延伸到公共服務領域。一些城市已經開始測試AI虛擬公務員,提供24小時多語言服務。在災害應變方面,AI合成技術可以快速製作多語言的緊急通知,確保不同語言背景的民眾都能及時獲得重要資訊。這些創新應用顯示,Deepfake技術確實可以為社會帶來正面改變。

然而,也有受訪者非常擔心。一位受訪者說:「聲音、表情、動作、甚至思想都有可能被竊取,真假越來越難判斷」,另一位則直接表示:「不要發展比較好,不然使用3C都會提心吊膽。」

矛盾的心態

面對這項技術,大多數受訪者展現出矛盾的態度。最精準捕捉到這種心態的是:「期待又怕受傷害,期待有更多娛樂性質的發展,但也擔心會被拿來詐騙」。不過也有受訪者表示:「工具本身沒有好壞之分,功能取決於使用者,Deepfake本身是強大的力量,需要有韁繩來去規範它,才會讓deepfake走向正確的用途。」

有趣的是,當我們深入討論,受訪者們也分享了Deepfake令人期待的一面。一位暨南大學生提到:「我選修了一堂通識課,通識課老師教我們使用各種AI工具,但最酷的是,有一次老師請假,但用AI製作了自己的虛擬替身,我原本以為只是錄好的影片,結果沒想要從動作、表情、聲音都是AI製作的,我很期待Deepfake技術可以發展到創造一個偶像的替身跟我互動!」

這些發現代我們看到了Deepfake技術在未來的潛力,並啟示我們需要在創新與保護之間尋找平衡。

Deepfake的威脅與潛力

從我們的訪談中,可以清晰地看出Deepfake技術帶來了雙重影響。首先,我們不得不正視其所帶來的威脅,Deepfake技術已經在個人隱私與名譽方面引發了重大問題。不只可以換臉,甚至可以捏造出別人沒說過的話,搞得人心惶惶。就像之前小玉事件一樣,受害者被換臉放到A片裡,名譽全毀,這種事誰敢保證不會發生在自己身上?

不過,Deepfake也不是一無是處。它可以讓拍片更方便,幫助人們克服錄影時的緊張感,使表現更加自然流暢,還可以拿來做特效,甚至可以幫助語言學習。聽起來是不是很酷?Deepfake技術的應用遠不止於此。在醫療領域,它可以被用來生成各種罕見病症的培訓影片,幫助醫護人員更好地識別症狀。經歷COVID-19疫情的人們對於「視訊醫療」的需求大幅提升,當部分患者只是例行拿藥、前期的問診、常態性的關懷訪視時,可用 Deepfake 技術搭配預錄的診斷回覆,實現了多重問診的可能,也提升了看診時的真實接觸感。

除了醫療培訓,Deepfake技術也在心理健康領域帶來突破。美國一家心理診所運用這項技術,協助創傷後壓力症候群患者進行治療,讓他們能在安全的環境中面對並處理過往的創傷經驗。在失智症照護方面,有機構正在開發個人化的AI影片,幫助患者透過熟悉的面孔和聲音,維持認知功能和情感連結。

在教育方面,教師可以製作多語言的教學內容,讓愛因斯坦用中文講解相對論,或是讓孔子用英文分享儒家思想。電影產業也善用這項技術,不只能降低特效成本,還能讓已故的演員「重現」螢幕,為經典作品注入新生命。

但問題來了,當假影片這麼逼真,我們怎麼分辨真假?

教你幾招,一眼識破假新聞!

Deepfake影片雖然看起來很逼真,但魔鬼藏在細節裡!只要我們睜大眼睛仔細看,還是可以發現一些蛛絲馬跡。首先,影片中的人說話時,嘴巴有沒有好好地對上聲音?如果對不太上,或是看起來很僵硬,那就要小心了!還有,影片的背景會不會有點模糊?人物的邊緣會不會怪怪的?光線是不是不太自然?這些都是判斷Deepfake影片的重要線索。

除了用眼睛觀察,我們還可以借助一些工具來幫忙。像是Google圖片搜尋,可以幫我們追查圖片的原始出處,看看有沒有被動過手腳。台灣也有一些很棒的事實查核平台,像是台灣事實查核中心、MyGoPen和Cofacts等等,這些都是我們驗證資訊的好幫手。你也可以用反向圖片搜尋工具,像是Google圖片搜尋或TinEye,來追蹤圖片的來源,看看是不是被移花接木了。

此外,隨著AI技術的進步,現在已經有更先進的工具可以幫助我們辨識假影片,讓我們能夠以AI防治AI。像是Sensity這個系統不只能即時分析影片是否造假,還會仔細檢查人臉細節和光影是否自然。如果你想更深入檢查影片的真實性,Deepware Scanner可以分析影片的壓縮和編碼特徵,甚至給出準確度評分。

現在還有一些創新的方法,比如說透過區塊鏈技術來追蹤影片的來源。就像每個商品都有產地標籤一樣,內容真實性計畫CAI (Content Authenticity Initiative)系統會記錄下影片從創建到發布的完整歷程。Adobe和微軟也都推出了自己的驗證工具,可以檢查影片是否經過人工智慧編輯。

這些工具雖然聽起來很專業,但其實很多都有免費版本或是線上服務,一般民眾也能輕鬆使用。重點是這些新工具提供了比傳統方法更準確的偵測結果,可以幫助我們在這個資訊爆炸的時代分辨真假。

另外,我們平常在接收資訊的時候也要多留心。不要看到什麼就信什麼,要仔細檢查資訊的來源是否可靠,內容會不會有偏頗,有沒有其他來源可以佐證。想想看,這則資訊是誰發布的?目的是什麼?是來自官方機構、知名媒體,還是隨便一個路人甲?在社群媒體上看到的消息,也要看看大家的反應,不要輕易轉傳未經證實的資訊,免得變成假訊息的幫兇。

Deepfake的進步與防範策略

當然,Deepfake技術也在不斷進步,以後要分辨真假影片可能會更難。所以,我們要隨時關注這個議題的發展,並且採取一些行動來保護自己。像是提升自己的媒體識讀能力,學會更聰明地接收和判斷資訊。政府、媒體、教育機構和社群平台也應該一起合作,建立更完善的機制來應對Deepfake的挑戰。

創新應用開創新未來

隨著技術日益成熟,Deepfake在商業領域展現出革新力量。零售業用它製作虛擬試衣間,讓顧客線上試穿更方便;電商平台利用AI配音,讓商品介紹一次完成多國語言版本。在文化保存方面,故宮博物院正嘗試讓古畫中的人物「動起來」,讓年輕人能用更生動的方式了解傳統文化。這些創新應用讓我們看到,只要善用科技,就能為社會帶來正面改變。

總之,Deepfake就像一把雙面刃,用得好可以帶來便利,用不好就會造成傷害。只要我們多加留意,學會分辨真假,就能在享受科技便利的同時,也能保護自己不受其害!

avatar-img
0會員
1內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
本篇參與的主題活動
手肘髁發炎(Epicondylitis),俗稱網球肘 (Tennis Elbow) 評估、身體檢查、處理邏輯保母級指南,看完別還跟我說你不會。
又到了準備過年的熱門出國時段,必不可少的一定需要網路呀~ 來分享一下我曾經使用過的各家網卡及心得還有注意事項
農曆新年將至,本文介紹寶可夢世界中的蛇形寶可夢,包含阿柏家族、沙包蛇家族、藤蛇家族和飯匙蛇,並以其特性和技能,結合 2025 蛇年,提出新年祝福和相關討論。
手肘髁發炎(Epicondylitis),俗稱網球肘 (Tennis Elbow) 評估、身體檢查、處理邏輯保母級指南,看完別還跟我說你不會。
又到了準備過年的熱門出國時段,必不可少的一定需要網路呀~ 來分享一下我曾經使用過的各家網卡及心得還有注意事項
農曆新年將至,本文介紹寶可夢世界中的蛇形寶可夢,包含阿柏家族、沙包蛇家族、藤蛇家族和飯匙蛇,並以其特性和技能,結合 2025 蛇年,提出新年祝福和相關討論。
你可能也想看
Google News 追蹤
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
在數位時代,隱私問題變得更複雜和重要。本文討論了隱私問題的現狀、保護隱私的建議以及自我定位的考量。以數位足跡管理和隱私設定為重點,提供了技術措施、心理調適和平衡曝光與保護的建議。
Thumbnail
最近家裡安裝了電子鎖,由於我的指紋老是無法辨識成功,所以最後選擇有「人臉辨識」功能的產品。在這篇文章中,將介紹人臉辨識技術的基本原理和安全性,以及如何避免應用軟體漏洞的風險。
Thumbnail
我們從傳統和網路獲取訊息,但網路訊息的真偽性需要特別小心對待,例如抖音上的虛假視頻和假訊息,建議查證後再相信。
Thumbnail
從防窺膜身上,反而看見了資訊科技「看/被看」的追逐戰:一方面偷窺著他人,一方面又想避免被他人偷窺。
Thumbnail
推薦給所有人的一本書,假消息、假新聞可以說是現代人生活的一部分,了解假消息對我們的影響才能讓自己不落入假消息的陷阱裡。
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
在數位時代,隱私問題變得更複雜和重要。本文討論了隱私問題的現狀、保護隱私的建議以及自我定位的考量。以數位足跡管理和隱私設定為重點,提供了技術措施、心理調適和平衡曝光與保護的建議。
Thumbnail
最近家裡安裝了電子鎖,由於我的指紋老是無法辨識成功,所以最後選擇有「人臉辨識」功能的產品。在這篇文章中,將介紹人臉辨識技術的基本原理和安全性,以及如何避免應用軟體漏洞的風險。
Thumbnail
我們從傳統和網路獲取訊息,但網路訊息的真偽性需要特別小心對待,例如抖音上的虛假視頻和假訊息,建議查證後再相信。
Thumbnail
從防窺膜身上,反而看見了資訊科技「看/被看」的追逐戰:一方面偷窺著他人,一方面又想避免被他人偷窺。
Thumbnail
推薦給所有人的一本書,假消息、假新聞可以說是現代人生活的一部分,了解假消息對我們的影響才能讓自己不落入假消息的陷阱裡。