📍 最新警訊|AI 換臉視訊詐騙報案激增「看到家人畫面就信?詐騙已進化!」
你以為視訊看到熟悉的臉就安全了?現在詐騙集團已經開始利用 即時 AI 換臉技術冒充家屬或朋友,以視訊借錢或詐取金錢的案件越來越多。即使你看到對方的臉和聽到聲音,依然有可能是假冒的影像與聲音。
這類手法利用深度偽造(Deepfake)技術把影像換成目標的樣子,讓視訊畫面看起來非常逼真,傳統的「看到臉就相信」防詐方式已經不再可靠。詐騙集團可能先跟你聊熟,再在關鍵時刻提出借錢要求或要求操作帳戶。教你一個簡單自保方法
如果通話那一端自稱是家人或朋友,先不要急著相信,不要匆忙匯款或透露敏感資訊。可以請對方做一個簡單的動作,例如:
在鏡頭前 揮手
側臉轉頭
這種動作目前 AI 即時換臉技術在側邊邊緣仍可能有破綻,比較容易露出線索。
在舊的防詐經驗裡,大家常被教導 用共通密碼驗證身分 或 問共同經歷的小細節 來確認對方是否真的是熟識的人,這些方法在面對 AI 換臉詐騙時依然有用。
最關鍵的一句話:
「視訊看到人就信?AI 換臉詐騙進化了,教家人用動作驗證身分才是更安全的第一步。」
別讓「看起來真的」成為你被騙的理由。
#防詐資安 #AI詐騙 #深偽技術 #視訊詐騙 #反詐騙教學



