Picture from : HKCert
深偽技術現形:2024香港Deepfake詐騙事件分析與防範建議
一、事件發生經過
1. 技術公開與貼近應用
2024年3月11日,HKCERT 在官方博客發表「深度偽造:有圖未必有真相」文章,揭示 深偽技術(Deepfake) 結合深度學習與影音偽造技術的應用,已廣泛出現在換臉、仿聲等場景。
2. 犯罪事件實例
2024年2月,香港首次出現 Deepfake 詐騙案。不法分子利用 YouTube 取得公司高層影音素材,偽造視訊會議畫面,冒充高層向員工下達匯款指令,造成損失達數億港元。
二、影響範圍
1. 企業及金融損失
單次詐騙即導致公司損失超過 2 億港元。詐騙過程中會議快速結束,員工難以及時查證資訊真偽。
2. 個人與聲譽風險
Deepfake 可用於製作色情誘騙、假冒名人聲音、散播錯誤訊息,甚至生成不雅影片進行勒索。即便是一般民眾也有可能成為受害者。
3. 社會信任危機
當「有片不代表真實」成為常態,將嚴重動搖公眾對影音資訊的信任,進一步影響媒體素養、法律認定與社會共識。
三、補救與防範措施
1. 會議安全驗證
- 核實會議邀請者身份與鏈接來源
- 要求對方即時進行特定動作(如點頭、揮手)以確認為真人
2. 觀察影音特徵
- 聲音與畫面不同步
- 光影不自然、膚色不協調
- 嘴型與語音不同步、眨眼頻率異常
3. 資料隱私保護
- 避免公開過多臉部與聲紋數據
- 不參與陌生視訊會議
- 避免在未驗證會議中透露敏感資料
4. 使用防偽技術工具
- 網站與媒體可加電子水印技術
- 提升機構與個人對 Deepfake 識別工具的使用能力
5. 提升媒體素養與教育
- 定期進行員工培訓
- 採用多來源資訊進行交叉比對
- 不盲目相信影音內容
沒有留言:
張貼留言