近年來,隨著人臉識別技術的廣泛應用和人工智能技術的進步,一些不法分子開始利用AI技術融合他人面孔和聲音、制造逼真的合成圖像來實施新型網絡詐騙,類似騙局手段多樣、門檻低、辨別難度大,經常讓人防不勝防,短時間內造成較大損失。從形象到聲音,如何警惕AI“深度造假”?
公司老板遭遇AI換臉詐騙
10分鐘被“好友”騙走430萬元
今年5月8日,內蒙古包頭市公安局電信網絡犯罪偵查局發布了一起使用智能AI技術進行電信詐騙的案件,4月20日,福建省福州市某科技公司法人代表郭先生的“好友”突然通過微信視頻聯系他,聲稱自己的朋友在外地投標,需要430萬元保證金,且需要公對公賬戶過賬,所以想要借用郭先生公司的賬戶走賬。
這位“好友”向郭先生要了銀行卡號,聲稱已把錢轉入郭先生的賬戶,并將銀行轉賬截圖發給郭先生。基于視頻聊天信任的前提,郭先生并未核實錢是否到賬,就陸續轉給對方共計430萬元,之后郭先生才發現被騙。對方通過智能AI換臉技術,佯裝成好友對他實施了詐騙。
民警陳歆怡曾辦理過多起倒賣、非法利用用戶人臉照片的侵公案件,她表示AI換臉換聲的基本邏輯是通過深度學習特定算法,將目標人物的人臉、表情、聲音等嫁接進模仿的視頻中,成本低、合成速率高、檢測鑒別難度大,一般人很難發現偽裝痕跡。目前,AI詐騙主要有兩種形式:
- 第一種是通過技術手段合成換臉、換聲的視頻或語音,在視頻聊天、普通電話中直接播放。這種詐騙主要出現于比較緊急的情況,如遭遇事故求助等,播放結束后就會中斷連接,無法與被害人形成回合性對話。
- 另一種是在視頻通話中直接換臉并替換聲音,或直接換聲撥打電話。
民警提示,以上兩種詐騙方式都受限于樣本數量,所以可以通過延長通話時間、多次進行提問的方式讓對方多說話,露出破綻。
如何預防此類詐騙案件的發生?
2022年,網信辦、工信部和公安部制定的《互聯網信息服務深度合成管理規定》明確,深度合成服務者應采取技術或人工方式對使用者的輸入數據和合成結果進行審核。今年8月,網信辦發布的《人臉識別技術應用安全管理規定(試行)(征求意見稿)》明確,人臉識別技術使用者應每年對圖像采集設備、個人身份識別設備的安全性和可能存在的風險進行檢測評估,采取有效措施保護圖像采集設備、個人身份識別設備免受攻擊、侵入、干擾和破壞。
北京航空航天大學法學院副教授趙精武表示,相關部門加強監管的同時,也需要公眾自身樹立起良好的防詐騙意識。“涉及到轉賬等財務信息的電話請求,采取其他方式跟好友進行確認。”
民警進一步強調,要想從源頭上預防此類詐騙案件的發生,保護好個人信息是關鍵:
- 不要隨意接聽陌生電話,防止詐騙人員以電銷推廣等借口采集發音、語句;
- 避免在個人互聯網社交賬戶上過多暴露個人照片、聲音、視頻等信息;
- 對外提供人臉照片時需謹慎對待;
- 使用小眾軟件進行身份認證、網絡貸款實名放貸時需提高警惕;
- 不要隨意點擊陌生鏈接,鏈接中的木馬程序會竊取用戶手機內的照片、監聽回傳通話內容;
- 開啟定位服務、輸入身份證號、錄入人臉識別信息、指紋識別信息等個人生物信息時,一定要慎之又慎。
此外,民警表示,各App網絡服務提供者在收集、使用個人信息時應遵循合法、正當、必要、公開的原則,不得收集與其提供的服務無關的個人信息,應當采取技術措施和其他必要措施,確保其收集的個人信息安全,不得主動向外提供,也要防止信息泄露、毀損、丟失。
如何實現安全和便捷兼備的AI驗證模式?對此,趙精武認為,二者的平衡有探討的空間。“需要結合AI技術的發展動向進行同步調整,也需要服務提供者在相關深度合成產品和服務中增加‘AI生成’的標識機制,降低第三方識別AI生成內容的難度。”
▌本文來源:中央廣電總臺中國之聲(ID:zgzs001)