皇甫思逸、練洪洋
今年上半年,有媒體曝光了一起詐騙案件,受害人遭遇AI換臉詐騙,10分鐘被“好友”騙走430萬元。近年來,AI換臉、換聲視頻在網絡上流行起來,一些不法分子也開始利用其實施新型網絡詐騙。(11月8日中國新聞網)
新聞里提到的AI詐騙并非首例。AI視頻詐騙、AI合成不雅視頻勒索……各式新型詐騙手段層出不窮。當前,反詐宣傳開展得如火如荼,群眾的“免疫力”有所提高。但AI詐騙尤其值得警惕——它能夠極為真實地模仿真人的模樣和聲音。一條短信不足以令人信服,那么電話里熟悉的聲音或是直接撥來的視頻通話呢?人們總說:“照片會騙人但視頻不會。”AI視頻如此以假亂真,讓人不寒而栗。
那么,AI合成的素材從何而來?互聯網時代,不法分子能通過各種渠道獲取我們的個人信息——社交平臺的圖文、各種網站搜集的照片、App強制開啟后臺權限等。有了信息基礎,AI深度學習后,就能將目標人物的生物信息嫁接到特定的音頻、視頻中。因此,要想遠離AI詐騙陷阱,首先個人要提高防范意識、保護隱私。其次,相關法律法規應跟進到位,嚴懲AI詐騙者,用高昂代價震懾不法分子,遏制其“野蠻生長”。
自國家反詐中心成立以來,預警勸阻、防騙咨詢等手段大大降低了電信詐騙發生率。上一秒剛接到詐騙電話,下一秒反詐短信和防騙電話就齊上陣了。如今,詐騙有了新手段,簡單的肉眼識別防范不了愈發逼真的AI詐騙,治理部門該進一步思考監管執法方向,給出新解答。(廣州日報)