科技的進步,尤其是機器學習(ML)和人工智能(AI)技術的快速發展,也給詐騙分子提供了新的詐騙武器。這些借助人工智能的新詐騙方式,有些在以前是難以想象的,所以我們要特別謹慎。
最近發生了一個真實的事件。犯罪分子使用基于機器學習和人工智能的軟件,來模仿公司首席執行官(CEO)的聲音,要求一個員工轉賬24萬美元到一個賬號。
這件事發生在英國。一家英國能源公司的高管,收到了自稱是CEO的電話。這位高管真認為他正在與CEO大老板在電話中交談,因為對方的聲音明明就是CEO的聲音。CEO要求他將資金轉給一個匈牙利供應商;而且說這一要求很緊急,指示高管在一個小時內付款。這位高管也仔細聽了電話,還特別留意了CEO的輕微德國口音和電話中聲音的節奏;但是他沒有聽出任何問題。高管就把錢轉過去了。本來這事就完了,詐騙也成功了;可是過了一天,詐騙分子貪得無厭,又來打電話,要求轉更多的錢。這下高管起了疑心,去公司仔細核實,才發現了這個驚天騙局。但是到現在也沒有破案。
使用AI人工智能進行詐騙,是全球公司和個人面臨的新挑戰。攻擊者可能會使用人工智能程序,基于某個人公開提供的錄音來做各種分析,然后就可以產生這個人的聲音。
比如有些名人和高管的聲音可能有很多公開的,像各種講話和訪談。這些人工智能程序可以通過提取一個人的聲音特征,就可以模擬產生這個人的任何談話。
這種人工智能產生語音的技術,比之前的音頻拼接法(就是音頻樣本拼接在一起以模仿人的聲音)可高級多了,因為拼接法需要大量的時間,而且不能產生新的聲音。
更加恐怖的是,同樣的技術也可以產生視頻,比如人工智能對已有視頻進行換臉。視頻里明明不是某個人做的事情,可以無縫地被改造栽贓成是這個人干的。
舉個例子,比如某天我們突然收到一個不雅視頻,里面的主人公是我們自己,聲音視頻都是我們的(雖然我們沒有做),然后用這個來要挾勒索錢財。想想看,有多恐怖!
將機器學習技術和人工智能的科技應用于欺騙語音,的確可以使網絡的犯罪更加容易。這方面的新詐騙手段會不斷產生,很多會是我們聞所未聞的。
從這個角度講,我們每個人都需要不斷跟蹤一點科技的進步,才能識破這些詐騙手段,不會上當。