「AI」是2023年開年來最熱門的話題,當人們為人工智能的崛起而感到興奮之時,一場危機也隨之而來。
在過去幾個月時間里,我們見識到了「AI問答」、「AI制圖」和「AI換臉」,每一項技術的曝光,都引起不小的討論。在設想「AI」成為我們的得力助手之前,這些工具已經率先成了不法之徒的「好伙伴」。
全球最大的專業安全技術公司McAfee不久前公開了一項調查數據,在受到電話詐騙的人群中,有超過77%的受害者被「AI語音」所欺騙。這些受害者難以辨別來電中的聲音是否來自家人、朋友,于是,在陌生來電的請求下,向不法分子打去一筆又一筆錢款。
利用「AI」,人們可以輕松地克隆任何人的聲音,除了行騙之外,還可能出現在任何場合、任何地點,乃至于網友們普遍認為,「AI語音」遲早會出現在法庭上,成為偽證的主要來源。
這聽起來十分嚇人,對吧?
聲音是假的,詐騙是真的
經常在網上沖浪的朋友,近期一定在不同的社交平臺中看到利用「AI」創作的歌曲,例如:
「AI孫燕姿《發如雪》Cover From周杰倫」
「AI霉霉《反方向的鐘》Cover From周杰倫」
「AI周杰倫《普通朋友》Cover From陶喆」
這些利用「AI」創作的歌曲,成為網友們熱捧的二次創作。
(圖源:bilibili)
事實上,「AI」創作歌曲和「AI語音」詐騙案,手法是一樣的。創作者通過某些工具,將語音素材導入其中,以高性能顯卡進行訓練,不需要花費太多時間,即可輕易地獲得一段“以假亂真”的音頻內容。
用「AI」創作歌曲,還需要調整音調,使這些音頻與原曲的節奏、音高保持一致。當然,在最新版本的創作工具中,已經可以做到“一鍵處理”,效果不會太差。而「AI語音」的難點在于處理情緒,除了調整仿真音頻的節奏之外,還需要加上因不同情緒而產生的內容變化。
(圖源:Veer)
在McAfee提到的兩個真實案例中,一位母親接到詐騙團伙撥來的綁架電話,在電話那頭,她的女兒正聲嘶力竭地呼救。不僅聲音相似,就連情緒也十分到位,這正是受害者“上鉤”的重要原因。
今年3月,一款名為“Mocking Bird”的AI工具誕生,據開發者介紹,它能在電話、視頻中提取人聲,以AI算法進行模擬匹配,最后根據分析出來的內容,“拼湊”你所需要的語音內容。經網友實測,這款工具確實可以制作出「AI語音」,但要求并不算低。
制作「AI語音」,需要足量樣本,最好是清晰的人聲,因此想要在一通電話就提取到足夠的聲音素材,還是比較艱難的。不過,利用「AI語音」詐騙,或許并不需要逼真的聲音。
「AI」能詐騙,未必全靠「科技與狠活」
當每個人都能輕而易舉地「克隆」他人的聲音,這個世界不就亂套了嗎?「AI語音」,真的做到人人都能隨手創作了嗎?
為了了解「AI語音」現階段的真實情況,我采訪了一位在該領域比較資深的創作者明治老師,聽聽他對「AI語音」的看法。
小雷:明治老師,看您在「AI」領域的研究頗為深入,您如何看待「AI語音」詐騙案?
明治:目前來說,光靠一通電話、一段視頻就能提取出足夠用于語言訓練的素材,難度很大,從被報道出來的案例看,大多數被騙的用戶在當時是處于緊張的狀態中,因為不知道對方是不是真的,大腦自動匹配想象對象的聲音,這也是有可能的。
小雷:也就是說,現階段還不能單純依靠「AI」制作足以以假亂真的語音嗎?
明治:我們看到網絡上有很多AI翻唱的內容,還有很多主播整活的語音音頻,但你有沒有發現,這些二創內容都有一個共同點——“樣本足量”。就像孫燕姿這類歌手,她能不斷被作為AI創作對象,正是因為她有足夠的聲音素材。即便有了足量的聲音素材,對硬件也有很高的要求,即便是最好的消費級顯卡4090Ti,模型生成也需要耗費很多時間。
小雷:假如說,只用一段音頻作為素材去制作「AI語音」,能實現以假亂真嗎?
明治:上面也說過了,聲音樣本不夠,是很難做出所謂的「AI語音」內容的,就算強行制作,得到的成果質量也不會很高。“以假亂真”,其實有很多判定標準,例如童聲,大多數童聲聽起來都是差不多的,尤其是在電話中,不太清晰的語音加上比較普遍的聲線,混淆視聽也不足為奇。
(圖源:Veer)
從簡單的訪談中我們可以了解到一些關于「AI」內容創作者的想法,總體來說,「AI語音」除了技術加持之外,更多還是利用了人們對于未知事物的恐懼、慌張。而「AI」工具,只是讓原本的電話詐騙提升了一點可信度。
在ChatGPT初代公開之時,所有人都沒有預料到這樣一個人工智能問答平臺可以衍生出這么繁多且強大的功能。同樣地「AI語音」現階段還不算是全民化、普世化的工具,但即便是在這個階段,已經足夠讓電話詐騙成功幾率大大提升。很難想象,當「AI語音」工具簡化后,這個領域會被「玩」成什么花樣。
無論如何,「AI」確實正在對我們的安全造成威脅。
「AI」,實在太危險!
在相應的法規出臺前,「AI」在任何領域里,都稱不上是安全、可靠的工具。
不久前,一位全網擁有百萬粉絲的女網紅發布長文,痛斥「AI換臉」正在對她的名譽、精神造成傷害。文中,這名網紅揭露,有不法分子通過這項技術,將其她的臉換在成人視頻里,讓她“成為”影片中的女主角。
(圖源:Veer)
不僅是「AI換臉」,利用「AI」工具,用戶可以隨時輸入相應的關鍵詞,生成任何他們想要的內容,「18禁圖片」、「名人」或是任何「沒有發生的事情」,精制的圖片難辨真偽,影響了用戶們的判斷力。
從前,“有圖有真相”,是我們判斷事情真偽的主要證據,再后來,配合動態視頻、真人語音,衍生出“視頻不能P”的判定標準。在「AI」蓬勃發展的今天,圖片可以自制、真人可以被移花接木,甚至是語音,也能被「AI」克隆。盡管「AI語音」并不能完全被認定位電話詐騙成功的主因,但它提供的幫助,是被安全機構所認定為「具有風險」的。
目前,我國已經出臺《網絡音視頻信息服務管理規定》,對于“非真實音視頻信息”,應當予以標識,禁止利用大數據深度學習制作、發布虛擬新聞。而這僅僅只是一個開始,想要給「AI」戴上鐐銬,任重道遠。
McAfee出具的報告中提到,光是2022年這一年時間里,涉及「AI語音」詐騙的金額就達到了26億美元,約合人民幣180億元。
面對「AI語音」詐騙,我們該如何防范呢?
(圖源:Veer)
如前面提到的,「AI語音」的生成需要大量克隆對象的聲音樣本,減少在未知風險的社交平臺中發送帶有自己真實聲音的視頻、音頻內容,其實是最保險的方案。另外,「AI語音」詐騙成功率高達77%,與人們的恐懼心理離不開關系,在沒法確認對方的真實身份前,盡量不要接受對方的要求,尤其是轉賬。
無論如何,現階段的「AI語音」并沒有如同網上流傳的那樣神乎其神,我們普通網民也沒必要過于著急自己的聲音被克隆,在遇到有可能是詐騙的情況,先保持冷靜,整理情緒,理清思路,才能更好地應對。