Deepfake
眼見(jiàn)不一定為實(shí)
你玩過(guò)換臉軟件嗎?你看到過(guò)奧巴馬大罵特朗普的視頻嗎?這些都是Deepfake的小打小鬧。
Deepfake這個(gè)詞是“深度學(xué)習(xí)”和“假冒”兩個(gè)詞的組合。
一般來(lái)說(shuō),Deepfake指的是由人工智能生成的、現(xiàn)實(shí)生活中不存在的人或物體,它們看上去是逼真的。
Deepfake的最常見(jiàn)形式是人類圖像的生成和操控。例如,對(duì)外國(guó)電影進(jìn)行逼真的視頻配音,在購(gòu)物時(shí)虛擬地穿上衣服,對(duì)演員進(jìn)行換臉等等。
但Deepfake技術(shù)越來(lái)越多的運(yùn)動(dòng)到視頻的深度偽造上,通過(guò)照片數(shù)據(jù)庫(kù)、多個(gè)視頻合輯、盡心設(shè)計(jì)、AI合成一段真假難辨的視頻。
如果Deepfake成功地做到了瞞天過(guò)海,將引發(fā)災(zāi)難性的后果。
真假難辨
AI撒謊、防不勝防
就像假新聞可以傳播偽造的錄音一樣,想象一下假視頻里希拉里開(kāi)玩笑說(shuō)從投資銀行拿了賄賂,或者普京承認(rèn)她的郵件是他偷的。
如果Deepfake的視頻出現(xiàn)再法庭上當(dāng)作證據(jù)?那我們還能相信我們看到的么?
隨著技術(shù)的不斷進(jìn)步,任何計(jì)算平臺(tái)都可能出現(xiàn)漏洞及安全隱患,例如電腦病毒、信用卡盜用和垃圾電子郵件等。而且,隨著AI的普及,AI本身也將暴露出各種漏洞并遭到各方的攻擊,Deepfake反映出的只是其中的一個(gè)漏洞而已。
試想,如果有人把類似的攻擊手段應(yīng)用在軍事領(lǐng)域,例如,讓AI系統(tǒng)把一輛偽裝過(guò)的坦克誤認(rèn)為是救護(hù)車,那么后果將不堪設(shè)想。
還有一種攻擊AI系統(tǒng)的方法是對(duì)數(shù)據(jù)“下毒”:攻擊者通過(guò)“污染”訓(xùn)練數(shù)據(jù)、訓(xùn)練模型或訓(xùn)練過(guò)程,來(lái)破壞AI系統(tǒng)的學(xué)習(xí)過(guò)程。這可能導(dǎo)致整個(gè)AI系統(tǒng)徹底崩潰,或者被犯罪者控制。
如果一個(gè)國(guó)家的軍用無(wú)人機(jī)被恐怖分子操控,那么這些無(wú)人機(jī)將把武器掉轉(zhuǎn)過(guò)來(lái)瞄準(zhǔn)自己的國(guó)家,這將是多么可怕的事情。
與傳統(tǒng)的黑客攻擊相比,對(duì)數(shù)據(jù)“下毒”的攻擊手段更難被人類察覺(jué)。問(wèn)題主要出在AI系統(tǒng)架構(gòu)上面——模型中的復(fù)雜運(yùn)算全部在成千上萬(wàn)層的神經(jīng)網(wǎng)絡(luò)中自主進(jìn)行,而不是按照確切代碼的指引進(jìn)行的,所以AI系統(tǒng)先天就具有不可解釋性,也不容易被“調(diào)試”。
AI病毒
AI病毒時(shí)代來(lái)臨你準(zhǔn)好了嗎?
盡管困難重重,但我們?nèi)匀豢梢圆扇∶鞔_的措施來(lái)阻止上述情況發(fā)生。例如,加強(qiáng)模型訓(xùn)練及執(zhí)行環(huán)境的安全性,創(chuàng)建自動(dòng)檢查“中毒”跡象的工具,以及開(kāi)發(fā)專門用于防止篡改數(shù)據(jù)或與其類似的規(guī)避手段的技術(shù)。
正如我們過(guò)去通過(guò)技術(shù)創(chuàng)新攻克了垃圾郵件、電腦病毒等一道道關(guān)卡一樣,我深信技術(shù)創(chuàng)新也能大大提高未來(lái)AI技術(shù)的安全性,盡量減少給人類帶來(lái)的困擾。
畢竟,解鈴還須系鈴人。技術(shù)創(chuàng)新所帶來(lái)的問(wèn)題,最終還是要依靠新的技術(shù)創(chuàng)新來(lái)進(jìn)行改善或徹底解決。