【ITBEAR】近期,短視頻平臺上涌現(xiàn)了大量利用AI配音技術(shù)模仿科技大佬雷軍“罵人”的視頻,將雷軍塑造成言語粗俗的形象。面對這一惡搞現(xiàn)象,雷軍本人以憤怒的表情符號作出回應(yīng)。目前,這類配音視頻已基本從平臺上消失。
值得注意的是,這些視頻中的聲音并非雷軍本人,而是AI配音的產(chǎn)物。當(dāng)前AI語音技術(shù)已高度發(fā)達(dá),能夠模仿各種情緒、口音、發(fā)音習(xí)慣乃至方言,且制作成本低廉,因此廣受歡迎。
AI配音之所以在網(wǎng)絡(luò)上迅速走紅,一方面滿足了網(wǎng)民個性化與創(chuàng)意表達(dá)的需求,另一方面也因其易于引起共鳴,從而激發(fā)了用戶的分享欲望。
然而,這一技術(shù)也可能被濫用,帶來諸多隱患。合肥警方近期通報的一起案件顯示,有人利用AI偽造音視頻,嚴(yán)重侵害了他人的合法權(quán)益。類似地,模仿雷軍的AI配音也引發(fā)了廣泛爭議,證明了AI配音引發(fā)的問題正在擴大化。
根據(jù)我國民法典的相關(guān)規(guī)定,聲音作為個人特征的一部分,受到法律的明確保護。未經(jīng)授權(quán)使用他人聲音進行配音創(chuàng)作,可能構(gòu)成名譽侵權(quán)。如果內(nèi)容具有捏造事實誹謗他人的性質(zhì),且情節(jié)嚴(yán)重,則可能達(dá)到刑事立案標(biāo)準(zhǔn)。
因此,網(wǎng)民在利用AI技術(shù)進行創(chuàng)意表達(dá)時,必須警惕其中的法律風(fēng)險。同時,提供AI技術(shù)的公司也應(yīng)承擔(dān)起相應(yīng)的責(zé)任,加強產(chǎn)品的安全管控措施,確保技術(shù)的合法合規(guī)應(yīng)用。
隨著AI技術(shù)的不斷進步,偽造音頻和視頻變得越來越逼真,這也大大提升了信息欺騙的成功率,增加了個人信息和數(shù)據(jù)的安全風(fēng)險。抵御這種風(fēng)險,需要企業(yè)、平臺、公眾、監(jiān)管者聯(lián)動的綜合治理。
AI技術(shù)的應(yīng)用邊界在哪里?這是一個亟待探討的問題。社會需要建立更加完善的倫理準(zhǔn)則和法律框架,以指導(dǎo)AI技術(shù)的合理合法使用,確保其在推動社會發(fā)展的同時,不會侵犯他人的合法權(quán)益。