【ITBEAR】國慶期間,網絡掀起一股“雷軍熱”,不過此“雷軍”非彼雷軍,而是AI技術合成的產物。短視頻平臺上,這個“雷軍”就堵車、調休等話題發表犀利言論,甚至爆粗口,引發廣泛關注。然而,這一切與知名企業家雷軍本人并無半點關系。
AI技術的濫用,再次引發公眾對科技倫理和底線的思考。從“AI孫燕姿”翻唱歌曲到“AI郭德綱”講英文段子,AI配音在網絡世界的應用愈發普遍。然而,當技術被用于違法、悖德的邊緣試探時,我們不得不警惕其潛在的風險。
據《2024人工智能安全報告》顯示,僅今年上半年,AI詐騙案案值已高達1.85億元。這些案件不僅侵犯了公民的合法權益,更混淆了大眾認知,帶來了巨大的社會風險。
深度偽造技術的普及,使得“一鍵變聲”“一鍵變臉”成為可能。市面上大量的AI配音小程序,為用戶提供了便利的同時,也為不法分子提供了可乘之機。他們憑借一段原始語音或照片,就能編造謠言、設置陷阱,實施詐騙。
面對深度偽造技術嵌入我們的數字生活,我們該如何應對?一方面,需要推動反深偽檢測技術的持續更新迭代,以應對層出不窮的騙局;另一方面,加強技術監管、明確生成式人工智能服務的合法邊界也刻不容緩。同時,社交平臺作為傳播鏈條的重要一環,也應負起相應的治理責任。
此次“雷軍”事件雖以平臺下架相關內容告終,但規范生成式人工智能技術的發展仍任重道遠。我們期待在科技的推動下,社會能更加美好,而非成為亂象的溫床。