2月18日,清華大學人工智能研究院及其核心孵化企業北京瑞萊智慧科技有限公司,聯合清華大學新傳院智媒研究中心、國家工業信息安全發展研究中心、北京市大數據中心共同發布了《深度合成十大趨勢報告(2022)》(以下簡稱“報告”)。
深度合成內容及關注度飛速增長,研究熱度持續走高
深度合成技術,是指利用以深度學習、虛擬現實為代表的生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等信息的技術。2017年,一位名叫“Deepfakes”的用戶在美國Reddit網站上分享了篡改人臉的色情視頻,將深度合成技術帶到了大眾面前。《報告》從多個維度,用客觀方法對2017年至2021年深度合成技術與應用發展情況進行了研究分析。
《報告》顯示,近幾年,深度合成內容制作和傳播數量高速增長。2021年新發布的深度合成視頻數量,較2017年已增長10倍以上。此外,深度合成內容關注度也呈指數級增長,以視頻的“點贊/喜歡”互動數據為例進行統計,2021年新發布的深度合成視頻的點贊數已超過3億。
技術研究成果是深度合成內容廣泛傳播的底層推動力,GAN的出現在深度學習領域掀起了一場革命。此后,以GAN為代表的深度合成技術日新月異地發展,深度合成領域的新發表論文數量自2017年開始持續以每年30%速率高速增長。這些深度合成領域的論文,包含對圖像、語音、文本等不同模態的合成方面的技術研究,其中,對圖像生成的研究占比最高,為64%。音頻和文本分別占24%和12%。
論文研究之外,深度合成領域開源項目也以每年30%速率持續攀升??v觀計算機行業的發展,開源項目已經成為推動產業進步的強大力量,開源項目聚焦的方向也是產業發展的風向標。
深度合成在開源社區中持續走高的熱度,持續推動該技術的發展與在產業中的落地。在應用場景方面,《報告》顯示,深度合成的應用場景不斷豐富,如修復歷史照片、AI手語主播、虛擬偶像等應用。特別是在影視制作領域,近些年來,深度合成技術已成為受少數藝人劣跡行為拖累作品的救場工具。
此外,越來越多的企業機構開始利用深度合成技術提供面向公眾的產品和服務。不同領域的情況有所差異,《報告》顯示,圖像和視頻在深度合成應用的初期應用最為普遍,但是由于產品質量良莠不齊且容易侵犯用戶隱私,當監管規范到位后其數量逐漸減少。音頻方面,語音合成已經成為人機交互的重要一環,且被廣泛應用于智能硬件、智能客服、語音導航、有聲讀物、機器人、語音助手等場景。文本方面,深度合成在新聞報道、詩文創作、聊天問答等方面都得到越來越多的應用,并顯現出巨大的創作效率和未來潛力。
《報告》預測,伴隨著自動數據生成、全身合成、3D塑型等技術的逐漸成型,一個新的人類生存場景將以深度合成技術為基石展開。元宇宙就是基于深度合成技術打造的未來人類虛擬數字空間,它“完成了對現實空間和時間的多重復制和延伸,跳脫了傳統物理空間的局限,提供了一個虛擬人、自然人和機器人融生的逼近現實且超越現實的新世界”。
負面風險加劇且產生實質危害,專門法規落地在即
《報告》認為,在深度合成技術向社會生活的各個領域滲透之時,深度合成內容負面風險持續加劇且產生實質危害。隨著深度合成技術的開放開源、深度合成產品和服務的增多,深度合成內容制作的技術門檻越來越低,實現了技術的“平民化”。通過深度合成技術制造虛假視頻、虛假音頻進行誣陷、誹謗、詐騙、勒索等違法行為和事例已屢見不鮮。
人類的傳播活動,也因深度合成技術逐漸步入“深度后真相”時代。《報告》分析,首先,“深度偽造”深刻影響了新聞對真相的記錄,對虛假內容高難度的甄別影響了事實核查的有效性。其次,在社會重大突發事件或政治事件節點上,深度合成技術如若被惡意使用,將會借助社交媒體,使虛假信息短時間內在互聯網上產生病毒式的擴散和蔓延。第三,在日常事件的信息發布與追蹤中,深度偽造的信息還會造成輿論意見的不斷翻轉,沖擊主流媒體對輿論的引導效能,激化社會不同群體的矛盾,削弱主流意見對社會的彌合作用。亟需警惕的是,深度合成技術的惡意偽造內容通常迎合大眾獵奇心理,具有極強的意識塑造能力。
《報告》還指出,深度合成內容的鑒別正面臨技術挑戰。新型偽造方法的層出不窮,加上基于深度神經網絡的檢測算法存在結構性缺陷等,反深偽檢測技術也面臨“強對抗性”,需要持續更新與迭代優化。這類似于“貓鼠游戲”,深度合成和檢測在不斷學習攻防過程中會自我進化,規避上一代的對抗技術。目前,國內外學術界和產業界均已對鑒別檢測技術的研發進行了大量投入,瑞萊智慧等科技企業推出了檢測產品,支持對多種換臉方法進行檢測。
隨著深度合成的負面影響顯現,世界各國紛紛出臺管理法律法規,探索對深度合成的依法管理。今年1月28日,國家互聯網信息辦公室發布《互聯網信息服務深度合成管理規定(征求意見稿)》并公開征求意見,旨在促進深度合成技術依法合理、有效利用,規范發展互聯網信息服務深度合成活動。《報告》稱,這是具有系統性、針對性和可操作性的專門管理規定。
專家:深度合成治理需法律、倫理、技術三者合力
面對深度合成這把雙刃劍,如何規范深度合成技術應用、最大限度地趨利避害,多位業界專家學者從倫理和治理的角度表達了自己的看法。
中國科學院院士、清華大學人工智能研究院創始院長張鈸在《報告》中表示,人工智能的治理是一項長期任務,要兩手抓、兩不誤。既要走創新發展的道路,堅持發展更加安全、可靠、可控的人工智能;還要抓人工智能的治理,從倫理規范、法律法規、行業共識等不同層面去發力。
中國社科院哲學所科技哲學研究室主任段偉文建議,對深度合成技術引發的社會、法律和倫理問題,應展開有系統性、前瞻性的跨學科研究,對其可能出現的高風險應用場景,進行有針對性的治理與監管。
對于深度合成內容治理路徑的探索,清華大學新聞與傳播學院常務副院長陳昌鳳表示可以從技術、倫理與法制等幾個方面努力,技術方面,通過政府與社會組織參與、協同治理,倫理方面,確立和倡導相關的深度合成原則。
中科院自動化所研究員、聯合國教科文組織AI倫理特設專家組專家曾毅則倡導產研發展自律自治,他表示,在法律法規不完全成熟及體系化之前,產業界自身應強化“理論先行”意識,作為產業共同體共同防范濫用、嚴禁惡用。
對外經濟貿易大學法學院副教授許可表示,社會層面應加大宣傳普及力度,強化公民對深度合成等人工智能技術的認識,提高全社會的防范意識,推動公民作為負責任的深度合成技術的使用者,主動標識合成內容并積極踐行社會監督。
對此,北京瑞萊智慧科技有限公司首席執行官田天也表示,深度偽造的本質問題是透明度不足,因此提高公眾對深度合成技術的認知尤為重要,只有將門檻降低到所有受眾能夠在共同的框架下去認識、討論、理解這個問題的時候,深度合成技術才能健康良性發展。
《報告》也建議,各方應當與時俱進落實好新的規范要求,并在此前提下不斷追求技術突破,不斷開拓深度合成技術應用場景,創立示范標桿,形成對人工智能行業整體的帶動效應,從而促進新技術的持續健康發展。