11 月 20 日消息,Meta 昨日宣布為 Facebook 和 Instagram 推出兩款基于 AI 的圖像編輯工具,分別是“Emu Edit”和“Emu Video”,適用領域包括照片和視頻,目前 Meta 公布了這兩項 AI 工具的更多信息,IT之家整理如下。
官方介紹稱,Emu Edit 模型僅用文字指令就可以準確編輯圖像,而通過分解文字轉視頻(Text-to-Video,T2V)的生成過程,開發團隊公布了一種名為 Emu Video 的方法,可以改善最終生成視頻的品質和多樣性。
據悉,Emu Edit 號稱是一種創新的影像編輯方法,目的是要簡化各種影音操作任務,為視頻編輯提供更多功能與更高的精確度。
Emu Edit 可以接受用戶指令,進行各種形式的編輯,包括區域和全局編輯、移除和添加背景,也能夠調整顏色并進行矢量圖轉換,或進行圖像構成元素的檢測和分割。
Meta 表示,Emu Edit 把視覺任務作為指令,納入到所生成模型中,進而在視頻生成和編輯中,提供更好的控制能力。研究人員指出,當前的圖像編輯模型,通常會過度修改圖像,或是修改不足,而 Emu Edit 的優勢在于能夠準確按照指令進行編輯。
Meta 使用了 1000 萬個合成數據集訓練 Emu Edit,號稱是目前同類中規模最大的數據集,從而帶來了更好的圖像編輯能力,其中每個樣本都包含圖像輸入、任務描述,以及目標輸出圖像。可使模型忠實地執行指令,產生“比當前所有競品都要好的結果”。
而 Emu Video 是一種簡單且高效的文字轉視頻生成方法,該方法運用擴散模型,并以 Emu Edit 為基礎。開發團隊解釋,這種通過生成視頻的架構能夠應對外界各種輸入方式,包括文字、圖像、圖文組合等,此外 Emu Video 也能接受文字類提示詞,將用戶提供的圖像“動畫化”,從而提供了“超越過去模型的能力”。
Emu Video 將影片生成過程拆分為兩個步驟,首先是根據文字提示生成圖像,然后基于文字和生成圖像產生視頻。這種拆分步驟的影片生成方法,讓研究人員可以有效地訓練生成模型。
研究人員進一步解釋,Emu Video 與過去 Make-A-Video 等需要一系列深度生成模型的研究不同,Emu Video 更簡單,僅使用 2 個擴散模型,就能生成 512x512 分辨率、每秒 16FPS、長 4 秒鐘的視頻。
IT之家發現,Meta 援引評估數據,證明 Emu Video 生成的視頻品質以及“遵循提示詞的忠實程度”相對業內競品更好。
在品質方面,有 96%受訪者偏好 Emu Video 而非此前的 Make-A-Video 方案,而對于“提示詞的忠實度”方面,Emu Video 獲得了 85%受訪者的青睞。