日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

編輯:杜偉、佳琪

3D 生成是 AI 視覺領(lǐng)域的研究熱點之一。本文中,來自 Adobe 研究院和斯坦福大學等機構(gòu)的研究者利用基于 transformer 的 3D 大型重建模型來對多視圖擴散進行去噪,并提出了一種新穎的 3D 生成方法 DMV3D,實現(xiàn)了新的 SOTA 結(jié)果。

2D 擴散模型極大地簡化了圖像內(nèi)容的創(chuàng)作流程,2D 設(shè)計行業(yè)也因此發(fā)生了變革。近來,擴散模型已擴展到 3D 創(chuàng)作領(lǐng)域,減少了應(yīng)用程序(如 VR、AR、機器人技術(shù)和游戲等)中的人工成本。有許多研究已經(jīng)對使用預訓練的 2D 擴散模型,生成具有評分蒸餾采樣(SDS)損失的 NeRFs 方法進行了探索。然而,基于 SDS 的方法通常需要花費數(shù)小時來優(yōu)化資源,并且經(jīng)常引發(fā)圖形中的幾何問題,比如多面 Janus 問題。

另一方面,研究者對無需花費大量時間優(yōu)化每個資源,也能夠?qū)崿F(xiàn)多樣化生成的 3D 擴散模型也進行了多種嘗試。這些方法通常需要獲取包含真實數(shù)據(jù)的 3D 模型 / 點云用于訓練。然而,對于真實圖像來說,這種訓練數(shù)據(jù)難以獲得。由于目前的 3D 擴散方法通常基于兩階段訓練,這導致在不分類、高度多樣化的 3D 數(shù)據(jù)集上存在一個模糊且難以去噪的潛在空間,使得高質(zhì)量渲染成為亟待解決的挑戰(zhàn)。

為了解決這個問題,已經(jīng)有研究者提出了單階段模型,但這些模型大多數(shù)只針對特定的簡單類別,泛化性較差。

因此,本文研究者的目標是實現(xiàn)快速、逼真和通用的 3D 生成。為此,他們提出了 DMV3D。DMV3D 是一種全新的單階段的全類別擴散模型,能直接根據(jù)模型文字或單張圖片的輸入,生成 3D NeRF。在單個 A100 GPU 上,僅需 30 秒,DMV3D 就能生成各種高保真 3D 圖像。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

具體來講,DMV3D 是一個 2D 多視圖圖像擴散模型,它將 3D NeRF 重建和渲染集成到其降噪器中,以端到端的方式進行訓練,而無需直接 3D 監(jiān)督。這避免了單獨訓練用于潛在空間擴散的 3D NeRF 編碼器(如兩階段模型)和繁瑣的對每個對象進行優(yōu)化的方法(如 SDS)中會出現(xiàn)的問題。

本質(zhì)上,本文的方法是對 2D 多視圖擴散的框架進行 3D 重建。這種方法受到了 RenderDiffusion 的啟發(fā),它是一種通過單視圖擴散實現(xiàn) 3D 生成的方法。然而,RenderDiffusion 的局限性在于,訓練數(shù)據(jù)需要特定類別的先驗知識,數(shù)據(jù)中的對象也需要特定的角度或姿勢,因此泛化性很差,無法對任意類型的對象進行 3D 生成。

相比之下,研究者認為一組稀疏的包含一個對象的四個多視角的投影,足以描述一個沒有被遮擋的 3D 物體。這種訓練數(shù)據(jù)的輸入源于人類的空間想象能力。他們可以根據(jù)幾個對象的周圍的平面視圖,想象出一個完整的 3D 物體。這種想象通常是非常確定和具像化的。

然而,利用這種輸入本質(zhì)上仍需解決稀疏視圖下 3D 重建的任務(wù)。這是一個長期存在的問題,即使在輸入沒有噪聲的情況下,也是一個非常具有挑戰(zhàn)性的問題。

本文的方法能夠基于單個圖像 / 文本實現(xiàn) 3D 生成。對于圖像輸入,他們固定一個稀疏視圖作為無噪聲輸入,并對其他視圖進行類似于 2D 圖像修復的降噪。為了實現(xiàn)基于文本的 3D 生成,研究者使用了在 2D 擴散模型中通常會用到的、基于注意力的文本條件和不受類型限制的分類器。

他們只采用了圖像空間監(jiān)督,在 Objaverse 合成的圖像和 MVIm.NET 真實捕獲的圖像組成的大型數(shù)據(jù)集上進行了訓練。從結(jié)果來看,DMV3D 在單圖像 3D 重建方面取得了 SOTA,超越了先前基于 SDS 的方法和 3D 擴散模型。DMV3D 生成的基于文本的 3D 模型,也優(yōu)于此前的方法。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

  • 論文地址:https://arxiv.org/pdf/2311.09217.pdf
  • 官網(wǎng)地址:https://justimyhxu.Github.io/projects/dmv3d/

我們來看一下生成的 3D 圖像效果。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

方法概覽

單階段 3D 擴散模型是如何訓練并推理的呢?

研究者首先引入了一種新的擴散框架,該框架使用基于重建的降噪器來對有噪聲的多視圖圖像去噪以進行 3D 生成;其次他們提出了一種新的、以擴散時間步為條件的、基于 LRM 的多視圖降噪器,從而通過 3D NeRF 重建和渲染來漸進地對多視圖圖像進行去噪;最后進一步對模型進行擴散,支持文本和圖像調(diào)節(jié),實現(xiàn)可控生成。

多視圖擴散和去噪

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

基于重建的多視圖降噪器

研究者基于 LRM 構(gòu)建了多視圖降噪器,并使用大型 transformer 模型從有噪聲的稀疏視圖姿態(tài)圖像中重建了一個干凈的三平面 NeRF,然后將重建后的三平面 NeRF 的渲染用作去噪輸出。

重建和渲染。如下圖 3 所示,研究者使用一個 Vision Transformer(DINO)來將輸入圖像

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

轉(zhuǎn)化為 2D token,然后使用 transformer 將學得的三平面位置嵌入映射到最后的三平面,以表示資產(chǎn)的 3D 形狀和外觀。接下來將預測到的三平面用來通過一個 MLP 來解碼體積密度和顏色,以進行可微體積渲染。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

時間調(diào)節(jié)。與基于 CNN 的 DDPM(去噪擴散概率模型)相比,本文基于 transformer 的模型需要不同的時間調(diào)節(jié)設(shè)計。

相機調(diào)節(jié)。在具有高度多樣化的相機內(nèi)參和外參的數(shù)據(jù)集(如 MVImgNet)上訓練本文的模型時,研究者表示需要對輸入相機調(diào)節(jié)進行有效的設(shè)計,以促使模型理解相機并實現(xiàn) 3D 推理。

在單個圖像或文本上調(diào)節(jié)

以上方法使研究者提出的模型可以充當一個無條件生成模型。他們介紹了如何利用條件降噪器

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

來對條件概率分布進行建模,其中 y 表示文本或圖像,以實現(xiàn)可控 3D 生成。

圖像調(diào)節(jié)。研究者提出了一種簡單但有效的圖像調(diào)節(jié)策略,其中不需要改變模型的架構(gòu)。

文本調(diào)節(jié)。為了將文本調(diào)節(jié)添加到自己的模型中,研究者采用了類似于 Stable Diffusion 的策略。他們使用 CLIP 文本編碼器生成文本嵌入,并使用交叉注意力將它們注入到降噪器中。

訓練和推理

訓練。在訓練階段,研究者在范圍 [1, T] 內(nèi)均勻地采樣時間步 t,并根據(jù)余弦調(diào)度來添加噪聲。他們使用隨機相機姿態(tài)對輸入圖像進行采樣,還隨機采樣額外的新視點來監(jiān)督渲染以獲得更好的質(zhì)量。

研究者使用條件信號 y 來最小化以下訓練目標。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

推理。在推理階段,研究者選擇了以圓圈均勻圍繞對象的視點,以確保很好地覆蓋生成的 3D 資產(chǎn)。他們將四個視圖的相機市場角固定為 50 度。

實驗結(jié)果

在實驗環(huán)節(jié),研究者使用了 AdamW 優(yōu)化器來訓練自己的模型,其中初始學習率為 4e^-4。他們針對該學習率使用了 3K 步的預熱和余弦衰減,使用 256 × 256 輸入圖像來訓練降噪器,對 128 × 128 的裁剪圖像進行渲染以進行監(jiān)督。

關(guān)于數(shù)據(jù)集,研究者的模型只需多視圖姿態(tài)圖像來訓練,因而使用來自 Objaverse 數(shù)據(jù)集的約 730k 個對象的渲染后多視圖圖像。對于每個對象,他們按照 LRM 的設(shè)置,在對固定 50 度 FOV 的隨機視點均勻照明下,渲染了 32 張圖像。

首先是單圖像重建。研究者將自己的圖像 - 調(diào)節(jié)模型與 Point-E、Shap-E、Zero-1-to-3 和 Magic123 等以往方法在單圖像重建任務(wù)上進行了比較。他們使用到的指標有 PSNR、LPIPS、CLIP 相似性得分和 FID,以評估所有方法的新視圖渲染質(zhì)量。

下表 1 分別展示了 GSO 和 ABO 測試集上的定量結(jié)果。研究者的模型優(yōu)于所有基線方法,并在兩個數(shù)據(jù)集上實現(xiàn)所有指標的新 SOTA。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

圖 4 為定性結(jié)果,相比基線,本文模型生成的結(jié)果具有更高質(zhì)量的幾何和更清晰的外觀細節(jié)。

相比之下,DMV3D 是一個以 2D 圖像為訓練目標的單階段模型,無需對每個資產(chǎn)單獨優(yōu)化,在消除多視圖擴散噪聲的同時,直接生成 3D NeRF 的模型。總的來說,DMV3D 可以快速生成 3D 圖像,并獲得最優(yōu)的單圖像 3D 重建結(jié)果。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

從文本到 3D。研究者還評估了 DMV3D 基于文本的 3D 生成結(jié)果。研究者將 DMV3D 和同樣能夠支持全類別的快速推理的 Shap-E 和 Point-E 進行了比較。研究者讓三個模型根據(jù) Shap-E 的 50 個文本提示進行生成,并使用了兩個不同的 ViT 模型的 CLIP 精度和平均精度來評估生成結(jié)果,如表 2 所示。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

從表中可以看出,DMV3D 表現(xiàn)出了最佳的精度。圖 5 中是定性結(jié)果,相比于其他模型的生成結(jié)果,DMV3D 生成的圖形明顯包含更豐富的幾何和外觀細節(jié),結(jié)果也更逼真。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

其他結(jié)果

在視角方面,研究者在表 3 和圖 8 中顯示了用不同數(shù)量(1、2、4、6)的輸入視圖訓練的模型的定量和定性比較。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

在多實例生成方面,與其他擴散模型類似,本文提出的模型可以根據(jù)隨機輸入生成多種示例,如圖 1 所示,展示了該模型生成結(jié)果的泛化性。

單個A100生成3D圖像只需30秒,Adobe讓文本、圖像都動起來的新方法

在應(yīng)用方面,DMV3D 具備廣泛的靈活性和通用性,在 3D 生成應(yīng)用領(lǐng)域具備較強的發(fā)展?jié)摿ΑH鐖D 1 和圖 2 所示,本文方法能夠在圖像編輯應(yīng)用程序中通過分割(如 SAM)等方法將 2D 照片中的任意對象提升到 3D 的維度。

更多技術(shù)細節(jié)和實驗結(jié)果請查閱原論文。

分享到:
標簽:Adobe
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數(shù)有氧達人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定