日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:52010
  • 待審:67
  • 小程序:12
  • 文章:1106242
  • 會員:784

來源:IT之家 

據(jù)谷歌 DeepMind 新聞稿,DeepMind 近日公布了一項利用 AI 為無聲視頻生成背景音樂的 "video-to-audio" 技術(shù)。

IT 之家獲悉,當(dāng)前 DeepMind 這款 AI 模型依然存在局限性,需要開發(fā)者使用提示詞為模型預(yù)先 " 介紹 " 視頻可能的聲音,暫時不能直接根據(jù)視頻畫面添加具體音效。

據(jù)悉,該模型首先會將用戶輸入的視頻進(jìn)行拆解,此后結(jié)合用戶的用戶文字提示,利用擴(kuò)散模型反復(fù)運(yùn)算,最終以生成與視頻畫面協(xié)調(diào)的背景聲音,例如輸入一條 " 在黑暗中行走 " 的無聲視頻,再添加 " 電影、恐怖片、音樂、緊張、混凝土上的腳步聲 " 等文字提示,相關(guān)模型就能生成恐怖風(fēng)格的背景音效。

DeepMind 同時表示,該 "video-to-audio" 模型可以為任何視頻生成無限數(shù)量的音軌,還能夠通過提示詞內(nèi)容判斷生成的音頻 " 正向性 " 或 " 反向性 ",從而令生成的聲音更貼近某些特定場景。

展望未來,DeepMind 表示研究人員正進(jìn)一步優(yōu)化這款 "video-to-audio" 模型,計劃未來能夠讓模型直接根據(jù)視頻內(nèi)容,無須通過提示詞即可生成視頻背景音,同時還將改善視頻中人物對白的口型同步能力。

分享到:
標(biāo)簽:數(shù)碼
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 52010

    網(wǎng)站

  • 12

    小程序

  • 1106242

    文章

  • 784

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定