日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長(zhǎng)提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢(xún)客服
新站提交
  • 網(wǎng)站:52003
  • 待審:43
  • 小程序:12
  • 文章:1047590
  • 會(huì)員:762

【ITBEAR科技資訊】4月9日消息,近年來(lái),模型規(guī)模不斷擴(kuò)大,一種普遍的信念是“力大磚飛”。

盡管OpenAI沒(méi)有公布Sora的訓(xùn)練細(xì)節(jié),但在其技術(shù)報(bào)告中提到了:最大的模型Sora能夠生成一分鐘高保真視頻,這表明擴(kuò)大視頻生成模型是構(gòu)建通用世界模擬器的有前景途徑。

然而,谷歌最新的研究發(fā)現(xiàn):并非如此!谷歌研究院和約翰霍普金斯大學(xué)在最新論文中指出:對(duì)于潛在擴(kuò)散模型,模型不一定是越大越好。

據(jù)ITBEAR科技資訊了解,關(guān)于縮放定律的爭(zhēng)議一直存在。OpenAI在2020年發(fā)表的論文提出,模型效果與規(guī)模大小、數(shù)據(jù)集大小、計(jì)算量強(qiáng)相關(guān),而與具體結(jié)構(gòu)弱相關(guān)。

縮放定律不僅適用于語(yǔ)言模型,還適用于其他模態(tài)及跨模態(tài)場(chǎng)景。這一概念的提出使研究人員和開(kāi)發(fā)者能夠更有效地設(shè)計(jì)模型架構(gòu),選擇合適的模型大小和數(shù)據(jù)集規(guī)模,以實(shí)現(xiàn)最佳性能。

谷歌最新研究集中在圖像生成模型上,提出對(duì)于潛在擴(kuò)散模型,在計(jì)算資源有限時(shí),增加計(jì)算量應(yīng)該增加數(shù)據(jù)集大小,而不是模型參數(shù)量。

這是否意味著縮放定律失效了?作者的研究表明,在有限的計(jì)算資源下,較小的模型可以?xún)?yōu)于較大的模型;模型大小和訓(xùn)練步驟的選擇需與計(jì)算資源相匹配。

然而,在訓(xùn)練步驟恒定的情況下,大模型仍然具有優(yōu)勢(shì),尤其在處理圖像細(xì)節(jié)方面。

研究者還發(fā)現(xiàn),不同大小的模型在CFG(Classifier-Free Guidance)技術(shù)下受影響基本相同,這一發(fā)現(xiàn)令人意外。

這項(xiàng)研究探索了模型效率與品質(zhì)之間的最佳平衡,為開(kāi)發(fā)更高效的圖像生成AI系統(tǒng)提供了指導(dǎo)。這與當(dāng)前AI領(lǐng)域的趨勢(shì)相契合,即小型語(yǔ)言模型在多項(xiàng)任務(wù)中超越大型對(duì)手,旨在推動(dòng)AI技術(shù)的民主化。

分享到:
標(biāo)簽:縮放 定律 模型 沖擊 規(guī)模
用戶無(wú)頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 52003

    網(wǎng)站

  • 12

    小程序

  • 1047590

    文章

  • 762

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過(guò)答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫(kù),初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績(jī)?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績(jī)?cè)u(píng)定