【ITBEAR科技資訊】2月17日消息,OpenAI近日推出了其首款文本生成視頻模型——Sora。這款模型不僅繼承了DALL·E 3的優(yōu)質(zhì)畫質(zhì)和強(qiáng)大的指令遵循能力,更能根據(jù)用戶的文本描述,生成長達(dá)1分鐘的高清且流暢的視頻。
360公司董事長周鴻祎在微博上對Sora模型發(fā)表了自己的看法。他認(rèn)為,Sora模型的推出預(yù)示著通用人工智能(AGI)的實(shí)現(xiàn)時間可能會從原來的10年大幅縮短至1年。周鴻祎指出,雖然AI可能不會立即顛覆所有行業(yè),但它無疑將激發(fā)更多人的創(chuàng)造力,特別是在廣告、電影預(yù)告片和短視頻等領(lǐng)域,Sora有可能帶來巨大的變革。盡管如此,他認(rèn)為AI并不會很快取代TikTok等短視頻平臺,反而更可能成為這些平臺的創(chuàng)作工具。
據(jù)ITBEAR科技資訊了解,周鴻祎還談到了國內(nèi)大模型與GPT-4.0之間的差距。他認(rèn)為,盡管表面上看,國內(nèi)大模型已經(jīng)接近GPT-3.5的水平,但與GPT-4.0相比,實(shí)際上還存在一年半左右的差距。他猜測OpenAI可能還掌握著一些未公開的先進(jìn)技術(shù),包括GPT-5和機(jī)器自我學(xué)習(xí)自動產(chǎn)生內(nèi)容等。因此,他認(rèn)為中國在AI領(lǐng)域與美國的差距可能仍在加大。
此外,OpenAI訓(xùn)練Sora模型時需要閱讀大量視頻,利用大模型和Diffusion技術(shù)對世界進(jìn)行更深入的理解和學(xué)習(xí)。周鴻祎認(rèn)為,一旦AI能夠通過攝像頭接入并解析所有的電影、YouTube和TikTok等視頻內(nèi)容,其對世界的理解將遠(yuǎn)遠(yuǎn)超過通過文字學(xué)習(xí)所能達(dá)到的程度。因?yàn)橐曨l所傳遞的信息量遠(yuǎn)遠(yuǎn)超過了文字和圖片,這將使我們離實(shí)現(xiàn)AGI的目標(biāo)更近一步。他預(yù)測,這可能不是一二十年的問題,而是一兩年內(nèi)就可以實(shí)現(xiàn)的目標(biāo)。