【ITBEAR科技資訊】2月16日消息,近日,OpenAI發布了全新的Sora模型,該模型具備根據用戶輸入的文本描述生成對應視頻內容的能力。這一技術的推出,標志著人工智能在理解和模擬真實世界場景方面取得了重大突破。
Sora模型能夠深度模擬真實物理世界,并嚴格按照用戶輸入的提示詞來制作視頻。令人印象深刻的是,它可以生成長達一分鐘的視頻,并保持較高的視覺質量。對于藝術家、電影制片人、學生以及任何需要制作視頻的人來說,Sora無疑為他們提供了無限的可能性。
據ITBEAR科技資訊了解,為了確保Sora模型的安全性和實用性,OpenAI已將其交由Team Red進行測試。Team Red是一支專門在網絡安全演習中扮演敵人或競爭對手角色的團隊,他們將評估Sora潛在的危害或風險,以確保其在正式發布前達到最佳狀態。
此外,OpenAI還邀請了一支由創意人士組成的專業團隊對Sora進行測試。這些創意人士將提供關于Sora在專業環境中實用性的反饋意見。OpenAI計劃根據這些反饋對Sora進行改進,以確保它能有效地滿足用戶的需求。
演示視頻顯示,Sora可以創建包含多人、特定運動類型和詳細背景的復雜場景。無論是時尚女性走在霓虹閃爍的東京街頭,還是雪地里的巨型長毛象,甚至是太空人冒險的電影預告片,Sora都能準確反映用戶的提示并生成相應的視頻。
然而,盡管Sora具有強大的功能,但它仍然存在一些局限性。OpenAI表示,Sora在模擬復雜場景的物理特性和理解特定因果場景方面面臨挑戰。此外,它還可能會混淆空間細節,并在精確描述時間事件方面遇到困難。盡管如此,隨著技術的不斷進步和OpenAI的持續改進,我們有理由相信Sora將在未來取得更大的突破。