2 月 16 日消息,OpenAI 近日發布了 Sora 模型,可以根據用戶輸入的文本描述,生成一段視頻內容。
該模型可以深度模擬真實物理世界,標志著人工智能在理解真實世界場景并與之互動的能力方面實現了重大飛躍。
Sora 會嚴格根據用戶輸入的提示詞,可以制作長達一分鐘的視頻,保持較高的視覺質量。對于任何需要制作視頻的藝術家、電影制片人或學生來說,這都帶來了無限可能。
OpenAI 表示目前已交由 Team Red(網絡安全演習中扮演敵人或競爭對手角色的群體)測試 Sora,評估潛在的危害或風險。
此外 OpenAI 還邀請了一支專業的創意人士測試,用于反饋其在專業環境中的實用性。OpenAI 計劃根據這些反饋意見改進 Sora,確保它能有效滿足用戶的需求。演示視頻非常超現實。
Sora 可以創建包含多人、特定運動類型和詳細背景的復雜場景。它能生成準確反映用戶提示的視頻。例如,Sora 可以制作時尚女性走在霓虹閃爍的東京街頭的視頻、雪地里的巨型長毛象視頻,甚至是太空人冒險的電影預告片。
不過,Sora 也有局限性,包括在模擬復雜場景的物理特性和理解特定因果場景方面存在挑戰。OpenAI 表示,Sora 還可能會混淆空間細節,并在精確描述時間事件方面遇到困難。