IT之家 2 月 16 日消息,OpenAI 近日发布了 Sora 模型,可以根据用户输入的文本描述,生成一段视频内容。
该模型可以深度模拟真实物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。
Sora 会严格根据用户输入的提示词,可以制作长达一分钟的视频,保持较高的视觉质量。对于任何需要制作视频的艺术家、电影制片人或学生来说,这都带来了无限可能。
OpenAI 表示目前已交由 Team Red(网络安全演习中扮演敌人或竞争对手角色的群体)测试 Sora,评估潜在的危害或风险。
此外 OpenAI 还邀请了一支专业的创意人士测试,用于反馈其在专业环境中的实用性。OpenAI 计划根据这些反馈意见改进 Sora,确保它能有效满足用户的需求。演示视频非常超现实。
Sora 可以创建包含多人、特定运动类型和详细背景的复杂场景。它能生成准确反映用户提示的视频。例如,Sora 可以制作时尚女性走在霓虹闪烁的东京街头的视频、雪地里的巨型长毛象视频,甚至是太空人冒险的电影预告片。
不过,Sora 也有局限性,包括在模拟复杂场景的物理特性和理解特定因果场景方面存在挑战。OpenAI 表示,Sora 还可能会混淆空间细节,并在精确描述时间事件方面遇到困难。
IT之家附上生成的演示视频如下,更多视频可以访问原文网站:
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。