Runway 发布第三代视频生成模型,90 秒生成 10 秒片段
IT之家 6 月 18 日消息,专为电影和图像内容创作者打造生成式 AI 工具的公司 Runway 发布了 Gen-3 Alpha 视频生成模型。
IT之家附 Gen-3 Alpha 官方网站:https://runwayml.com/blog/introducing-gen-3-alpha/
Runway 表示,与其之前的旗舰视频模型 Gen-2 相比,该模型在生成速度和保真度方面有了“重大”改进,并且对生成视频的结构、风格和运动提供了细粒度的控制。Gen-3 将在未来几天内向 Runway 订阅用户提供,包括企业客户和 Runway 创意合作伙伴计划中的创作者。
Runway 联合创始人 Anastasis Germanidis 表示,Gen-3 的视频生成时间明显快于 Gen-2。生成一个 5 秒的片段需要 45 秒,生成一个 10 秒的片段需要 90 秒。
Runway 表示,Gen-3 Alpha 有以下特点:
高保真视频:可生成接近真实世界质量的视频内容,具有足够的细节和清晰度。
精细动作控制:模型能够精确控制视频对象的动作和过渡,实现复杂场景的流畅动画。
逼真人物生成:可生成具有自然动作、表情和情感的逼真人类角色。
多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。
专业创作工具:支持运动画笔、相机控制和导演模式等专业创作工具。
增强安全:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。
高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。