Runway,这家总部位于纽约的生成性人工智能视频初创公司,刚刚发布了其Gen-2模型的激动人心的更新,令用户们倍感兴奋。许多AI电影制作者称之为“游戏改变者”,并视其为“生成性人工智能的关键时刻”。
根据Runway在社交媒体X(前身为Twitter)上的官方账号,Gen-2更新实现了“视频结果的保真度与一致性的大幅提升”。Runway创意负责人Jamie Umpherson在X上的一篇帖子中表示:“这是重要的进展,提升了保真度和一致性,让任何人、在任何地方都能讲述他们的故事。”
Gen-2更新的工作原理
Gen-2于2023年3月发布,允许用户从文本提示创建四秒的新视频,或为上传的图像添加动作,与之前的Gen-1不同,后者要求用户上传现有的视频片段。
在8月,Runway推出了一项功能,允许用户将Gen-2生成的视频延长至18秒。9月,公司又推出了“导演模式”,使用户能够调整AI生成视频中模拟镜头移动的强度和速度。尽管不涉及实际相机,但这些移动模拟真实拍摄动作,用户可以通过网页应用或iOS应用进行缩放、平移或选择性地为场景中的不同元素添加动作。
最新的更新提升了AI生成主题和静态图像的运动流畅性、清晰度和真实感。AI艺术家@TomLikesRobots在X上表示,从静态图像创建的视频分辨率已从1792×1024提升至2816×1536。
通过上传来自Midjourney等平台的AI生成静态图像,电影制作人可以从零开始制作完整的短片AI作品。已成功通过连接18秒的片段制作出引人注目的长片,如在电影院播放的音乐视频。
“创意软件已死”
Runway的创始人兼首席执行官Cristóbal Valenzuela对这次更新表示乐观。他在X上表示:“技术是帮助我们讲述故事、创造超越想象世界的工具。”
Valenzuela大胆宣称“创意软件已死”,并在X上展开讨论。他解释说,传统软件需要手动操作每个像素,而像Gen-2这样的AI模型则实现了这一过程的自动化。用户现在可以使用自然语言和可调整的参数来引导技术,使AI能够更高效地处理媒体操作。
Valenzuela和Runway社区的许多人都受到Gen-2更新的启发,认为AI电影制作正逐渐成为一种重要的创作力量,仿佛是在重现20世纪20年代传统电影制作的崛起。有趣的是,这一更新与好莱坞主要演员正在进行的罢工对抗使用AI创建数字化表演者复制品的谈判相吻合,突显了行业动态的演变。