RunwayML,人工智能驱动的视频生成先锋,正式推出最新模型Gen-3 Alpha。该模型旨在通过允许用户从文本、图像或视频提示中创建超真实的视频,以提升创作过程。
几周前刚刚首次曝光的Gen-3 Alpha,现在已向所有注册用户开放。其先进的功能支持高保真、可控的视频输出,适用于广告等多种应用领域,这也是OpenAI即将发布的Sora感兴趣的领域。
需要注意的是,Gen-3 Alpha并不像前两个版本Gen-1和Gen-2那样免费。用户需订阅RunwayML的付费计划,价格从每月12美元起(按年计费)。
Gen-3 Alpha的功能期待
在去年快速推出Gen-1和Gen-2后,RunwayML转向专注于平台改进,而像Stability AI和OpenAI等竞争对手则加快了产品更新。如今,Gen-3 Alpha的推出再次将RunwayML带入公众视野。这个模型基于视频和带详细说明的图像进行训练,可帮助用户制作引人入胜的视频片段,具备梦幻的转场、精确的关键帧元素以及表现丰富的角色,传达各种动作和情感。
初步样本显示,与早期模型相比,Gen-3 Alpha在速度、保真度、一致性和运动表现上有显著提升。RunwayML与一群多样化的研究科学家、工程师和艺术家合作,虽然具体的训练数据来源尚未公开。
使用Gen-3 Alpha的创作潜力
随着Gen-3 Alpha的广泛发布,用户可以通过升级到付费计划,发挥其在各种创意项目中的潜力。最初,RunwayML将推出文本转视频模式,允许用户使用自然语言提示将概念转化为引人入胜的视频。未来的更新预计将引入图像转视频和视频转视频的功能,以及运动画笔、高级摄像机控制和导演模式等高级工具。
使用Gen-3 Alpha生成的视频最长限时为10秒,生成速度根据视频时长而异。尽管这相比许多AI视频模型已有所提升,但仍未达到OpenAI的Sora所承诺的一分钟生成长度,该功能尚未上线。
随着创意社区开始探索Gen-3 Alpha的能力,前Stability AI首席执行官Emad Mostaque已针对Sora的输出进行了测试。
这次发布仅仅是个开始。RunwayML预计将继续对Gen-3 Alpha进行开发,包括推出免费的用户版本。该公司设想这一模型为一系列模型中的第一个,基于新基础设施进行大规模的多模态训练,为创建能够模拟广泛现实场景和互动的一般世界模型铺平道路。