AI视频生成器的数量和真实感正在迅速增加,然而一个重要的障碍依然存在:生成内容的精确控制不足。许多顶级AI生成器允许用户输入文本提示或上传静态图像,然后将其转换为视频片段。然而,这些生成的视频往往不可预测,出现不现实或奇怪的动作。
介绍Luma AI的Dream Machine 1.6,这是一种新的AI视频生成模型,增强了用户的控制能力。此升级版本允许用户通过在提示开头输入“camera”来应用12种不同的摄像机运动。可用的摄像机运动包括:
- 拉远
- 向左平移
- 向右平移
- 左旋
- 右旋
- 向上升降
- 向下升降
- 向左移动
- 向右移动
- 向上移动
- 向下移动
- 推近
当用户指定“camera”时,系统将自动弹出这些选项的下拉菜单。对于不熟悉电影制作术语的用户,Luma提供了一个有用的3D动画,展示每种摄像机运动所生成的片段预期效果。
Dream Machine 1.6的早期用户反馈异常积极。许多AI视频创作者,如Christopher Fryant,表示新模型针对与摄像机运动相关的具体短语进行了精细调节,节省了时间并减少了猜测。Fryant表示:“摄像机运动的范围和强度似乎显著增加,生成了更具动态感的画面。”
同样,AI创作者Alex Patrascu称赞这一更新为“顶尖之作!”
摄像机控制的引入恰逢Luma Dream Machine 1.5的发布,该版本专注于改善文本转视频生成的质量与真实感。此外,这也使Luma与Runway的Gen-2模型展开竞争,后者最近新增了多种运动功能,包括多运动画笔。行业人士预期,Runway将在即将发布的Gen-3 Alpha Turbo模型中推出类似功能,该模型被视为AI视频创作者的质量基准。同时,OpenAI的Sora因其真实感而受到关注,但目前尚未对公众发布。
随着Dream Machine 1.6中的摄像机控制功能的加入,AI视频技术正在快速进步,为用户提供更高的精度和更高质量的视觉效果,这些都与传统电影制作相媲美,同时节省时间和成本。寻求尖端视频制作工具的企业领袖,应认真考虑将Dream Machine 1.6融入他们的工作流程中。