AI 影片生成工具數量急遽增加,且其真實度也逐漸提高,然而仍存在一大障礙:對生成內容的精確控制不足。許多頂尖的 AI 生成器允許用戶輸入文本提示或上傳靜態影像,將其轉換為視頻片段,但這些生成的視頻經常不穩定,常出現不切實際或怪異的動作。
現在推出 Luma AI 的 Dream Machine 1.6,這是一個全新的 AI 影片生成模型,提升了用戶的控制能力。此升級版本允許用戶透過在提示開頭輸入「camera」來應用 12 種不同的鏡頭運動。可用的鏡頭運動包括:
- 拉遠
- 向左平移
- 向右平移
- 向左環繞
- 向右環繞
- 向上起升
- 向下俯衝
- 向左移動
- 向右移動
- 向上移動
- 向下移動
- 推進
用戶在指定「camera」時,將自動看到包含這些選項的下拉菜單。對於不熟悉電影術語的用戶,Luma 還提供每個鏡頭運動的 3D 動畫,幫助用戶理解生成的片段會呈現何種效果。
Dream Machine 1.6 的早期用戶反饋強烈正面。許多 AI 影片創作者,如 Christopher Fryant,指出這個新模型對鏡頭運動相關的特定短語進行了微調,節省了時間並減少了猜測。Fryant 提到,「鏡頭運動的範圍和力度似乎顯著增加,使得畫面更具動感。」
類似地,AI 創作者 Alex Patrascu 表示此次更新是「頂尖的東西!」
鏡頭控制的推出恰逢 Luma Dream Machine 1.5 的發布,此版本專注於提高文本轉視頻的質量和真實度。這也使 Luma 進入與 Runway 的 Gen-2 模型的競爭,後者近期新增了多種運動功能,包括多運動畫筆。業界人士預期 Runway 將在即將推出的 Gen-3 Alpha Turbo 模型中揭曉類似功能,該模型被認為是 AI 影片創作者的質量標竿。與此同時,因其真實性感而受到關注的 OpenAI Sora 目前仍未公開發佈。
隨著 Dream Machine 1.6 中鏡頭控制的新增,AI 影片技術快速進步,為用戶提供更高的精確度和品質,媲美傳統電影製作,同時節省時間和成本。有意尋求尖端影片製作工具的企業領導者,應認真考慮將 Dream Machine 1.6 整合到其工作流程中。