Runway Gen-2のマルチモーションブラシでAI動画編集を革新: 新しいモーションコントロールを解放しよう

AI動画技術は急速に進化していますが、その代表的な存在がニューヨークに拠点を置くスタートアップ、Runwayです。この企業は、ユーザーやビジネスが様々なスタイルの動画を生成できる生成AIを提供しています。今日、Runwayは新しいMulti Motion Brushツールを搭載したGen-2基盤モデルの最新バージョンを発表しました。この革新的なツールは、クリエイターがAI動画プロジェクトに複数の方向やタイプの動きを適用できるようにします。

Multi Motion Brushとは?

Multi Motion Brushは、AI生成動画に対するコントロールを高度に強化し、ユーザーが特定の領域で動きを指定できるようにします。例えば、ユーザーは顔をアニメーション化したり、空の雲の動きを調整したりすることができます。スタートするには、静止画像をアップロードし、デジタルブラシを使って「動きをペイント」します。

画像の準備が整ったら、Runwayのウェブインターフェースでスライダーコントロールを使って動きの強さや方向をカスタマイズできます。それぞれのペイントされたセクションは、横の動きと縦の動きについて独立した設定が可能で、-10から+10の範囲で調整できます。調整をリセットするには、簡単に「クリア」ボタンをクリックできます。

Gen-2モデルの強化

Multi Motion Brushは、2023年11月に発表されたMotion Brush機能を基にしており、当初は動画ごとに1つの動きのタイプしか設定できませんでした。2023年3月に発表されたGen-2モデルは、テキスト、動画、画像生成を追加し、大幅に機能向上しました。動画の長さも、8月のアップデートにより最大18秒まで作成可能になりました。

新機能「ディレクターモード」により、ユーザーはカメラ移動の方向や速度を制御し、3Dカートゥーンからシネマティックまで様々な動画スタイルのオプションを選べます。Runwayは、最近Pika 1.0動画生成プラットフォームを発表したPika Labsや、Stability AIのStable Video Diffusionモデルとの競争に直面しています。

さらに、RunwayはMidjourneyやDALL-E 3に対抗するテキストから画像生成ツールも提供しています。これらのツールは進化していますが、出力が時折ぼやけたり不完全だったりすることがあります。

結論

総じて、RunwayのMulti Motion BrushはAI動画制作において重要な前進を示しており、クリエイターにとってよりダイナミックで魅力的な動画ストーリーテリングのための強力なツールを提供しています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles