RunwayがGen-3 Alpha AIビデオモデルを発表:利用前に知っておくべきこと

RunwayML、AI駆動の動画生成の先駆者が最新のモデル「Gen-3 Alpha」を正式に発表しました。このモデルは、テキスト、画像、または動画プロンプトからハイパーリアルな動画を作成することで、クリエイティブプロセスをさらに向上させることを約束しています。

数週間前に初めて発表されたGen-3 Alphaは、現在RunwayMLプラットフォームの全登録ユーザーが利用可能です。高度な機能により、様々な用途に適した高忠実度で制御可能な動画出力が実現します。特に広告分野では、OpenAIの新たなプロジェクト「Sora」も注目を集めています。

ただし、Gen-3 Alphaは前のモデルであるGen-1やGen-2とは異なり、無料では利用できません。ユーザーは、年間請求の場合、月額12ドルからの有料プランに加入する必要があります。

Gen-3 Alphaの期待

昨年、Gen-1とGen-2の迅速な展開があった後、RunwayMLはプラットフォームの改善に注力しました。その中で、Stability AIやOpenAIが競争を強化する中、先月RunwayMLはGen-3 Alphaを発表し再び注目を浴びました。このモデルは、詳細なキャプション付きの動画や画像でトレーニングされており、魅力的なビデオクリップを創造するための機能を提供します。幻想的なトランジション、正確なキーフレーム指定、さまざまなアクションや感情を表現するキャラクターが含まれています。

初期のサンプルでは、従来のモデルに比べてスピード、忠実度、一貫性、動きにおいて著しい進歩が示されています。RunwayMLは多様な研究科学者、エンジニア、アーティストと協力していますが、具体的なトレーニングデータのソースは公開されていません。

Gen-3 Alphaが広く利用可能になった今、ユーザーは有料プランにアップグレードすることで、多くのクリエイティブプロジェクトに活用できます。最初にRunwayMLはテキストから動画を生成するモードを提供しており、ユーザーは自然言語プロンプトを使用してアイデアを魅力的な動画に変換できます。今後のアップデートでは、画像から動画、動画から動画に変換する機能が追加され、Motion Brush、Advanced Camera Controls、Director Modeなどの高度なツールも導入される予定です。

Gen-3 Alphaで生成される動画は最大10秒の長さに制限されており、生成速度は動画の長さによって異なります。これは多くのAI動画モデルに対して改善されていますが、まだOpenAIのSoraが約束した1分の生成長には及びません。

クリエイティブコミュニティがGen-3 Alphaの機能を探索し始める中、元Stability AIのCEOであるEmad Mostaqueは、既にSoraの出力と比較しています。

この発表は始まりに過ぎません。RunwayMLはGen-3 Alphaのさらなる開発を視野に入れており、ユーザー向けに無料版のリリースも予定しています。同社はこのモデルを新たなインフラに基づいて構築されたSiriーズの最初のモデルと考えており、大規模なマルチモーダルトレーニングに向けた道を開くことで、さまざまな現実のシナリオや相互作用をシミュレーションできる一般的な世界モデルの創造を目指しています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles