Runway lance son modèle vidéo Alpha AI Gen-3 : Ce qu'il faut savoir avant de l'utiliser

RunwayML, pionnier de la génération vidéo par intelligence artificielle, a lancé officiellement son dernier modèle, Gen-3 Alpha. Ce modèle promet d'enrichir le processus créatif en permettant aux utilisateurs de créer des vidéos hyper-réalistes à partir de textes, d'images ou de vidéos.

Révélé il y a quelques semaines, Gen-3 Alpha est désormais accessible à tous les utilisateurs enregistrés sur la plateforme RunwayML. Ses capacités avancées permettent de produire des vidéos de haute fidélité et contrôlables, adaptées à diverses applications, y compris la publicité, un secteur où Sora d'OpenAI suscite également de l'intérêt.

Contrairement à Gen-1 et Gen-2, Gen-3 Alpha n'est pas gratuit. Les utilisateurs devront souscrire à l'un des plans payants de RunwayML, avec des tarifs débutant à 12 $ par mois pour chaque éditeur, facturé annuellement.

Qu'attendre de Gen-3 Alpha ?

Après le déploiement rapide de Gen-1 et Gen-2 l'année dernière, RunwayML a pris du recul pour se concentrer sur l'amélioration de sa plateforme, tandis que des concurrents comme Stability AI et OpenAI augmentaient leur offre. Le mois dernier a marqué le retour de RunwayML sur le devant de la scène avec Gen-3 Alpha, un modèle entraîné sur des vidéos et des images accompagnées de légendes détaillées. Ce modèle facilite la création de clips vidéo captivants avec des transitions imaginatives, un keyframing précis des éléments et des personnages expressifs transmettant une variété d'actions et d'émotions.

Les premiers échantillons montrent des avancées significatives en termes de vitesse, de fidélité, de cohérence et de mouvement par rapport aux modèles précédents. RunwayML a collaboré avec une équipe diversifiée de chercheurs, d'ingénieurs et d'artistes, bien que les sources de données d'entraînement spécifiques restent non divulguées.

Avec Gen-3 Alpha désormais largement accessible, les utilisateurs peuvent l'utiliser pour de nombreux projets créatifs en passant à un plan payant. Dans un premier temps, RunwayML proposera un mode texte-à-vidéo, permettant aux utilisateurs de transformer leurs idées en vidéos engageantes à l'aide de requêtes en langage naturel. Des mises à jour futures devraient introduire des fonctionnalités d'image-à-vidéo et de vidéo-à-vidéo, ainsi que des outils avancés comme Motion Brush, Advanced Camera Controls et Director Mode.

Les vidéos générées avec Gen-3 Alpha seront limitées à une durée maximale de 10 secondes, avec une vitesse de génération variant en fonction de la durée de la vidéo. Bien que cela représente une amélioration par rapport à de nombreux modèles vidéo AI, cela reste en deçà de la durée d'une minute promise par Sora d'OpenAI, qui n'est pas encore lancée.

Alors que la communauté créative commence à explorer les capacités de Gen-3 Alpha, Emad Mostaque, ancien PDG de Stability AI, a déjà testé ses performances par rapport à celles de Sora.

Ce lancement n'est que le début. RunwayML prévoit de continuer à développer Gen-3 Alpha, y compris le lancement d'une version gratuite pour les utilisateurs. L'entreprise envisage ce modèle comme le premier d'une série, construit sur une nouvelle infrastructure conçue pour un entraînement multimodal à grande échelle, ouvrant la voie à la création de modèles mondiaux généralisés capables de simuler une large gamme de scénarios et d'interactions du monde réel.

Most people like

Find AI tools in YBX