Runway Lanza el Modelo de Video AI Gen-3 Alpha: Lo Que Necesitas Saber Antes de Usarlo

RunwayML, pionero en la generación de videos impulsada por IA, ha lanzado oficialmente su último modelo, Gen-3 Alpha. Este modelo promete mejorar el proceso creativo al permitir a los usuarios crear videos hiperrealistas a partir de texto, imágenes o vídeos de referencia.

Presentado hace unas semanas, Gen-3 Alpha ya está disponible para todos los usuarios registrados en la plataforma RunwayML. Sus avanzadas capacidades permiten la producción de videos con alta fidelidad y control, adecuados para diversas aplicaciones, incluida la publicidad, un campo en el que el próximo Sora de OpenAI también está generando interés.

Sin embargo, Gen-3 Alpha no es gratuito como sus predecesores, Gen-1 y Gen-2. Los usuarios deberán suscribirse a uno de los planes de pago de RunwayML, con precios a partir de $12 al mes para cada editor al facturar anualmente.

¿Qué esperar de Gen-3 Alpha?

Tras el rápido lanzamiento de Gen-1 y Gen-2 el año pasado, RunwayML decidió enfocarse en mejoras de la plataforma mientras competidores como Stability AI y OpenAI expandían sus ofertas. El mes pasado marcó el regreso de RunwayML a la escena con Gen-3 Alpha, un modelo entrenado con videos e imágenes acompañados de descripciones detalladas. Este modelo facilita la creación de clips de video cautivadores con transiciones imaginativas, animaciones clave precisas y personajes expresivos que transmiten una variedad de acciones y emociones.

Las muestras iniciales muestran avances significativos en velocidad, fidelidad, consistencia y movimiento en comparación con modelos anteriores. RunwayML ha colaborado con un diverso equipo de científicos de investigación, ingenieros y artistas, aunque las fuentes de datos de entrenamiento específicas no se han revelado.

Con Gen-3 Alpha ahora ampliamente accesible, los usuarios pueden aprovecharlo para una multitud de proyectos creativos al actualizar a un plan de pago. Inicialmente, RunwayML contará con un modo de texto a video, permitiendo a los usuarios transformar sus conceptos en videos atractivos utilizando indicaciones en lenguaje natural. Se esperan futuras actualizaciones que incluirán funcionalidades de imagen a video y video a video, junto con herramientas avanzadas como Motion Brush, Controles Avanzados de Cámara y Modo Director.

Los videos generados con Gen-3 Alpha estarán limitados a una duración máxima de 10 segundos, y la velocidad de generación variará según la duración del video. Si bien esto es una mejora sobre muchos modelos de video IA, está por debajo del tiempo de generación de un minuto prometido por Sora de OpenAI, que aún no ha sido lanzado.

Mientras la comunidad creativa comienza a explorar las capacidades de Gen-3 Alpha, Emad Mostaque, ex CEO de Stability AI, ya lo ha probado en comparación con los resultados de Sora.

Este lanzamiento es solo el comienzo. RunwayML anticipa desarrollos continuos para Gen-3 Alpha, incluida la publicación de una versión gratuita para los usuarios. La compañía visualiza este modelo como el primero de una serie, construido sobre una nueva infraestructura diseñada para un entrenamiento multimodal a gran escala, abriendo el camino hacia la creación de modelos generales capaces de simular una amplia gama de escenarios y interacciones del mundo real.

Most people like

Find AI tools in YBX