RunwayML, uma pioneira na geração de vídeos impulsionada por IA, lançou oficialmente seu mais novo modelo, Gen-3 Alpha. Este modelo promete aprimorar o processo criativo, permitindo que os usuários criem vídeos hiper-realistas a partir de textos, imagens ou vídeos.
Revelado há algumas semanas, o Gen-3 Alpha já está disponível para todos os usuários registrados na plataforma RunwayML. Suas capacidades avançadas permitem a produção de vídeos de alta fidelidade e controláveis, adequados para diversas aplicações, incluindo publicidade—um campo que também desperta o interesse pelo próximo Sora da OpenAI.
No entanto, diferentemente de seus predecessores Gen-1 e Gen-2, o Gen-3 Alpha não é gratuito. Os usuários precisarão assinar um dos planos pagos da RunwayML, com preços a partir de R$ 12 por mês para cada editor, quando faturado anualmente.
O que esperar do Gen-3 Alpha?
Após o rápido lançamento do Gen-1 e Gen-2 no ano passado, a RunwayML optou por focar na melhoria da plataforma enquanto concorrentes como Stability AI e OpenAI ampliavam suas ofertas. No mês passado, a RunwayML retornou ao centro das atenções com o Gen-3 Alpha, um modelo treinado em vídeos e imagens com legendas detalhadas. Este modelo facilita a criação de clipes de vídeo cativantes, apresentando transições imaginativas, key-framing preciso de elementos e personagens expressivos que transmitem uma variedade de ações e emoções.
Os primeiros testes demonstram avanços significativos em velocidade, fidelidade, consistência e movimento em comparação aos modelos anteriores. A RunwayML colaborou com uma equipe diversificada de cientistas, engenheiros e artistas, embora as fontes específicas de dados de treinamento permaneçam não divulgadas.
Com o Gen-3 Alpha amplamente acessível, os usuários podem utilizá-lo para uma infinidade de projetos criativos ao atualizar para um plano pago. Inicialmente, a RunwayML oferecerá um modo de texto-para-vídeo, permitindo que os usuários transformem seus conceitos em vídeos envolventes usando prompts em linguagem natural. Atualizações futuras devem incluir funcionalidades de imagem-para-vídeo e vídeo-para-vídeo, juntamente com ferramentas avançadas como Motion Brush, Controle Avançado de Câmera e Modo Diretor.
Os vídeos gerados com o Gen-3 Alpha terão um limite máximo de 10 segundos, com a velocidade de geração variando de acordo com a duração do vídeo. Embora isso represente uma melhoria em relação a muitos modelos de vídeo por IA, ainda não atinge o tempo de geração de um minuto prometido pelo Sora da OpenAI, que ainda não foi lançado.
Enquanto a comunidade criativa começa a explorar as capacidades do Gen-3 Alpha, Emad Mostaque, ex-CEO da Stability AI, já o testou em comparação à produção do Sora.
Este lançamento é apenas o começo. A RunwayML prevê desenvolvimentos contínuos para o Gen-3 Alpha, incluindo a liberação de uma versão gratuita para os usuários. A empresa imagina este modelo como o primeiro de uma série, construído sobre uma nova infraestrutura projetada para treinamento multimodal em larga escala, abrindo caminho para a criação de modelos globais gerais capazes de simular uma ampla gama de cenários e interações do mundo real.