RunwayML, пионер в области генерации видео с использованием ИИ, официально представила свою последнюю модель — Gen-3 Alpha. Эта модель обещает улучшить творческий процесс, позволяя пользователям создавать гиперреалистичные видео на основе текстовых, изображенческих или видео подсказок.
Несколько недель назад Gen-3 Alpha была впервые представлена, и теперь она доступна всем зарегистрированным пользователям платформы RunwayML. Ее передовые возможности обеспечивают высококачественные, контролируемые видеовыходы, подходящие для различных приложений, включая рекламу — область, где также вызывает интерес предстоящая Sora от OpenAI.
Однако Gen-3 Alpha не бесплатна, как ее предшественники Gen-1 и Gen-2. Пользователям необходимо подписаться на один из платных планов RunwayML, стоимость которых начинается от 12 долларов в месяц для каждого редактора при годовой оплате.
Что ожидать от Gen-3 Alpha?
После быстрого запуска Gen-1 и Gen-2 в прошлом году, RunwayML сделала шаг назад, чтобы сосредоточиться на улучшении платформы, пока конкуренты, такие как Stability AI и OpenAI, увеличивали свои предложения. В прошлом месяце RunwayML вернулась в центр внимания с Gen-3 Alpha — моделью, обученной на видео и изображениях с подробными подписями. Эта модель облегчает создание захватывающих видеороликов с фантазийными переходами, точной ключевой анимацией элементов и выразительными персонажами, передающими разнообразные действия и эмоции.
Первоначальные образцы демонстрируют значительные достижения в скорости, четкости, согласованности и движении по сравнению с более ранними моделями. RunwayML сотрудничала с разнообразной командой исследовательских ученых, инженеров и художников, хотя конкретные источники обучающих данных остаются нераскрытыми.
Сейчас, когда Gen-3 Alpha стала широко доступной, пользователи могут использовать ее для множества творческих проектов, перейдя на платный план. Изначально RunwayML предложит режим "текст в видео", позволяя пользователям преобразовывать свои идеи в увлекательные видео с помощью естественных языковых подсказок. Ожидаются будущие обновления, которые введут функции "изображение в видео" и "видео в видео", а также продвинутые инструменты, такие как Motion Brush, Advanced Camera Controls и Director Mode.
Сгенерированные с помощью Gen-3 Alpha видео будут иметь максимальную длину 10 секунд, при этом скорость генерации будет зависеть от продолжительности видео. Хотя это улучшение по сравнению с многими моделями видео на основе ИИ, оно не дотягивает до обещанной одной минуты генерации от Sora от OpenAI, которая еще не была запущена.
Когда творческое сообщество начинает исследовать возможности Gen-3 Alpha, Эмад Мостак, бывший CEO Stability AI, уже протестировал ее в сравнении с Sora.
Этот запуск — только начало. RunwayML ожидает дальнейших разработок для Gen-3 Alpha, включая выпуск бесплатной версии для пользователей. Компания видит эту модель как первую в серии, основанной на новой инфраструктуре, разработанной для масштабного мультимодального обучения, прокладывая путь к созданию общих мировых моделей, способных моделировать широкий спектр реальных сценариев и взаимодействий.