По мере того как OpenAI расширяет границы вирусности с новой платформой AI-видео Sora, конкуренты стремятся улучшить свои предложения. Недавно Pika Labs запустила функцию синхронизации губ, а теперь новый стартап в области AI-видео, Haiper, вышел из тени с привлечением $13.8 миллиона стартового финансирования от Octopus Ventures.
Haiper, основанный бывшими исследователями Google DeepMind Юшу Мяо (генеральный директор) и Цзюем Ваном, находится в Лондоне и предоставляет пользователям возможность создавать высококачественные видео из текстовых подсказок или анимировать существующие изображения. Платформа использует свою собственную модель визуального фундамента и конкурирует с устоявшимися инструментами, такими как Runway и Pika Labs, хотя начальные испытания показывают, что она все еще отстает от Sora.
Haiper планирует использовать свои инвестиции для улучшения инфраструктуры и возможностей продукта, прокладывая путь к созданию искусственного общего интеллекта (AGI), который сможет по-настоящему понимать и отражать человеческое восприятие.
Что предлагает Haiper?
Как и Runway и Pika Labs, Haiper предоставляет удобную веб-платформу, где пользователи могут легко вводить текстовые подсказки для создания AI-видео. На данный момент платформа генерирует видео в SD и HD качестве, однако HD-контент ограничен двумя секундами, в то время как SD-видео может длиться до четырех секунд. Вариант с низким качеством позволяет управлять движением.
В наших тестах HD-видеовыходы были более последовательными, скорее всего, из-за короткой продолжительности. В противовес этому, видео низкого качества часто выглядели размытыми, с значительными искажениями формы, размера и цвета при высокой скорости движения. В отличие от Runway, у Haiper на данный момент нет опции для увеличения продолжительности видео, хотя в ближайшем будущем планируется ее введение.
Кроме того, Haiper позволяет анимировать существующие изображения и настраивать стили видео, фоны и элементы, используя текстовые подсказки.
Haiper утверждает, что его платформа и собственная модель визуального фундамента могут обслуживать различные приложения, от создания контента для социальных сетей до бизнес-использований, таких как генерация студийного контента. Однако компания не раскрыла никаких планов по коммерциализации и продолжает предоставлять свои технологии бесплатно.
Видение AGI
С недавним финансированием Haiper намерен расширить свою инфраструктуру и предложения продуктов, в конечном итоге стремясь к AGI с полными перцептивными возможностями. Это последнее инвестиционное вливание повысило общий капитал компании до $19.2 миллиона.
В ближайшие месяцы Haiper планирует уточнить свои предложения на основе отзывов пользователей, выпустив серию тщательно обученных моделей для улучшения качества видео и возможного сокращения разрыва с конкурентами.
По мере разработки моделей Haiper стремится углубить понимание физического мира, включая свет, движение, текстуру и взаимодействия объектов. Это позволит создавать гиперреалистичный контент.
«Наша конечная цель — создать AGI с полными перцептивными способностями, открывающими огромный потенциал для креативности. Наша модель визуального фундамента представляет собой значительный шаг вперед в способности AI понимать динамику реальности, что может улучшить человеческое повествование», — отметил Мяо.
С новыми перцептивными возможностями Haiper ожидает, что его технологии повлияют не только на создание контента, но и на такие области, как робототехника и транспорт. Этот инновационный подход к AI-видео делает Haiper интересной компанией для наблюдения в динамичном мире AI.