AI-видео стартап Haiper раскрывает амбициозное видение AGI с полными перцептивными возможностями после выхода из режима «скрытого» существования.

По мере того как OpenAI расширяет границы вирусности с новой платформой AI-видео Sora, конкуренты стремятся улучшить свои предложения. Недавно Pika Labs запустила функцию синхронизации губ, а теперь новый стартап в области AI-видео, Haiper, вышел из тени с привлечением $13.8 миллиона стартового финансирования от Octopus Ventures.

Haiper, основанный бывшими исследователями Google DeepMind Юшу Мяо (генеральный директор) и Цзюем Ваном, находится в Лондоне и предоставляет пользователям возможность создавать высококачественные видео из текстовых подсказок или анимировать существующие изображения. Платформа использует свою собственную модель визуального фундамента и конкурирует с устоявшимися инструментами, такими как Runway и Pika Labs, хотя начальные испытания показывают, что она все еще отстает от Sora.

Haiper планирует использовать свои инвестиции для улучшения инфраструктуры и возможностей продукта, прокладывая путь к созданию искусственного общего интеллекта (AGI), который сможет по-настоящему понимать и отражать человеческое восприятие.

Что предлагает Haiper?

Как и Runway и Pika Labs, Haiper предоставляет удобную веб-платформу, где пользователи могут легко вводить текстовые подсказки для создания AI-видео. На данный момент платформа генерирует видео в SD и HD качестве, однако HD-контент ограничен двумя секундами, в то время как SD-видео может длиться до четырех секунд. Вариант с низким качеством позволяет управлять движением.

В наших тестах HD-видеовыходы были более последовательными, скорее всего, из-за короткой продолжительности. В противовес этому, видео низкого качества часто выглядели размытыми, с значительными искажениями формы, размера и цвета при высокой скорости движения. В отличие от Runway, у Haiper на данный момент нет опции для увеличения продолжительности видео, хотя в ближайшем будущем планируется ее введение.

Кроме того, Haiper позволяет анимировать существующие изображения и настраивать стили видео, фоны и элементы, используя текстовые подсказки.

Haiper утверждает, что его платформа и собственная модель визуального фундамента могут обслуживать различные приложения, от создания контента для социальных сетей до бизнес-использований, таких как генерация студийного контента. Однако компания не раскрыла никаких планов по коммерциализации и продолжает предоставлять свои технологии бесплатно.

Видение AGI

С недавним финансированием Haiper намерен расширить свою инфраструктуру и предложения продуктов, в конечном итоге стремясь к AGI с полными перцептивными возможностями. Это последнее инвестиционное вливание повысило общий капитал компании до $19.2 миллиона.

В ближайшие месяцы Haiper планирует уточнить свои предложения на основе отзывов пользователей, выпустив серию тщательно обученных моделей для улучшения качества видео и возможного сокращения разрыва с конкурентами.

По мере разработки моделей Haiper стремится углубить понимание физического мира, включая свет, движение, текстуру и взаимодействия объектов. Это позволит создавать гиперреалистичный контент.

«Наша конечная цель — создать AGI с полными перцептивными способностями, открывающими огромный потенциал для креативности. Наша модель визуального фундамента представляет собой значительный шаг вперед в способности AI понимать динамику реальности, что может улучшить человеческое повествование», — отметил Мяо.

С новыми перцептивными возможностями Haiper ожидает, что его технологии повлияют не только на создание контента, но и на такие области, как робототехника и транспорт. Этот инновационный подход к AI-видео делает Haiper интересной компанией для наблюдения в динамичном мире AI.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles