Alors qu'OpenAI repousse les limites de la viralité avec sa prochaine plateforme vidéo IA, Sora, les concurrents s'efforcent d'améliorer leurs offres. Récemment, Pika Labs a lancé une fonctionnalité de synchronisation labiale, et maintenant une nouvelle startup en vidéo IA, Haiper, a émergé de l'ombre avec 13,8 millions de dollars de financement initial de la part d'Octopus Ventures.
Fondée par d'anciens chercheurs de Google DeepMind, Yishu Miao (PDG) et Ziyu Wang, Haiper, basée à Londres, permet aux utilisateurs de créer des vidéos de haute qualité à partir de textes ou d'animer des images existantes. La plateforme intègre son propre modèle de base visuel et rivalise avec des outils établis tels que Runway et Pika Labs, bien que les tests initiaux montrent qu'elle reste encore derrière Sora d'OpenAI.
Haiper prévoit d'utiliser son financement pour renforcer son infrastructure et ses capacités produit, ouvrant la voie au développement d'une intelligence générale artificielle (AGI) capable de comprendre et de refléter une compréhension humaine authentique.
Que propose Haiper ?
À l'instar de Runway et Pika Labs, Haiper offre une plateforme web intuitive où les utilisateurs peuvent facilement saisir des textes pour créer des vidéos IA. Actuellement, la plateforme génère des vidéos en qualité SD et HD, mais le contenu HD est limité à deux secondes, tandis que les vidéos SD peuvent atteindre jusqu'à quatre secondes. L'option de qualité inférieure permet un contrôle de mouvement.
Dans nos tests, les sorties vidéo HD étaient plus cohérentes, probablement en raison de leur durée plus courte. En revanche, les vidéos de moindre qualité apparaissaient souvent floues, avec une distorsion significative des formes, tailles et couleurs à des niveaux de mouvement élevés. Contrairement à Runway, Haiper ne propose pas encore d'option pour prolonger la durée des vidéos, bien qu'elle prévoie d'introduire cette fonctionnalité prochainement.
De plus, Haiper permet aux utilisateurs d'animer des images existantes et d'ajuster les styles, arrière-plans et éléments vidéo à l'aide de textes.
Haiper affirme que sa plateforme et son modèle de base visuel propriétaire peuvent répondre à diverses applications, de la création de contenu pour les réseaux sociaux à des usages professionnels comme la génération de contenu en studio. Cependant, l'entreprise n'a pas dévoilé de plans de commercialisation et continue d'offrir sa technologie gratuitement.
Vision pour l'AGI
Avec le financement récent, Haiper prévoit d'élargir son infrastructure et ses offres de produits, travaillant finalement vers une AGI dotée de capacités perceptuelles complètes. Cet investissement porte le capital total de la société à 19,2 millions de dollars.
Au cours des mois à venir, Haiper prévoit d'affiner ses offres en fonction des retours des utilisateurs, en lançant une série de modèles élaborés pour améliorer la qualité vidéo et potentiellement réduire l'écart avec ses concurrents.
Alors qu'Haiper développe ses modèles, son objectif est d'améliorer la compréhension du monde physique, englobant la lumière, le mouvement, la texture et les interactions entre objets. Cela permettrait la création de contenus hyper-réalistes.
« Notre objectif ultime est de construire une AGI avec des capacités perceptuelles complètes, débloquant ainsi un vaste potentiel créatif. Notre modèle de base visuel représente une avancée significative dans la capacité de l'IA à comprendre la dynamique de la réalité, ce qui peut enrichir la narration humaine », a déclaré Miao.
Avec des capacités perceptuelles de nouvelle génération, Haiper prévoit que sa technologie influencera non seulement la création de contenu, mais aussi des domaines comme la robotique et le transport. Cette approche innovante de la vidéo IA positionne Haiper comme une entreprise à surveiller dans le paysage dynamique de l'IA.