Avec la montée en puissance des contenus générés par l’IA, les startups du secteur enrichissent leurs offres. Récemment, RunwayML a lancé un modèle de génération vidéo plus réaliste. Aujourd'hui, Haiper, basé à Londres et fondé par d'anciens chercheurs de Google DeepMind, Yishu Miao et Ziyu Wang, présente son modèle de base visuelle : Haiper 1.5.
Accessible sur les plateformes web et mobile de Haiper, Haiper 1.5 est une mise à jour incrémentale qui permet aux utilisateurs de créer des clips de 8 secondes à partir de textes, d'images et de vidéos, doublant ainsi la durée de sortie par rapport au modèle original. De plus, Haiper a introduit une fonctionnalité d'amélioration de la qualité et prévoit d'ajouter des capacités de génération d'images.
Quatre mois seulement après sa mise en route, Haiper a déjà séduit plus de 1,5 million d'utilisateurs, malgré un financement inférieur à celui de ses concurrents. Avec ce nouveau modèle, l'entreprise aspire à élargir sa base d'utilisateurs et à rivaliser avec des acteurs établis comme Runway.
Yishu Miao, PDG de Haiper, a déclaré : « La course à l'IA vidéo générative ne concerne pas seulement la puissance des modèles, mais aussi la complexité de ce que ces modèles peuvent recréer. Notre traitement de données distribué et notre entraînement à grande échelle nous permettent d'améliorer continuellement notre modèle de base. Cette mise à jour témoigne de notre engagement à produire non seulement de belles vidéos, mais aussi des images réalistes. »
Qu'est-ce que Haiper AI offre aux utilisateurs ?
Lancé en mars, Haiper se positionne aux côtés de Runway et Pika, proposant une plateforme simplifiée pour la génération de vidéos. Les utilisateurs saisissent un texte, et le modèle génère un contenu correspondant, avec la possibilité d'ajuster les personnages, objets, arrière-plans et styles artistiques.
Auparavant, Haiper produisait des clips de 2 à 4 secondes ; le nouveau modèle permet désormais de créer des clips de 8 secondes, en réponse aux retours des utilisateurs. Il est également possible d’étendre des clips existants de 2 et 4 secondes à 8 secondes, suivant des fonctionnalités d'autres outils IA tels que la Dream Machine de Luma.
Miao a commenté : « L'enthousiasme suscité par nos modèles nous a motivés à prolonger la génération vidéo à huit secondes, repoussant les limites de cette technologie. »
Nouvelles fonctionnalités et améliorations
La dernière mise à jour permet aussi aux utilisateurs de générer des clips de n'importe quelle longueur en définition standard ou haute. L'upscaler intégré améliore la qualité vidéo à 1080p d'un simple clic, compatible avec les nouveaux contenus et les vidéos existantes.
De plus, Haiper ajoutera un nouveau modèle d'image, permettant aux utilisateurs de créer des images à partir de textes et de les intégrer dans le processus de génération vidéo pour des résultats homogènes. Cela facilitera les tests et le perfectionnement des contenus avant l'animation.
« Chez Haiper, nous mettons l'accent sur les retours des utilisateurs et l'innovation. Le lancement de notre upscaler et des futurs outils Text2Image illustre notre engagement envers la communauté, » a souligné Miao.
Vers l'AGI
Bien que les mises à jour de Haiper soient prometteuses, elles nécessitent encore des tests plus larges. Certaines fonctionnalités, comme les vidéos de huit secondes et l'upscaler, sont actuellement réservées aux utilisateurs du plan Pro, tarifé à 24 $/mois (facturation annuelle). Miao a exprimé son intention d'élargir l'accès à ces fonctionnalités, y compris un système de crédits pour la génération de vidéos plus longues et une sortie gratuite du modèle d'image prochainement.
Les premiers retours sur la qualité indiquent que si les vidéos de deux secondes sont fiables, les vidéos plus longues souffrent d'incohérences. Cependant, avec des mises à jour continues, Haiper vise à améliorer considérablement la qualité de ses productions. L'objectif est de perfectionner la compréhension des modèles du monde, avançant vers une intelligence artificielle générale (AGI) capable de générer du contenu réaliste en restituant fidèlement la lumière, le mouvement, la texture et les interactions entre objets.
Miao a conclu : « Chaque image porte une information visuelle complexe. Pour créer un contenu qui reflète véritablement la réalité, l'IA doit saisir les subtilités du monde physique. De telles avancées pourraient révolutionner non seulement la création de contenu, mais aussi des secteurs comme la robotique et le transport. »
Au fur et à mesure que Haiper évolue, il sera intéressant d'observer comment il se positionne face à des rivaux établis tels que Runway, Pika et OpenAI dans le domaine en pleine expansion de la génération vidéo IA.