Mit der zunehmenden Verbreitung von KI-generierten Inhalten verbessern Startups in diesem Sektor ihr Angebot. Kürzlich hat RunwayML ein realistischeres Modell zur Videoerstellung veröffentlicht. Jetzt präsentiert Haiper, ein in London ansässiges Unternehmen, das von den ehemaligen Google DeepMind-Forschern Yishu Miao und Ziyu Wang gegründet wurde, sein visuelles Grundmodell: Haiper 1.5.
Verfügbar auf den Web- und Mobilplattformen von Haiper, stellt Haiper 1.5 ein inkrementelles Upgrade dar, mit dem Nutzer 8-Sekunden-Clips aus Text-, Bild- und Video-Input erstellen können – die Länge der Ausgaben hat sich im Vergleich zum ursprünglichen Modell verdoppelt. Zudem hat Haiper eine Upscaling-Funktion eingeführt, die die Inhaltsqualität verbessert, und plant die Einführung von Bildgenerierungsfähigkeiten.
Nur vier Monate nach dem Verlassen des Stealth-Modus hat Haiper bereits über 1,5 Millionen Nutzer angezogen, obwohl das Unternehmen weniger finanzielle Mittel als seine Wettbewerber hat. Mit diesem neuen Modell möchte das Unternehmen seine Nutzerbasis erweitern und gegen etablierte Anbieter wie Runway antreten.
Miao, der CEO von Haiper, erklärte: „Im Rennen um generative KI im Videobereich geht es nicht nur um die Leistungsfähigkeit der Modelle, sondern auch um die Komplexität dessen, was diese Modelle rekonstruieren können. Unser verteiltes Datenmanagement und das skalierte Training ermöglichen es uns, unser Grundmodell kontinuierlich zu verbessern. Dieses Update verdeutlicht unser Engagement für die Erstellung nicht nur schöner Videos, sondern auch realistischer Bilder.“
Was Bietet Haiper AI seinen Nutzern?
Im März gestartet, steht Haiper in einer Reihe mit Runway und Pika, bietet jedoch eine benutzerfreundliche Plattform zur Videoerstellung. Nutzer geben einen Text-Input ein, und das Modell generiert entsprechende Inhalte, wobei Anpassungen bei Charakteren, Objekten, Hintergründen und künstlerischen Stilen möglich sind.
Früher produzierte Haiper Clips von 2-4 Sekunden; das neue Modell erhöht dies aufgrund von Nutzerfeedback auf 8 Sekunden. Nutzer können auch bestehende 2- und 4-Sekunden-Clips auf 8 Sekunden verlängern, ähnlich den Funktionen anderer KI-Tools wie Luma's Dream Machine.
Miao bemerkte: „Die begeisterte Resonanz auf unsere Modelle hat uns motiviert, die Videoerstellung auf acht Sekunden zu erweitern und die Grenzen dieser Technologie zu erweitern.“
Neue Funktionen und Verbesserungen
Das neueste Update erlaubt es Nutzern auch, Clips beliebiger Länge in Standard- oder HDTV-Qualität zu erstellen. Der integrierte Upscaler verbessert die Videoqualität auf 1080p mit einem einzigen Klick, sowohl für neu generierte als auch für bestehende Inhalte.
Zudem wird Haiper ein neues Bildmodell hinzufügen, das es Nutzern ermöglicht, Bilder aus Texteingaben zu erstellen und in den Videoerstellungsprozess für nahtlose Ergebnisse zu integrieren. Dies ermöglicht eine bessere Testung und Verfeinerung von Inhalten vor der Animation.
„Bei Haiper legen wir großen Wert auf Nutzerfeedback und Innovation. Der Start unseres Upscalers und der kommenden Text2Image-Tools zeigt unser Engagement für die Community,“ betonte Miao.
Auf dem Weg zur AGI
Obwohl die Updates von Haiper vielversprechend erscheinen, stehen sie noch ausgiebigen Tests durch die Community bevor. Einige Funktionen, wie die achtminütigen Videos und der Upscaler, sind derzeit nur Nutzern des Pro-Plans vorbehalten, der 24 USD pro Monat kostet, wenn jährlich abgerechnet wird. Miao kündigte an, den Zugang zu diesen Funktionen zu erweitern, einschließlich eines Punktesystems für längere Videoerstellung und eine baldige kostenlose Veröffentlichung des Bildmodells.
Erste Qualitätsfeedbacks deuten darauf hin, dass die zwei Sekunden langen Videos zuverlässig sind, während längere Videos inkonsistent sind. Mit fortlaufenden Updates plant Haiper jedoch, die Qualität seiner Ausgaben signifikant zu verbessern. Das Ziel ist es, das Verständnis der Modelle für die Welt weiter zu entwickeln und auf künstliche allgemeine Intelligenz (AGI) hinzuarbeiten, die in der Lage ist, lebensechte Inhalte zu generieren, indem sie Licht, Bewegung, Textur und Objektinteraktionen präzise darstellt.
Miao fasste zusammen: „Jeder Frame trägt komplexe visuelle Informationen. Um Inhalte zu erstellen, die die Realität wirklich widerspiegeln, muss KI die Komplexitäten der physischen Welt erfassen. Solche Fortschritte könnten nicht nur die Inhaltserstellung revolutionieren, sondern auch Bereiche wie Robotik und Transport.“
Während Haiper sich weiterentwickelt, wird es spannend sein zu beobachten, wie das Unternehmen gegen etablierte Konkurrenten wie Runway, Pika und OpenAI im schnelllebigen Bereich der KI-Videoerstellung konkurriert.