Runway Gen-2 verbessert die KI-Video-Bearbeitung mit dem Multi Motion Brush: Entdecken Sie neue Bewegungssteuerungen.

Die KI-Videotechnologie entwickelt sich rasant weiter, exemplifiziert durch das in New York ansässige Unternehmen Runway, ein Start-up für generative KI, das es Nutzern und Unternehmen ermöglicht, Videos in verschiedenen Stilen zu erstellen. Heute hat Runway eine aktualisierte Version seines Gen-2-Foundation-Modells mit dem neuen Multi Motion Brush-Tool veröffentlicht. Diese innovative Ergänzung erlaubt es Kreativen, mehrere Bewegungsrichtungen und -arten auf ihre KI-Videoprojekte anzuwenden.

Diese Funktion stellt einen bahnbrechenden Fortschritt im kommerziellen KI-Videobereich dar. Im Gegensatz zu Wettbewerbern, die typischerweise Bewegung auf einen einzelnen Bereich oder das gesamte Bild anwenden, ermöglicht Runways Multi Motion Brush eine unabhängige Bewegung in mehreren Bereichen.

Was ist der Multi Motion Brush?

Der Multi Motion Brush verbessert die Kontrolle über KI-generierte Videos und ermöglicht es Nutzern, Bewegung in ausgewählten Regionen festzulegen. Beispielsweise können Nutzer ein Gesicht animieren oder die Bewegungen von Wolken am Himmel anpassen. Um zu beginnen, laden die Nutzer ein Standbild hoch und verwenden einen digitalen Pinsel, um Bewegung darauf zu „malen“.

Sobald das Bild vorbereitet ist, können die Nutzer die Intensität und Richtung der Bewegung über Schieberegler in Runways Weboberfläche anpassen. Jeder bemalte Abschnitt kann unabhängige Einstellungen für horizontale und vertikale Bewegungen mit einem Bereich von -10 bis +10 haben. Anpassungen können einfach durch Klicken auf die Schaltfläche „Löschen“ zurückgesetzt werden.

Verbesserungen am Gen-2-Modell

Der Multi Motion Brush baut auf der im November 2023 eingeführten Motion Brush-Funktion auf, die zunächst nur eine Bewegungsart pro Video zuließ. Das Gen-2-Modell, das im März 2023 vorgestellt wurde, hat die Videofunktionen erheblich verbessert, indem es Text-, Video- und Bilderzeugung hinzufügte. Ursprünglich auf vier Sekunden lange Clips beschränkt, können Nutzer jetzt Videos von bis zu 18 Sekunden erstellen, dank der Updates im August.

Neue Funktionen wie der „Director Mode“ ermöglichen es den Nutzern, die Richtung und Geschwindigkeit der Kamerabewegung zu steuern und verschiedene Videostile zu wählen, von 3D-Cartoon bis hin zu kinoreif. Runway konkurriert mit Unternehmen wie Pika Labs, das kürzlich seine Pika 1.0-Videogenerierungsplattform eingeführt hat, und den Stable Video Diffusion-Modellen von Stability AI.

Darüber hinaus bietet Runway ein Text-zu-Bild-Tool, das mit Midjourney und DALL-E 3 konkurriert. Allerdings ist zu beachten, dass diese Tools trotz ihrer Fortschritte manchmal inkonsistente Ergebnisse liefern, wie das Erzeugen von verschwommenen oder unvollständigen Bildern und Videos.

Zusammenfassend lässt sich sagen, dass der Multi Motion Brush von Runway einen bedeutenden Fortschritt in der KI-Videoproduktion darstellt, indem er Kreativen verbesserte Werkzeuge für dynamischeres und ansprechenderes Videostorytelling bietet.

Most people like

Find AI tools in YBX