Am Mittwoch kündigte Adobe die bevorstehende Beta-Version seiner Firefly AI-Tools zur Videoproduktion an, die noch in diesem Jahr veröffentlicht werden sollen. Wie viele Entwicklungen im Bereich Künstliche Intelligenz sind diese Innovationen sowohl faszinierend als auch herausfordernd, während Adobe bestrebt ist, bestimmte Aspekte des kreativen Prozesses für seine professionelle Nutzerbasis zu automatisieren. Das Unternehmen positioniert diese Tools als Verbesserungen, die "die Mühsal der Nachbearbeitung erleichtern."
Die neuen Firefly-Funktionen, darunter Text-zu-Video und Bild-zu-Video-Generatoren, unterstützen Videoeditoren, indem sie Aufgaben wie das Schließen von Lücken im Filmmaterial, das Entfernen unerwünschter Elemente, das Glätten von Schnitten und das Finden idealer B-Roll vereinfachen. Adobe behauptet, dass diese Fortschritte den Editoren ermöglichen werden, kreative Ideen - den erfreulichen Teil ihrer Arbeit - zu erkunden. Es bleibt jedoch zu fragen, ob Arbeitgeber von den Editoren aufgrund dieser Tools nicht einfach mehr Output verlangen werden.
Das Text-zu-Video-Tool von Firefly ermöglicht es Nutzern, Videos aus Texteingaben zu generieren, während sie Kontrolle über Kamerawinkel, Bewegung und Zoom haben. Es kann Lücken in der Zeitachse des Filmmaterials überbrücken und Standbilder in realistische Videos umwandeln. Adobe behauptet, dass die Video-Modelle besonders gut mit Naturszenen harmonieren und effizient Etablierungsaufnahmen oder B-Roll-Filmmaterial erzeugen, sogar mit einem knappen Budget.
Adobe präsentiert seine Möglichkeiten in einem Promo-Video mit auffälligen Beispielen. Von einer vulkanischen Landschaft über einen Hund auf einem Blumenfeld bis hin zu fantasievollen, verzauberten Wollmonstern auf einer Tanzparty: Die Qualität dieser KI-generierten Videos beeindruckt. Wenn diese Ergebnisse auf die Leistung des Tools schließen lassen, könnte die Film-, Fernseh- und Werbeproduktionsbranche bald von erheblichen Effizienzgewinnen profitieren – was jedoch Fragen zur Arbeitsplatzsicherheit für Editoren aufwirft.
In einer weiteren Demonstration beginnt die Bild-zu-Video-Funktion mit einem hochgeladenen Bild einer Galaxie und verwandelt es in ein Video, das sich auf ein menschliches Auge zubewegt. Adobes Generative Extend-Tool füllt ebenfalls Lücken im Filmmaterial; ein Beispiel zeigt zwei Personen, die über einen Stream laufen, während die KI nahtlos die fehlenden Segmente gestaltet.
Wie von Reuters berichtet wurde, sind die ersten Clips, die mit diesen Tools generiert werden, auf fünf Sekunden begrenzt. Adobe betont sein Engagement für Sicherheit und erklärt, dass das Firefly Video Model ausschließlich auf genehmigten Inhalten aus der Adobe Stock-Bibliothek trainiert wird, die 400 Millionen kuratierte Bilder, Illustrationen und Videos ohne urheberrechtliche Bedenken umfasst. Zudem versichert das Unternehmen, dass die persönlichen Arbeiten der Nutzer niemals für Trainingszwecke verwendet werden.
Adobe plant, die neuen Video-Modelle später in diesem Jahr in der Beta-Version einzuführen, und interessierte Nutzer können sich für eine Warteliste anmelden, um diese innovativen Tools auszuprobieren.