Auf der jährlichen Adobe MAX-Konferenz kündigte Adobe die öffentliche Testphase seines generativen Video-AI-Modells Firefly an, was einen bedeutenden Schritt in den Bereich Film- und Videoproduktion darstellt. Diese Initiative positioniert Adobe neben anderen großen Akteuren der generativen KI-Branche und führte zu einem Anstieg des Aktienkurses um mehr als 3 %.
Die Einführung des Firefly-Video-Modells stellt einen bemerkenswerten Fortschritt in Adobes KI-Technologie dar. Es wird mit Tools wie OpenAIs Sora sowie den kürzlich eingeführten generativen Videoangeboten von ByteDance und Meta konkurrieren. Die Strategie von Adobe fokussiert sich darauf, seine Modelle mit proprietären Daten zu trainieren, um sicherzustellen, dass die erzeugten Inhalte rechtlich für kommerzielle Zwecke genutzt werden können. Seit seiner Einführung im März 2023 hat Firefly über 13 Milliarden Bilder produziert und wurde in verschiedene Plattformen integriert, darunter Photoshop, Express, Illustrator und Substance 3D, mit Unterstützung für über 100 Sprachen bei Texteingaben.
Derzeit befindet sich das Firefly-Video-Modell in einer ersten Testphase, die einer ausgewählten Gruppe kreativer Profis zugänglich ist, um Feedback zu sammeln und Verbesserungen vorzunehmen. Adobe plant, den Zugang schrittweise für registrierte Benutzer zu erweitern, ein konkreter Zeitrahmen wurde jedoch noch nicht bekannt gegeben.
Obwohl Adobe keine spezifischen Kunden genannt hat, wurde bestätigt, dass Gatorade von PepsiCo Firefly auf seiner Website zur Bilderzeugung nutzen wird, um Flaschen für Kunden zu personalisieren. Zudem verwendet Mattel Adobes Tools zur Gestaltung von Barbie-Verpackungen. Aus Gründen des Urheberrechts und der Sicherheit wird das Firefly-Video-Modell vorerst keine Inhalte mit Kindern oder öffentlichen Personen erstellen; alle generierten Materialien werden klar als KI-produziert gekennzeichnet.
Ely Greenfield, Chief Technology Officer für Digital Media bei Adobe, erklärte, dass die Firefly-Video-Tools dazu dienen, Videoerstellern und Editoren zu helfen. Er betonte das Ziel, generiertes Video nahtlos mit traditionellem Filmmaterial zu integrieren. Greenfield merkte an: „Wir konzentrieren uns darauf, verfeinerte Steuerungen bereitzustellen, die es dem Modell ermöglichen, Konzepte zu verstehen, die von Videoeditoren und Kameraleuten verwendet werden, wie z.B. Kamerawinkel und -bewegungen.“
Dieser technologische Fortschritt verdeutlicht das enorme Potenzial der generativen KI in der Film- und Videoproduktionsbranche und weist auf eine transformative Zukunft hin.