Adobe macht Media Intelligence zu einem Kernbestandteil seiner Video-Workflow-Strategie und sieht sie als Grundlage für zukünftige Entwicklungen. Anstatt lediglich Funktionen hinzuzufügen, baut Adobe auf bestehenden Technologien auf. Dieser Ansatz zielt darauf ab, bestehende Workflow-Probleme für Broadcast-Profis und Content-Creator zu lösen, die mit riesigen Mengen an Filmmaterial umgehen.
„Media Intelligence ist eine weitere Grundlage. Nachdem wir den Schlüssel gefunden haben, um diese Tür zu öffnen, gibt es einen Flur mit weiteren Türen, was die Funktionalität angeht, die daraus entstehen kann“, sagte Meagan Keane, Principal Product Marketing Manager für Adobe Pro Video, auf der NAB Show 2025. „Wenn wir im großen Bild denken, sind alle neuen Funktionen, über die wir auf der diesjährigen Messe gesprochen haben, eigentlich Weiterentwicklungen von Grundlagen, die wir vor Jahren geschaffen haben“, fügte Keane hinzu. „Wenn Sie beispielsweise an die Sprach-zu-Text-Funktion denken, als wir die Sprach-zu-Text-Funktion vor einigen Jahren auf den Markt brachten, sagten wir, dies ist eine Grundlage, um weitere Funktionen freizuschalten. Dann sahen Sie die textbasierte Bearbeitung und jetzt sehen Sie die Untertitelübersetzung.“
Keane erklärte, dass die Suche nur der Anfang für Media Intelligence ist; die Organisation und Nutzung visueller Inhalte, Transkripte und Metadaten sind allesamt potenzielle nächste Schritte. „Wenn Sie bearbeiten und eine Geschichte erzählen möchten, möchten Sie nicht unbedingt hineingehen und sich mit Dingen wie ‚Okay, wo war das?‘ oder ‚Wie finde ich es?‘ oder ‚Ich weiß, dass ich diesen ganzen Ordner mit Dingen habe, aber wie navigiere ich darin?‘ befassen“, bemerkte sie. Dies ist besonders nützlich für Organisationen mit großen Archiven. Das „Saturday Night Live“-Team beispielsweise nutzte Media Intelligence, um „Tausende von Stunden Filmmaterial“ für sein 50-jähriges Jubiläum zu verarbeiten.
Adobe gleicht die Entwicklung in verschiedenen Bereichen aus. „Wir arbeiten sehr hart daran, ein Gleichgewicht zwischen Kernfunktionalität, Kern-Workflows, Farbe, Ton, Grafiken, all den Dingen der handwerklichen Bearbeitung und dem, was wir als Lebensqualität bezeichnen, zu finden“, sagte Keane. „Diese kleinen Dinge, die Redakteure einfach nur nerven, sie behindern einen, sie sind ein Kopfschmerz, sowie Stabilität und Leistung.“ KI-Tools wie Generative Extend helfen, diese Workflow-Probleme zu lösen. „Das ist ein Kopfschmerz für Redakteure, wo man denkt, ich brauche nicht einmal so viel mehr, aber es dauert so lange, es ohne diese Funktion zu lösen, und jetzt, wo wir sie haben, ermöglicht sie es den Leuten wirklich, mit ihrem kreativen Fluss fortzufahren, anstatt daraus herausgerissen zu werden“, erklärte sie.
Adobe nutzt Beta-Tests, um Feedback zu erhalten. „In den letzten Jahren haben wir diese Praxis etabliert, Funktionen in die Beta-Phase zu bringen und dann wirklich zuzuhören, was die Community zu sagen hat, welches Feedback wir hören, wo die Leute sagen, das ist nicht genau so, wie ich finde, dass es funktionieren sollte“, sagte Keane. Dies beeinflusst die Entwicklung erheblich. „Alle Funktionen, über die wir heute auf der Messe sprechen, haben wir in die Beta-Phase gebracht, aber es sind nicht die gleichen Funktionen, die wir in die Beta-Phase gebracht haben, weil wir uns mit dem Input der Community und dem Feedback in dieser Zeit weiterentwickeln konnten“, stellte sie klar.
Die Tools von Adobe unterstützen sowohl traditionelle als auch kurze Social-Videos, wobei letztere eine gemeinsame Workflow-Herausforderung darstellen. „Wenn man sich die Kern-Workflows ansieht, sind sie nicht so unterschiedlich“, sagte Keane. „Ein Anwendungsfall, den wir in jeder Disziplin sehen, sind kurze Social-Media-Inhalte. Jedes Unternehmen, egal ob Sie Sport für den Broadcast produzieren, haben Sie auch eine Social-Media-Präsenz, oder Sie produzieren Episoden für das Fernsehen, haben Sie auch eine Social-Media-Präsenz.“ Dies führte zu Verbesserungen bei Generative Extend während der Beta-Tests. „Eines der wichtigsten Dinge, die mit Generative Extend passiert sind, zwischen dem Zeitpunkt, als wir es in die Beta-Phase brachten und seiner Einführung hier, war, dass es 4K sein musste und wir vertikale Videos unterstützen mussten, weil jeder Social Media nutzt“, bemerkte Keane.
Keane erwähnte auch Firefly-Dienste für Broadcast-Kunden. „Auf dem Adobe Summit letzten Monat haben wir Firefly-Dienste für Video angekündigt. Also Dinge wie Neu-Framing, automatisches Neu-Framing, Dinge wie die Übersetzung von Untertiteln, die Sprache verbessern, die Sie in eine ganze Masse von Medien aus einer Unternehmensumgebung einfügen und diese Dienste in einem API-Status ausführen können“, sagte sie. Diese Dienste automatisieren Aufgaben und helfen, Inhalte „an alle verschiedenen Regionen, an alle verschiedenen Plattformen, an alle verschiedenen Formatierungen“ zu liefern.
Kundenfeedback ist entscheidend. „Das Wichtigste ist, was wir von unserer Community und unseren Kunden hören, was sie brauchen. Und das treibt uns an, wenn wir über das große Ganze sprechen. Wie wir unsere Strategien gestalten, wie wir in die Zukunft schauen, geschieht wirklich im Einklang mit unserer Community“, schloss Keane. Dieser Ansatz erstreckt sich auch auf die Arbeit von Adobe mit dem Firefly-Team. „Unsere Aufgabe auf der Pro-Video-Seite ist es, welche Funktionalität am sinnvollsten ist, um sie tatsächlich in das Tool zu integrieren? Denn nicht alles wird unbedingt für unsere Benutzer relevant sein“, fügte sie hinzu.