Auf der IBC 2025 in Amsterdam steht KI im Mittelpunkt und verändert kreative Arbeitsabläufe in der gesamten Content-Produktionskette. Branchenführer bestätigen, dass KI-Tools über die experimentelle Phase hinausgewachsen sind und nun integraler Bestandteil der Produktion sind. Sie automatisieren zeitaufwendige Aufgaben und erweitern das kreative Potenzial. Diese Systeme unterstützen Kreative vom ersten Konzept bis zur endgültigen Auslieferung.

KI verändert die Content-Produktion von Anfang bis Ende. Automatisierung des Scriptings, Anreicherung der Live-Produktion mit Echtzeit-Tagging und Beschleunigung der Postproduktion mit sofortigen Highlights, Schnitten und Lokalisierung“, sagte Ross Tanner, Senior Vice President für EMEA bei Magnifi. „Für Sport und Medien verwandelt sie Tage Arbeit in Minuten und ermöglicht personalisierte, plattformbereite Inhalte im großen Maßstab, während Kreative mehr Zeit für das Storytelling haben.“

Die Entwicklung geht über die bloße Automatisierung hinaus; es ist eine kreative Partnerschaft. KI-Systeme bieten Echtzeit-Unterstützung während Live-Übertragungen und verwalten technische Aspekte, ohne den kreativen Fluss zu unterbrechen. Diese Systeme übernehmen die automatische Kamerasteuerung, die Optimierung des Audiopegels und die Echtzeit-Grafikgenerierung. „KI ist nicht nur ein Werkzeug zur Automatisierung von Aufgaben, sondern zunehmend ein kreativer Partner für Live-Produktionsteams“, sagte Roberto Musso, Technischer Leiter bei NDI. „Der Einsatz von KI in Workflows hat es Teams ermöglicht, den Content-Produktionsprozess zu vereinfachen, indem sie Tools einsetzen, die Funktionen wie automatische Kamerasteuerung, Optimierung des Audiopegels und Generierung von Grafiken in Echtzeit bieten.“

Agentische Workflows stellen einen bedeutenden Fortschritt dar. KI-Systeme führen komplexe, mehrstufige Aufgaben mit minimaler menschlicher Intervention aus und halten gleichzeitig redaktionelle Standards ein. Diese Systeme personalisieren Inhalte für verschiedene Zielgruppen, wenden Echtzeit-Metadaten an und formatieren Inhalte gleichzeitig für mehrere Plattformen. „KI, insbesondere in Form von agentenhaften Workflows, beschleunigt jetzt jede Phase der Content-Pipeline – von der automatisierten Story-Entdeckung und Skriptgenerierung bis hin zum Multi-Plattform-Clipping und der Postproduktion“, sagte Jonas Michaelis, CEO von Qibb. „Diese Systeme können Inhalte schnell auf verschiedene Zielgruppen zuschneiden, Echtzeit-Metadaten anwenden und sie für eine Reihe von Kanälen formatieren – Aufgaben, die normalerweise große, spezialisierte Teams erfordern.“

Die menschliche Aufsicht bleibt jedoch entscheidend, um redaktionelle Standards und die kreative Absicht aufrechtzuerhalten, insbesondere bei Nachrichten und Compliance-sensitiven Inhalten. Dieser „Human-in-the-loop“-Ansatz sichert die redaktionelle Qualität und Compliance. „Auch wenn KI einen größeren Teil der Arbeit übernimmt, bleibt ein ‚Mensch im Loop‘ unerlässlich, um die redaktionelle Qualität, Compliance und kreative Absicht zu gewährleisten und gleichzeitig die Sendezeit zu verkürzen“, sagte Michaelis.

Die Auswirkungen von KI sind besonders in den Nachrichten bemerkenswert und adressieren den Bedarf an Geschwindigkeit und Genauigkeit. Automatisierte Systeme übernehmen Transkription, Übersetzung und Metadatenanreicherung, so dass sich Journalisten auf Berichterstattung und Analyse konzentrieren können. Dies adressiert die wachsende Nachfrage nach Multi-Plattform-Content-Delivery. „KI geht über Experimente hinaus und wird in Kernproduktionsprozesse integriert, wobei die größten Auswirkungen in der Beschleunigung von Zeitplänen und der Reduzierung der Stunden für manuell intensive Aufgaben zu sehen sind“, sagte Craig Wilson, Product Evangelist bei Avid. „In den Nachrichten umfasst dies die Automatisierung von Transkription, Übersetzung und Metadatenanreicherung, um eine schnellere Story-Erstellung und Multi-Plattform-Auslieferung zu unterstützen.“

In der Postproduktion konzentrieren sich KI-Anwendungen auf Content-Discovery und beschleunigte Bearbeitung. Systeme identifizieren spezifische Clips und eliminieren die manuelle Überprüfung. Dies erstreckt sich auf die Leistungsverbesserung und Lokalisierung. „KI ermöglicht schnellere Postproduktions-Workflows, indem Aufgaben wie Video-Indexierung und Content-Discovery automatisiert werden“, sagte Frederic Petitpont, CTO und Mitbegründer von Moments Lab. „KI und KI-Agenten reduzieren die Zeit, die Editoren beispielsweise mit dem Durchsuchen von Filmmaterial verbringen, um genaue Clips zu finden, erheblich. Das Ergebnis ist eine deutliche Steigerung der Videoausgabe durch kreative Teams.“

Eine effektive KI-Implementierung hängt von einer robusten technischen Infrastruktur und Daten-Workflows ab. Eine erfolgreiche Implementierung erfordert zentralisierte Content-Repositories. „Es gibt derzeit viel heiße Luft, wenn es um KI geht. Vorsicht ist geboten“, sagte Derek Barrilleaux, CEO von Projective. „Wenn Content in der gesamten Organisation verstreut ist, ist es nahezu unmöglich, einen echten, nutzbaren Wert aus KI zu ziehen. Aber wenn alles zentralisiert und kohärent ist, können KI-Tools jetzt wirklich einen Mehrwert bieten.“

Die technische Architektur beeinflusst die Leistung und Wirtschaftlichkeit von KI. Die Konsolidierung von Videokompression und KI-Verarbeitung mit GPUs führt zu erheblichen Effizienzsteigerungen. „Viele Medienunternehmen verwenden eine langsame, komplexe und kostspielige CPU-basierte Verarbeitung, bei der eine Pipeline die Kompression und eine andere die KI-Verarbeitung übernimmt“, sagte Sharon Carmel, CEO von Beamr. „Durch die ausschließliche Verwendung von GPUs können Videokompression und KI-Verbesserungen in derselben Echtzeit-Pipeline zusammen ausgeführt werden, mit schnellerer, effizienterer und kostengünstigerer Video- und Datenverarbeitung.“

Die Datenqualität ist von größter Bedeutung. Unternehmen müssen in eine umfassende Content-Katalogisierung und -Indexierung investieren, um den Wert von KI-Tools zu maximieren. „KI-Agenten sind nur so gut wie die Qualität der Daten, mit denen sie gefüttert werden, und groß angelegte Video-Indexierungsprojekte sind unerlässlich, um den vollen Wert von KI-Workflows zu erschließen“, sagte Petitpont. Streaming-basierte Ansätze eliminieren Engpässe bei der Datenvorbereitung.

KI ist der Haken, der sich wiederholende Aufgaben automatisiert und gleichzeitig Erkenntnisse aus einer einzigen Quelle der Wahrheit liefert“, sagte Peter Thompson, CEO und Mitbegründer von Lucidlink. „Stream-don’t-sync-Workflows beseitigen Engpässe bei der Datenvorbereitung in Gen-AI-Pipelines, sodass Teams weniger Zeit mit der Datenaufbereitung und mehr Zeit mit der Bereitstellung von Erkenntnissen und Wirkung verbringen können.“

KI-Anwendungen identifizieren technische Probleme, die früher eine menschliche Inspektion erforderten, darunter Probleme mit der Audio-Video-Synchronisation und grafische Störungen. Die natürlichsprachliche Workflow-Erstellung demokratisierte Medienoperationen. „Auch die Qualitätskontrolle entwickelt sich weiter; anstatt sich nur auf regelbasierte Prüfungen zu verlassen, kann KI jetzt Probleme wie Lippen-Synchronisationsfehler oder grafische Störungen erkennen, die traditionell eine menschliche Überprüfung erforderten“, sagte Charlie Dunn, Executive Vice President of Products bei Telestream. „Die vielleicht tiefgreifendste Veränderung ist der Aufstieg der natürlichsprachigen Workflow-Erstellung, die technische Barrieren senkt und Medienoperationen demokratisieren.“

Die KI-Funktionen in der Audioverarbeitung gehen über die einfache Lautstärkeregelung hinaus und umfassen ein anspruchsvolles Sprach- und Sprachmanagement. Machine-Learning-Systeme verarbeiten komplexe mehrsprachige Inhalte, identifizieren Sprecher, Sprachen und Inkonsistenzen. „KI-Funktionen sind zunehmend in der Lage, Sprache und Sprachklarheit im großen Maßstab zu verwalten und gehen weit über die einfache Lautstärkeregelung hinaus“, sagte Costa Nikols, Executive-Team-Strategieberater für Medien und Unterhaltung bei Telos Alliance. „Machine Learning kann Sprecher identifizieren, Sprachen erkennen, Inkonsistenzen kennzeichnen, Mixe für die Verständlichkeit auf verschiedenen Geräten anpassen und Obszönitäten in mehreren Sprachen und Dialekten erkennen.“

Moderne KI-Systeme analysieren mehrere Content-Elemente gleichzeitig für umfassende Metadaten und anspruchsvolle Content-Manipulation durch multimodale Analyse. Dies ermöglicht die automatische Generierung von Highlights, die Erstellung von Trailern und Wiederholungssequenzen. „Die Technologie untersucht visuelle, audiovisuelle und narrative Elemente Bild für Bild, um den vollständigen Kontext jeder Szene zu erfassen und automatisch detaillierte Metadaten zu generieren“, sagte Adam Massaro, Senior Product Marketing Manager bei Bitmovin, und bemerkte, dass dies dazu beitragen kann, hyperpersonalisierte Seherlebnisse und effektivere Anzeigenplatzierungen zu liefern.

Mit der Annäherung der IBC 2025 bewertet die Broadcast-Industrie KI-Anwendungen sorgfältig und konzentriert sich auf praktische Tools, die sich nahtlos in bestehende Workflows integrieren und gleichzeitig redaktionelle Standards einhalten.