Adobe fait de l’intelligence média un élément central de sa stratégie pour les workflows vidéo, la considérant comme la base des développements futurs. Au lieu de simplement ajouter des fonctionnalités, Adobe s’appuie sur les technologies existantes. Cette approche vise à résoudre les problèmes de workflow récurrents des professionnels de la diffusion et des créateurs de contenu confrontés à des quantités massives de séquences.
« L’intelligence média est une autre fondation. Maintenant que nous avons trouvé la clé pour ouvrir cette porte, il y a un couloir avec d’autres portes en termes de fonctionnalités qui peuvent en découler », a déclaré Meagan Keane, directrice principale du marketing produit pour Adobe Pro Video, lors du NAB Show 2025. « Si l’on considère la situation dans son ensemble, toutes les nouvelles fonctionnalités dont nous avons parlé lors du salon cette année sont en fait des évolutions de fondations que nous avons construites il y a des années », a ajouté Keane. « Si vous pensez à la fonction de reconnaissance vocale par exemple, lorsque nous avons lancé la reconnaissance vocale il y a quelques années, nous avons dit que c’était une fondation pour débloquer plus de capacités. Ensuite, vous avez vu le montage basé sur du texte et maintenant vous voyez la traduction des légendes. »
Keane a expliqué que la recherche n’est que le début de l’intelligence média ; l’organisation et l’utilisation du contenu visuel, des transcriptions et des métadonnées sont autant d’étapes potentielles suivantes. « Lorsque vous montez et que vous voulez raconter une histoire, vous ne voulez pas forcément vous lancer dans : ‘OK, où était-ce ?’, ou ‘Comment puis-je le trouver ?’, ou ‘Je sais que j’ai toute cette corbeille de choses, mais comment puis-je la parcourir ?’, a-t-elle fait remarquer. Ceci est particulièrement utile pour les organisations disposant de vastes archives. L’équipe de « Saturday Night Live », par exemple, a utilisé l’intelligence média pour traiter « des milliers d’heures de séquences » pour son 50e anniversaire.
Adobe équilibre le développement dans divers domaines. « Nous travaillons très dur pour trouver un équilibre entre les fonctionnalités de base, les workflows de base, la couleur, le son, les graphiques, toutes les choses relatives au montage artisanal, ainsi que ce que nous appelons la qualité de vie », a déclaré Keane. « Ces petites choses qui, pour les monteurs, sont simplement agaçantes, vous gênent, sont un casse-tête, ainsi que la stabilité et les performances. » Les outils d’IA comme Generative Extend aident à résoudre ces problèmes de workflow. « C’est un casse-tête pour les monteurs, où vous vous dites : ‘Je n’ai pas besoin de beaucoup plus, mais cela prend tellement de temps à résoudre sans cette fonctionnalité, et maintenant que nous l’avons, cela permet vraiment aux gens de poursuivre leur flux créatif au lieu d’être interrompus’ », a-t-elle expliqué.
Adobe utilise les tests bêta pour obtenir des retours. « Au cours des dernières années, nous avons mis en place cette pratique consistant à intégrer des fonctionnalités dans une version bêta et à vraiment écouter ce que la communauté a à dire, vous savez, les retours que nous recevons, où les gens disent : ‘ce n’est pas exactement comme ça que je pense que ça devrait fonctionner’ », a déclaré Keane. Cela a un impact significatif sur le développement. « Toutes les fonctionnalités dont nous parlons aujourd’hui lors du salon, nous les avons lancées en version bêta, mais ce ne sont pas les mêmes fonctionnalités que celles que nous avons lancées en version bêta, car nous avons pu évoluer grâce aux contributions de la communauté et aux retours pendant ces périodes », a-t-elle précisé.
Les outils d’Adobe prennent en charge les vidéos sociales traditionnelles et courtes, cette dernière présentant un défi courant pour les workflows. « Lorsque vous examinez les workflows de base, ils ne sont pas si différents », a déclaré Keane. « Un cas d’utilisation que nous observons dans toutes les disciplines est le contenu social court. Chaque entreprise, que vous produisiez des sports pour la diffusion, que vous ayez également une entité sociale, ou que vous produisiez des épisodes pour la télévision, vous avez également une entité sociale. » Cela a conduit à des améliorations de Generative Extend lors des tests bêta. « L’une des principales choses qui se sont produites avec Generative Extend entre le moment où nous l’avons mis en version bêta et son lancement ici, c’est qu’il devait être en 4K et que nous devions prendre en charge la vidéo verticale, car tout le monde fait du social », a noté Keane.
Keane a également mentionné les services Firefly pour les clients de la diffusion. « Lors du sommet Adobe du mois dernier, nous avons annoncé les services Firefly pour la vidéo. Ainsi, des choses comme le recadrage, le recadrage automatique, des choses comme la traduction des légendes qui améliorent la parole que vous pouvez mettre dans une masse entière de médias provenant d’un environnement d’entreprise et exécuter ces services dans un état d’API », a-t-elle déclaré. Ces services automatisent les tâches, aidant à fournir du contenu « à toutes les différentes zones géographiques, à toutes les différentes plateformes, à tous les différents cadrages. »
Les retours des clients sont essentiels. « Le plus important, c’est ce que nous entendons de notre communauté et de nos clients en termes de leurs besoins. Et c’est ce qui nous motive lorsque nous parlons de la situation dans son ensemble. La façon dont nous concevons nos stratégies, la façon dont nous envisageons l’avenir, est vraiment en concertation avec notre communauté », a conclu Keane. Cette approche s’étend au travail d’Adobe avec l’équipe Firefly. « Notre travail du côté de la vidéo professionnelle est de déterminer quelles fonctionnalités sont les plus pertinentes à intégrer à l’outil ? Car toutes ne seront pas forcément pertinentes pour nos utilisateurs », a-t-elle ajouté.