Adobe sta rendendo l'intelligenza media una parte fondamentale della sua strategia per i workflow video, considerandola la base per gli sviluppi futuri. Invece di aggiungere semplicemente nuove funzionalità, Adobe si basa sulle tecnologie esistenti. Questo approccio mira a risolvere i problemi di workflow esistenti per i professionisti del broadcast e i creatori di contenuti che si occupano di enormi quantità di filmati.

“L'intelligenza media è un'altra fondamenta. Ora che abbiamo trovato la chiave per aprire quella porta, c'è un corridoio di altre porte in termini di funzionalità che possono derivarne,” ha affermato Meagan Keane, principal product marketing manager per Adobe Pro Video, al NAB Show 2025. “Se pensiamo a lungo termine, tutte le nuove funzionalità di cui abbiamo parlato al show quest'anno sono in realtà evoluzioni di fondamenta che abbiamo costruito anni fa,” ha aggiunto Keane. “Se pensiamo alla trascrizione vocale, ad esempio, quando abbiamo lanciato la trascrizione vocale qualche anno fa abbiamo detto che questa è una base per sbloccare più funzionalità. Quindi avete visto l'editing basato sul testo e ora vedete la traduzione dei sottotitoli.”

Keane ha spiegato che la ricerca è solo l'inizio per l'intelligenza media; l'organizzazione e l'utilizzo di contenuti visivi, trascrizioni e metadati sono tutti potenziali passi successivi. “Quando stai modificando e vuoi raccontare una storia, non vuoi necessariamente entrare e occuparti del tipo, 'Okay, dov'era quello?' O, 'Come lo trovo?' O, 'So di avere tutto questo bin di cose, ma come navigo al suo interno?'” ha osservato. Questo è particolarmente utile per le organizzazioni con archivi di grandi dimensioni. Il team di “Saturday Night Live”, ad esempio, ha utilizzato l'intelligenza media per elaborare “migliaia di ore di filmati” per il suo 50° anniversario.

Adobe bilancia lo sviluppo in diverse aree. “Stiamo lavorando duramente per trovare un equilibrio tra funzionalità di base, workflow principali, colore, suono, grafica, tutte le cose di editing artigianale insieme a quello che chiamiamo qualità della vita,” ha detto Keane. “Quelle piccole cose che agli editor semplicemente danno fastidio, ti ostacolano, sono un mal di testa, così come la stabilità e le prestazioni.” Gli strumenti AI come Generative Extend aiutano ad affrontare questi problemi di workflow. “Questo è un mal di testa per gli editor, dove pensi, non mi serve molto di più, ma ci vuole così tanto tempo per risolverlo senza questa funzionalità, e ora che ce l'abbiamo, permette davvero alle persone di continuare con il loro flusso creativo invece di essere interrotti,” ha spiegato.

Adobe utilizza i test beta per ottenere feedback. “Negli ultimi anni, abbiamo stabilito questa pratica di inserire funzionalità in versione beta e poi ascoltare davvero cosa ha da dire la community, sai, quali feedback riceviamo, dove le persone dicono, sai, questo non è esattamente come penso che dovrebbe funzionare,” ha detto Keane. Questo impatta significativamente sullo sviluppo. “Tutte le funzionalità di cui stiamo parlando oggi allo show, le abbiamo lanciate in versione beta, ma non sono le stesse funzionalità che abbiamo lanciato in versione beta perché siamo stati in grado di evolvere con il contributo della community e il feedback durante quei periodi,” ha chiarito.

Gli strumenti di Adobe supportano sia i video tradizionali che quelli brevi per i social media, con quest'ultimi che presentano una sfida comune nel workflow. “Quando si osservano i workflow principali, non sono poi così diversi,” ha detto Keane. “Un caso d'uso che vediamo in ogni disciplina è il contenuto breve per i social media. Ogni azienda, che tu stia producendo sport per il broadcast, hai anche un'entità social, o stai producendo episodi per la televisione, hai anche un'entità social.” Questo ha portato a miglioramenti in Generative Extend durante i test beta. “Una delle cose principali che è successa con Generative Extend tra quando lo abbiamo messo in beta e il lancio qui è che doveva essere 4K e dovevamo supportare il video verticale perché tutti fanno social,” ha osservato Keane.

Keane ha anche menzionato i servizi Firefly per i clienti del broadcast. “All'Adobe Summit del mese scorso, abbiamo annunciato i servizi Firefly per il video. Quindi cose come riquadrare, riquadrare automatico, cose come tradurre i sottotitoli che migliorano il parlato che puoi inserire in una grande quantità di media da un ambiente aziendale ed eseguire quei servizi in uno stato API,” ha detto. Questi servizi automatizzano le attività, aiutando a fornire contenuti “a tutte le diverse aree geografiche, a tutte le diverse piattaforme, a tutte le diverse inquadrature.”

Il feedback dei clienti è fondamentale. “La cosa più importante è ciò che sentiamo dalla nostra community e ciò che sentiamo dai nostri clienti in termini di ciò di cui hanno bisogno. Ed è questo che ci guida quando parliamo di quadro generale. Come stiamo progettando le nostre strategie, come guardiamo al futuro è davvero in sintonia con la nostra community,” ha concluso Keane. Questo approccio si estende al lavoro di Adobe con il team Firefly. “Il nostro lavoro sul lato pro video è: quali funzionalità hanno più senso da portare effettivamente nello strumento? Perché non tutte saranno necessariamente rilevanti per i nostri utenti,” ha aggiunto.