Adobe está convirtiendo la inteligencia de medios en un componente fundamental de su estrategia para los flujos de trabajo de vídeo, considerándola la base para futuros desarrollos. En lugar de simplemente añadir funciones, Adobe se basa en tecnologías existentes. Este enfoque tiene como objetivo resolver los problemas continuos de flujo de trabajo para los profesionales de la difusión y los creadores de contenido que trabajan con cantidades masivas de material.
“La inteligencia de medios es otro pilar fundamental. Ahora que hemos encontrado la clave para abrir esa puerta, hay un pasillo con más puertas en términos de la funcionalidad que puede surgir de ella”, dijo Meagan Keane, directora principal de marketing de productos para Adobe Pro Video, en la feria NAB Show 2025. “Si pensamos a gran escala, todas las nuevas funciones que hemos presentado en la feria este año son en realidad evoluciones de los cimientos que construimos hace años”, añadió Keane. “Si pensamos en la conversión de voz a texto, por ejemplo, cuando lanzamos la conversión de voz a texto hace unos años, dijimos que era una base para desbloquear más capacidades. Entonces vieron la edición basada en texto y ahora ven la traducción de subtítulos.”
Keane explicó que la búsqueda es solo el comienzo de la inteligencia de medios; la organización y el uso de contenido visual, transcripciones y metadatos son todos los pasos potenciales siguientes. “Cuando estás editando y quieres contar una historia, no necesariamente quieres entrar y lidiar con cosas como: ‘Vale, ¿dónde estaba eso?’, o ‘¿Cómo lo encuentro?’, o ‘Sé que tengo todo este montón de cosas, pero ¿cómo navego a través de él?’”, señaló. Esto es especialmente útil para las organizaciones con grandes archivos. El equipo de “Saturday Night Live”, por ejemplo, utilizó la inteligencia de medios para procesar “miles de horas de metraje” para su 50 aniversario.
Adobe equilibra el desarrollo en varias áreas. “Estamos trabajando duro para lograr un equilibrio entre la funcionalidad central, los flujos de trabajo centrales, el color, el sonido, los gráficos, todas las cosas de edición artesanal junto con lo que llamamos calidad de vida”, dijo Keane. “Esas pequeñas cosas que a los editores simplemente les molestan, les estorban, son un dolor de cabeza, así como la estabilidad y el rendimiento”. Las herramientas de IA como Generative Extend ayudan a abordar estos problemas de flujo de trabajo. “Eso es un dolor de cabeza para los editores, donde piensas: ‘Simplemente, ni siquiera necesito mucho más, pero lleva tanto tiempo resolverlo sin esta función, y ahora que la tenemos, realmente permite a la gente continuar con su flujo creativo en lugar de verse interrumpida’”, explicó.
Adobe utiliza las pruebas beta para obtener comentarios. “En los últimos años, hemos establecido esta práctica de incorporar funciones y funcionalidades a la versión beta y luego escuchar realmente lo que la comunidad tiene que decir, ya sabes, qué comentarios recibimos, dónde la gente dice: ‘Esto no es exactamente como creo que debería funcionar’”, dijo Keane. Esto afecta significativamente al desarrollo. “Todas las funciones de las que estamos hablando en la feria hoy, las lanzamos en versión beta, pero no son las mismas funciones que lanzamos en versión beta porque hemos podido evolucionar con la aportación de la comunidad y los comentarios durante esos periodos”, aclaró.
Las herramientas de Adobe admiten tanto el vídeo social tradicional como el de formato corto, y este último presenta un desafío común en el flujo de trabajo. “Cuando se observan los flujos de trabajo centrales, no son tan diferentes”, dijo Keane. “Un caso de uso que vemos en todas las disciplinas es el contenido social de formato corto. Que cada empresa, ya sea que esté produciendo deportes para la difusión, también tenga alguna entidad social, o que esté produciendo episodios para la televisión, también tenga alguna entidad social”. Esto llevó a mejoras en Generative Extend durante las pruebas beta. “Una de las cosas principales que sucedieron con Generative Extend entre cuando lo pusimos en beta y lo lanzamos aquí es que tenía que ser 4K y teníamos que admitir vídeo vertical porque todo el mundo está haciendo redes sociales”, señaló Keane.
Keane también mencionó los servicios Firefly para clientes de difusión. “En la Cumbre de Adobe del mes pasado, anunciamos los servicios Firefly para vídeo. Así que cosas como reencuadre, reencuadre automático, cosas como traducir subtítulos que mejoran el habla que puedes poner en una gran cantidad de medios de un entorno empresarial y ejecutar esos servicios en un estado de API”, dijo. Estos servicios automatizan las tareas, ayudando a entregar contenido “a todas las diferentes zonas geográficas, a todas las diferentes plataformas, a todos los diferentes encuadres”.
La retroalimentación de los clientes es clave. “Lo más importante es lo que estamos escuchando de nuestra comunidad y lo que estamos escuchando de nuestros clientes en términos de lo que necesitan. Y eso es lo que nos impulsa cuando hablamos de la perspectiva general. La forma en que diseñamos nuestras estrategias, la forma en que miramos hacia el futuro está realmente en sintonía con nuestra comunidad”, concluyó Keane. Este enfoque se extiende al trabajo de Adobe con el equipo de Firefly. “Nuestro trabajo en el lado del vídeo profesional es: ¿qué funcionalidad tiene más sentido incorporar a la herramienta? Porque no todo será necesariamente relevante para nuestros usuarios”, añadió.