Estas nuevas herramientas de Firefly, junto con algunas integraciones de terceros como; Runway, Pika Labs y los modelos Sora de OpenAI, permitirán a los usuarios de Premiere Pro generar vídeo y agregar o eliminar objetos utilizando indicaciones de texto (al igual que la función de relleno generativo de Photoshop) y ampliar la duración de los clips de vídeo.

A diferencia de muchos de los anuncios anteriores de Adobe relacionados con Firefly, no se ha establecido ninguna fecha de lanzamiento, beta o de otro tipo, para las nuevas herramientas de generación de vídeo de la compañía, solo que se lanzarán “este año”. Y aunque el gigante del software creativo mostró de lo que su propio modelo de vídeo es capaz actualmente en una demostración de vídeo, sus planes de integrar Premiere Pro con los modelos de IA de otros proveedores no son una certeza.

Hay algunas manchas bastante obvias que se muestran en este todavía después de que un objeto fuera eliminado por el propio modelo de vídeo de IA generativa de Adobe.

En cambio, Adobe llama a las integraciones de IA de terceros en su vista previa de vídeo una “exploración temprana” de cómo pueden ser “en el futuro”. La idea es proporcionar a los usuarios de Premiere Pro más opciones, según Adobe, permitiéndoles usar modelos como Pika para ampliar las tomas o Sora o Runway AI al generar B-roll para sus proyectos. Adobe también dice que sus etiquetas de credenciales de contenido se pueden aplicar a estos clips generados para identificar qué modelos de IA se han utilizado para generarlos.

Más información: https://www.theverge.com/2024/4/15/24130804/adobe-premiere-pro-firefly-video-generative-ai-openai-sora