Skip to main content

Adobe quiere reinar en la IA de video y agrega capacidades a Firefly

El mundo de la IA generativa y sobre todo lo que tiene que ver con la creación de video a partir de instrucciones, está agarrando nuevos vuelos, ya que este lunes 14 de octubre Adobe presentó actualizaciones y nuevas capacidades de su modelo Firefly, que ya está integrado con Premiere Pro para.

El modelo de video Firefly, como se llama la tecnología, competirá con Sora de OpenAI, que se presentó a principios de este año, mientras que el propietario de TikTok, ByteDance, y Meta Platforms también han anunciado sus herramientas de video en los últimos meses.

Recommended Videos

Las nuevas características

La primera herramienta, Generative Extend, se lanza en versión beta para Premiere Pro. Se puede utilizar para ampliar el final o el principio de un metraje que es un poco demasiado corto, o hacer ajustes a mitad de la toma, como para corregir cambios en las líneas de los ojos o movimientos inesperados.

Los clips solo se pueden extender dos segundos, por lo que la extensión generativa solo es realmente adecuada para pequeños ajustes, pero eso podría reemplazar la necesidad de volver a tomar el metraje para corregir pequeños problemas. Los clips extendidos se pueden generar a 720p o 1080p a 24 FPS. También se puede usar en audio para ayudar a suavizar las ediciones, aunque con limitaciones. Extenderá los efectos de sonido y el «tono de la habitación» ambiental hasta diez segundos, por ejemplo, pero no los diálogos hablados o la música.

Imagen utilizada con permiso del titular de los derechos de autor

También está Text-to-Video, que funciona de manera similar a otros generadores de video como Runway y Sora de OpenAI: los usuarios solo necesitan ingresar una descripción de texto para lo que desean generar. Puede emular una variedad de estilos como película «real» normal, animación 3D y stop motion, y los clips generados se pueden refinar aún más utilizando una selección de «controles de cámara» que simulan cosas como los ángulos de la cámara, el movimiento y la distancia de disparo.

Image-to-Video va un paso más allá al permitir a los usuarios agregar una imagen de referencia junto con un mensaje de texto para proporcionar más control sobre los resultados. Adobe sugiere que esto podría usarse para hacer b-roll a partir de imágenes y fotografías, o ayudar a visualizar retomas cargando una imagen fija de un video existente.

Text-to-Video, Image-to-Video y Generative Extend tardan unos 90 segundos en generarse, pero Adobe dice que está trabajando en un «modo turbo» para reducirlo.

Para sus herramientas de video, Adobe ha apuntado a hacerlas prácticas para el uso diario de los creadores y editores de video, con un enfoque especial en hacer que el metraje se mezcle con el metraje convencional, dijo Ely Greenfield, director de tecnología de Adobe para medios digitales.

«Realmente nos enfocamos en el control de grano fino, enseñando al modelo los conceptos que usan los editores de video y los videógrafos, cosas como la posición de la cámara, el ángulo de la cámara, el movimiento de la cámara», dijo Greenfield a Reuters en una entrevista.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Wikipedia está en pie de guerra contra la IA
Wikipedia en español

Wikipedia quiere erradicar la IA de su servicio, o al menos limpiar todo el contenido generado con IA que pueda ensuciar las entradas de la enciclopedia digital colaborativa.

Como informa 404 Media, un equipo de editores de Wikipedia se ha reunido para crear "WikiProject AI Cleanup", que se describe a sí mismo como "una colaboración para combatir el creciente problema del contenido generado por IA sin fuentes y mal escrito en Wikipedia".

Leer más
Adobe entrega herramienta para proteger el trabajo original de la IA
Content Authenticity

Adobe está ayudando a todos los creadores, ya que estrenará una aplicación gratuita para proteger los derechos de autor, principalmente de la IA y sus usos.

Esta funcionalidad permitirá a los usuarios aplicar rápidamente la información del creador a imágenes, videos y audio e incluso excluirlos de los modelos de IA generativa, al menos para los desarrolladores de IA que lo admiten.

Leer más
Meta Movie Gen: Zuckerberg hace realidad convincentes videos de IA
meta movie gen video ia

https://media.wired.com/clips/66ff6ba6967e31bbf220c2f7/master/pass/Comp%201%20copy%202.mp4

Este viernes 4 de octubre, Meta acaba de estrenar su nuevo sistema de IA generativa para realizar videos, llamado Meta Movie Gen, que se puede utilizar para generar clips de vídeo y audio realistas.
La compañía compartió varios clips de 10 segundos generados con Movie Gen, incluido un hipopótamo bebé al estilo de Moo Deng nadando, para demostrar sus capacidades.
"Nuestras últimas investigaciones demuestran cómo puedes utilizar entradas de texto sencillas para producir vídeos y sonidos personalizados, editar vídeos existentes y transformar tu imagen personal en un vídeo único. Movie Gen supera a modelos similares en la industria en estas tareas cuando es evaluado por humanos", dice la gente de Meta.

Leer más