Skip to main content

Adobe quiere reinar en la IA de video y agrega capacidades a Firefly

El mundo de la IA generativa y sobre todo lo que tiene que ver con la creación de video a partir de instrucciones, está agarrando nuevos vuelos, ya que este lunes 14 de octubre Adobe presentó actualizaciones y nuevas capacidades de su modelo Firefly, que ya está integrado con Premiere Pro para.

El modelo de video Firefly, como se llama la tecnología, competirá con Sora de OpenAI, que se presentó a principios de este año, mientras que el propietario de TikTok, ByteDance, y Meta Platforms también han anunciado sus herramientas de video en los últimos meses.

Recommended Videos

Las nuevas características

La primera herramienta, Generative Extend, se lanza en versión beta para Premiere Pro. Se puede utilizar para ampliar el final o el principio de un metraje que es un poco demasiado corto, o hacer ajustes a mitad de la toma, como para corregir cambios en las líneas de los ojos o movimientos inesperados.

Los clips solo se pueden extender dos segundos, por lo que la extensión generativa solo es realmente adecuada para pequeños ajustes, pero eso podría reemplazar la necesidad de volver a tomar el metraje para corregir pequeños problemas. Los clips extendidos se pueden generar a 720p o 1080p a 24 FPS. También se puede usar en audio para ayudar a suavizar las ediciones, aunque con limitaciones. Extenderá los efectos de sonido y el «tono de la habitación» ambiental hasta diez segundos, por ejemplo, pero no los diálogos hablados o la música.

Imagen utilizada con permiso del titular de los derechos de autor

También está Text-to-Video, que funciona de manera similar a otros generadores de video como Runway y Sora de OpenAI: los usuarios solo necesitan ingresar una descripción de texto para lo que desean generar. Puede emular una variedad de estilos como película «real» normal, animación 3D y stop motion, y los clips generados se pueden refinar aún más utilizando una selección de «controles de cámara» que simulan cosas como los ángulos de la cámara, el movimiento y la distancia de disparo.

Image-to-Video va un paso más allá al permitir a los usuarios agregar una imagen de referencia junto con un mensaje de texto para proporcionar más control sobre los resultados. Adobe sugiere que esto podría usarse para hacer b-roll a partir de imágenes y fotografías, o ayudar a visualizar retomas cargando una imagen fija de un video existente.

Text-to-Video, Image-to-Video y Generative Extend tardan unos 90 segundos en generarse, pero Adobe dice que está trabajando en un «modo turbo» para reducirlo.

Para sus herramientas de video, Adobe ha apuntado a hacerlas prácticas para el uso diario de los creadores y editores de video, con un enfoque especial en hacer que el metraje se mezcle con el metraje convencional, dijo Ely Greenfield, director de tecnología de Adobe para medios digitales.

«Realmente nos enfocamos en el control de grano fino, enseñando al modelo los conceptos que usan los editores de video y los videógrafos, cosas como la posición de la cámara, el ángulo de la cámara, el movimiento de la cámara», dijo Greenfield a Reuters en una entrevista.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Ideogram 2.0 quiere reinar en la generación de imágenes IA gratis
ideogram generacion imagenes ia gratis

Las guerras de generación de imágenes de IA se están calentando. Al igual que Google ha lanzado su propio generador Pixel Studio con resultados desastrosos, la startup de inteligencia artificial Ideogram anunció el miércoles en X (anteriormente Twitter) el lanzamiento de la segunda versión de su producto con el mismo nombre, Ideogram 2.0.

Además de aumentar las nuevas capacidades creativas de su modelo, la compañía también dice que está implementando una aplicación para iOS, una API y un sistema de búsqueda visual. El anuncio se produce después de una gran semana en la generación de imágenes de IA, con el lanzamiento de Grok-2 y una importante actualización de Midjourney.

Leer más
Creador de contenido, la IA te hará más fácil el trabajo en Youtube
youtube lluvia de ideas gemini ia creador contenido

Los creadores de contenido de YouTube pronto podrían hacer una lluvia de ideas sobre el tema, el título y las miniaturas de los videos con Gemini AI como parte del experimento "lluvia de ideas con Gemini" que Google está probando actualmente, anunció la compañía a través de su canal Creator Insider.

La función se lanzará primero a un pequeño número de creadores de contenido seleccionados para su crítica, como dijo un portavoz de la compañía a TechCrunch, antes de que la compañía decida si implementarla para todos los usuarios. "Estamos recopilando comentarios en esta etapa para asegurarnos de que estamos desarrollando estas características de manera reflexiva y mejoraremos la función en función de los comentarios", dijo el anfitrión del video.
YouTube (en inglés)
Se podrá acceder a la función a través del menú de análisis de la plataforma, en la pestaña de investigación, y generará sugerencias de ideas para el tema del video, puntos de conversación específicos y progresión, incluso sugerencias de miniaturas utilizando las capacidades de generación de imágenes del modelo de lenguaje grande de Google.

Leer más
Para qué está usando IA la NASA en la exploración de Marte
Imagen de la roca del cráter Jezeero perforada por Perseverance.

Los ingenieros espaciales han estado utilizando la IA en los rovers desde hace algún tiempo, de ahí que los exploradores de Marte de hoy en día puedan elegir un lugar de aterrizaje seguro y conducir por una región de forma autónoma. Pero algo que no han podido hacer antes es hacer ciencia ellos mismos, ya que la mayor parte de ese trabajo lo realizan científicos en la Tierra que analizan datos y apuntan el rover hacia los objetivos que quieren investigar.

Ahora, sin embargo, el rover Perseverance de la NASA está dando los primeros pasos hacia la investigación científica autónoma en Marte. El rover ha estado probando una capacidad de IA durante los últimos tres años, lo que le permite buscar e identificar minerales particulares en las rocas de Marte. El sistema funciona utilizando el instrumento PIXL (Instrumento Planetario para la Litoquímica de Rayos X) del rover, un espectrómetro que utiliza la luz para analizar de qué están hechas las rocas. El software, llamado muestreo adaptativo, examina los datos de PIXL e identifica los minerales que deben estudiarse con más detalle.

Leer más