Skip to main content

Los nuevos videos hechos por IA de OpenAI están dejando boquiabierta a la gente

Una imagen de IA que retrata a dos mamuts que caminan por la nieve, con montañas y un bosque al fondo.
OpenAI

La última incursión de OpenAI en IA podría ser la más impresionante hasta la fecha. Apodado «Sora», este nuevo modelo de IA de texto a video acaba de abrir sus puertas a un número limitado de usuarios que podrán probarlo. La compañía lo lanzó mostrando varios videos hechos íntegramente por IA, y los resultados finales son sorprendentemente realistas.

OpenAI presenta a Sora diciendo que puede crear escenas realistas basadas en indicaciones de texto, y los videos compartidos en su sitio web sirven para demostrarlo. Las indicaciones son descriptivas, pero cortas; Personalmente, he utilizado indicaciones más largas simplemente interactuando con ChatGPT. Por ejemplo, para generar el video de los mamuts lanudos que se muestra arriba, Sora requirió un mensaje de 67 palabras que describiera a los animales, el entorno y la ubicación de la cámara.

Recommended Videos

Introducing Sora, our text-to-video model.

Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W

Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf

— OpenAI (@OpenAI) February 15, 2024

«Sora puede generar videos de hasta un minuto de duración mientras mantiene la calidad visual y la adherencia a las indicaciones del usuario», dijo OpenAI en su anuncio. La IA puede generar escenas complejas llenas de muchos personajes, escenarios y movimientos precisos. Con ese fin, OpenAI dice que Sora predice y lee entre líneas según sea necesario.

«El modelo entiende no solo lo que el usuario ha pedido en el mensaje, sino también cómo existen esas cosas en el mundo físico», dijo OpenAI. El modelo no solo aborda personajes, ropa o fondos, sino que también crea «personajes convincentes que expresan emociones vibrantes».

Sora también puede llenar los vacíos en un video existente o hacerlo más largo, así como generar un video basado en una imagen, por lo que no todo son solo indicaciones de texto.

Si bien los videos se ven bien como capturas de pantalla, son alucinantes en movimiento. OpenAI ofreció una amplia gama de videos para mostrar la nueva tecnología, incluidas las calles de Tokio al estilo Cyberpunk y «imágenes históricas» de California durante la fiebre del oro. También hay más, incluido un primer plano extremo de un ojo humano. Las indicaciones cubren cualquier cosa, desde dibujos animados hasta fotografía de vida silvestre.

Sora todavía cometió algunos errores. Mirar más de cerca revela que, por ejemplo, algunas figuras en la multitud no tienen cabeza o se mueven de manera extraña. El movimiento incómodo se destacó a primera vista en algunas muestras, pero la rareza general requirió múltiples visionados para detectarla.

Podría pasar un tiempo antes de que OpenAI abra Sora al público en general. En este momento, el modelo será probado por miembros del equipo rojo que evaluarán los riesgos potenciales. Algunos creadores también podrán comenzar a probarlo ahora, mientras aún se encuentra en las primeras etapas de desarrollo.

La IA sigue siendo imperfecta, así que entré esperando algo bastante desordenado. Ya sea por las bajas expectativas o por las capacidades de Sora, me voy impresionado, pero también ligeramente preocupado. Ya vivimos en un mundo en el que es difícil distinguir una falsificación de algo real, y ahora, no son solo las imágenes las que están en peligro, los videos también lo están. Sin embargo, Sora no es el primer modelo de texto a video que hemos visto, como Pika.

Otros también están levantando la bandera, como el popular YouTuber de tecnología, Marques Brownlee, quien tuiteó que «si esto no te preocupa al menos un poco, nada lo hará» en respuesta a los videos de Sora.

Every single one of these videos is AI-generated, and if this doesn't concern you at least a little bit, nothing will

The newest model: https://t.co/zkDWU8Be9S

(Remember Will Smith eating spaghetti? I have so many questions) pic.twitter.com/TQ44wvNlQw

— Marques Brownlee (@MKBHD) February 15, 2024

Si Sora de OpenAI es tan bueno ahora, es difícil imaginar de lo que será capaz después de unos años de desarrollo y pruebas. Este es el tipo de tecnología que tiene el potencial de desplazar muchos puestos de trabajo, pero, con suerte, al igual que ChatGPT, coexistirá con los profesionales humanos.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Adobe quiere reinar en la IA de video y agrega capacidades a Firefly
adobe firefly nuevas capacidades ia video

El mundo de la IA generativa y sobre todo lo que tiene que ver con la creación de video a partir de instrucciones, está agarrando nuevos vuelos, ya que este lunes 14 de octubre Adobe presentó actualizaciones y nuevas capacidades de su modelo Firefly, que ya está integrado con Premiere Pro para.

El modelo de video Firefly, como se llama la tecnología, competirá con Sora de OpenAI, que se presentó a principios de este año, mientras que el propietario de TikTok, ByteDance, y Meta Platforms también han anunciado sus herramientas de video en los últimos meses.
Las nuevas características
La primera herramienta, Generative Extend, se lanza en versión beta para Premiere Pro. Se puede utilizar para ampliar el final o el principio de un metraje que es un poco demasiado corto, o hacer ajustes a mitad de la toma, como para corregir cambios en las líneas de los ojos o movimientos inesperados.
Los clips solo se pueden extender dos segundos, por lo que la extensión generativa solo es realmente adecuada para pequeños ajustes, pero eso podría reemplazar la necesidad de volver a tomar el metraje para corregir pequeños problemas. Los clips extendidos se pueden generar a 720p o 1080p a 24 FPS. También se puede usar en audio para ayudar a suavizar las ediciones, aunque con limitaciones. Extenderá los efectos de sonido y el "tono de la habitación" ambiental hasta diez segundos, por ejemplo, pero no los diálogos hablados o la música.

Leer más
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más
Adobe adelanta su impresionante oferta de video generado por IA
adobe adelanta video generado ia

Adobe acaba de mostrar un clip promocional para hablar de su nueva herramienta de generación de video IA, incluida una nueva función que puede producir videos a partir de imágenes fijas.

El nuevo teaser muestra imágenes producidas por las capacidades de texto a video de Firefly que Adobe anunció a principios de este año. La herramienta permite a los usuarios generar videoclips utilizando descripciones de texto y ajustar los resultados utilizando una variedad de "controles de cámara" que simulan los ángulos de la cámara, el movimiento y la distancia de disparo. También se demostró una función de imagen a vídeo para el modelo de vídeo Firefly que puede generar clips utilizando imágenes de referencia específicas.

Leer más