Skip to main content

Los nuevos videos hechos por IA de OpenAI están dejando boquiabierta a la gente

Una imagen de IA que retrata a dos mamuts que caminan por la nieve, con montañas y un bosque al fondo.
OpenAI

La última incursión de OpenAI en IA podría ser la más impresionante hasta la fecha. Apodado «Sora», este nuevo modelo de IA de texto a video acaba de abrir sus puertas a un número limitado de usuarios que podrán probarlo. La compañía lo lanzó mostrando varios videos hechos íntegramente por IA, y los resultados finales son sorprendentemente realistas.

OpenAI presenta a Sora diciendo que puede crear escenas realistas basadas en indicaciones de texto, y los videos compartidos en su sitio web sirven para demostrarlo. Las indicaciones son descriptivas, pero cortas; Personalmente, he utilizado indicaciones más largas simplemente interactuando con ChatGPT. Por ejemplo, para generar el video de los mamuts lanudos que se muestra arriba, Sora requirió un mensaje de 67 palabras que describiera a los animales, el entorno y la ubicación de la cámara.

Recommended Videos

Introducing Sora, our text-to-video model.

Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W

Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf

— OpenAI (@OpenAI) February 15, 2024

«Sora puede generar videos de hasta un minuto de duración mientras mantiene la calidad visual y la adherencia a las indicaciones del usuario», dijo OpenAI en su anuncio. La IA puede generar escenas complejas llenas de muchos personajes, escenarios y movimientos precisos. Con ese fin, OpenAI dice que Sora predice y lee entre líneas según sea necesario.

«El modelo entiende no solo lo que el usuario ha pedido en el mensaje, sino también cómo existen esas cosas en el mundo físico», dijo OpenAI. El modelo no solo aborda personajes, ropa o fondos, sino que también crea «personajes convincentes que expresan emociones vibrantes».

Sora también puede llenar los vacíos en un video existente o hacerlo más largo, así como generar un video basado en una imagen, por lo que no todo son solo indicaciones de texto.

Si bien los videos se ven bien como capturas de pantalla, son alucinantes en movimiento. OpenAI ofreció una amplia gama de videos para mostrar la nueva tecnología, incluidas las calles de Tokio al estilo Cyberpunk y «imágenes históricas» de California durante la fiebre del oro. También hay más, incluido un primer plano extremo de un ojo humano. Las indicaciones cubren cualquier cosa, desde dibujos animados hasta fotografía de vida silvestre.

Sora todavía cometió algunos errores. Mirar más de cerca revela que, por ejemplo, algunas figuras en la multitud no tienen cabeza o se mueven de manera extraña. El movimiento incómodo se destacó a primera vista en algunas muestras, pero la rareza general requirió múltiples visionados para detectarla.

Podría pasar un tiempo antes de que OpenAI abra Sora al público en general. En este momento, el modelo será probado por miembros del equipo rojo que evaluarán los riesgos potenciales. Algunos creadores también podrán comenzar a probarlo ahora, mientras aún se encuentra en las primeras etapas de desarrollo.

La IA sigue siendo imperfecta, así que entré esperando algo bastante desordenado. Ya sea por las bajas expectativas o por las capacidades de Sora, me voy impresionado, pero también ligeramente preocupado. Ya vivimos en un mundo en el que es difícil distinguir una falsificación de algo real, y ahora, no son solo las imágenes las que están en peligro, los videos también lo están. Sin embargo, Sora no es el primer modelo de texto a video que hemos visto, como Pika.

Otros también están levantando la bandera, como el popular YouTuber de tecnología, Marques Brownlee, quien tuiteó que «si esto no te preocupa al menos un poco, nada lo hará» en respuesta a los videos de Sora.

Every single one of these videos is AI-generated, and if this doesn't concern you at least a little bit, nothing will

The newest model: https://t.co/zkDWU8Be9S

(Remember Will Smith eating spaghetti? I have so many questions) pic.twitter.com/TQ44wvNlQw

— Marques Brownlee (@MKBHD) February 15, 2024

Si Sora de OpenAI es tan bueno ahora, es difícil imaginar de lo que será capaz después de unos años de desarrollo y pruebas. Este es el tipo de tecnología que tiene el potencial de desplazar muchos puestos de trabajo, pero, con suerte, al igual que ChatGPT, coexistirá con los profesionales humanos.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más
Adobe adelanta su impresionante oferta de video generado por IA
adobe adelanta video generado ia

Adobe acaba de mostrar un clip promocional para hablar de su nueva herramienta de generación de video IA, incluida una nueva función que puede producir videos a partir de imágenes fijas.

El nuevo teaser muestra imágenes producidas por las capacidades de texto a video de Firefly que Adobe anunció a principios de este año. La herramienta permite a los usuarios generar videoclips utilizando descripciones de texto y ajustar los resultados utilizando una variedad de "controles de cámara" que simulan los ángulos de la cámara, el movimiento y la distancia de disparo. También se demostró una función de imagen a vídeo para el modelo de vídeo Firefly que puede generar clips utilizando imágenes de referencia específicas.

Leer más
La gente está haciendo cortos enteros con esta app china de IA
minimax video 01 ia generativa

Minimax
La startup Minimax, respaldada por Alibaba y Tencent, uno de los "tigres de IA" de China, ha lanzado su modelo de texto a video Video-01, que puede generar representaciones altamente precisas de humanos, hasta los movimientos de sus manos. Minimax dio a conocer la nueva herramienta el sábado en su conferencia inaugural de desarrolladores en Shanghai.

https://twitter.com/JunieLauX/status/1829950412340019261?ref_src=twsrc%5Etfw

Leer más