Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

El nuevo modelo de IA de Meta puede convertir texto en imágenes 3D en menos de un minuto

una matriz de imágenes generadas en 3D creadas por Meta 3D Gen
Meta

La última incursión de Meta en la generación de imágenes de IA es rápida. La compañía presentó su nuevo modelo «3D Gen» el martes, un «canal rápido y de última generación» para transformar el texto de entrada en imágenes 3D de alta fidelidad que pueden generarlas en menos de un minuto.

Además, según se informa, el sistema es capaz de aplicar nuevas texturas y máscaras tanto a las imágenes generadas como a las producidas por los artistas mediante indicaciones de texto.

Recommended Videos

Según un estudio reciente del equipo de investigación de IA de Meta Gen, 3D Gen no solo ofrecerá texturas de alta resolución y mapas de materiales, sino que también admitirá capacidades de renderizado basado en la física (PBR) y retexturizado generativo.

📣 New research from GenAI at Meta, introducing Meta 3D Gen: A new system for end-to-end generation of 3D assets from text in <1min.

Meta 3D Gen is a new combined AI system that can generate high-quality 3D assets, with both high-resolution textures and material maps end-to-end,… pic.twitter.com/rDD5GzNinY

— AI at Meta (@AIatMeta) July 2, 2024

El equipo estima un tiempo medio de inferencia de sólo 30 segundos en la creación del modelo 3D inicial utilizando el modelo 3D AssetGen de Meta. Luego, los usuarios pueden volver atrás y refinar la textura del modelo existente o reemplazarla con algo nuevo, ambos a través de indicaciones de texto, utilizando Meta 3D TextureGen, un proceso que la compañía calcula que no debería tomar más de 20 segundos adicionales de tiempo de inferencia.

«Al combinar sus fortalezas», escribió el equipo en su resumen del estudio, «3DGen representa objetos 3D simultáneamente de tres maneras: en el espacio de vista, en el espacio volumétrico y en el espacio UV (o textura)». El equipo de Meta estableció su modelo de generación 3D con una serie de líneas de base de la industria y lo comparó con una variedad de factores, incluida la fidelidad del mensaje de texto, la calidad visual, los detalles de las texturas y los artefactos. Al combinar las funciones de ambos modelos, las imágenes generadas por el proceso integrado de dos etapas fueron seleccionadas por los anotadores en lugar de sus contrapartes de una sola etapa el 68% de las veces.

Por supuesto, el sistema discutido en este documento aún está en desarrollo y aún no está listo para el uso público, pero los avances técnicos que ilustra este estudio podrían resultar transformadores en una serie de disciplinas creativas, desde efectos de juegos y películas hasta aplicaciones de realidad virtual.

Dar a los usuarios la capacidad no solo de crear, sino también de editar contenido generado en 3D, de forma rápida e intuitiva, podría reducir drásticamente la barrera de entrada para tales actividades.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Llama 3.1: Meta estrena la IA más poderosa hasta el momento
llama 3 1 ia codigo abierto imagine meta ai

Un momento único en la industria de la IA está generando este 23 de julio la gente de Meta, ya que acaba de presentar su nueva variación de IA de código abierto: Llama 3.1, que en algunos aspectos supera a OpenAI con su ChatGPT.

Según la compañía supera a GPT-4o y Claude 3.5 Sonnet de Anthropic en varios puntos de referencia. También está haciendo que el asistente de IA de Meta basado en Llama esté disponible en más países e idiomas, al tiempo que agrega una función que puede generar imágenes basadas en la semejanza específica de alguien. El CEO Mark Zuckerberg ahora predice que Meta AI será el asistente más utilizado para fines de este año, superando a ChatGPT.

Leer más
Contempla una impresionante visualización en 3D del objeto más bello de la astronomía
visualizacion 3d objeto mas bello astronomia pilares de la creaci  n

Esta imagen es un mosaico de vistas de luz visible e infrarroja del mismo fotograma de la visualización de los Pilares de la Creación. El modelo tridimensional de los pilares creado para la secuencia de visualización se muestra alternativamente en la versión del Telescopio Espacial Hubble (luz visible) y en la versión del Telescopio Espacial Webb (luz infrarroja). Greg Bacon (STScI), Ralf Crawford (STScI), Joseph DePasquale (STScI), Leah Hustak (STScI), Christian Nieves (STScI), Joseph Olmsted (STScI), Alyssa Pagan (STScI), Frank Summers (STScI), El universo de aprendizaje de la NASA
Los Pilares de la Creación son quizás el objeto más famoso de toda la astronomía. Esta vista, que forma parte de la Nebulosa del Águila, fue captada por primera vez por el Telescopio Espacial Hubble en 1995, y desde entonces ha cautivado al público con sus espectaculares columnas de polvo y gas que se extienden a varios años luz de altura. La nebulosa ha sido fotografiada a menudo desde entonces, incluso nuevamente por el Hubble en 2014 y más recientemente por el telescopio espacial James Webb en 2022.

Ahora, los científicos que trabajan con los telescopios Hubble y Webb han publicado una sorprendente visualización, comparando las diferentes vistas de los pilares tomadas por los dos telescopios espaciales diferentes. Si te preguntas por qué los científicos se molestarían en tomar muchas imágenes del mismo objeto con diferentes telescopios, a veces es porque la tecnología y el procesamiento han mejorado tanto que ofrecen una mejor vista (como fue el caso de las imágenes del Hubble de 1995 y 2014), y a veces porque diferentes telescopios operan en diferentes longitudes de onda de luz para que puedan obtener diferentes vistas del objeto (como es el caso de las imágenes del Hubble y Webb).
Los Pilares de la Creación fotografiados por el Hubble. Greg Bacon (STScI), Ralf Crawford (STScI), Joseph DePasquale (STScI), Leah Hustak (STScI), Christian Nieves (STScI), Joseph Olmsted (STScI), Alyssa Pagan (STScI), Frank Summers (STScI), El universo de aprendizaje de la NASA
"Cuando combinamos observaciones de los telescopios espaciales de la NASA a través de diferentes longitudes de onda de luz, ampliamos nuestra comprensión del universo", dijo Mark Clampin, director de la División de Astrofísica de la NASA, en un comunicado. "La región de los Pilares de la Creación continúa ofreciéndonos nuevos conocimientos que perfeccionan nuestra comprensión de cómo se forman las estrellas. Ahora, con esta nueva visualización, todo el mundo puede experimentar este paisaje rico y cautivador de una manera nueva".
Los Pilares de la Creación fotografiados por Webb. Greg Bacon (STScI), Ralf Crawford (STScI), Joseph DePasquale (STScI), Leah Hustak (STScI), Christian Nieves (STScI), Joseph Olmsted (STScI), Alyssa Pagan (STScI), Frank Summers (STScI), El universo de aprendizaje de la NASA
Además de comparar las imágenes, el equipo de la NASA también ha creado una visualización en 3D de los pilares, mostrando cómo se ven desde diferentes ángulos.

Leer más
Nokia hace la primera llamada espacial 3D en la historia
Nokia

Nokia realiza la primera llamada de voz y audio espacial 3D en vivo del mundo a través de una red celular. Pekka Lundmark, presidente y consejero delegado de Nokia, mantuvo una llamada de audio y vídeo inmersiva en directo con Stefan Lindström, embajador de Finlandia para la digitalización y las nuevas tecnologías.

La llamada fue posible gracias a la nueva tecnología de códec Immersive Voice and Audio Services (IVAS), que forma parte del próximo estándar 5G Advanced. El códec IVAS permite a los consumidores escuchar el sonido espacialmente en tiempo real en lugar de la experiencia de llamadas de voz monofónicas de teléfonos inteligentes de hoy en día. Lundmark demostró a Lindström las dimensiones acústicas distintivas que se pueden experimentar con la nueva tecnología IVAS mientras lo llamaba desde el campus de Nokia en Espoo.

Leer más