Skip to main content

Esto presentó Nvidia en su evento GTC 2022

Durante el evento GTC 2022, Nvidia presentó la arquitectura de GPU Hopper, una línea de tarjetas gráficas con la que la firma asegura acelerar los tipos de algoritmos que usualmente se utilizan en la ciencia de datos.

Jen-Hsun Huang, uno de los fundadores de Nvidia, llevó a cabo una transmisión donde mostró la GPU Nvidia H100, que contiene 80,000 millones de transistores y un componente conocido como Transformer Engine, que tiene como fin acelerar categorías específicas de modelos de inteligencia artificial (IA).

Imagen utilizada con permiso del titular de los derechos de autor

Otro elemento destacado es la tecnología MIG de Nvidia, que permite dividir una H100 en siete instancias más pequeñas e independientes capaces de gestionar diferentes tipos de trabajos.

Recommended Videos

“Los centros de datos se están convirtiendo en fábricas de inteligencia artificial que procesan y refinan montañas de datos para producir inteligencia. Nvidia H100 es el motor de la infraestructura de IA mundial que las empresas utilizan para acelerar sus negocios impulsados por la esta tecnología”, explicó Huang en la presentación.

Drive Map

En la jornada, la empresa también anunció una nueva plataforma de mapeo que proporcionará a la industria de los vehículos autónomos una cobertura real de más de 300,000 millas de carreteras de Norteamérica, Europa y Asia para 2024.

Imagen utilizada con permiso del titular de los derechos de autor

Se trata de Drive Map que, según el fundador de la firma, debería permitir altos niveles de conducción autónoma. Además, esta plataforma no solo estará abierta a los actuales clientes de Nvidia, sino que buscará incrementar las soluciones de la empresa para el sector audiovisual.

Isaac Nova Orin

Durante GTC, Nvidia también habló sobre Isaac Nova Orin, su arquitectura de computación y sensores que es impulsada por el hardware Jetson AGX Orin. De acuerdo con la empresa, Isaac Nova Orin viene con todo el hardware de computación y sensores que se necesitan para diseñar, construir y probar la autonomía en robots móviles autónomos.

Este tipo de prototipos pueden entender y moverse por su entorno sin ser supervisados de manera directa por un operador. Esta nueva arquitectura de computación debería estar disponible a finales de este año.

Grace CPU Superchip

Imagen utilizada con permiso del titular de los derechos de autor

Por último, la compañía presentó su Grace CPU Superchip, una solución que complementa la CPU-GPU Grace Hopper Superchip anunciada el año pasado. Nvidia Grace Superchip incorpora dos CPU ARM que están conectadas entre sí mediante una interconexión de alta velocidad y baja latencia.

De acuerdo con Nvidia, esta CPU de centro de datos tiene como fin ofrecer un mayor rendimiento y duplicar el ancho de banda de la memoria, además de ofrecer más eficiencia energética en comparación con los chips de los servidores actuales.

Felipe Sasso
Ex escritor de Digital Trends en Español
Felipe Sasso es periodista y escritor. Desde temprana edad manifestó una importante inquietud hacia la escritura y las…
¿No más GPU? Así es como podría verse el DLSS 10 de Nvidia
no mas gpu asi podria verse dlss 10 nvidia

Nvidia
La última versión de Deep Learning Super Sampling (DLSS) de Nvidia ya es un importante punto de venta para algunas de sus mejores tarjetas gráficas, pero Nvidia tiene planes mucho más grandes. Según Bryan Catanzaro, vicepresidente de Investigación de Aprendizaje Profundo Aplicado de Nvidia, Nvidia imagina que DLSS 10 tendría una representación neuronal completa, evitando la necesidad de que las tarjetas gráficas representen realmente un marco.

Durante una mesa redonda organizada por Digital Foundry, Catanzaro profundizó en lo que DLSS podría evolucionar en el futuro y qué tipo de problemas podría abordar el aprendizaje automático en los juegos. Ya tenemos DLSS 3, que es capaz de generar fotogramas completos, un gran paso adelante de DLSS 2, que solo podía generar píxeles. Ahora, Catanzaro dijo con confianza que el futuro de los juegos radica en la representación neuronal.

Leer más
Comprar una GPU en 2023 está siendo muy desalentador (y con razón)
Comprar una GPU en 2023 está siendo muy desalentador (y con razón).

La pandemia marcó un antes y un después en muchos aspectos, y muchos fuimos los que pensamos que, a estas alturas, habríamos vuelto a una dinámica medianamente similar a la que teníamos al finalizar 2019. Y aunque es verdad que aquellos días de cuarentenas y escasez de Unidades de Procedimiento Gráfico quedaron atrás, comprar una GPU en 2023 no es nada fácil. Paradójicamente, ahora se nos hace más difícil que nunca, y esto no tiene que ver con los niveles de stock en los almacenes, sino con algo mucho más elemental: no hay modelos obvios que comprar.

Así es. Vivimos un tiempo en el que ninguna GPU parece destacarse como la mejor tarjeta gráfica, y es difícil darle el sí a lo último de AMD y Nvidia.

Leer más
Todos los mini anuncios de Nvidia en su conferencia de GPU
nvidia anuncios conferencia tecnologia gpu chatgpt h100 nvl

La Conferencia de Tecnología de GPU (GTC) semestral de Nvidia generalmente se centra en los avances en IA, pero este año, Nvidia está respondiendo al aumento masivo de ChatGPT con una lista de nuevas GPU. El principal de ellos es el H100 NVL, que une dos de las GPU H100 de Nvidia para implementar modelos de lenguaje grande (LLM) como ChatGPT.

La H100 no es una GPU nueva. Nvidia lo anunció hace un año en GTC, luciendo su arquitectura Hopper y prometiendo acelerar la inferencia de IA en una variedad de tareas. Se dice que el nuevo modelo NVL con sus enormes 94 GB de memoria funciona mejor cuando se implementan LLM a escala, ofreciendo una inferencia hasta 12 veces más rápida en comparación con el A100 de última generación.
Nvidia
Estas GPU están en el corazón de modelos como ChatGPT. Nvidia y Microsoft revelaron recientemente que se utilizaron miles de GPU A100 para entrenar ChatGPT, que es un proyecto que lleva más de cinco años en desarrollo.

Leer más