Durante el evento GTC 2022, Nvidia presentó la arquitectura de GPU Hopper, una línea de tarjetas gráficas con la que la firma asegura acelerar los tipos de algoritmos que usualmente se utilizan en la ciencia de datos.
Jen-Hsun Huang, uno de los fundadores de Nvidia, llevó a cabo una transmisión donde mostró la GPU Nvidia H100, que contiene 80,000 millones de transistores y un componente conocido como Transformer Engine, que tiene como fin acelerar categorías específicas de modelos de inteligencia artificial (IA).
Otro elemento destacado es la tecnología MIG de Nvidia, que permite dividir una H100 en siete instancias más pequeñas e independientes capaces de gestionar diferentes tipos de trabajos.
“Los centros de datos se están convirtiendo en fábricas de inteligencia artificial que procesan y refinan montañas de datos para producir inteligencia. Nvidia H100 es el motor de la infraestructura de IA mundial que las empresas utilizan para acelerar sus negocios impulsados por la esta tecnología”, explicó Huang en la presentación.
Drive Map
En la jornada, la empresa también anunció una nueva plataforma de mapeo que proporcionará a la industria de los vehículos autónomos una cobertura real de más de 300,000 millas de carreteras de Norteamérica, Europa y Asia para 2024.
Se trata de Drive Map que, según el fundador de la firma, debería permitir altos niveles de conducción autónoma. Además, esta plataforma no solo estará abierta a los actuales clientes de Nvidia, sino que buscará incrementar las soluciones de la empresa para el sector audiovisual.
Isaac Nova Orin
Durante GTC, Nvidia también habló sobre Isaac Nova Orin, su arquitectura de computación y sensores que es impulsada por el hardware Jetson AGX Orin. De acuerdo con la empresa, Isaac Nova Orin viene con todo el hardware de computación y sensores que se necesitan para diseñar, construir y probar la autonomía en robots móviles autónomos.
Este tipo de prototipos pueden entender y moverse por su entorno sin ser supervisados de manera directa por un operador. Esta nueva arquitectura de computación debería estar disponible a finales de este año.
Grace CPU Superchip
Por último, la compañía presentó su Grace CPU Superchip, una solución que complementa la CPU-GPU Grace Hopper Superchip anunciada el año pasado. Nvidia Grace Superchip incorpora dos CPU ARM que están conectadas entre sí mediante una interconexión de alta velocidad y baja latencia.
De acuerdo con Nvidia, esta CPU de centro de datos tiene como fin ofrecer un mayor rendimiento y duplicar el ancho de banda de la memoria, además de ofrecer más eficiencia energética en comparación con los chips de los servidores actuales.