Skip to main content

NVIDIA anuncia su generación de chips de supercomputadora de IA

Imagen utilizada con permiso del titular de los derechos de autor

La gente de NVIDIA ha presentado este lunes 13 de noviembre su nueva generación de chips de supercomputadora IA, los GPU HGX H200 de la serie arquitectura Hopper y que  desempeñarán un papel importante en futuros avances en aprendizaje profundo y grandes modelos de lenguaje (LLM) como GPT-4 de OpenAI.

Estos chips están pensados para centros de datos y supercomputadoras, trabajando en tareas como la predicción del tiempo y el clima, el descubrimiento de fármacos, la computación cuántica y más.

La GPU HGX H200 es un reemplazo de la popular GPU H100. Es el primer chip de la compañía que utiliza memoria HBM3e que es más rápida y tiene más capacidad, lo que lo hace más adecuado para modelos de lenguaje grandes. «Con HBM3e, la NVIDIA H200 ofrece 141 GB de memoria a 4,8 terabytes por segundo, casi el doble de capacidad y 2,4 veces más ancho de banda en comparación con su predecesora, la NVIDIA A100», escribió la compañía.

En términos de beneficios para la IA, NVIDIA dice que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de parámetros, en comparación con el H100. Estará disponible en configuraciones de 4 y 8 vías que son compatibles tanto con el software como con el hardware de los sistemas H100. Funcionará en todo tipo de centros de datos (on-premise, nube, nube híbrida y edge), y será desplegado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Está previsto que llegue en el segundo trimestre de 2024.

El otro producto clave de NVIDIA es el «superchip» GH200 Grace Hopper que combina la GPU HGX H200 y la CPU NVIDIA Grace basada en Arm utilizando la interconexión NVLink-C2C de la compañía. Está diseñado para supercomputadoras para permitir que «los científicos e investigadores aborden los problemas más desafiantes del mundo acelerando las complejas aplicaciones de IA y HPC que ejecutan terabytes de datos», escribió NVIDIA.

La GH200 se utilizará en «40+ supercomputadoras de IA en centros de investigación globales, fabricantes de sistemas y proveedores de nube», dijo la compañía, incluidos Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT y Supermicro. Entre ellos destacan los superordenadores Cray EX2500 de HPE, que utilizarán cuatro GH200, escalando hasta decenas de miles de nodos Grace Hopper Superchip.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Todos los mini anuncios de Nvidia en su conferencia de GPU
nvidia anuncios conferencia tecnologia gpu chatgpt h100 nvl

La Conferencia de Tecnología de GPU (GTC) semestral de Nvidia generalmente se centra en los avances en IA, pero este año, Nvidia está respondiendo al aumento masivo de ChatGPT con una lista de nuevas GPU. El principal de ellos es el H100 NVL, que une dos de las GPU H100 de Nvidia para implementar modelos de lenguaje grande (LLM) como ChatGPT.

La H100 no es una GPU nueva. Nvidia lo anunció hace un año en GTC, luciendo su arquitectura Hopper y prometiendo acelerar la inferencia de IA en una variedad de tareas. Se dice que el nuevo modelo NVL con sus enormes 94 GB de memoria funciona mejor cuando se implementan LLM a escala, ofreciendo una inferencia hasta 12 veces más rápida en comparación con el A100 de última generación.
Nvidia
Estas GPU están en el corazón de modelos como ChatGPT. Nvidia y Microsoft revelaron recientemente que se utilizaron miles de GPU A100 para entrenar ChatGPT, que es un proyecto que lleva más de cinco años en desarrollo.

Leer más
Nvidia acaba de filtrar su propia GPU para CES 2023
Un edificio de la compañía Nvidia.

Nvidia filtró su GeForce RTX 4070 Ti en su sitio web, lo que sugiere que el lanzamiento de esta tarjeta gráfica tan esperada se acerca rápidamente. Se rumorea que la tarjeta se lanzará en CES 2023.

Nvidia ha estado promoviendo su hardware como parte integral de la revolución VR y AR con el objetivo de recrear el mundo como gemelos digitales en el Nvidia Omniverse. En la última filtración, Nvidia mencionó la "GeForce RTX 4070 Ti, NVIDIA RTX A4500 o superior" como la GPU recomendada para ejecutar la aplicación Omniverse View. La aplicación le permite ver renders Omniverse en tiempo real en su escritorio requiere una GPU RTX con 8 GB, pero funciona mejor con hardware más potente.

Leer más
Nvidia anuncia su nueva computadora de IA para robots
nvidia computadora ia robots jetson orin

Nvidia lanza una nueva versión de su computadora de inteligencia artificial para robots llamada Jetson AGX Orin, que tiene una potencia seis veces mayor que la de su antecesora, la Jetson AGX Xavier.

La AGX Orin es una computadora capaz de ejecutar hasta 200 billones de operaciones por segundo, pero siempre con un consumo energético eficiente que la hace ideal no solo para robots, sino también para entornos industriales, médicos o incluso para vehículos autónomos como drones o similares.

Leer más