Skip to main content

NVIDIA anuncia su generación de chips de supercomputadora de IA

Imagen utilizada con permiso del titular de los derechos de autor

La gente de NVIDIA ha presentado este lunes 13 de noviembre su nueva generación de chips de supercomputadora IA, los GPU HGX H200 de la serie arquitectura Hopper y que  desempeñarán un papel importante en futuros avances en aprendizaje profundo y grandes modelos de lenguaje (LLM) como GPT-4 de OpenAI.

Estos chips están pensados para centros de datos y supercomputadoras, trabajando en tareas como la predicción del tiempo y el clima, el descubrimiento de fármacos, la computación cuántica y más.

Recommended Videos

La GPU HGX H200 es un reemplazo de la popular GPU H100. Es el primer chip de la compañía que utiliza memoria HBM3e que es más rápida y tiene más capacidad, lo que lo hace más adecuado para modelos de lenguaje grandes. «Con HBM3e, la NVIDIA H200 ofrece 141 GB de memoria a 4,8 terabytes por segundo, casi el doble de capacidad y 2,4 veces más ancho de banda en comparación con su predecesora, la NVIDIA A100», escribió la compañía.

En términos de beneficios para la IA, NVIDIA dice que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de parámetros, en comparación con el H100. Estará disponible en configuraciones de 4 y 8 vías que son compatibles tanto con el software como con el hardware de los sistemas H100. Funcionará en todo tipo de centros de datos (on-premise, nube, nube híbrida y edge), y será desplegado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Está previsto que llegue en el segundo trimestre de 2024.

El otro producto clave de NVIDIA es el «superchip» GH200 Grace Hopper que combina la GPU HGX H200 y la CPU NVIDIA Grace basada en Arm utilizando la interconexión NVLink-C2C de la compañía. Está diseñado para supercomputadoras para permitir que «los científicos e investigadores aborden los problemas más desafiantes del mundo acelerando las complejas aplicaciones de IA y HPC que ejecutan terabytes de datos», escribió NVIDIA.

La GH200 se utilizará en «40+ supercomputadoras de IA en centros de investigación globales, fabricantes de sistemas y proveedores de nube», dijo la compañía, incluidos Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT y Supermicro. Entre ellos destacan los superordenadores Cray EX2500 de HPE, que utilizarán cuatro GH200, escalando hasta decenas de miles de nodos Grace Hopper Superchip.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Por qué la nueva GPU de Nvidia funciona peor que los gráficos integrados
gpu nvidia funciona peor graficos integrados h100

Geekerwan
Uno podría pensar que una GPU que cuesta más de $ 40,000 será la mejor tarjeta gráfica para juegos, pero la verdad es mucho más compleja que eso. De hecho, esta GPU Nvidia ni siquiera puede mantenerse al día con las soluciones gráficas integradas.

Ahora, antes de que te enojes demasiado, debes saber que me refiero al H100 de Nvidia, que alberga el chip GH100 (Grace Hopper). Es una potente GPU de centro de datos hecha para manejar tareas de computación de alto rendimiento (HPC), no para alimentar juegos de PC. No tiene ninguna salida de pantalla, y a pesar de sus amplias capacidades, tampoco tiene refrigeradores. Esto se debe a que, nuevamente, encontraría esta GPU en un centro de datos o en un entorno de servidor, donde se enfriaría con potentes ventiladores externos.

Leer más
La supercomputadora de Nvidia puede traer otra era de ChatGPT
nvidia dgx gh200

Nvidia
Nvidia acaba de anunciar una nueva supercomputadora que puede cambiar el futuro de la IA. La DGX GH200, equipada con casi 500 veces más memoria que los sistemas con los que estamos familiarizados ahora, pronto caerá en manos de Google, Meta y Microsoft.

¿El objetivo? Revolucionando la IA generativa, los sistemas de recomendación y el procesamiento de datos a una escala que nunca antes habíamos visto. ¿Se beneficiarán los modelos de lenguaje como GPT y qué significará eso para los usuarios habituales?

Leer más
Las GPU Nvidia ven un aumento masivo de precios y demanda de IA
gpu nvidia aumento precios ia

Parece que acabamos de salir de la debilitante escasez de tarjetas gráficas de los últimos años, pero un nuevo informe sugiere que aún no podemos respirar tranquilos. ¿Podría haber una nueva escasez de GPU en el horizonte, o los consumidores están a salvo de un regreso a otro escenario de pesadilla?

Según DigiTimes (a través de Wccftech), Nvidia está viendo un gran aumento en la demanda de sus chips debido a la explosión de herramientas de inteligencia artificial (IA) como ChatGPT. Nvidia ofrece una gama de tarjetas gráficas que sobresalen en tareas de IA, incluidas la A100 y la H100, y según los informes, la compañía está luchando para mantenerse al día a raíz de una demanda tan masiva.
Dan Baker/Tendencias digitales
Nvidia está sintiendo especialmente la tensión en China, donde la compañía está vendiendo versiones modificadas del A100 y H100 para eludir las sanciones de Estados Unidos. Debido a que los chips con capacidad de IA son actualmente tan difíciles de conseguir en el mercado chino, los chips modificados de Nvidia, llamados A800 y H800, están volando absolutamente de los estantes.

Leer más