Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. News

NVIDIA anuncia su generación de chips de supercomputadora de IA

Imagen utilizada con permiso del titular de los derechos de autor

La gente de NVIDIA ha presentado este lunes 13 de noviembre su nueva generación de chips de supercomputadora IA, los GPU HGX H200 de la serie arquitectura Hopper y que  desempeñarán un papel importante en futuros avances en aprendizaje profundo y grandes modelos de lenguaje (LLM) como GPT-4 de OpenAI.

Estos chips están pensados para centros de datos y supercomputadoras, trabajando en tareas como la predicción del tiempo y el clima, el descubrimiento de fármacos, la computación cuántica y más.

Recommended Videos

La GPU HGX H200 es un reemplazo de la popular GPU H100. Es el primer chip de la compañía que utiliza memoria HBM3e que es más rápida y tiene más capacidad, lo que lo hace más adecuado para modelos de lenguaje grandes. «Con HBM3e, la NVIDIA H200 ofrece 141 GB de memoria a 4,8 terabytes por segundo, casi el doble de capacidad y 2,4 veces más ancho de banda en comparación con su predecesora, la NVIDIA A100», escribió la compañía.

En términos de beneficios para la IA, NVIDIA dice que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de parámetros, en comparación con el H100. Estará disponible en configuraciones de 4 y 8 vías que son compatibles tanto con el software como con el hardware de los sistemas H100. Funcionará en todo tipo de centros de datos (on-premise, nube, nube híbrida y edge), y será desplegado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Está previsto que llegue en el segundo trimestre de 2024.

El otro producto clave de NVIDIA es el «superchip» GH200 Grace Hopper que combina la GPU HGX H200 y la CPU NVIDIA Grace basada en Arm utilizando la interconexión NVLink-C2C de la compañía. Está diseñado para supercomputadoras para permitir que «los científicos e investigadores aborden los problemas más desafiantes del mundo acelerando las complejas aplicaciones de IA y HPC que ejecutan terabytes de datos», escribió NVIDIA.

La GH200 se utilizará en «40+ supercomputadoras de IA en centros de investigación globales, fabricantes de sistemas y proveedores de nube», dijo la compañía, incluidos Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT y Supermicro. Entre ellos destacan los superordenadores Cray EX2500 de HPE, que utilizarán cuatro GH200, escalando hasta decenas de miles de nodos Grace Hopper Superchip.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
CES 2026 responderá a grandes preguntas sobre las GPUs RTX 50 Super
Photography, Clothing, Coat

Con su arquitectura Blackwell bien establecida en centros de datos de IA, servicios en la nube, estaciones de trabajo y ordenadores de sobremesa/portátiles, el evento de prensa CES 2026 de Nvidia probablemente se centrará menos en los nuevos lanzamientos. Más bien, se espera que la compañía profundice en los refinamientos, las señales de hoja de ruta y cómo planea impulsar su pila de hardware y software durante el próximo año.

Nvidia ha confirmado que el fundador y CEO Jensen Huang ofrecerá la ponencia inaugural del CES el 5 de enero, un día antes de la apertura principal del CES. CES se ha convertido en una de las etapas más importantes del año para Nvidia, aunque la compañía no esté lanzando una nueva generación de GPUs.

Read more
Olvídate de la Galaxy S26: esto presentará Samsung en CES 2026
Computer Hardware, Electronics, Hardware

Una de las mayores empresas a seguir en CES 2026, un evento tecnológico anual que este año comienza el 6 de enero, es Samsung. De hecho, probablemente deberías dejar una marca antes en tu calendario: la rueda de prensa vinculada de la marca coreana comienza antes del CES, el 4 de enero.

No, no es donde veremos a la familia Samsung Galaxy S26. O la Galaxy Tab S12, o los Buds 4 o el Watch 9 o cualquier otra tecnología móvil que anheles de la marca. Probablemente lleguen a finales de enero o en febrero, pero lo que Samsung muestre podría ser igual de interesante.

Read more
ChatGPT Go llega a Latinoamérica de la mano de Rappi
Rappi

OpenAI anunció ChatGPT Go en Latinoamérica, un nuevo plan por suscripción diseñado para ampliar el acceso a las capacidades avanzadas de ChatGPT. Esta es una nueva versión premium de menor costo, alternativa entre las opciones gratuita y Plus y llega al mercado con beneficios para los usuarios Rappi, quienes podrán obtenerla hasta por seis meses de manera gratuita.

Los suscriptores de ChatGPT Go, incluyendo aquellos que son usuarios de Rappi, obtendrán acceso a algunas de las características más populares de ChatGPT con mayor límite de mensajes, generación de imágenes, carga de archivos y memoria. Este nuevo plan permitirá que más personas aprovechen los beneficios más avanzados de la IA para las necesidades cotidianas, ya sean traducciones y tutorías hasta apoyo en escritura, aprendizaje o guía paso a paso para realizar distintas tareas.

Read more