Skip to main content

NVIDIA anuncia su generación de chips de supercomputadora de IA

Imagen utilizada con permiso del titular de los derechos de autor

La gente de NVIDIA ha presentado este lunes 13 de noviembre su nueva generación de chips de supercomputadora IA, los GPU HGX H200 de la serie arquitectura Hopper y que  desempeñarán un papel importante en futuros avances en aprendizaje profundo y grandes modelos de lenguaje (LLM) como GPT-4 de OpenAI.

Recommended Videos

Estos chips están pensados para centros de datos y supercomputadoras, trabajando en tareas como la predicción del tiempo y el clima, el descubrimiento de fármacos, la computación cuántica y más.

La GPU HGX H200 es un reemplazo de la popular GPU H100. Es el primer chip de la compañía que utiliza memoria HBM3e que es más rápida y tiene más capacidad, lo que lo hace más adecuado para modelos de lenguaje grandes. «Con HBM3e, la NVIDIA H200 ofrece 141 GB de memoria a 4,8 terabytes por segundo, casi el doble de capacidad y 2,4 veces más ancho de banda en comparación con su predecesora, la NVIDIA A100», escribió la compañía.

En términos de beneficios para la IA, NVIDIA dice que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de parámetros, en comparación con el H100. Estará disponible en configuraciones de 4 y 8 vías que son compatibles tanto con el software como con el hardware de los sistemas H100. Funcionará en todo tipo de centros de datos (on-premise, nube, nube híbrida y edge), y será desplegado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Está previsto que llegue en el segundo trimestre de 2024.

El otro producto clave de NVIDIA es el «superchip» GH200 Grace Hopper que combina la GPU HGX H200 y la CPU NVIDIA Grace basada en Arm utilizando la interconexión NVLink-C2C de la compañía. Está diseñado para supercomputadoras para permitir que «los científicos e investigadores aborden los problemas más desafiantes del mundo acelerando las complejas aplicaciones de IA y HPC que ejecutan terabytes de datos», escribió NVIDIA.

La GH200 se utilizará en «40+ supercomputadoras de IA en centros de investigación globales, fabricantes de sistemas y proveedores de nube», dijo la compañía, incluidos Dell, Eviden, Hewlett Packard Enterprise (HPE), Lenovo, QCT y Supermicro. Entre ellos destacan los superordenadores Cray EX2500 de HPE, que utilizarán cuatro GH200, escalando hasta decenas de miles de nodos Grace Hopper Superchip.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Conozca Blackwell, la arquitectura de GPU de próxima generación de Nvidia
blackwell arquitectura gpu nvidia

Nvidia
Finalmente tenemos nuestra primera muestra de la próxima generación de GPU de Nvidia, llamada Blackwell. Claro, están diseñados para empresas, y no, no ejecutarán Cyberpunk 2077 (al menos no oficialmente). Pero este es el primer vistazo que tenemos a lo que Nvidia está preparando para sus GPU de la serie RTX 50, que se rumorea que se lanzarán en algún momento del próximo año.

La GPU que tenemos hoy en día es la B200 (Blackwell 200, si puedes detectarla) que viene con 208 mil millones de transistores. La arquitectura se basa en el nodo 4NP de TSMC, que es una versión mejorada del nodo de 5 nm. Es un poco sorprendente dado que las GPU Ada Lovelace de Nvidia están construidas con el nodo 4N de TSMC, a un paso de 4NP. Sin embargo, Nvidia señala que está utilizando una versión personalizada de este proceso.
Nvidia
Nvidia estableció seis parámetros que distinguen a Blackwell. El primero es el proceso 4NP personalizado, que Nvidia está utilizando para conectar dos matrices de GPU a través de una interconexión de 10 TB por segundo. El segundo es un motor transformador actualizado. Nvidia dice que la arquitectura puede manejar el doble del tamaño del modelo de la última generación de Ada Lovelace, y es compatible con un nuevo conjunto de instrucciones de coma flotante de 4 bits.

Leer más
Windows 11 pronto aprovechará su GPU para la IA generativa
Windows 11 vs. Windows 10: ¿deberías actualizarte?

Tras la introducción de Copilot, su último asistente inteligente para Windows 11, Microsoft vuelve a avanzar en la integración de la IA generativa con Windows. En la conferencia de desarrolladores Ignite 2023 en curso en Seattle, la compañía anunció una asociación con Nvidia en TensorRT-LLM que promete elevar las experiencias de los usuarios en computadoras de escritorio y portátiles con Windows con GPU RTX.

La nueva versión está configurada para introducir soporte para nuevos modelos de lenguaje grandes, lo que hace que las cargas de trabajo de IA exigentes sean más accesibles. Cabe destacar su compatibilidad con la API de chat de OpenAI, que permite la ejecución local (en lugar de en la nube) en PC y estaciones de trabajo con GPU RTX a partir de 8 GB de VRAM.

Leer más
Bill Gates dice que la IA generativa como GPT tocó su techo
bill gates sorprendido

En una entrevista con el periódico económico alemán Handelsblatt, el fundador de Microsoft, Bill Gates, afirmó que según lo que ha observado hasta el momento, la IA generativa como GPT ya llegó a su techo y que no espera, por ejemplo, que GPT-5 tenga diferencias radicales con GPT-4.

El filántropo tecnológico ve un gran potencial en los sistemas de IA actuales si se reducen los costes y las tasas de error y se mejora la fiabilidad, lo que cree que se puede lograr en los próximos dos a cinco años.
GPT-5: por qué no será un gran salto
Como punto de referencia de lo que considera una importante mejora de la calidad, citó el gran salto de calidad de GPT-2 a GPT-4, que describió como "increíble".

Leer más