Skip to main content
  1. Casa
  2. Computación
  3. Features

Todos los mini anuncios de Nvidia en su conferencia de GPU

La Conferencia de Tecnología de GPU (GTC) semestral de Nvidia generalmente se centra en los avances en IA, pero este año, Nvidia está respondiendo al aumento masivo de ChatGPT con una lista de nuevas GPU. El principal de ellos es el H100 NVL, que une dos de las GPU H100 de Nvidia para implementar modelos de lenguaje grande (LLM) como ChatGPT.

La H100 no es una GPU nueva. Nvidia lo anunció hace un año en GTC, luciendo su arquitectura Hopper y prometiendo acelerar la inferencia de IA en una variedad de tareas. Se dice que el nuevo modelo NVL con sus enormes 94 GB de memoria funciona mejor cuando se implementan LLM a escala, ofreciendo una inferencia hasta 12 veces más rápida en comparación con el A100 de última generación.

El NVL H100 de Nvidia instalado en un servidor.
Nvidia

Estas GPU están en el corazón de modelos como ChatGPT. Nvidia y Microsoft revelaron recientemente que se utilizaron miles de GPU A100 para entrenar ChatGPT, que es un proyecto que lleva más de cinco años en desarrollo.

Recommended Videos

Además del H100 NVL, Nvidia también anunció la GPU L4, que está diseñada específicamente para impulsar videos generados por IA. Nvidia dice que es 120 veces más potente para videos generados por IA que una CPU, y ofrece un 99% mejor de eficiencia energética. Además del video generativo de IA, Nvidia dice que las capacidades de decodificación y transcodificación de video deportivo de GPU se pueden aprovechar para la realidad aumentada.

Nvidia dice que Google Cloud está entre los primeros en integrar el L4. Google planea ofrecer instancias L4 a los clientes a través de su plataforma Vertex AI más tarde hoy. Nvidia dijo que la GPU estará disponible de socios más adelante, incluidos Lenovo, Dell, Asus, HP, Gigabyte y HP, entre otros.

Nvidia está aprovechando las GPU para construir chips de 2 nm (y más pequeños)

La compañía anunció una nueva biblioteca de software que permitirá transistores de 2 nm y más pequeños. La biblioteca se llama cuLitho, y Nvidia ya se ha asociado con las compañías de semiconductores más grandes del mundo para usar la tecnología, incluidas TSMC y Synopsys.

La pila de software está construida para litografía computacional, que es el proceso de grabar los componentes de un procesador en una oblea de silicio. La litografía se ha vuelto más compleja a medida que aumenta la demanda de procesos de fabricación más pequeños, pero la tecnología actual ha alcanzado un punto de inflexión.

Tecnología cuLitho de Nvidia sobre una oblea de silicio.
Nvidia

Nvidia dice que cuLitho va más allá de estos límites, permitiendo a las marcas de semiconductores construir transistores de 2 nm e incluso más pequeños. Intel anunció en 2021 su litografía ultravioleta extrema (EUV) para superar estos límites también, y la compañía dice que su próximo nodo Intel 4 será el primero en aprovechar la litografía EUV.

La diferencia con cuLitho es que se ejecuta en GPU. Nvidia dice que este enfoque es 40 veces más rápido que la técnica de litografía actual, que según la compañía representa decenas de miles de millones de horas de CPU cada año. Con las GPU al timón, Nvidia dice que cuLitho puede reducir el consumo de energía nueve veces con respecto a las técnicas actuales. En la práctica, eso es pasar de 40,000 sistemas de CPU a 500 Nvidia DGX H100 con los mismos resultados, según Nvidia.

Nvidia finalmente hizo una pequeña tarjeta gráfica RTX 4000

Después de meses de tarjetas gráficas masivas como la RTX 4090, Nvidia finalmente está adelgazando las cosas en su Conferencia de Tecnología de GPU (GTC). La RTX 4000 SFF ofrece la arquitectura Ada Lovelace en un paquete pequeño, pero probablemente no la encontrará entre las mejores tarjetas gráficas.

Aunque la RTX 4000 SFF utiliza la misma arquitectura en las GPU para juegos como la RTX 4080, está construida para un propósito muy diferente. Utiliza controladores empresariales Nvidia, y está hecho para impulsar el diseño asistido por computadora (CAD), el diseño gráfico, las aplicaciones de inteligencia artificial y el desarrollo de software, según Nvidia. La tarjeta ocupa dos ranuras e incluye un soporte de perfil bajo para estuches como el Hyte Y40.

NVIDIA RTX 4000 SFF Ada Generation: Next-Level Performance for Compact Workstations

Para las especificaciones, incluye 20 GB de memoria GDDR6 en un bus de 160 bits, así como 6.144 núcleos CUDA, 192 núcleos Tensor y 48 núcleos de trazado de rayos. Esas especificaciones básicas son ligeramente más bajas que las de la RTX 4070 Ti, pero no debe esperar que la RTX 4000 SFF sea tan potente. Tiene especificaciones sólidas, pero está limitado a solo 70 vatios de potencia debido a su naturaleza de factor de forma pequeño.

Aunque la RTX 4000 SFF llena un nicho para los jugadores, no es una gran compra. Nvidia dice que PNY y Ryoyo Electro comenzarán a vender la GPU en abril por $ 1,250, y la mostrarán como una GPU construida para aplicaciones profesionales.
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
¿Planeas actualizar el PC? HP advierte de precios más altos en el futuro
HP Desktop

¿Qué ha pasado? Si planeas comprar un PC, quizá quieras hacerlo cuanto antes. HP afirma que es probable que los precios de los PC y portátiles suban el próximo año porque los costes de los chips de memoria se han disparado. En una reciente conferencia de resultados, el CEO de HP, Enrique Lores, advirtió que, debido al rápido aumento de los precios de la RAM, los futuros productos de PC podrían enviarse con menos memoria o costar más, dependiendo de las condiciones del mercado.

Según PCMag, los precios de la memoria DDR5 han subido más de un 200% en las últimas semanas.

Leer más
¿Pensabas que 8GB de VRAM era malo?
NVIDIA

¿Qué ha pasado? A principios de este año, informes sugerían que las GPUs de próxima generación de Nvidia podrían venir con importantes mejoras de la VRAM. Pero en solo unos meses, el auge de la IA ha elevado tanto los precios de la RAM como de la GDDR al estratosfera, hasta el punto de que, según se informa, AMD y Nvidia están considerando eliminar por completo las GPUs de entrada y económicas. Ahora, las cosas pueden estar complicándose aún más. Ante una creciente escasez global de memoria, se rumorea que Nvidia está cambiando su forma de suministrar GPUs. En lugar de enviar placas completamente pobladas (die + VRAM), puede empezar a enviar solo el chip de la GPU, dejando a los socios de la placa la capacidad de buscar GDDR o HBM por su cuenta. Y si eso ocurre, podría afectar seriamente la flexibilidad de los proveedores y cuántas cartas llegarán realmente a las estanterías.

El paquete de actualización Golden Pig de Leakster afirma que Nvidia dejará de incluir la VRAM con sus GPUs para proteger las cadenas de suministro y reducir los costes iniciales.

Leer más
No te preocupes, tu estrés de compras navideñas ahora lo gestionará la IA
Apps de Amigo Secreto: el intercambio de regalos más sencillo.

Si alguna vez has sentido que tu tensión arterial se dispare solo de pensar en las compras navideñas, no estás solo. La carrera por encontrar el regalo perfecto al precio más bajo suele implicar abrir 50 pestañas del navegador y rezar para que no te hayas perdido ningún código de descuento.

Pero justo a tiempo para la avalancha del Black Friday, dos grandes actores tecnológicos – Microsoft y Perplexity AI – intervienen para gestionar el estrés por ti.

Leer más