Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Las GPU Nvidia ven un aumento masivo de precios y demanda de IA

Parece que acabamos de salir de la debilitante escasez de tarjetas gráficas de los últimos años, pero un nuevo informe sugiere que aún no podemos respirar tranquilos. ¿Podría haber una nueva escasez de GPU en el horizonte, o los consumidores están a salvo de un regreso a otro escenario de pesadilla?

Según DigiTimes (a través de Wccftech), Nvidia está viendo un gran aumento en la demanda de sus chips debido a la explosión de herramientas de inteligencia artificial (IA) como ChatGPT. Nvidia ofrece una gama de tarjetas gráficas que sobresalen en tareas de IA, incluidas la A100 y la H100, y según los informes, la compañía está luchando para mantenerse al día a raíz de una demanda tan masiva.

Nvidia RTX 2060 Super y RTX 2070 Super revisión
Dan Baker/Tendencias digitales

Nvidia está sintiendo especialmente la tensión en China, donde la compañía está vendiendo versiones modificadas del A100 y H100 para eludir las sanciones de Estados Unidos. Debido a que los chips con capacidad de IA son actualmente tan difíciles de conseguir en el mercado chino, los chips modificados de Nvidia, llamados A800 y H800, están volando absolutamente de los estantes.

Esto ha causado que Nvidia aumente el precio hasta en un 40% por encima del MSRP, lo que lleva a que el A800 se venda por hasta $ 36,500. Incluso la Nvidia V100, una tarjeta que se lanzó en 2018, tiene un precio tan alto como $ 10,000.

Nvidia aparentemente apunta a servir primero a sus clientes no chinos, lo que ha llevado a largos retrasos en la obtención de una GPU centrada en la IA en China. Según los informes, los tiempos de espera han aumentado hasta seis meses desde el momento del pedido.

¿Otra escasez de GPU?

Plataforma de minería de criptomonedas de tarjetas gráficas de computadora.
Un minero de criptomonedas conectado a una computadora portátil Getty Images

Tal vez se pregunte cómo será eso un problema para los consumidores. Después de todo, las tarjetas gráficas AI de Nvidia son muy diferentes de sus GPU para juegos, y no es que las compañías de IA vayan a comprar cargas de la RTX 4090. Seguramente eso significa que ChatGPT no causará otra escasez, ¿verdad?

Bueno, la IA está en auge en este momento, y es claramente un área prioritaria para Nvidia. El riesgo no es que las empresas compren todas las GPU para juegos, sino que Nvidia decida asignar más recursos a las GPU empresariales de gama alta, del tipo que brilla cuando se trata de cargas de trabajo de IA, a expensas de las tarjetas gráficas de consumo.

Si eso sucede, podría ser mucho más difícil tener en sus manos una GPU. Eso no parece estar sucediendo todavía, pero puede que no sea algo que se pueda descartar por completo en el futuro.

Si bien el auge de la criptomoneda que alimentó la última escasez de GPU parece haber terminado (al menos por ahora), la revolución de la IA está levantando la cabeza. De hecho, muchos ex mineros criptográficos aparentemente están girando hacia la IA en un intento por seguir siendo rentables.

Es una señal de advertencia de lo que podría estar por delante para cualquiera que esté desesperado por obtener una nueva tarjeta gráfica. Si bien una nueva escasez de GPU no está garantizada de ninguna manera, las necesidades de las empresas de IA podrían ejercer más presión sobre la cadena de suministro de tarjetas gráficas.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Por qué la nueva GPU de Nvidia funciona peor que los gráficos integrados
gpu nvidia funciona peor graficos integrados h100

Geekerwan
Uno podría pensar que una GPU que cuesta más de $ 40,000 será la mejor tarjeta gráfica para juegos, pero la verdad es mucho más compleja que eso. De hecho, esta GPU Nvidia ni siquiera puede mantenerse al día con las soluciones gráficas integradas.

Ahora, antes de que te enojes demasiado, debes saber que me refiero al H100 de Nvidia, que alberga el chip GH100 (Grace Hopper). Es una potente GPU de centro de datos hecha para manejar tareas de computación de alto rendimiento (HPC), no para alimentar juegos de PC. No tiene ninguna salida de pantalla, y a pesar de sus amplias capacidades, tampoco tiene refrigeradores. Esto se debe a que, nuevamente, encontraría esta GPU en un centro de datos o en un entorno de servidor, donde se enfriaría con potentes ventiladores externos.

Leer más
La próxima iGPU de Intel podría destruir a Nvidia y a Apple M2
Intel Core

Intel Meteor Lake podría no ver la luz del día en las computadoras de escritorio (no en el corto plazo, al menos), pero parece que los chips móviles se están fortaleciendo.

Según fuentes internas, las computadoras portátiles equipadas con chips Meteor Lake pueden ni siquiera necesitar una tarjeta gráfica discreta: la GPU integrada será lo suficientemente potente como para rivalizar con la GTX 1650 de Nvidia. Sin embargo, eso no es todo. Parece que Intel podría incluso competir contra el chip M2 de Apple, pero de una manera diferente.
La ley de Moore ha muerto / YouTube
La primicia de hoy proviene de Law Is Dead del YouTuber Moore, quien cita fuentes anónimas de la industria cuando afirma que la iGPU en los chips de Meteor Lake será bastante impresionante. Si todos los rumores se verifican, los fabricantes de computadoras portátiles podrían omitir el uso de una iGPU en las computadoras portátiles para juegos de nivel de entrada.

Leer más
Todos los mini anuncios de Nvidia en su conferencia de GPU
nvidia anuncios conferencia tecnologia gpu chatgpt h100 nvl

La Conferencia de Tecnología de GPU (GTC) semestral de Nvidia generalmente se centra en los avances en IA, pero este año, Nvidia está respondiendo al aumento masivo de ChatGPT con una lista de nuevas GPU. El principal de ellos es el H100 NVL, que une dos de las GPU H100 de Nvidia para implementar modelos de lenguaje grande (LLM) como ChatGPT.

La H100 no es una GPU nueva. Nvidia lo anunció hace un año en GTC, luciendo su arquitectura Hopper y prometiendo acelerar la inferencia de IA en una variedad de tareas. Se dice que el nuevo modelo NVL con sus enormes 94 GB de memoria funciona mejor cuando se implementan LLM a escala, ofreciendo una inferencia hasta 12 veces más rápida en comparación con el A100 de última generación.
Nvidia
Estas GPU están en el corazón de modelos como ChatGPT. Nvidia y Microsoft revelaron recientemente que se utilizaron miles de GPU A100 para entrenar ChatGPT, que es un proyecto que lleva más de cinco años en desarrollo.

Leer más