Durante el inicio de CES 2026, el fabricante de chips estadounidense Nvidia dio a conocer la arquitectura Vera Rubin, descrita por su director ejecutivo, Jensen Huang, como la solución más avanzada disponible actualmente en hardware de inteligencia artificial. Este nuevo sistema ya se encuentra en producción a escala completa y espera expandir su capacidad de manufactura durante el segundo semestre del año.
Huang explicó que la arquitectura Rubin fue concebida para resolver uno de los desafíos más acuciantes de la industria: el extraordinario aumento en la demanda de poder computacional requerido por los modelos de inteligencia artificial contemporáneos. Con respecto a su disponibilidad, confirmó que esta tecnología ya se fabrica en volumen y seguirá incrementándose su producción.
La arquitectura Rubin, anunciada inicialmente hace dos años, representa el resultado más reciente del constante ciclo de innovación en hardware que Nvidia ha implementado, transformándose así en la corporación más valiosa del mundo. Este nuevo sistema sucederá a la arquitectura Blackwell, la cual a su vez reemplazó a las generaciones previas conocidas como Hopper y Lovelace.
Los chips Rubin ya han sido asignados para su utilización en la mayoría de los principales proveedores de servicios en la nube, incluyendo asociaciones destacadas con empresas como Anthropic, OpenAI y los servicios de Amazon Web Services. Asimismo, estos sistemas serán integrados en la supercomputadora Blue Lion de HPE, además de la próxima supercomputadora Doudna que se instalará en el Laboratorio Nacional Lawrence Berkeley.
Denominada en honor a la astrónoma Vera Florence Cooper Rubin, esta arquitectura se compone de seis procesadores distintos diseñados para funcionar de manera coordinada. Aunque la GPU Rubin ocupa un lugar central, la arquitectura también introduce mejoras significativas para resolver los cuellos de botella existentes en almacenamiento e interconexión, gracias a nuevos avances en los sistemas Bluefield y NVLink.
Desde el punto de vista del desempeño, los datos proporcionados por Nvidia demuestran que la arquitectura Rubin ejecutará operaciones 3.5 veces más rápido que Blackwell en tareas de entrenamiento de modelos, y cinco veces más velozmente en tareas de inferencia, alcanzando picos de 50 petaflops. La plataforma también entregará ocho veces mayor capacidad de inferencia por unidad de potencia consumida. Estas mejoras llegan en un contexto de intensa competencia global para construir infraestructura de inteligencia artificial, con estimaciones que sugieren entre tres a cuatro billones de dólares invertidos en esta área durante los próximos cinco años.