Skip to main content

Las mejores GPU de todos los tiempos, desde 1996 hasta ahora

mejores gpu todos los tiempos amd radeon r9 290
Imagen utilizada con permiso del titular de los derechos de autor

Cuando pensamos en las mejores tarjetas gráficas de hoy en día, nos vienen a la mente GPU como la RTX 4090 o la RX 7900 XTX. Sin embargo, para que estas tarjetas bestiales pudieran funcionar, algunas GPU mucho más antiguas tuvieron que gatear, y luego caminar, para llevarnos a donde estamos hoy.

Mirando hacia atrás, la historia de las tarjetas gráficas nos muestra algunos hitos que redefinieron la tecnología gráfica. Hagamos un viaje a 1996 y años posteriores para explorar las tarjetas gráficas que marcaron la diferencia, tuvieron un impacto y fueron grandes éxitos entre los entusiastas de todo el mundo.

Vudú 3dfx

La tarjeta gráfica 3dfx Voodoo.
http://hw-museum.cz/vga/10/oem-voodoo-graphics

El 3dfx Voodoo marca el amanecer de la aceleración de gráficos 3D de consumo. Este acelerador de gráficos, equipado con una modesta velocidad de reloj de 50 MHz y 4/6 MB de memoria, por no hablar de un nodo de proceso de 500 nm, puede no parecer mucho. Sin embargo, abrió los juegos a un mercado completamente nuevo cuando se lanzó en 1996.

La tarjeta fue diseñada principalmente para atender a los jugadores. Su capacidad para renderizar entornos 3D complejos fue innovadora en su momento, incluso si las especificaciones suenan ridículas para los estándares actuales. Los títulos compatibles con la API Glide de Voodoo ofrecieron una experiencia visual inigualable en 3D, con resoluciones de hasta 800 x 600, o 640 x 480 para las especificaciones más bajas.Sin embargo, el 3dfx Voodoo (a menudo denominado Voodoo 1 más adelante) no estuvo exento de fallas. Dado que se trataba de un acelerador de gráficos 3D, los que lo compraron todavía tenían que comprar una tarjeta 2D por separado. Sin la tarjeta 2D, el 3dfx Voodoo no podría mostrar ningún video, por lo que esta era más una solución para los entusiastas. Como la mayoría de las soluciones gráficas de aquellos tiempos, también luchaba con el calor.Gracias al lanzamiento de esta aceleradora, Voodoo Graphics se convirtió en líder del mercado durante varios años, aunque más tarde la compañía lanzó una de las peores GPU de todos los tiempos, la 3dfx Voodoo Rush. En última instancia, aunque sus innovaciones fueron monumentales y dieron forma al panorama gráfico, 3dfx Interactive no sobrevivió al volátil mercado de GPU de finales de la década de 1990 y principios de la de 2000. Nvidia compró la mayoría de sus activos a finales de 2000, principalmente para asegurar los derechos de propiedad intelectual.

ATI Radeon 9700 Pro

La tarjeta gráfica ATI Radeon 9700 Pro.
TechPowerUp (en inglés)

Solo unos años más tarde, en 2002, la Radeon 9700 Pro de ATI fue el rey de los gráficos durante un tiempo, y ciertamente tenía especificaciones mucho mejores que la 3dfx Voodoo. Basado en un nodo de proceso de 150 nm, tenía un reloj central de 325 MHz y 128 MB de memoria DDR a través de una interfaz de 256 bits. Podría soportar resoluciones de hasta 2.048 x 1.536.

Y lo que es más importante, fue la primera tarjeta gráfica compatible con DirectX 9.0, pero eso no es todo. Esta es la GPU que popularizó el antialiasing (AA) y el filtrado anisotrópico (AF). Antes de esta tarjeta, esas características no eran realmente convencionales, pero esta GPU lo hizo posible. También superó a sus competidores, como la GeForce4 Ti 4600 de Nvidia, hasta en un 100% con AA y AF habilitados.

La adopción temprana de DirectX 9 por parte de ATI le permitió destacarse en comparación con la serie GeForce4 Ti de Nvidia, que no ofrecía soporte de hardware para DX9. Este fue un período de tiempo en el que ATI, más tarde AMD, dominó a Nvidia como nunca antes, lanzando una generación de tarjetas gráficas que derrotaron a Nvidia con facilidad. A la Radeon 9700 Pro le siguió la Radeon 9800 Pro, que también fue un gran éxito tanto entre los jugadores como entre los críticos.

ATI continuó intercambiando golpes con Nvidia durante unos años más, hasta que fue adquirida por AMD en 2006. La marca ATI se extinguió en 2010, pero Radeon aún permanece en los nombres de las tarjetas gráficas de AMD.

Nvidia GeForce 8800 GTX

Tarjeta gráfica GeForce 8800 GTX de Nvidia.
Video-Nvidia / Nvidia

Vamos a 2006, cuando la batalla entre Nvidia y ATI (más tarde AMD) estaba en su apogeo. Fue entonces cuando Nvidia lanzó la GeForce 8800 GTX, una tarjeta gráfica masiva (en ese momento) que encabezó una arquitectura de GPU clave que todavía se usa hasta el día de hoy. Lanzada como parte de dos buques insignia de la serie GeForce 8, la 8800 GTX era una GPU de nivel entusiasta con algunas capacidades de juego feroces.

Toda la línea fue bastante excepcional para su época, pero la 8800 GTX es recordada como un buque insignia monstruoso con algunas especificaciones bastante intensas. Tenía una velocidad de reloj de 575 MHz y contaba con 768 MB de VRAM GDDR3 a través de un bus de memoria de 384 bits. Podía manejar resoluciones de hasta 2.560 x 1.600. Y lo que es más importante, introdujo texturas de sombreado unificadas, impulsando a la GPU a una nueva era de capacidades gráficas con un rendimiento sin precedentes para la época.

Antes de la serie GeForce 8, las tarjetas gráficas usaban sombreadores separados para diferentes tipos de procesamiento, como sombreadores de vértices y píxeles. La arquitectura unificada, que todavía se usa en las GPU modernas, los combinó en una sola canalización más flexible. Esto abrió los recursos de la GPU e hizo que el procesamiento fuera más eficiente.

Además, la 8800 GTX fue la primera en usar DirectX 10, y eso fue una gran mejora en comparación con la versión anterior. Con todo, fue un éxito en su lanzamiento, y se mantuvo durante años, incluso cuando las GPU más nuevas llegaron al mercado.

AMD Radeon R9 290

La tarjeta gráfica AMD Radeon R9 290.
AMD

Cuando AMD lanzó la Radeon R9 290 en 2013, el panorama gráfico ya era muy diferente al que veíamos a finales de la década de 1990 y principios de la de 2000. Presentaba una velocidad de reloj de hasta 947 MHz y 4 GB de memoria GDDR5 a través de un bus de 512 bits. A modo de comparación, Nvidia tiene una versión de la RTX 3050 que también cuenta con 4 GB de VRAM (y una interfaz de 128 bits), aunque se trata de GDDR6. La R9 290 también podría manejar resoluciones de hasta 4K, por lo que está mucho más cerca de las mejores GPU que estamos viendo en estos días que cualquiera de las tarjetas anteriores de esta lista.

Gracias a la espaciosa interfaz de memoria de 512 bits, el R9 290 podía proporcionar un gran ancho de banda de memoria, y eso desbloqueaba juegos de alta gama. También era compatible con la API Mantle de AMD, que fue un intento temprano de crear una API de gráficos de bajo nivel que más tarde influyó en el desarrollo de Vulkan. Algunos también afirman que DirectX 12 también fue influenciado por Mantle de alguna manera. La Radeon R9 290 también fue una de las primeras veces que vimos hardware de procesamiento de audio dedicado en el lado de la GPU.

El legado del AMD R9 290 radica no solo en las nuevas características, sino en el nacimiento del enfoque de rendimiento por dólar de AMD. Era una tarjeta gráfica capaz de ofrecer un rendimiento de gama alta a un precio mucho más asequible (400 dólares) de lo que los entusiastas estaban acostumbrados en ese momento. La R9 290 pudo ofrecer el 106% del rendimiento que ofrece la Nvidia GeForce GTX 780, y a $ 100 menos. No olvidemos que era casi tan potente como el R9 290X, siendo 150 dólares más barato.

El mercado de GPU para juegos de gama alta nunca fue barato, aunque en estos días es más caro que nunca. Pero con la R9 290, AMD mostró a las masas que es completamente posible hacer una GPU premium y ponerle un precio de una manera que hizo que Nvidia se apresurara a ofrecer descuentos. Tengamos más de eso en 2024, por favor.

Nvidia GeForce GTX 1080 Ti

Zotac GeForce GTX 1080Ti AMP
Bill Roberson / DT

Ah, la GTX 1080 Ti, la guinda de la excelente arquitectura Pascal de Nvidia. Toda esa generación de GPU envejeció tan bien que todavía ocupan un lugar destacado en la encuesta mensual de hardware de Steam, y personalmente solo me deshice de mi GTX 1060 hace solo unos meses. Y sí, juego juegos AAA.

El buque insignia de Nvidia, lanzado en 2017, venía con un reloj máximo de 1.582 MHz y una enorme memoria (en ese momento, e incluso hoy) de 11 GB de memoria GDDR5X a través de un bus de 352 bits. Con 3.584 núcleos CUDA y soporte para una resolución de hasta 8K, esta GPU sigue resistiendo bien hasta el día de hoy, superando fácilmente a las tarjetas gráficas económicas más antiguas.

Hasta el día de hoy, creo que la GTX 1080 Ti fue uno de los mayores logros de Nvidia. Con solo 250 vatios, la GPU limpió el piso con el Titan X Pascal. Eso no es todo: cuando Nvidia lanzó la Titan Xp algún tiempo después, era solo un pequeño porcentaje más rápida que la GTX 1080 Ti. A $ 1,200 para el Titan y $ 700 para el 1080 Ti, era una elección obvia en cuanto a qué tarjeta elegir.

En su apogeo, la GTX 1080 Ti era el objetivo de todo jugador, y usar dos de ellas a través del SLI de Nvidia era el sueño en el que algunos entusiastas derrochabon. Si bien SLI está prácticamente muerta ahora, y usar dos GPU 1080 Ti nunca valió la pena, la tarjeta fue una potencia que redefinió la idea de los juegos de alta gama. Ojalá pudiéramos obtener ese tipo de rendimiento relativo por solo $ 700 en estos días. Por supuesto, los 700 dólares dolieron más en 2017, cuando las GPU eran generalmente más baratas.

Nvidia GeForce RTX 3060 Ti

Nvidia RTX 3060 Ti Founders Edition sobre fondo rosa.
Jacob Roach / DT

La RTX 3060 Ti de Nvidia ya no es una de las mejores tarjetas gráficas. Ha sido reemplazada en gran medida por la serie RTX 40 o, en el lado económico, por la serie RX 7000 de AMD. Sin embargo, es una GPU tan buena que la recomendaría por encima de muchas ofertas de la generación actual, siempre que puedas encontrar una buena oferta en ella.

La RTX 3060 Ti es una de las primeras tarjetas que ofrecía un rendimiento razonable de trazado de rayos a un precio convencional. Con un precio de 400 dólares en el momento del lanzamiento, la GPU tiene una velocidad de reloj máxima de 1.665 MHz, 8 GB de memoria GDDR6, un bus de 256 bits y 4.864 núcleos CUDA. En comparación con la decepcionante RTX 4060 Ti, la RTX 3060 Ti es a veces más rápida que su sucesora, e incluso cuando no lo es, sigue el ritmo. Teniendo en cuenta que la RTX 4060 Ti llegó dos años y medio después, dice mucho sobre el potencial y las capacidades de la RTX 3060 Ti.

Este fue también uno de los primeros lanzamientos de GPU en los que la actualización de la GTX 1080 Ti tenía sentido. Es un testimonio del poder de Pascal que la RTX 3060 Ti es solo un 15% más rápida que la 1080 Ti, pero ofrece acceso a toda la pila de software RTX de Nvidia, incluido el siempre impresionante DLSS.

El impacto de la RTX 3060 Ti puede parecer menor ahora que sabemos que Nvidia introdujo más tarde DLSS 3, disponible sólo en las tarjetas de la serie RTX 40, que aplastó a DLSS 2. Sin embargo, aunque la RTX 3060 Ti no introdujo ninguna característica destacada por sí sola, fue una GPU histórica para su generación, que ofrecía acceso a juegos AAA con un presupuesto ajustado en una época en la que la escasez de GPU asolaba todo el mercado. Hasta el día de hoy, es la quinta tarjeta gráfica más popular en la encuesta de hardware de Steam, y sigue siendo una opción que tiene sentido comprar para una PC económica. Eso es mucho decir para una GPU que se lanzó a finales de 2020.

Topics
Diego Bastarrica

Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales, celulares, entretenimiento, tendencias.

Tiene más de 15 años de experiencia en medios digitales, siendo por 10 años director editorial del grupo independiente de medios Betazeta Networks, donde lideró y fue editor general de Fayerwayer.com. También participó en Cooperativa.cl y el consorcio Iberoamericana Radio Chile.

Diego además fue fundador y editor del sitio especializado en fútbol, Ferplei.com. Y cuando asumió la dirección editorial de Betazeta encauzó las estrategias editoriales de los sitios: Wayerless.com, comunidad de telefonía móvil, Niubie.com, comunidad de videojuegos, CHW.net, comunidad de hardware, Belelu.com, comunidad femenina, Veoverde.com, comunidad de ecología, Sabrosia.com, comunidad de comida y Bolido.com, comunidad de autos.

Es además diplomado de la Universidad de Chile en periodismo y estrategias digitales.

Estoy en Mastodon

¿Cómo saber si la batería de una laptop está en buen estado?
cuidar la batería del portátil

La duración de la batería suele ser una cuestión crucial en una laptop, especialmente para cualquiera que no sea usuario de una MacBook, campeona absoluta en cuanto a duración de batería con hasta 24 horas de uso en modelos como la MacBook Pro M4. Y aunque hay cada vez más opciones de laptops Windows con gran duración de batería (echa un vistazo a la Asus ZenBook o a las opciones con procesadores Snapdragon X Elite), conocer el estado de la batería es un aspecto crucial, especialmente si planeas comprar una laptop usada. Sea o no el caso, Windows 11 tiene una herramienta bastante útil (aunque no tan accesible) para saber el estado de la batería de la laptop. Aquí te explicamos cómo acceder a ella.
¿Cómo saber si la batería de mi laptop está en buen estado?
Para saber el estado de la batería de una laptop tendrás que pedir un reporte de batería a Windows a través de la aplicación Command Prompt (Símbolo de sistema) o CMD.

Para pedir el reporte del estado de la batería de la laptop, en la casilla de búsqueda de Windows escribe cmd. Da clic sobre Símbolo de sistema.

Leer más
La carrera hacia los 2nm: los planes de Apple, Nvidia y MediaTek para 2025
Trabajadores de una industria china en proceso de ensamblaje

El 2025 se perfila como el año donde veremos los primeros System on Chip (SoC) de 2 nanómetros, un avance que promete no solo mayor velocidad de cómputo, sino una mejor eficiencia energética que permita celulares con mejores aplicaciones de inteligencia artificial y una autonomía mayor.

No obstante, 2025 también podría ser el año en el que Nvidia y MediaTek se sumen al mercado de las PC portátiles, con soluciones basadas en ARM que meterán más presión a un segmento cada vez más competido y al que recientemente se sumó Qualcomm con sus Snapdragon X Elite.

Leer más
Por fin ha llegado el momento de dejar de ignorar las GPU de Intel
llego momento dejar ignorar gpu intel arc b580

Intel está dando otro paso para convertirse en una de las mejores tarjetas gráficas con la Arc B580, que se lanzará en cuestión de días. Es la primera vez que vemos gráficos discretos en computadoras de escritorio con la arquitectura Battlemage de Intel, y llega solo unas semanas antes de que AMD y Nvidia lancen nuevas generaciones.

Estoy seguro de que has oído hablar del primer intento de Intel con GPU discretas y de todos los problemas que siguieron. Sin embargo, las cosas han cambiado bastante en los últimos años. Tengo que esperar hasta que la Arc B580 esté aquí para ponerla a prueba por completo, pero según lo que Intel ha compartido hasta ahora, es una tarjeta a la que definitivamente deberías estar atento.
Cumplir con el papel de AMD
Jacob Roach / DT
Intel está cumpliendo el papel tradicional de AMD en el mercado de las GPU, y eso sólo está claro si has estado siguiendo el hardware de PC durante un tiempo. Aunque AMD y Nvidia estaban en igualdad de condiciones hace más de una década, Nvidia sin duda ha asumido el liderazgo en el rendimiento de los buques insignia en las últimas generaciones. Durante ese tiempo, AMD se centró más en socavar los productos de gama baja de Nvidia, lanzando GPU que nunca se acercaron al rendimiento de los buques insignia, pero que ofrecían una sólida relación calidad-precio.

Leer más