Skip to main content

Las peores GPU de todos los tiempos: ruidosas, decepcionantes, sin inspiración

Cuando miras algunas de las mejores tarjetas gráficas de la actualidad, es fácil olvidar que Nvidia y AMD (y más recientemente, Intel) no siempre fueron los únicos jugadores en el juego de la GPU. Si bien tanto AMD como Nvidia han cometido una buena cantidad de errores de GPU, no son las únicas dos marcas detrás de algunas de las peores GPU de todos los tiempos.

Echemos un vistazo a algunas de las tarjetas gráficas que te harán apreciar el panorama actual de GPU, y sí, incluso incluyendo tarjetas que están al límite de los errores. Aquí están las GPU que lo hicieron terriblemente mal, a pesar de que cada una tenía algo interesante o innovador que poner sobre la mesa.

Recommended Videos

Intel740

La tarjeta gráfica Intel i740 sobre una mesa.
Vintage3D

Arc Alchemist no fue la primera incursión de Intel en GPU discretas, y tampoco lo fue la DG1. Mucho antes de cualquiera de esos proyectos llegó el Intel i740, y es una GPU que hace que todos los otros intentos de Intel se vean mucho mejor.

A mediados y finales de la década de 1990, Intel se subió al carro de la aceleración de gráficos 3D. El floreciente mercado de los juegos de PC realmente estaba empezando a enfocar cuánto importarían los gráficos 3D en el futuro.

El Intel740, también conocido como i740, fue lanzado a principios de 1998. Era una GPU de 350nm que se basaba en la interfaz AGP ahora olvidada hace mucho tiempo, que parecía prometedora en comparación con PCI (tenga en cuenta la diferencia, no PCIe) en aquellos días. De hecho, fue una de las primeras GPU en utilizar AGP, que más tarde demostró desempeñar un papel en su caída.

Tenía una velocidad de reloj de 66MHz modesta y tenía 2-8MB de VRAM a través de un bus de 64 bits. Esas especificaciones suenan ridículas cuando se juzgan por los estándares actuales, e incluso en ese entonces, estaban un poco fuera de lugar. La cantidad de VRAM era menor de lo que algunos de los competidores de Intel podían proporcionar, pero la interfaz AGP estaba destinada a ayudar; desafortunadamente, solo sirvió para reducir el rendimiento de la CPU rellenando la RAM principal con texturas y ocupando la capacidad del procesador. La GPU también se vio afectada por este complicado proceso.

A pesar de mucho bombo, el Intel740 fracasó. Aunque puede haber estado destinado a convertirse en una solución para renderizar gráficos 3D, a veces no los manejó bien, entregando artefactos y baja claridad visual. Los rumores de su bajo rendimiento se extendieron rápidamente. Aunque Intel se dirigió principalmente a los fabricantes de PC preconstruidos (OEM) con esta GPU, solo tomó poco tiempo olvidarse, ya que los entusiastas de los juegos sabían que debían mantenerse alejados del i740.

El mercado de gráficos era muy volátil en ese entonces y evolucionó rápidamente, por lo que un fracaso como ese debe haber sido un revés para Intel. Sin embargo, después de un par de intentos más de hacer GPU discretas, cambió a gráficos integrados, donde encontró éxito en los años venideros.

S3 ViRGE

La tarjeta gráfica S3 ViRGE.
Retronn

Antes de que nos estableciéramos en el panorama actual de AMD, Nvidia e Intel, el mercado de GPU tenía algunos nombres más que competían por la atención. Una de esas compañías fue S3, que saltó a la fama muy rápidamente a principios y mediados de la década de 1990. Al igual que Intel, S3 capitalizó el auge de los gráficos 3D y diseñó chips gráficos que ofrecían aceleración 3D. Al final, el S3 ViRGE se hizo conocido como un «desacelerador 3D», y ahora es recordado como una de las peores GPU de todos los tiempos.

Tras su lanzamiento, el S3 ViRGE se comercializó como el «primer acelerador de gráficos 3D integrado del mundo». Fue, de hecho, uno de los primeros conjuntos de chips diseñados para el mercado principal. Soportaba alrededor de 2MB a 4MB SDRAM a través de un bus de 64 bits y tenía un reloj central de 55MHz. Podía renderizar gráficos 2D y 3D y ofrecía resoluciones de hasta 800 x 600 en 3D. Si bien hizo un trabajo lo suficientemente decente en 2D, no logró impresionar en 3D, y ese fue todo el propósito y el esquema de marketing para el chip.

Cuando se enfrentó a una representación 3D relativamente simple, el S3 ViRGE era en realidad un poco más rápido que la mejor solución basada en CPU de esos tiempos. Sin embargo, cuando se trataba de la representación cada vez más compleja requerida para los juegos 3D, incluidas tareas como el filtrado bilineal, la GPU en realidad demostró ser más lenta que la representación por software (lo que esencialmente significaba usar la CPU con fines gráficos). Esto es lo que le valió el nombre burlón de «el primer desacelerador 3D del mundo», porque los usuarios preferirían desactivar la aceleración 3D y simplemente usar la CPU en su lugar.

La noticia del bajo rendimiento 3D del chip se difundió rápidamente, y el rápido cambio de 2D a 3D en el mercado de los juegos no ayudó aquí. S3 intentó arreglar lo que salió mal con las futuras GPU, como ViRGE / DX y ViRGE / GX, pero tenía competidores bastante feroces en Nvidia, ATI (más tarde AMD) y 3dfx. En última instancia, S3 no pudo competir en el creciente mercado 3D, aunque siguió fabricando chips para el segmento de gama media.

Nvidia GeForceFX 5800

GPU GeForce FX 5800 de Nvidia.
Anandtech

Conoce la GeForce FX 5800 Ultra, la primera (¿y única?) GPU sobre la que Nvidia hizo un video de parodia. Sí, la propia Nvidia hizo un video de dos minutos burlándose de esta GPU, pero no fue hasta después de que se lanzó al mercado y se conoció como el «Dustbuster» de las tarjetas gráficas.

Nvidia tenía grandes planes para la serie FX. Estaba destinado a ser este gran salto a la era DirectX 9, que fue una transición significativa para los juegos de PC. Esta GPU llegó en un momento en que Nvidia ya era líder del mercado, aunque ATI Technologies estaba muy cerca de la línea de tarjetas gráficas Radeon.

El FX 5800 Ultra se fabricó en un proceso de 130 nm y se registró a 500 MHz (reloj y memoria, para un efectivo 1GHz). Utilizaba 128 MB de memoria GDDR2 a través de una interfaz de 128 bits. Nvidia lo adornó con la arquitectura CineFX para mejorar la representación cinematográfica y lo construyó con el plan de hacerlo eficiente en el procesamiento de sombreador DirectX 9.

NV30FlowFX - NVIDIA GeForce FX 5800 Fan Noise

Sobre el papel, sonaba genial. En realidad, decididamente no lo fue. Le fue lo suficientemente bien en los juegos DirectX 8, pero tuvo problemas con ciertos títulos DX9, y la Radeon 9700 Pro de ATI fue una alternativa atractiva que no tenía los mismos problemas. Sin embargo, el principal problema con la FX 5800 Ultra era el ruido.

Nvidia implementó una innovadora solución de enfriamiento en esta GPU llamada FX Flow. Esto estaba destinado a mantener la GPU, que normalmente funcionaba caliente, a una temperatura agradable incluso durante los juegos pesados. Sin embargo, el pequeño ventilador que alimentaba el artilugio tenía que funcionar a una velocidad realmente alta para mantenerse al día. El resultado fue uno de los ruidos más fuertes que una GPU de consumo jamás se haya conocido.

Nvidia no se apegó a este modelo de enfriamiento por mucho tiempo. La mayoría de sus socios volvieron a los métodos de enfriamiento tradicionales para el FX 5900 XT y 5900 Ultra, y no hemos visto nada igual desde entonces.

3dfx Voodoo Rush

Tarjeta gráfica Voodoo Rush.

3dfx fue una vez un rival formidable para Nvidia y ATI. Saltó a la fama a principios de la década de 1990, y como varios otros fabricantes de GPU de esa época, montó la ola de gráficos 3D hasta que se estrelló y se quemó. Nvidia finalmente compró la mayoría de sus activos en 2000. Si bien el declive de la compañía no se puede atribuir a una sola tarjeta, tenía algunas soluciones interesantes que terminaron fallando en el mercado principal, y la GPU 3dfx Voodoo Rush es quizás uno de los ejemplos más reconocidos.

El chipset Voodoo Rush fue un seguimiento del producto inicial de la compañía, el Voodoo1. Integró aceleración 2D y 3D en una sola tarjeta, emparejando las capacidades 3D de los gráficos Voodoo con un núcleo 2D de otros fabricantes. Así es, estoy hablando de una configuración de doble chip aquí.

La GPU servía 6 MB de DRAM EDO, una velocidad de reloj máxima del núcleo de alrededor de 50MHz y soporte para cosas como Glide API, Direct3D y OpenGL, así como una resolución máxima de 800 x 600 en aplicaciones 3D. Sonaba prometedor en papel, pero una vez que el producto real salió y la gente pudo probarlo, varios problemas se asomaron a través de la exageración.

Por un lado, era una GPU masiva con tendencia a calentarse, pero el problema principal radicaba en la arquitectura y cómo todo se sumaba al rendimiento que a menudo era peor que el Voodoo 1 en los juegos 3D. Los problemas de compatibilidad y los artefactos visuales no eran infrecuentes, y una vez que esos problemas salieron a la luz, tanto los revisores como los usuarios le dieron la espalda a esta GPU.

Sin embargo, la mala recepción de Voodoo Rush no fue lo que finalmente selló el destino de 3dfx. Continuó produciendo más GPU, incluida la (también controvertida) Voodoo 5 6000 que venía con su propio adaptador de corriente.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
AMD está dando una vuelta de la victoria con el nuevo Ryzen 9 9950X3D
AMD

En este punto, AMD ha estado en la cima cuando hablamos de los mejores procesadores para juegos, pero aún así tardó CES 2025 en dar una vuelta de la victoria y ampliar su ventaja. Al abrir el discurso de apertura, AMD reveló el Ryzen 9 9950X3D y el Ryzen 9 9900X3D, los cuales estarán disponibles en el primer trimestre de este año.

El rendimiento aquí no influye mucho, ya que AMD ya ha reclamado el primer lugar para los procesadores de juegos con su popular Ryzen 7 9800X3D. Sin embargo, como puedes ver a continuación, AMD afirma tener una ventaja del 8% sobre el Ryzen 9 7950X3D de la última generación de media después de probar 40 juegos. Como era de esperar, juegos gráficamente intensivos como Avatar: Frontiers of Pandora y Black Myth: Wukong ven pocos beneficios, pero AMD reclama una ventaja de hasta el 58% en un juego como Counter-Strike 2.
AMD
Una ventaja del 8% está bien, pero AMD realmente muestra su destreza en los juegos contra Intel. En comparación con el Core Ultra 9 285K, AMD dice que el Ryzen 9 9950X3D es un 20% más rápido de media a 1080p. Todavía hay esos juegos gráficamente exigentes, pero AMD afirma aumentos de hasta el 40% en Warhammer 40K: Space Marine 2 y el 64% en Watch Dogs: Legion.
AMD
No es de extrañar que las nuevas CPU de AMD dominen en los juegos, teniendo en cuenta que incluyen la segunda generación de V-Cache 3D de AMD. Sin embargo, a diferencia del Ryzen 7 9800X3D que ya está disponible, el Ryzen 9 9900X3D y el Ryzen 9 9950X3D están orientados tanto para cargas de trabajo de juego como de productividad con 12 y 16 núcleos, respectivamente. En ese frente, los márgenes son un poco más estrechos.
AMD
En comparación con Intel, AMD dice que es alrededor de un 10% más rápido en todas las cargas de trabajo de productividad. La batalla está reñida en aplicaciones de renderizado como Blender y Cinebench, un área donde las últimas CPU de Intel son particularmente fuertes, pero AMD sale adelante por márgenes del 14% en Premiere Pro y un enorme 47% en Photoshop.
AMD
Para la comparación de generación a generación, AMD afirma una ventaja del 13%, aunque con muchos menos picos y valles de lo que se puede ver en la comparación de Intel. Las últimas CPU  Zen 5 de AMD no tienen grandes saltos sobre las opciones Zen 4 de última generación, pero son consistentemente más rápidas en casi todas las aplicaciones.
AMD
Como siempre es el caso, es importante tratar estos números de rendimiento con una buena dosis de escepticismo. Vi algunas brechas de rendimiento bastante grandes entre las afirmaciones de AMD y el rendimiento en el mundo real con chips como el Ryzen 7 9700X y el Ryzen 5 9600X, un problema que AMD finalmente abordó a través de varias actualizaciones.

Leer más
AMD cede ante Nvidia con la RX 9070 XT y la FSR 4
AMD FSR 4

AMD reveló su tan esperada arquitectura RDNA 4 en el CES 2025, pero llegó con más ruido sordo y menos explosión. Aunque las nuevas RX 9070 XT y RX 9070 podrían entrar en la lista de las mejores tarjetas gráficas, es difícil decir si lo harán en este momento, a pesar de que se espera que las tarjetas lleguen en los primeros meses de este año.

En su discurso de apertura del CES, lleno de acción, la nueva gama RDNA 4 fue una nota pasajera en lugar del evento principal. Aunque los detalles sobre la nueva arquitectura RDNA 4 son escasos, AMD dice que actualizó casi todos los aspectos del diseño de su GPU. Eso incluye un mejor rendimiento de trazado de rayos con aceleradores RT de tercera generación, un soporte de codificación de medios más amplio con un motor AMD Radiance Display de segunda generación y, lo que es más importante, un gruñido de IA con aceleradores de IA de segunda generación.
AMD
Esos aceleradores de IA son importantes, ya que parece que impulsarán la tecnología de escalado y generación de fotogramas FSR 4 de próxima generación de AMD. AMD ha estado luchando contra el DLSS de Nvidia durante años, pero FSR 4 parece un punto de inflexión. La compañía dice que la función impulsada por ML fue "desarrollada para RDNA 4", lo que significa que la función es exclusiva de las tarjetas gráficas RDNA 4. Vale la pena señalar que las GPU de última generación de AMD, como la RX 7900 XTX y la RX 7900 XT, también vienen con aceleradores de IA de primera generación.

Leer más
Acer tiene su propia versión de la Mac mini y la iMac
Acer Predator CES 2025

Entre las ofertas de Acer para el CES 2025, hay algunos claros competidores de Apple: la serie de sobremesa Aspire AIO (todo en uno) y el mini PC Revo Box. Todos son PC Copilot+ equipados con unidades de procesamiento neuronal (NPU) integradas destinadas a ser impulsadas a través de la aceleración de la IA, al menos, en teoría.

La línea incluye dos computadoras de escritorio AIO diferentes, la serie Aspire C y la serie Aspire S. Una diferencia clave entre ellos es que los modelos Aspire S funcionan con procesadores Intel Core Ultra 7 y gráficos Intel Arc, mientras que los modelos Aspire C utilizan procesadores AMD Ryzen AI 9 y tarjetas gráficas AMD Radeon.
Acer
Con un elegante exterior blanco y una pequeña cámara integrada en el bisel, la serie Aspire S está diseñada para ser súper delgada y minimalista. La serie C, por otro lado, viene en negro y tiene una cámara más grande que se encuentra en la parte superior del monitor. Es más potente, pero sigue apuntando a ser elegante y delgado.

Leer más