Cuando miras algunas de las mejores tarjetas gráficas de la actualidad, es fácil olvidar que Nvidia y AMD (y más recientemente, Intel) no siempre fueron los únicos jugadores en el juego de la GPU. Si bien tanto AMD como Nvidia han cometido una buena cantidad de errores de GPU, no son las únicas dos marcas detrás de algunas de las peores GPU de todos los tiempos.
Echemos un vistazo a algunas de las tarjetas gráficas que te harán apreciar el panorama actual de GPU, y sí, incluso incluyendo tarjetas que están al límite de los errores. Aquí están las GPU que lo hicieron terriblemente mal, a pesar de que cada una tenía algo interesante o innovador que poner sobre la mesa.
Intel740
Arc Alchemist no fue la primera incursión de Intel en GPU discretas, y tampoco lo fue la DG1. Mucho antes de cualquiera de esos proyectos llegó el Intel i740, y es una GPU que hace que todos los otros intentos de Intel se vean mucho mejor.
A mediados y finales de la década de 1990, Intel se subió al carro de la aceleración de gráficos 3D. El floreciente mercado de los juegos de PC realmente estaba empezando a enfocar cuánto importarían los gráficos 3D en el futuro.
El Intel740, también conocido como i740, fue lanzado a principios de 1998. Era una GPU de 350nm que se basaba en la interfaz AGP ahora olvidada hace mucho tiempo, que parecía prometedora en comparación con PCI (tenga en cuenta la diferencia, no PCIe) en aquellos días. De hecho, fue una de las primeras GPU en utilizar AGP, que más tarde demostró desempeñar un papel en su caída.
Tenía una velocidad de reloj de 66MHz modesta y tenía 2-8MB de VRAM a través de un bus de 64 bits. Esas especificaciones suenan ridículas cuando se juzgan por los estándares actuales, e incluso en ese entonces, estaban un poco fuera de lugar. La cantidad de VRAM era menor de lo que algunos de los competidores de Intel podían proporcionar, pero la interfaz AGP estaba destinada a ayudar; desafortunadamente, solo sirvió para reducir el rendimiento de la CPU rellenando la RAM principal con texturas y ocupando la capacidad del procesador. La GPU también se vio afectada por este complicado proceso.
A pesar de mucho bombo, el Intel740 fracasó. Aunque puede haber estado destinado a convertirse en una solución para renderizar gráficos 3D, a veces no los manejó bien, entregando artefactos y baja claridad visual. Los rumores de su bajo rendimiento se extendieron rápidamente. Aunque Intel se dirigió principalmente a los fabricantes de PC preconstruidos (OEM) con esta GPU, solo tomó poco tiempo olvidarse, ya que los entusiastas de los juegos sabían que debían mantenerse alejados del i740.
El mercado de gráficos era muy volátil en ese entonces y evolucionó rápidamente, por lo que un fracaso como ese debe haber sido un revés para Intel. Sin embargo, después de un par de intentos más de hacer GPU discretas, cambió a gráficos integrados, donde encontró éxito en los años venideros.
S3 ViRGE
Antes de que nos estableciéramos en el panorama actual de AMD, Nvidia e Intel, el mercado de GPU tenía algunos nombres más que competían por la atención. Una de esas compañías fue S3, que saltó a la fama muy rápidamente a principios y mediados de la década de 1990. Al igual que Intel, S3 capitalizó el auge de los gráficos 3D y diseñó chips gráficos que ofrecían aceleración 3D. Al final, el S3 ViRGE se hizo conocido como un «desacelerador 3D», y ahora es recordado como una de las peores GPU de todos los tiempos.
Tras su lanzamiento, el S3 ViRGE se comercializó como el «primer acelerador de gráficos 3D integrado del mundo». Fue, de hecho, uno de los primeros conjuntos de chips diseñados para el mercado principal. Soportaba alrededor de 2MB a 4MB SDRAM a través de un bus de 64 bits y tenía un reloj central de 55MHz. Podía renderizar gráficos 2D y 3D y ofrecía resoluciones de hasta 800 x 600 en 3D. Si bien hizo un trabajo lo suficientemente decente en 2D, no logró impresionar en 3D, y ese fue todo el propósito y el esquema de marketing para el chip.
Cuando se enfrentó a una representación 3D relativamente simple, el S3 ViRGE era en realidad un poco más rápido que la mejor solución basada en CPU de esos tiempos. Sin embargo, cuando se trataba de la representación cada vez más compleja requerida para los juegos 3D, incluidas tareas como el filtrado bilineal, la GPU en realidad demostró ser más lenta que la representación por software (lo que esencialmente significaba usar la CPU con fines gráficos). Esto es lo que le valió el nombre burlón de «el primer desacelerador 3D del mundo», porque los usuarios preferirían desactivar la aceleración 3D y simplemente usar la CPU en su lugar.
La noticia del bajo rendimiento 3D del chip se difundió rápidamente, y el rápido cambio de 2D a 3D en el mercado de los juegos no ayudó aquí. S3 intentó arreglar lo que salió mal con las futuras GPU, como ViRGE / DX y ViRGE / GX, pero tenía competidores bastante feroces en Nvidia, ATI (más tarde AMD) y 3dfx. En última instancia, S3 no pudo competir en el creciente mercado 3D, aunque siguió fabricando chips para el segmento de gama media.
Nvidia GeForceFX 5800
Conoce la GeForce FX 5800 Ultra, la primera (¿y única?) GPU sobre la que Nvidia hizo un video de parodia. Sí, la propia Nvidia hizo un video de dos minutos burlándose de esta GPU, pero no fue hasta después de que se lanzó al mercado y se conoció como el «Dustbuster» de las tarjetas gráficas.
Nvidia tenía grandes planes para la serie FX. Estaba destinado a ser este gran salto a la era DirectX 9, que fue una transición significativa para los juegos de PC. Esta GPU llegó en un momento en que Nvidia ya era líder del mercado, aunque ATI Technologies estaba muy cerca de la línea de tarjetas gráficas Radeon.
El FX 5800 Ultra se fabricó en un proceso de 130 nm y se registró a 500 MHz (reloj y memoria, para un efectivo 1GHz). Utilizaba 128 MB de memoria GDDR2 a través de una interfaz de 128 bits. Nvidia lo adornó con la arquitectura CineFX para mejorar la representación cinematográfica y lo construyó con el plan de hacerlo eficiente en el procesamiento de sombreador DirectX 9.
Sobre el papel, sonaba genial. En realidad, decididamente no lo fue. Le fue lo suficientemente bien en los juegos DirectX 8, pero tuvo problemas con ciertos títulos DX9, y la Radeon 9700 Pro de ATI fue una alternativa atractiva que no tenía los mismos problemas. Sin embargo, el principal problema con la FX 5800 Ultra era el ruido.
Nvidia implementó una innovadora solución de enfriamiento en esta GPU llamada FX Flow. Esto estaba destinado a mantener la GPU, que normalmente funcionaba caliente, a una temperatura agradable incluso durante los juegos pesados. Sin embargo, el pequeño ventilador que alimentaba el artilugio tenía que funcionar a una velocidad realmente alta para mantenerse al día. El resultado fue uno de los ruidos más fuertes que una GPU de consumo jamás se haya conocido.
Nvidia no se apegó a este modelo de enfriamiento por mucho tiempo. La mayoría de sus socios volvieron a los métodos de enfriamiento tradicionales para el FX 5900 XT y 5900 Ultra, y no hemos visto nada igual desde entonces.
3dfx Voodoo Rush
3dfx fue una vez un rival formidable para Nvidia y ATI. Saltó a la fama a principios de la década de 1990, y como varios otros fabricantes de GPU de esa época, montó la ola de gráficos 3D hasta que se estrelló y se quemó. Nvidia finalmente compró la mayoría de sus activos en 2000. Si bien el declive de la compañía no se puede atribuir a una sola tarjeta, tenía algunas soluciones interesantes que terminaron fallando en el mercado principal, y la GPU 3dfx Voodoo Rush es quizás uno de los ejemplos más reconocidos.
El chipset Voodoo Rush fue un seguimiento del producto inicial de la compañía, el Voodoo1. Integró aceleración 2D y 3D en una sola tarjeta, emparejando las capacidades 3D de los gráficos Voodoo con un núcleo 2D de otros fabricantes. Así es, estoy hablando de una configuración de doble chip aquí.
La GPU servía 6 MB de DRAM EDO, una velocidad de reloj máxima del núcleo de alrededor de 50MHz y soporte para cosas como Glide API, Direct3D y OpenGL, así como una resolución máxima de 800 x 600 en aplicaciones 3D. Sonaba prometedor en papel, pero una vez que el producto real salió y la gente pudo probarlo, varios problemas se asomaron a través de la exageración.
Por un lado, era una GPU masiva con tendencia a calentarse, pero el problema principal radicaba en la arquitectura y cómo todo se sumaba al rendimiento que a menudo era peor que el Voodoo 1 en los juegos 3D. Los problemas de compatibilidad y los artefactos visuales no eran infrecuentes, y una vez que esos problemas salieron a la luz, tanto los revisores como los usuarios le dieron la espalda a esta GPU.
Sin embargo, la mala recepción de Voodoo Rush no fue lo que finalmente selló el destino de 3dfx. Continuó produciendo más GPU, incluida la (también controvertida) Voodoo 5 6000 que venía con su propio adaptador de corriente.