Skip to main content

Las peores GPU de todos los tiempos: ruidosas, decepcionantes, sin inspiración

Cuando miras algunas de las mejores tarjetas gráficas de la actualidad, es fácil olvidar que Nvidia y AMD (y más recientemente, Intel) no siempre fueron los únicos jugadores en el juego de la GPU. Si bien tanto AMD como Nvidia han cometido una buena cantidad de errores de GPU, no son las únicas dos marcas detrás de algunas de las peores GPU de todos los tiempos.

Echemos un vistazo a algunas de las tarjetas gráficas que te harán apreciar el panorama actual de GPU, y sí, incluso incluyendo tarjetas que están al límite de los errores. Aquí están las GPU que lo hicieron terriblemente mal, a pesar de que cada una tenía algo interesante o innovador que poner sobre la mesa.

Recommended Videos

Intel740

La tarjeta gráfica Intel i740 sobre una mesa.
Vintage3D

Arc Alchemist no fue la primera incursión de Intel en GPU discretas, y tampoco lo fue la DG1. Mucho antes de cualquiera de esos proyectos llegó el Intel i740, y es una GPU que hace que todos los otros intentos de Intel se vean mucho mejor.

A mediados y finales de la década de 1990, Intel se subió al carro de la aceleración de gráficos 3D. El floreciente mercado de los juegos de PC realmente estaba empezando a enfocar cuánto importarían los gráficos 3D en el futuro.

El Intel740, también conocido como i740, fue lanzado a principios de 1998. Era una GPU de 350nm que se basaba en la interfaz AGP ahora olvidada hace mucho tiempo, que parecía prometedora en comparación con PCI (tenga en cuenta la diferencia, no PCIe) en aquellos días. De hecho, fue una de las primeras GPU en utilizar AGP, que más tarde demostró desempeñar un papel en su caída.

Tenía una velocidad de reloj de 66MHz modesta y tenía 2-8MB de VRAM a través de un bus de 64 bits. Esas especificaciones suenan ridículas cuando se juzgan por los estándares actuales, e incluso en ese entonces, estaban un poco fuera de lugar. La cantidad de VRAM era menor de lo que algunos de los competidores de Intel podían proporcionar, pero la interfaz AGP estaba destinada a ayudar; desafortunadamente, solo sirvió para reducir el rendimiento de la CPU rellenando la RAM principal con texturas y ocupando la capacidad del procesador. La GPU también se vio afectada por este complicado proceso.

A pesar de mucho bombo, el Intel740 fracasó. Aunque puede haber estado destinado a convertirse en una solución para renderizar gráficos 3D, a veces no los manejó bien, entregando artefactos y baja claridad visual. Los rumores de su bajo rendimiento se extendieron rápidamente. Aunque Intel se dirigió principalmente a los fabricantes de PC preconstruidos (OEM) con esta GPU, solo tomó poco tiempo olvidarse, ya que los entusiastas de los juegos sabían que debían mantenerse alejados del i740.

El mercado de gráficos era muy volátil en ese entonces y evolucionó rápidamente, por lo que un fracaso como ese debe haber sido un revés para Intel. Sin embargo, después de un par de intentos más de hacer GPU discretas, cambió a gráficos integrados, donde encontró éxito en los años venideros.

S3 ViRGE

La tarjeta gráfica S3 ViRGE.
Retronn

Antes de que nos estableciéramos en el panorama actual de AMD, Nvidia e Intel, el mercado de GPU tenía algunos nombres más que competían por la atención. Una de esas compañías fue S3, que saltó a la fama muy rápidamente a principios y mediados de la década de 1990. Al igual que Intel, S3 capitalizó el auge de los gráficos 3D y diseñó chips gráficos que ofrecían aceleración 3D. Al final, el S3 ViRGE se hizo conocido como un «desacelerador 3D», y ahora es recordado como una de las peores GPU de todos los tiempos.

Tras su lanzamiento, el S3 ViRGE se comercializó como el «primer acelerador de gráficos 3D integrado del mundo». Fue, de hecho, uno de los primeros conjuntos de chips diseñados para el mercado principal. Soportaba alrededor de 2MB a 4MB SDRAM a través de un bus de 64 bits y tenía un reloj central de 55MHz. Podía renderizar gráficos 2D y 3D y ofrecía resoluciones de hasta 800 x 600 en 3D. Si bien hizo un trabajo lo suficientemente decente en 2D, no logró impresionar en 3D, y ese fue todo el propósito y el esquema de marketing para el chip.

Cuando se enfrentó a una representación 3D relativamente simple, el S3 ViRGE era en realidad un poco más rápido que la mejor solución basada en CPU de esos tiempos. Sin embargo, cuando se trataba de la representación cada vez más compleja requerida para los juegos 3D, incluidas tareas como el filtrado bilineal, la GPU en realidad demostró ser más lenta que la representación por software (lo que esencialmente significaba usar la CPU con fines gráficos). Esto es lo que le valió el nombre burlón de «el primer desacelerador 3D del mundo», porque los usuarios preferirían desactivar la aceleración 3D y simplemente usar la CPU en su lugar.

La noticia del bajo rendimiento 3D del chip se difundió rápidamente, y el rápido cambio de 2D a 3D en el mercado de los juegos no ayudó aquí. S3 intentó arreglar lo que salió mal con las futuras GPU, como ViRGE / DX y ViRGE / GX, pero tenía competidores bastante feroces en Nvidia, ATI (más tarde AMD) y 3dfx. En última instancia, S3 no pudo competir en el creciente mercado 3D, aunque siguió fabricando chips para el segmento de gama media.

Nvidia GeForceFX 5800

GPU GeForce FX 5800 de Nvidia.
Anandtech

Conoce la GeForce FX 5800 Ultra, la primera (¿y única?) GPU sobre la que Nvidia hizo un video de parodia. Sí, la propia Nvidia hizo un video de dos minutos burlándose de esta GPU, pero no fue hasta después de que se lanzó al mercado y se conoció como el «Dustbuster» de las tarjetas gráficas.

Nvidia tenía grandes planes para la serie FX. Estaba destinado a ser este gran salto a la era DirectX 9, que fue una transición significativa para los juegos de PC. Esta GPU llegó en un momento en que Nvidia ya era líder del mercado, aunque ATI Technologies estaba muy cerca de la línea de tarjetas gráficas Radeon.

El FX 5800 Ultra se fabricó en un proceso de 130 nm y se registró a 500 MHz (reloj y memoria, para un efectivo 1GHz). Utilizaba 128 MB de memoria GDDR2 a través de una interfaz de 128 bits. Nvidia lo adornó con la arquitectura CineFX para mejorar la representación cinematográfica y lo construyó con el plan de hacerlo eficiente en el procesamiento de sombreador DirectX 9.

NV30FlowFX - NVIDIA GeForce FX 5800 Fan Noise

Sobre el papel, sonaba genial. En realidad, decididamente no lo fue. Le fue lo suficientemente bien en los juegos DirectX 8, pero tuvo problemas con ciertos títulos DX9, y la Radeon 9700 Pro de ATI fue una alternativa atractiva que no tenía los mismos problemas. Sin embargo, el principal problema con la FX 5800 Ultra era el ruido.

Nvidia implementó una innovadora solución de enfriamiento en esta GPU llamada FX Flow. Esto estaba destinado a mantener la GPU, que normalmente funcionaba caliente, a una temperatura agradable incluso durante los juegos pesados. Sin embargo, el pequeño ventilador que alimentaba el artilugio tenía que funcionar a una velocidad realmente alta para mantenerse al día. El resultado fue uno de los ruidos más fuertes que una GPU de consumo jamás se haya conocido.

Nvidia no se apegó a este modelo de enfriamiento por mucho tiempo. La mayoría de sus socios volvieron a los métodos de enfriamiento tradicionales para el FX 5900 XT y 5900 Ultra, y no hemos visto nada igual desde entonces.

3dfx Voodoo Rush

Tarjeta gráfica Voodoo Rush.

3dfx fue una vez un rival formidable para Nvidia y ATI. Saltó a la fama a principios de la década de 1990, y como varios otros fabricantes de GPU de esa época, montó la ola de gráficos 3D hasta que se estrelló y se quemó. Nvidia finalmente compró la mayoría de sus activos en 2000. Si bien el declive de la compañía no se puede atribuir a una sola tarjeta, tenía algunas soluciones interesantes que terminaron fallando en el mercado principal, y la GPU 3dfx Voodoo Rush es quizás uno de los ejemplos más reconocidos.

El chipset Voodoo Rush fue un seguimiento del producto inicial de la compañía, el Voodoo1. Integró aceleración 2D y 3D en una sola tarjeta, emparejando las capacidades 3D de los gráficos Voodoo con un núcleo 2D de otros fabricantes. Así es, estoy hablando de una configuración de doble chip aquí.

La GPU servía 6 MB de DRAM EDO, una velocidad de reloj máxima del núcleo de alrededor de 50MHz y soporte para cosas como Glide API, Direct3D y OpenGL, así como una resolución máxima de 800 x 600 en aplicaciones 3D. Sonaba prometedor en papel, pero una vez que el producto real salió y la gente pudo probarlo, varios problemas se asomaron a través de la exageración.

Por un lado, era una GPU masiva con tendencia a calentarse, pero el problema principal radicaba en la arquitectura y cómo todo se sumaba al rendimiento que a menudo era peor que el Voodoo 1 en los juegos 3D. Los problemas de compatibilidad y los artefactos visuales no eran infrecuentes, y una vez que esos problemas salieron a la luz, tanto los revisores como los usuarios le dieron la espalda a esta GPU.

Sin embargo, la mala recepción de Voodoo Rush no fue lo que finalmente selló el destino de 3dfx. Continuó produciendo más GPU, incluida la (también controvertida) Voodoo 5 6000 que venía con su propio adaptador de corriente.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Signal ahora quiere ser mejor alternativa a Zoom y a Google Meets
signal videollamadas

La aplicación de mensajería Signal se distingue hace años por auto promocionarse como una de las más seguras para comunicarse, debido a sus altos estándares en encriptación y privacidad.

Ahora, la plataforma está agregando nuevas funciones para videollamadas, incluidos enlaces, reacciones y una pestaña de llamadas, en un intento por presentarse como una alternativa a Zoom, Google Meet y Microsoft Teams.
Lo más destacado de la actualización es una nueva pestaña "Llamadas", que le permite realizar nuevas llamadas, administrar enlaces de llamadas y verificar su historial de llamadas.

Leer más
Microsoft está, una vez más, obligando a los usuarios a usar Edge
microsoft obligando usar edge

Microsoft ha desplegado una gran cantidad de tácticas para llevar a los usuarios de Windows a su navegador Edge, y aunque algunos de los métodos más nefastos para tratar de obligar a los usuarios a recoger el navegador han fracasado, la compañía todavía está experimentando con nuevos métodos. La ruta más reciente inicia Edge automáticamente en su PC al iniciarse y solicita a los usuarios que importen continuamente datos de Chrome, incluido su historial, marcadores y pestañas.

Richard Lawler de The Verge detectó el mensaje, que apareció a principios de este año sin explicación antes de desaparecer. Ahora está de vuelta, y de forma oficial por parte de Microsoft. "Esta es una notificación que da a las personas la opción de importar datos de otros navegadores", dijo Caitlin Roulston de Microsoft en un comunicado a The Verge.

Leer más
La serie RTX 40 de Nvidia está llegando a su fin
RTX 4080

Fuera lo viejo, adentro lo nuevo. Según Board Channels, Nvidia ha detenido la producción de casi todas sus mejores tarjetas gráficas para centrarse en la serie RTX 50. Solo queda una GPU en producción, y algunas de las tarjetas más demandadas ya no se producen.

Nvidia no ha anunciado oficialmente que pondrá fin a la serie RTX 40, pero cada vez escuchamos más informes que insinúan que podría ser así. La RTX 4090 fue una de las primeras tarjetas en salir de producción, y la descontinuación parece haber afectado inmediatamente a los mercados. El gigantesco buque insignia de Nvidia era difícil de conseguir en el mejor de los casos, y ahora, como no se producen más unidades nuevas, es seguro asumir que esta situación no mejorará. La RTX 4090 más barata que pude encontrar en Amazon cuesta casi 2.000 dólares, pero aún así puedes conseguir una por 1.900 dólares en Newegg.

Leer más