Skip to main content

Las peores GPU de todos los tiempos: ruidosas, decepcionantes, sin inspiración

Cuando miras algunas de las mejores tarjetas gráficas de la actualidad, es fácil olvidar que Nvidia y AMD (y más recientemente, Intel) no siempre fueron los únicos jugadores en el juego de la GPU. Si bien tanto AMD como Nvidia han cometido una buena cantidad de errores de GPU, no son las únicas dos marcas detrás de algunas de las peores GPU de todos los tiempos.

Echemos un vistazo a algunas de las tarjetas gráficas que te harán apreciar el panorama actual de GPU, y sí, incluso incluyendo tarjetas que están al límite de los errores. Aquí están las GPU que lo hicieron terriblemente mal, a pesar de que cada una tenía algo interesante o innovador que poner sobre la mesa.

Intel740

La tarjeta gráfica Intel i740 sobre una mesa.
Vintage3D

Arc Alchemist no fue la primera incursión de Intel en GPU discretas, y tampoco lo fue la DG1. Mucho antes de cualquiera de esos proyectos llegó el Intel i740, y es una GPU que hace que todos los otros intentos de Intel se vean mucho mejor.

A mediados y finales de la década de 1990, Intel se subió al carro de la aceleración de gráficos 3D. El floreciente mercado de los juegos de PC realmente estaba empezando a enfocar cuánto importarían los gráficos 3D en el futuro.

El Intel740, también conocido como i740, fue lanzado a principios de 1998. Era una GPU de 350nm que se basaba en la interfaz AGP ahora olvidada hace mucho tiempo, que parecía prometedora en comparación con PCI (tenga en cuenta la diferencia, no PCIe) en aquellos días. De hecho, fue una de las primeras GPU en utilizar AGP, que más tarde demostró desempeñar un papel en su caída.

Tenía una velocidad de reloj de 66MHz modesta y tenía 2-8MB de VRAM a través de un bus de 64 bits. Esas especificaciones suenan ridículas cuando se juzgan por los estándares actuales, e incluso en ese entonces, estaban un poco fuera de lugar. La cantidad de VRAM era menor de lo que algunos de los competidores de Intel podían proporcionar, pero la interfaz AGP estaba destinada a ayudar; desafortunadamente, solo sirvió para reducir el rendimiento de la CPU rellenando la RAM principal con texturas y ocupando la capacidad del procesador. La GPU también se vio afectada por este complicado proceso.

A pesar de mucho bombo, el Intel740 fracasó. Aunque puede haber estado destinado a convertirse en una solución para renderizar gráficos 3D, a veces no los manejó bien, entregando artefactos y baja claridad visual. Los rumores de su bajo rendimiento se extendieron rápidamente. Aunque Intel se dirigió principalmente a los fabricantes de PC preconstruidos (OEM) con esta GPU, solo tomó poco tiempo olvidarse, ya que los entusiastas de los juegos sabían que debían mantenerse alejados del i740.

El mercado de gráficos era muy volátil en ese entonces y evolucionó rápidamente, por lo que un fracaso como ese debe haber sido un revés para Intel. Sin embargo, después de un par de intentos más de hacer GPU discretas, cambió a gráficos integrados, donde encontró éxito en los años venideros.

S3 ViRGE

La tarjeta gráfica S3 ViRGE.
Retronn

Antes de que nos estableciéramos en el panorama actual de AMD, Nvidia e Intel, el mercado de GPU tenía algunos nombres más que competían por la atención. Una de esas compañías fue S3, que saltó a la fama muy rápidamente a principios y mediados de la década de 1990. Al igual que Intel, S3 capitalizó el auge de los gráficos 3D y diseñó chips gráficos que ofrecían aceleración 3D. Al final, el S3 ViRGE se hizo conocido como un «desacelerador 3D», y ahora es recordado como una de las peores GPU de todos los tiempos.

Tras su lanzamiento, el S3 ViRGE se comercializó como el «primer acelerador de gráficos 3D integrado del mundo». Fue, de hecho, uno de los primeros conjuntos de chips diseñados para el mercado principal. Soportaba alrededor de 2MB a 4MB SDRAM a través de un bus de 64 bits y tenía un reloj central de 55MHz. Podía renderizar gráficos 2D y 3D y ofrecía resoluciones de hasta 800 x 600 en 3D. Si bien hizo un trabajo lo suficientemente decente en 2D, no logró impresionar en 3D, y ese fue todo el propósito y el esquema de marketing para el chip.

Cuando se enfrentó a una representación 3D relativamente simple, el S3 ViRGE era en realidad un poco más rápido que la mejor solución basada en CPU de esos tiempos. Sin embargo, cuando se trataba de la representación cada vez más compleja requerida para los juegos 3D, incluidas tareas como el filtrado bilineal, la GPU en realidad demostró ser más lenta que la representación por software (lo que esencialmente significaba usar la CPU con fines gráficos). Esto es lo que le valió el nombre burlón de «el primer desacelerador 3D del mundo», porque los usuarios preferirían desactivar la aceleración 3D y simplemente usar la CPU en su lugar.

La noticia del bajo rendimiento 3D del chip se difundió rápidamente, y el rápido cambio de 2D a 3D en el mercado de los juegos no ayudó aquí. S3 intentó arreglar lo que salió mal con las futuras GPU, como ViRGE / DX y ViRGE / GX, pero tenía competidores bastante feroces en Nvidia, ATI (más tarde AMD) y 3dfx. En última instancia, S3 no pudo competir en el creciente mercado 3D, aunque siguió fabricando chips para el segmento de gama media.

Nvidia GeForceFX 5800

GPU GeForce FX 5800 de Nvidia.
Anandtech

Conoce la GeForce FX 5800 Ultra, la primera (¿y única?) GPU sobre la que Nvidia hizo un video de parodia. Sí, la propia Nvidia hizo un video de dos minutos burlándose de esta GPU, pero no fue hasta después de que se lanzó al mercado y se conoció como el «Dustbuster» de las tarjetas gráficas.

Nvidia tenía grandes planes para la serie FX. Estaba destinado a ser este gran salto a la era DirectX 9, que fue una transición significativa para los juegos de PC. Esta GPU llegó en un momento en que Nvidia ya era líder del mercado, aunque ATI Technologies estaba muy cerca de la línea de tarjetas gráficas Radeon.

El FX 5800 Ultra se fabricó en un proceso de 130 nm y se registró a 500 MHz (reloj y memoria, para un efectivo 1GHz). Utilizaba 128 MB de memoria GDDR2 a través de una interfaz de 128 bits. Nvidia lo adornó con la arquitectura CineFX para mejorar la representación cinematográfica y lo construyó con el plan de hacerlo eficiente en el procesamiento de sombreador DirectX 9.

NV30FlowFX - NVIDIA GeForce FX 5800 Fan Noise

Sobre el papel, sonaba genial. En realidad, decididamente no lo fue. Le fue lo suficientemente bien en los juegos DirectX 8, pero tuvo problemas con ciertos títulos DX9, y la Radeon 9700 Pro de ATI fue una alternativa atractiva que no tenía los mismos problemas. Sin embargo, el principal problema con la FX 5800 Ultra era el ruido.

Nvidia implementó una innovadora solución de enfriamiento en esta GPU llamada FX Flow. Esto estaba destinado a mantener la GPU, que normalmente funcionaba caliente, a una temperatura agradable incluso durante los juegos pesados. Sin embargo, el pequeño ventilador que alimentaba el artilugio tenía que funcionar a una velocidad realmente alta para mantenerse al día. El resultado fue uno de los ruidos más fuertes que una GPU de consumo jamás se haya conocido.

Nvidia no se apegó a este modelo de enfriamiento por mucho tiempo. La mayoría de sus socios volvieron a los métodos de enfriamiento tradicionales para el FX 5900 XT y 5900 Ultra, y no hemos visto nada igual desde entonces.

3dfx Voodoo Rush

Tarjeta gráfica Voodoo Rush.

3dfx fue una vez un rival formidable para Nvidia y ATI. Saltó a la fama a principios de la década de 1990, y como varios otros fabricantes de GPU de esa época, montó la ola de gráficos 3D hasta que se estrelló y se quemó. Nvidia finalmente compró la mayoría de sus activos en 2000. Si bien el declive de la compañía no se puede atribuir a una sola tarjeta, tenía algunas soluciones interesantes que terminaron fallando en el mercado principal, y la GPU 3dfx Voodoo Rush es quizás uno de los ejemplos más reconocidos.

El chipset Voodoo Rush fue un seguimiento del producto inicial de la compañía, el Voodoo1. Integró aceleración 2D y 3D en una sola tarjeta, emparejando las capacidades 3D de los gráficos Voodoo con un núcleo 2D de otros fabricantes. Así es, estoy hablando de una configuración de doble chip aquí.

La GPU servía 6 MB de DRAM EDO, una velocidad de reloj máxima del núcleo de alrededor de 50MHz y soporte para cosas como Glide API, Direct3D y OpenGL, así como una resolución máxima de 800 x 600 en aplicaciones 3D. Sonaba prometedor en papel, pero una vez que el producto real salió y la gente pudo probarlo, varios problemas se asomaron a través de la exageración.

Por un lado, era una GPU masiva con tendencia a calentarse, pero el problema principal radicaba en la arquitectura y cómo todo se sumaba al rendimiento que a menudo era peor que el Voodoo 1 en los juegos 3D. Los problemas de compatibilidad y los artefactos visuales no eran infrecuentes, y una vez que esos problemas salieron a la luz, tanto los revisores como los usuarios le dieron la espalda a esta GPU.

Sin embargo, la mala recepción de Voodoo Rush no fue lo que finalmente selló el destino de 3dfx. Continuó produciendo más GPU, incluida la (también controvertida) Voodoo 5 6000 que venía con su propio adaptador de corriente.

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Los 6 anuncios más importantes que esperamos del Google I/O 2024
anuncios mas importantes que esperamos google io 2024

Riley Young / DT
Google celebrará su conferencia anual de desarrolladores, Google I/O 2024, el 14 de mayo en Mountain View, California. Falta aproximadamente un mes para el evento y esperamos algunos anuncios importantes.

Al igual que con cualquier evento de Google I/O, la conferencia de este año comenzará con una gran presentación de apertura del CEO Sundar Pichai. Pero, ¿qué anuncios reales estamos esperando? Estas son algunas de las cosas más importantes que probablemente veremos en Google I/O 2024.
Android 15
Joe Maring / DT
Como se trata de una conferencia de desarrolladores, el software está casi garantizado. Android 15, que entró en la etapa de vista previa para desarrolladores a mediados de febrero, ocupará un lugar central.

Leer más
Apple ya tiene su próximo gran chip, pero es posible que nunca lo veas
apple chip m3 ultra

La serie de chips M3 de Apple ha sido una mejora importante con respecto a lo anterior, y los usuarios han sentido los beneficios en toda la gama Mac. El único chip que falta en la línea es el M3 Ultra, que está reservado para los dispositivos Mac Studio y Mac Pro de gama alta de Apple.

Hemos escuchado que Apple está pensando en cambiar a un ciclo de lanzamiento anual para sus chips Mac, y con el M2 Ultra haciendo su debut en junio de 2023, todo el mundo se ha estado preparando para ver el lanzamiento de la edición M3 este verano boreal.

Leer más
Llega el primer monitor mini-LED 8K del mundo
primer monitor mini led 8k asus

Asus
Cuando se trata de los mejores monitores de nivel profesional, la resolución, el brillo y la precisión del color son primordiales. Asus tiene como objetivo superar los tres (y mucho más) con su recién anunciado ProArt PA32KCX, que también es el primer monitor profesional mini-LED 8K del mundo.

La resolución 8K es la especificación más destacada, por supuesto. El monitor tiene una resolución de 7680 x 4320 en su pantalla de 32 pulgadas. Uno de los únicos monitores 8K disponibles que realmente compra es el Dell UltraSharp UP3218K, que salió en 2017.

Leer más