Cómo elegir una tarjeta gráfica para tu computadora gamer

Si estás buscando comprar o construir una nueva computadora gamer debes de saber de antemano que tipo de juegos serán los más comunes que jugarás. Esto es muy significativo, ya que hay títulos que exigen mucho más al procesador que a la GPU. En caso de que necesites elegir una tarjeta gráfica, aquí te explicaremos todo lo que debes conocer. Puede ser una decisión difícil: no solo hay varios fabricantes, sino también con diferentes versiones.

La elección de una tarjeta gráfica consiste en aprender a leer los números y determinar lo qué es importante. ¿Necesitas más núcleos de unidad de procesamiento de gráficos (GPU), o VRAM? ¿Qué importancia tiene el enfriamiento? ¿Qué pasa con el consumo de energía? Estas son algunas de las preguntas que responderemos a medida que analicemos cómo encontrar una GPU adecuada para ti.

AMD vs. Nvidia vs. IntelNvidia RTX 2080 Super, para aprender cómo elegir una tarjeta gráfica

Cuando se trata de comprar una nueva tarjeta gráfica, las dos opciones principales son AMD y Nvidia. Estos dos gigantes de la industria tienen las tarjetas más poderosas, e incluso sus ofertas económicas están diseñadas teniendo en cuenta los juegos en resoluciones HD.

Intel es principalmente conocido por sus GPU integradas junto con sus procesadores. Aunque estos no están realmente diseñados para juegos, pueden hacerlo, pero son más adecuados para títulos independientes más antiguos.

Eso puede cambiar en 2020, con Intel listo para presentar su primera tarjeta gráfica dedicada en décadas. Hasta que lo haga, AMD y Nvidia fabrican las mejores tarjetas gráficas para computadoras de escritorio y portátiles.

Hay más opciones que solo la marca cuando se trata de elegir una tarjeta gráfica, pero AMD y Nvidia tienen algunas características distintivas que son exclusivas de su hardware. A finales de 2020, las tarjetas gráficas Nvidia son las únicas que admiten el Trazado de rayos acelerado por hardware.

Además de disfrutar de soporte exclusivo para la tecnología G-Sync e integrarse bien con GeForce Now, cuentan con DLSS (Súper muestreo de aprendizaje profundo), que ha demostrado ser capaz de ofrecer mejoras de rendimiento impresionantes en una lista limitada de juegos compatibles.

Nvidia tiene las tarjetas gráficas más potentes disponibles por bastante margen. El buque insignia RTX 3080 es un gigante de 4K, si puedes encontrar uno en stock. La RTX 3090 es aún más impresionante, pero a $1,500 dólares, es difícil de comprar para la mayoría de los usuarios.

Sin embargo, eso no significa que AMD esté cayendo. De hecho, sus tarjetas gráficas de gama alta son capaces y tienen un nicho importante en el mercado. Sus GPU tienden a ofrecer una relación calidad-precio ligeramente mayor en la mayoría de los sectores del mercado, aunque su conjunto de características es posiblemente más débil.

Ofrece soporte para sincronización de fotogramas Freesync (una tecnología comparable a G-Sync), así como nitidez de imagen y otras mejoras visuales, que pueden hacer que los juegos se vean mejor casi sin costo adicional en recursos.

AMD dio a conocer la disponibilidad de Trazado de rayos en la presentación de su nueva Radeon RX 6000 series en octubre pasado, la compatibilidad con DLSS sigue pendiente, pero mencionaron que usarán el sombreado de velocidad variable, los sombreadores de malla y la compatibilidad con las API de almacenamiento directo de Microsoft.

En última instancia, cuando se trata de elegir una GPU, es útil considerar si tu monitor es compatible con Freesync o G-Sync y si alguna de las funciones complementarias de las tarjetas gráficas de estas empresas puede ayudarte. Para la mayoría, el precio y el rendimiento serán consideraciones más importantes.

Núcleos CUDA y Procesadores de transmisión

Tarjeta Nvidia mostrando sus circuitos para aprender cómo elegir una tarjeta gráfica
Jacek Abramowicz/Pixabay

Aunque los procesadores y las tarjetas gráficas tienen “núcleos” de procesador en su corazón, sus tareas son diferentes, por lo que el número de ellas también lo es y te lo explicamos más a detalle.

Los procesadores tienen que ser máquinas potentes de uso general (esa es la razón de tener solo un puñado de núcleos), mientras que las GPU están diseñadas con grandes cantidades de cálculos paralelos, aunque simples, por eso tienen cientos o miles de núcleos.

Por lo general, más es mejor, aunque hay otros factores en juego que pueden mitigarlo. Una tarjeta con un poco menos de núcleos puede tener una velocidad de reloj más alta, lo que es posible que haga que aumente su rendimiento, incluso por encima del desempeño de las tarjetas con un mayor número de núcleos, pero no es regla. Es por eso, por lo que las revisiones individuales de las GPUs y las comparaciones directas son tan importantes.

En nuestra prueba de la 2080 Ti y 2080, la tarjeta de gama alta pudo generar más de 100 FPS en Battlefield 1 a 4K con todas las configuraciones en Ultra, donde la 2080 solo logró 74 FPS en promedio. Las AMD RX 5700 y 5700 XT de rango medio ofrecieron un tipo similar de velocidades de cuadro a 1440p en Battlefield V, aunque cayeron a poco menos de 60 FPS cada una a 4K.

Llamados núcleos CUDA en el caso de las GPU de Nvidia y Procesadores de flujo en las tarjetas de AMD, los núcleos de GPU están diseñados de forma un poco diferente según la arquitectura de la GPU. Eso hace que los recuentos de núcleos de AMD y Nvidia no sean particularmente comparables, al menos no puramente en términos numéricos.

Dentro de cada línea de productos, puedes hacer comparaciones. La RTX 3080, por ejemplo, viene con 8,704 núcleos CUDA, mientras que la RTX 3090 tiene 10,496. En comparación, la 2080 Ti cuenta con alrededor de 4,300 núcleos CUDA, la mitad de lo que tiene la 3080.

Aquí es donde aplicamos lo que decíamos anteriormente, al ser dos generaciones diferentes de GPU, y solo porque la 3080 tenga el doble de núcleos CUDA, eso no significa que tenga el doble de rendimiento.

Los núcleos Turing CUDA, los que están en las GPU de la serie 20, pueden manejar un cálculo de punto flotante y entero simultáneamente por ciclo de reloj (FP32 + INT), mientras que los núcleos Ampere CUDA, los de las GPU de la serie 30, pueden manejar cálculos de doble punto flotante (FP32 + FP32).  Por lo tanto, aunque hay un enorme aumento teórico del rendimiento, la diferencia en la carga de trabajo central no hace que las dos generaciones de GPU sean directamente comparables.

Las tarjetas Nvidia ahora también tienen núcleos RT y Tensor. Los núcleos RT son bastante simples y manejan el Trazado de rayos de hardware con las GPU de la marca RTX de Nvidia. Los núcleos tensoriales están un poco más involucrados.

Nvidia introdujo sus núcleos Tensor con Volta, pero no fue hasta Turing, la generación de GPU que incluye la RTX 2080, que los consumidores pudieron comprar la nueva tecnología. Nvidia ha seguido ampliando los núcleos Tensor con su arquitectura Ampere, incluida en RTX 3090 y 3080.

Los núcleos tensoriales aceleran los cálculos de números enteros y de coma flotante, pero no se construyen de la misma manera. Los núcleos de primera generación en Volta simplemente manejan el aprendizaje profundo con FP16, mientras que los núcleos de segunda generación admiten FP32 a FP16, así como INT8 e INT4.

Con los núcleos de tercera generación más recientes, incluidos en las GPU de la serie RTX 30, Nvidia presentó Tensor Float 32, que funciona de manera idéntica a FP32 al tiempo que acelera las cargas de trabajo de inteligencia artificial (IA), hasta 20 veces.

Para estos núcleos, no se trata de la cantidad de ellos, sino de la generación a la que pertenecen. Entre las GPU RTX de la serie 20 y la serie 30, las tarjetas de la serie 30 están mejor equipadas aquí.

Imaginamos que se volverá más complejo a medida que pase el tiempo, los núcleos Tensor no van a ninguna parte, por lo que, si puedes permitirte una GPU Nvidia más reciente, generalmente es mejor quedarse con una.

VRAM

GPU AMD Radeon montada en una computadora para aprender cómo elegir una tarjeta gráfica
Dan Baker/Digital Trends

Así como cada computadora necesita memoria RAM, cada tarjeta gráfica necesita su propia memoria dedicada, generalmente llamada RAM de video (VRAM), aunque ese es un término algo desactualizado que ha sido reutilizado para su uso coloquial moderno.

Por lo general, verás la memoria en gigabytes de GDDR seguida de un número, que designa su generación. Las GPU recientes van desde 4 GB de GDDR4 a 24 GB de GDDR6X, aunque también existen tarjetas gráficas con GDRR5.

Otro tipo de memoria, denominada memoria de gran ancho de banda (HBM, HBM2 o 2e), ofrece un rendimiento superior a un coste y una producción de calor mayores.

La VRAM es una métrica importante del rendimiento de una GPU, aunque en menor medida que los recuentos de núcleos. Afecta la cantidad de información que la tarjeta puede almacenar en caché lista para procesar, lo que la hace vital para texturas de alta resolución y otros detalles del juego. Si planeas reproducir configuraciones medias a 1080p, entonces 4 GB de VRAM es más que suficiente.

Si quieres jugar con texturas de mayor resolución y con resoluciones altas, 8 GB de VRAM te brindan suficiente espacio y estarás preparado para el futuro, perfecto para cuando los juegos de consola de próxima generación comiencen a dar el salto a la computadora.

Cualquier cantidad arriba de los 8 GB está reservada para las tarjetas de gama alta y solo es realmente necesaria si estás buscando reproducir o editar videos en 4K o resoluciones más altas.

Velocidad de reloj de memoria y GPU

La otra pieza del rompecabezas de rendimiento de la GPU es la velocidad de reloj de los núcleos y la memoria. Esta es la cantidad de ciclos de cálculo completos que la tarjeta realiza por segundo, y es donde se puede cerrar cualquier brecha en el recuento del núcleo o la memoria, en algunos casos de manera significativa. También es donde aquellos que buscan overclockear su GPU tienen el mayor impacto.

La velocidad del reloj generalmente se muestra en dos medidas: reloj base y reloj de impulso. La primera es la velocidad de reloj más baja a la que debe funcionar la tarjeta, mientras que el reloj de impulso es lo que intentará ejecutar cuando haya mucha demanda de recursos.

Sin embargo, es posible que las demandas térmicas y de energía no le permitan alcanzar ese reloj con frecuencia o durante períodos prolongados. Por esta razón, las tarjetas AMD también especifican un reloj de juego, que es más representativo de la velocidad de reloj típica que puedes esperar alcanzar mientras juegas.

Un buen ejemplo de cómo la velocidad del reloj puede marcar la diferencia es con la RTX 2080 Ti y la RTX 2080 Super. Donde la Ti tiene casi un 50 por ciento más de núcleos que la Super y es solo entre un 10 y un 30 por ciento más lenta, según el juego. Eso se debe principalmente a la velocidad de reloj de más de 300 MHz más alta de la 2080 Super.

Una memoria más rápida también ayuda. El rendimiento de la memoria tiene que ver con el ancho de banda, que se calcula combinando la velocidad de la memoria con su cantidad total. La GDDR6X más rápida de la RTX 3080 ayuda a mejorar su ancho de banda general más allá de la RTX 2080 y RTX 2080 Ti en aproximadamente un 20 por ciento.

Pero, no todo es el ancho de banda, hay un techo de utilidad con tarjetas como la AMD Radeon VII que ofrecen un ancho de banda enorme con un rendimiento de juego más bajo que una tarjeta como la 3080.

Cuando se trata de comprar una tarjeta gráfica, las velocidades de reloj se deben considerar principalmente después de haber elegido un modelo. Algunos modelos de GPU cuentan con overclocks de fábrica que pueden aumentar el rendimiento en unos puntos porcentuales con respecto a la competencia. Si hay un buen enfriamiento, puede ser significativo.

Refrigeración y potencia

Imagen de GPU montada en un gabinete mostrando el flujo de aire para comparar Nvidia RTX 3090 vs. RTX 3080

Una GPU es tan poderosa como lo permitan su enfriamiento y consumo de energía. Si no mantienes una tarjeta dentro de las temperaturas de funcionamiento seguras, acelerar la velocidad de su reloj puede traer un rendimiento significativamente peor.

También, puede provocar niveles de ruido más altos ya que los ventiladores giran más rápido para tratar de enfriarlo. Aunque los enfriadores varían enormemente de una tarjeta a otra y de un fabricante a otro, una buena regla general es que aquellos con disipadores de calor y ventiladores más grandes tienden a enfriar mejor. Eso significa que funcionan más silenciosamente y a menudo más rápido.

Eso también puede abrir espacio para el overclocking, si eso te interesa. Las soluciones de refrigeración del mercado de accesorios, como disipadores de calor más grandes y refrigeración por agua en casos extremos, pueden hacer que las tarjetas funcionen aún más silenciosamente y a menor temperatura. Ten en cuenta que es mucho más complicado cambiar un enfriador en una GPU que en un procesador.

Si juegas con auriculares, la refrigeración con poco ruido puede no ser una gran preocupación, pero aun así es algo que vale la pena considerar al construir o comprar tu computadora gamer.

En cuanto a la energía, concéntrate en si tu fuente de alimentación cuenta con suficiente potencia para admitir tu nueva GPU. RealHardTechX tiene un gran gráfico al respecto. También, debes asegurarte de que tu fuente de poder tenga los cables adecuados para la tarjeta que planeas comprar.

Hay adaptadores que pueden hacer el trabajo, pero no son tan estables, y si necesitas usar uno, es una buena señal de que tu fuente de alimentación no está a la altura de la computadora que estás buscando actualizar o comprar.

Si necesitas una nueva fuente de alimentación, estas son nuestras favoritas.

¿Cuánto deberías gastar en una tarjeta gráfica?

Con todo lo demás considerado, el presupuesto podría ser el factor más importante. ¿Cuánto deberías gastar realmente en una GPU? Esto es diferente para todos, dependiendo de cómo planees usarla y cuál sea tu presupuesto. Dicho esto, aquí hay algunas generalizaciones:

  • Para juegos de nivel de entrada, independientes y títulos más antiguos, los gráficos integrados pueden ser suficientes. De lo contrario, hasta $130 dólares en una tarjeta gráfica dedicada, obtendrás velocidades de cuadro y configuraciones de detalle ligeramente mejores.
  • Para juegos pesados de 60+ FPS a 1080p de deportes electrónicos y títulos AAA más antiguos, espera gastar alrededor de $200 dólares.
  • Para los juegos AAA modernos a 1080p o 1440p, es probable que debas gastar cerca de $300 dólares.
  • Más de 60 FPS a 1440p en cualquier juego o con Trazado de rayos de nivel de entrada en juegos compatibles te costará entre $400 y $500 dólares.
  • Títulos en 4K, o el sistema de juegos más extremo, pueden costar tanto como estés dispuesto a gastar, pero es probable que entre $500 y $1,000 dólares.

¿Qué pasa con los gráficos integrados?

Laptop con imagen de un juego que muestra un rifle en un bosque

Tanto Intel como AMD fabrican procesadores que incluyen núcleos de gráficos en el mismo chip, normalmente denominados procesadores de gráficos integrados (IGP), o gráficos integrados. Son mucho más débiles que las tarjetas gráficas dedicadas y, por lo general, solo brindan un rendimiento de nivel básico para juegos de baja resolución y detalles. Sin embargo, hay algunos que son mejores que otros.

Muchos procesadores Intel de la generación actual incluyen gráficos de la serie UHD 600, que hacen que ciertos juegos de gama baja sean prácticamente reproducibles en configuraciones bajas.

En nuestras pruebas, encontramos que con el UHD 620 se pueden jugar juegos como World of Warcraft y Battlefield 4 en configuraciones bajas a una resolución de 768p, pero no rompió los 60 FPS y el rendimiento de 1080p fue significativamente menor, apenas jugable.

Los gráficos de 11ª generación, que se encuentran en los procesadores Ice Lake de 10ª generación de Intel, son mucho más capaces. Los chips equipados con esa tecnología pueden jugar juegos como CS: GO en configuraciones más bajas a 1080p.

Las pruebas de Anandtech encontraron que una GPU de 64 unidades de ejecución a bordo del Core i7-1065G7 en una Dell XPS 13 logró más de 43 FPS en DotA 2 en configuraciones para entusiastas a una resolución de 1080p. También lo encontramos como un chip viable para jugar Fortnite a 720p y 1080p.

Los procesadores Tiger Lake de 11.ª generación de Intel son aún más capaces. Aunque muy lejos de una GPU dedicada, nuestra máquina de prueba de Tiger Lake fue capaz de alcanzar 51 FPS en Battlefield V y 45 FPS en Civilization VI a 1080p con configuraciones medias. El hecho de que pudiéramos incluso soñar con 60 FPS en Battlefield V con gráficos integrados fue asombroso.

Los gráficos Vega integrados de AMD son más comparables a los chips de 11ª generación de Ice Lake, y las variantes de gama alta ofrecen una capacidad de juego de nivel de entrada sorprendentemente capaz. En nuestra prueba de la ThinkPad E495 en 2019, encontramos el Ryzen 7 3700U, con sus gráficos Vega 10, más que compatible con Half-Life 2 y Diablo 3.

Los procesadores Ryzen 4000G más recientes también tienen gráficos integrados y son impresionantes. Según algunos puntos de referencia, el buque insignia Ryzen 7 Pro 4750G puede igualar las consolas de la generación actual en Assassin’s Creed Odyssey, manteniéndose por encima de 30 FPS a 1080p.

El Ryzen 5 4650G y el Ryzen 3 4350G no son tan capaces, aunque pueden mantener velocidades de fotogramas muy por encima de 60 FPS en títulos de deportes electrónicos como League of Legends y Rainbow Six: Siege.

Sin embargo, por muy pasables que sean estas experiencias de juego, encontrarás una experiencia mucho más rica y fluida con un soporte de mayor detalle y velocidades de cuadro más altas en una tarjeta gráfica dedicada.

Recomendaciones del editor