Cuando llega el momento de ensamblar un ordenador para jugar, las dudas se multiplican. El futuro usuario se pregunta dónde está la mejor relación costo-beneficio, cuáles son los componentes que poseen una compatibilidad superior, y por sobre todas las cosas, qué tan bien van a funcionar los títulos que desea jugar. Por suerte, no es demasiado complicado localizar una o dos pruebas de nuestros juegos favoritos, pero el verdadero valor de un benchmark surge cuando ese mismo juego es evaluado a través de múltiples configuraciones, y bajo condiciones no del todo óptimas. Esa es la clase de trabajo que podemos encontrar en el canal TechEpiphany.
¿Cuatro núcleos, o seis como mínimo? ¿Es suficiente con 8 GB de RAM? ¿Cuánta memoria VRAM se necesita para jugar en 1080p? ¿La velocidad de un SSD o la densidad de un disco duro? Son preguntas importantes, pero al mismo tiempo me encanta que alguien se las haga, porque claramente está pensando en armar un ordenador (ya sea nuevo o combinando componentes usados), y el entusiasmo es contagioso. Sin embargo, apenas estamos cubriendo una parte de la compleja ecuación del rendimiento en los juegos.
No importa qué tan bien hagamos la tarea, a veces recibimos un rendimiento decepcionante por un problema en los controladores, una falta de optimización general, o la preferencia de una arquitectura sobre otra. Por ejemplo, el caso de Strange Brigade es muy favorable para las tarjetas AMD, pero si cruzamos a la acera de los últimos Assassin’s Creed, la ventaja del hardware Nvidia es considerable. El punto es que necesitamos benchmarks. Muchos benchmarks.
Benchmarks para tarjetas gráficas
Ahora, la mayoría de los youtubers hacen un sólido trabajo con sus sesiones de benchmarking. Gamers Nexus y Hardware Unboxed mantienen un excelente nivel de calidad en ese aspecto, pero hay un pequeño inconveniente, o mejor dicho, una necesidad en su metodología que no beneficia del todo al usuario final. Al momento de evaluar tarjetas gráficas, deben usar el procesador más potente a su alcance (digamos, un Core i9-9900K) para evitar cuellos de botella y arrojar una capa extra de precisión a los números de cada GPU.
Cuando el benchmarking es de CPUs sucede lo contrario, y en los bancos de pruebas es común ver a una GeForce RTX 2080 Ti de 1.300 euros. Esto no es realista para el usuario que lucha con el presupuesto, pero tampoco podemos pedir benchmarks de cada procesador combinado con cada tarjeta gráfica allá afuera… ¿o sí?
A decir verdad, el canal de YouTube TechEpiphany cae bastante cerca de ese objetivo. Todo aquel que desee ver a los mejores benchmarks de tarjetas gráficas sin voces ni comentarios de fondo, debe chequear los vídeos que aparecen publicados allí. Puro MSI Afterburner y especificaciones técnicas, nada más que eso. Su responsable es, a falta de otra descripción, una máquina. Un día tranquilo equivale a cuatro o cinco vídeos, pero lo he visto publicar una docena de benchmarks en menos de 24 horas.
La forma más efectiva de estudiar sus resultados es a través de las listas de reproducción. Digamos que estás interesado en el último hit battle royale de Electronic Arts, Apex Legends. En su lista encontrarás benchmarks que van desde APUs basados en la plataforma FM2+ hasta la serie RTX de Nvidia, pasando por vídeo integrado Intel, tarjetas muy populares en el mercado de segunda mano, algunos modelos clásicos, y plataformas con condiciones especiales. Esta última categoría incluye a los Ryzen Mobile, optimizados con una versión modificada de Ryzen Master.
Recientemente, TechEpiphany ha concentrado sus esfuerzos en títulos AAA como Metro Exodus y la remake de Resident Evil 2, pero suele favorecer al hardware más económico. El Athlon 200GE con su módulo Vega 3 tiene más de cien vídeos con múltiples juegos y configuraciones variables, mientras que el Ryzen 3 2200G fue sometido a más de 200 benchmarks. Vale la pena recordar que el overclocking del Athlon 200GE fue liberado algunos meses atrás, y que los ajustes sobre la memoria RAM (dual channel, timings) cambian el comportamiento del vídeo integrado.
En resumen, a veces se vuelve complicado seguir el ritmo de tantos vídeos, pero creo que los benchmarks de TechEpiphany son un poco más reales para el usuario final debido a la impresionante combinación de hardware low y mid end.
Visita el canal: Haz clic aquí
En mi opinión, el mejor benchmark para una tarjeta gráfica de Nvidia es ponerla a renderizar con uno de los motores de render que usan la GPU para dicho propósito, ya sea Octane, Cycles, IRAY u otro similar.
El estrés al que se somete a una tarjeta gráfica durante el renderizado es superior al que puede someterla cualquier juego o demo técnica, pues en todo momento los núcleos trabajan al 100%. Y el 100% sostenido durante horas, es mucho.
Supongamos que pruebas a renderizar una imagen proceso que puede llevar desde minutos hasta horas, dependiendo de la complejidad de la escena. La gráfica que primero termine es la más potente. Porque lo que se conoce como test sintéticos, son eso, sintéticos y pueden diferir de las pruebas con aplicaciones reales.
Lo ideal es testear una gráfica con las mismas aplicaciones para las que se va a utilizar.
«En mi opinión, el mejor benchmark para una tarjeta gráfica de Nvidia es ponerla a renderizar con uno de los motores de render que usan la GPU para dicho propósito, ya sea Octane, Cycles, IRAY u otro similar.»
Exprimir los núcleos CUDA es lo mejor que puede hacer una aplicación, pero eso no elimina el hecho de que se establecen condiciones muy favorables para el hardware Nvidia, cuando lo ideal sería una posición más «agnóstica», que habilite el máximo rendimiento para todas las tarjetas. Si Intel entra al juego de las gráficas en 2020, vamos a necesitar más de eso.
«El estrés al que se somete a una tarjeta gráfica durante el renderizado es superior al que puede someterla cualquier juego o demo técnica, pues en todo momento los núcleos trabajan al 100%. Y el 100% sostenido durante horas, es mucho.»
Técnicamente cierto, pero si el estrés es un factor prioritario, probablemente no exista nada que le gane a FurMark. Esas no son cargas «realistas» para quien sólo desea armar un ordenador y jugar. Al mismo tiempo, una carga de GPU del 100 por ciento dentro de un juego mientras el CPU está prácticamente dormido puede ser señal de un cuello de botella.
«Supongamos que pruebas a renderizar una imagen proceso que puede llevar desde minutos hasta horas, dependiendo de la complejidad de la escena. La gráfica que primero termine es la más potente.»
Bajo condiciones óptimas tal vez, pero me temo que en la práctica no es tan así. Se han reportado diferencias de rendimiento incluso entre dos tarjetas del mismo fabricante bajo el mismo modelo y usando el mismo GPU, con porcentajes del cinco por ciento en los casos más extremos. Calidad neta del silicio (en GPU, VRM y/o RAM), estado de los controladores, optimizaciones internas, refrigeración, throttling y auto-overclocking son factores secundarios que no podemos ignorar.
«Porque lo que se conoce como test sintéticos, son eso, sintéticos y pueden diferir de las pruebas con aplicaciones reales.»
Por ese motivo es que muchos de estos benchmarks son «in-game». Algunos juegos ni siquiera tienen un benchmark sintético interno, o simplemente no pueden tenerlo. Apex Legends es una verdadera pesadilla de benchmarking debido a sus variables naturales. Fortnite arrastraba un inconveniente similar hasta el lanzamiento del modo replay.
«Lo ideal es testear una gráfica con las mismas aplicaciones para las que se va a utilizar.»
Que en este caso, son videojuegos. Un gusto como siempre. 🙂