El embargo oficial ha terminado, y como era de esperarse, los primeros benchmarks de la GeForce RTX 5090 tomaron a la Web por asalto. Con más de 20 mil núcleos CUDA, 32 GB de VRAM en GDDR7, 512 bits de ancho de banda y un TDP que golpea las puertas de los 600 vatios, Nvidia nos recuerda que esencialmente no tiene competencia en el espacio hi-end. Sin embargo, queda una pregunta por responder: ¿Acaso este salto generacional puede justificar una inversión de 2.000 dólares (!) en una tarjeta gráfica?
Es necesario reconocer que la ola de entusiasmo por el nuevo hardware gráfico no es tan grande como en otras ocasiones. Lo único que movió el amperímetro un poco fue el lanzamiento de las placas Battlemage de Intel (completamente agotadas, debo agregar), pero el resto sugiere que hemos ingresado a la era de las «fake cards», ya que se comportan como upscalers glorificados con generadores de IA.
Y aún así, Nvidia presentó a su GeForce RTX 5090, una de las primeras tarjetas de consumo general bajo la arquitectura Blackwell. Sus especificaciones son en verdad impresionantes (92 mil millones de transistores, 21.760 núcleos CUDA, 32 GB de VRAM en GDDR7, y 512 bits de bus), pero todos sabemos que la verdad queda expuesta a través de los benchmarks. ¿Qué es lo que puede hacer exactamente?
GeForce RTX 5090: La nueva reina… a pura fuerza bruta
Los reviews de los principales youtubers son excelentes, pero quien desee una versión abreviada, definitivamente tiene que pasar por el canal de Optimum. Bajo condiciones normales de rasterización y algunos casos de ray tracing, la GeForce RTX 5090 aumenta su rendimiento un 27 por ciento en promedio cuando se la compara con una 4090, aunque hay casos en los que registra un salto superior al 40 por ciento. El «problema» es que dicha mejora se paga con consumo de energía: Las optimizaciones de eficiencia que anunció Nvidia son básicamente un mito.
Optimum presenta dos ejemplos, Forza Horizon 5 y God of War: Ragnarök. «Forza» salta de 140 FPS a 185, un aumento del 32 por ciento (siempre comparado con la 4090). Pero si estudiamos de cerca su consumo… se incrementa un 42 por ciento. «God of War» está en una situación similar: El hecho de que la 5090 golpee las puertas de los 200 FPS en 4K Ultra nativo merece ser destacado, pero queda a muy poca distancia del techo de 575W. De más está decirlo, las fuentes de alimentación de 1000W han dejado de ser un lujo. Con esta clase de hardware, son una necesidad.
Entonces, ¿qué es lo que quiere Nvidia de nosotros? Obviamente, que activemos la generación de frames. El nuevo modo «Multi-FrameGen» puede multiplicar por cuatro los frames adicionales. En esencia, la idea es que el jugador suba gráficos y ray tracing al máximo, aplique un lock de 60 FPS, y luego active la generación de frames en 4X, una condición pensada para monitores de 240 Hz. El ojo entrenado no tardará en detectar artefactos y la latencia no se irá a ninguna parte, pero tampoco es tan mala que digamos, al menos en juegos single player.
En resumen, la GeForce RTX 5090 es la tarjeta gráfica más rápida y potente del mercado, pero no hay milagros aquí. Casi todo el márketing de Nvidia se basa en condiciones «optimizadas» con generación de frames, que equivale a comparar manzanas con fotos de manzanas. Y nada va a cambiar: Quienes puedan invertir más de 2.000 dólares en hardware (y digo «más» porque ese «USD 1.999» publicado va a volar por los aires) lo harán sin pensarlo dos veces, pero quienes ya tengan una 4090 probablemente se lo tomen con mucha calma. Es más, algunos ya reclaman que esta placa debería haber sido una «4090 Ti», y creo que tienen razón.