La relación entre los monitores y las tarjetas gráficas no es la ideal. La diferencia en las frecuencias de actualización causa problemas de rendimiento, sin mencionar al clásico efecto “break-dance” que todos odiamos. ¿La solución? Un nuevo módulo de hardware creado por Nvidia, llamado G-Sync.
Desactivar la función v-sync en las tarjetas gráficas sigue siendo uno de los atajos más comunes para obtener un poco más de rendimiento dentro de un juego. Dicho atajo también tiene un precio, que suele pagarse con un muy poco agradable “desgarro” (tearing) en los gráficos. Sin embargo, las cosas pueden volverse aún peor. Los viejos monitores CRT eran un poco más flexibles a la hora de establecer una frecuencia de actualización, y también hay ejemplares planos de alta gama con ciertas opciones de configuración en ese aspecto, pero la esencia es la misma: Escoges una frecuencia, y permanece estática. Esto choca directamente con la forma en que las tarjetas gráficas renderizan cada cuadro, usando una frecuencia diferente. El resultado de esta discrepancia es el conocido “stuttering”. Desactivar el v-sync puede ayudar a reducirlo pero no lo elimina, y además, aparece otro inconveniente: El lag.
El stuttering, el tearing y el lag se han instalado como enemigos mortales entre los fabricantes de tarjetas gráficas, y las optimizaciones de controladores llegan hasta cierto punto. ¿Cuál es la conclusión de Nvidia? Hay que modificar a los monitores de forma tal que la frecuencia de actualización pase a ver variable, y responda a las demandas del GPU. Esto se logra con la ayuda del módulo G-Sync, presentado recientemente en una conferencia que Nvidia realizó en la ciudad de Montreal. El módulo reemplaza en los monitores a la llamada “placa escaladora”, trasladando la sincronización del monitor a la tarjeta gráfica (o sea, el monitor se adapta al GPU y no al revés). Como resultado, los gráficos son reproducidos de un modo mucho más suave, con una respuesta mejorada frente a las variaciones en el framerate, eliminando tanto el stuttering como el tearing, y reduciendo notablemente el lag en los juegos.
En otras palabras, G-Sync rompe las cadenas de los 60 Hz, y permitirá a los desarrolladores crear títulos desde una perspectiva mucho más completa. G-Sync cuenta con el respaldo de nombres importantes como John Carmack (id Software), Johan Andersson (Paradox Interactive), Tim Sweeney y Mark Rein (Epic Games). Nvidia ha anticipado que el módulo podrá adquirirse como un componente más para que los usuarios realicen sus propios mods, o comprar monitores nuevos con G-Sync integrado. De momento, solamente el Asus VG248QE podrá recibir al módulo (el año entrante saldrá a la venta una “versión G-Sync” de ese monitor a 399 dólares), pero Philips, BenQ y ViewSonic han dicho que subirán al barco de G-Sync. ¿Qué necesita el usuario además de un poco de habilidad desarmando su monitor? Una GeForce GTX 650 Ti Boost como mínimo. Se habla de una diferencia “dramática” en la calidad gráfica, pero la información técnica disponible no es tan amplia que digamos. ¿Acaso Nvidia destierra definitivamente al v-sync? ¿Importan más los gráficos suaves, o el framerate? ¿Es realmente necesaria una tarjeta de 180 dólares para usar G-Sync? Estaremos esperando.
7 Comments
Leave a Reply