
La relación entre los monitores y las tarjetas gráficas no es la ideal. La diferencia en las frecuencias de actualización causa problemas de rendimiento, sin mencionar al clásico efecto “break-dance” que todos odiamos. ¿La solución? Un nuevo módulo de hardware creado por Nvidia, llamado G-Sync.
Desactivar la función v-sync en las tarjetas gráficas sigue siendo uno de los atajos más comunes para obtener un poco más de rendimiento dentro de un juego. Dicho atajo también tiene un precio, que suele pagarse con un muy poco agradable “desgarro” (tearing) en los gráficos. Sin embargo, las cosas pueden volverse aún peor. Los viejos monitores CRT eran un poco más flexibles a la hora de establecer una frecuencia de actualización, y también hay ejemplares planos de alta gama con ciertas opciones de configuración en ese aspecto, pero la esencia es la misma: Escoges una frecuencia, y permanece estática. Esto choca directamente con la forma en que las tarjetas gráficas renderizan cada cuadro, usando una frecuencia diferente. El resultado de esta discrepancia es el conocido “stuttering”. Desactivar el v-sync puede ayudar a reducirlo pero no lo elimina, y además, aparece otro inconveniente: El lag.

El stuttering, el tearing y el lag se han instalado como enemigos mortales entre los fabricantes de tarjetas gráficas, y las optimizaciones de controladores llegan hasta cierto punto. ¿Cuál es la conclusión de Nvidia? Hay que modificar a los monitores de forma tal que la frecuencia de actualización pase a ver variable, y responda a las demandas del GPU. Esto se logra con la ayuda del módulo G-Sync, presentado recientemente en una conferencia que Nvidia realizó en la ciudad de Montreal. El módulo reemplaza en los monitores a la llamada “placa escaladora”, trasladando la sincronización del monitor a la tarjeta gráfica (o sea, el monitor se adapta al GPU y no al revés). Como resultado, los gráficos son reproducidos de un modo mucho más suave, con una respuesta mejorada frente a las variaciones en el framerate, eliminando tanto el stuttering como el tearing, y reduciendo notablemente el lag en los juegos.
En otras palabras, G-Sync rompe las cadenas de los 60 Hz, y permitirá a los desarrolladores crear títulos desde una perspectiva mucho más completa. G-Sync cuenta con el respaldo de nombres importantes como John Carmack (id Software), Johan Andersson (Paradox Interactive), Tim Sweeney y Mark Rein (Epic Games). Nvidia ha anticipado que el módulo podrá adquirirse como un componente más para que los s realicen sus propios mods, o comprar monitores nuevos con G-Sync integrado. De momento, solamente el Asus VG248QE podrá recibir al módulo (el año entrante saldrá a la venta una "versión G-Sync" de ese monitor a 399 dólares), pero Philips, BenQ y ViewSonic han dicho que subirán al barco de G-Sync. ¿Qué necesita el además de un poco de habilidad desarmando su monitor? Una GeForce GTX 650 Ti Boost como mínimo. Se habla de una diferencia “dramática” en la calidad gráfica, pero la información técnica disponible no es tan amplia que digamos. ¿Acaso Nvidia destierra definitivamente al v-sync? ¿Importan más los gráficos suaves, o el framerate? ¿Es realmente necesaria una tarjeta de 180 dólares para usar G-Sync? Estaremos esperando.
convengamos que si tu framerate es superior a la velocidad maxima de refresco del monitor entonces estarás limitado a la maxima velocidad de refresco del monitor... por otro lado un monitor con gsync vale 100 usd mas caro que uno sin ello. con esa diferencia de precio podes invertir en una placa de video mucho mas potente, un mejor u o disco ssd. Sinceramente pocas veces noto esos defectos mientras juego, la demo de nvidia se basaba en una imagen estatica de un pendulo con un texto en condiciones muy controladas, cuando pusieron el tombrider con una camara en movimiento la diferencia entre gsync y nogsync no fue tan aparente. Lo ideal seria que se defina un standard para este tipo de cosas y no que queden atadas a la solucion de un fabricante. Otra cosa que me llama la atencion es que si es un problema tan grave y que se soluciona tan facilmente como nunca lo hicieron antes, de hecho no habia demasiadas quejas al respecto. Lo cierto es que hace rato que las ventas de monitores no son buenas, la industria estaba un poco resentida y sinceramente los monitores 4K son muy caros, quizas esto es una idea para intentar mover un poco la rueda. Seguro la rueda se moveria mas rapido si lo estandarizan.
Pues como muestra un botón siempre seria bueno o algun diagrama seria bueno, ya que desde hace tiempo esto no era nuevo ya se sabía que las pantallas no le pueden seguir el paso a las nuevas tarjetas graficas es mas creo que desde el pentium 4 cuando se supero la barrera de los 3Ghz comenzaron los problemas, asi que, no se hagan que no sabian cual era el problema y comiencen a trabajar enserio!!!!!
Debes iniciar sesión para publicar un comentario.