Nvidia anuncia el fin del tearing con G-sync

granaino127

Nice... A mi me pilla el G-Sync con la GTX 680.. Ya lo probaremos cuando haya alguno de esos monitores :p

Rubios

Pedazo basura, por si no era suficiente con el ghosting, input lag y postprocesados de la banana de los propios LCDs ahora viene NVidia a añadir aun más mierda.

Genios el dpto. de Marketing que van a conseguir venderlo como una feature, me quito el sombrero.

visent666

¿Esto significa que tenemos que comprar:

  • Una nueva targeta
  • Una nueva pantalla

PD: Esperaros que ahora voy a por ella para gastarme 1000 euros, si.

C

Pero el tearing es un problema taaaan grave como para este follón?

1 respuesta
APOCa

Pues se sigue viendo mal ...

perche

¿entonces a estos se dedica a nvidia despues de perder el tren en todas las consolas next gen?
Primero el shield y ahora esto , pues muy bien el proximo cacharro que te acelere el modem de 56k

2 respuestas
_KzD_

#36

La de tonterías que hay que leer.. :palm:

1 respuesta
perche

#37

eso he pensado yo al leer el anuncio de la noticia, un aparato que te lo tienes que montar tu para unos monitores especificos por 100 dolares, cuando ya hay tecnologias como el lightboost que te hacen lo mismo o mejor.

2 respuestas
JuGuLaToR

#38 La parte en la que dice "El módulo empezará a introducirse en monitores comerciales en 2014..." te la has debido saltar.

perche

no me la he saltado, es mas he estado googleando un poco para ver los precios en los que se movian estos nuevos monitores y por lo que he visto la version con el gsync cuesta 100 dolares mas que la misma version de monitor sin ella.
Sigo pensando que gastarse 100 dolares extra ya sea comprando el aparato este suelto o en un monitor ya incorporado me parece una mala idea habiendo otras opciones mas economicas que hacen lo mismo, es mi opinion.

B

pero lightboost no es tambien de nvidia y solo sirve en 3d? ni idea de estas tecnologias. o se puede sin 3d y con ati?

#42 thanks, lo tendre en cuenta en mi futuro monitor si no han sacado otras 20 tecnologias

1 respuesta
perche

#41 si es de nvidia, funciona con monitores asus y benq y tambien funciona en 2d y con tarjetas ati.

1 respuesta
Vita_cell

#6 ATI no existe desde hace tiempo.

kolka

#38 No es lo mismo que Lightboost.

El GSync no es más que la frecuencia del monitor dictada por la GPU (y que esto se haya inventado en 2013...).

Si a ti el juego te da un bajón a 50 fps (o a 100fps) y tienes el VSYNC activo, el framerate se pasará a 30 fps (o 60 fps en el caso de los 120hz), que por mucho lightboost que tengas lo vas a notar.

En cambio con esto la animación será más fluida, sin tearing, con todas las ventajas del lightboost (y mejorado).

http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/

1 respuesta
Deivis

Yo hasta que no saquen un monitor que los juegos vayan igual de fluidos que un CRT no compro nada, supongo que sera la tecnología de #3

1 respuesta
B

#45 yo igual, manda huevos que la tecnologia esa de la epoca de los dinosaurios sea lo mejor respecto a fluidez y que hace relativamente poco tuviesemos poco mas de 60hz. que si existe disculpen mi ignorancia sobre el tema xd

ArThoiD

#36 Primero busca información sobre lo que hace y sobre qué afecta el Lightboost y luego vienes a meter mierda, que no tiene NADA que ver con esto xD

#34 A mi no me molesta, pero a la mayoría de consoleros les da dolor de ojos por lo visto.De hecho suelo jugar con él a cualquier juego a +80fps y prefiero eso a tener el lag que te mete el Vsync, que es una puta mierda.

1 respuesta
BahamutxD

#47 Frame limit y tripple buffering y a disfrutar de la fluidez.

1 2 respuestas
B

#44 lightboost necesita vsync on? de no necesitarlo no le veo mucho sentido a eso, los bajones de fps se van a notar uses la tecnologia que uses y con vsync mucho mas. si se trata de mejorar el brillo + fluidez ya hace su funcion. si se puede evitar no usar vsync con la tecnologia que sea y ver las cosas bien muchisimo mejor, aparte del input lag, los bajones de fps con vsync son mas notorios

#48 nunca me he planteado para que es eso, baja el rendimiento tenerlo activo? requiere que el limite del monitor sea un multiplo de la frecuencia o algo del estilo?

por lo que veo triplica los datos por asi decirlo, consiguiendo datos mas exactos pero no se má

kolka

El triple buffering mete demasiado input lag, luego os compráis ratones de 1000hz para nada.

2 respuestas
Leiron

Alguien me aclara una simple duda tonta ? por ahí dicen que con un monitor de 120hz este mismo XL2420T por ejemplo.

Cuando juegas a juegos como el counter strike etc puedes ver un poco antes a la gente cuando asomas por una puerta por ejemplo ? que la demás gente que no tiene monitores de 120hz?

1 respuesta
kolka

#51 Unos 8ms antes... Influye más la conexión que otra cosa.

1
BahamutxD

#50 El triple buffering existe para quitar el input lag :palm: al igual que el frame limiter.

2 respuestas
JuGuLaToR

Aquí hay un articulo sobre el triple buffer, y de por que debería estar siempre activo.

http://www.anandtech.com/show/2794

MegalomaniaC

#50 El tripple buffering existe desde los tiempos del Quake III competitivo y en ese juego jamas de los jamases he tenido Tearing. De hecho lo que dice #48 es totalmente cierto, juego en un 60hz y limitando frames + tripple buffering no tengo tearing y tengo la suavidad que necesito (+ panel IPS)

1
Ker0n3

Yo he utilizado el lightboost con la xl2420t,que me parece una solucion mucha mas efectiva que esta chapuza xa vender un chip hasta xa el monitor xD el lightboost la verdad que me gusta bastante la fluidez que da en movimientos rapidos y giros de 180, la unica pega q le veo es que se ve bastante mas oscuro(funciona x parpadeo mostrando una imagen cada refresco, no con luz de fondo constante como el uso normal de cualquier led) y a pesar de ajustar los colores en el panel de nvidia, siguen sin cnvencerme.
Alguno que lo ste probando tmb, podria poner q valores esta usando en el panel de la gfafica etc..
asi entre todos almjr consigamos algo.

1 respuesta
JuGuLaToR

#56 Prueba a poner el contraste en el menú del monitor a 55, y en el panel de nvidia brillo 52, contraste 45 y gamma 1 , yo he notado bastante mejoría con eso.

1 respuesta
Ker0n3

#57 ya probe valores semejantes, y si q se ve bien en uso general, el problema esq en battledield q es lo q mas juego me gusta subir el brillo bastante xa ver mejor XD, y ntncs los colores se ven cmo desgastados, no logro encontrar el equilibrio xa ambos usos. Gracias de todos modos!

Prava

#53 El triple buffering existe para mitigar los defectos del vsync, no nos engañemos. Y el frame limiter no sirve para nada.

Ah, y el triple buffering ahora apenas está soportado, porque era algo que se usaba en OpenGL, que muchos motores actuales en DX no está soportado.

kolka

#53 Probablemente sepas más que yo:

https://twitter.com/ID_AA_Carmack/status/190111153509249025

Reduce respecto al vsync, pero comparado a mostrar el frame a cuando esta listo es absurdamente peor. Jugar sin VSYNC y triple buffering es lo mejor que teníamos hasta ahora para mejorar la latencia (a cambio de tearing).