Nvidia gtx1080 anunciada.

Lova

a mi la verdad que el 4k lo veo muy lejos, me interesa la 1080 para jugar a 1080 (valga la redundancia) a 144hz que para eso me compré el monitor.

n3krO

#1980 Siento decepcionarte, tengo un monitor 144 hz y fue de las peores compras que hice. Lo unico que aprovecho es el strobbing.

No noto la diferencia de fluidez entre 60 y 120 fps cuando llevo 120 hz strobbed, pero si quito el strobbing si que noto que las cosa van a tropezones.

Ojala me hubiera comprado una pantalla normal con panel IPS, que seria mas barata y ahora no estaria pensando en cambiarla, o al menos no hasta tener dinero para un buen IPS con G-Sync.

3 respuestas
koalas

#1982 pues yo si noto mucho los hz, aunque no pasa nada cada uno juega como quiere, yo obviamente la cage al comprar un panel TN en vez de comprar un IPS 144hz pero bueno.

acabo de probar el witcher 3 en 4k, tengo que ponerlo todo en bajo todo desactivado para que me de 30 miserables FPS. a mamarla el 4k culerdos xDDD

S

#1982 Pues a mi el G-synch me da alergia (Tengo una asus PG278Q) y te aseguro que el lag que mete a los juegos no tiene ningun sentido, al menos para mi. De que me sirve que vaya todo mas fluido si reacciona tarde a cualquier input mio...

1 respuesta
n3krO

#1984 Si limitas el framerate con el RivaTuner a 140 fps se te quita el input lag.

Es un problema de G-Sync cuando pasas el el framerate de la frecuencia maxima.

2 respuestas
S

#1985 Pues no entiendo porque es asi, si en todos los juegos en los que he probado el G-synch, ninguno pasaba de 100 frames, pero bueno lo probaré, no me gusta tirar el dinero...

ArThoiD

Cuánta agresividad hay últimamente dios....

Algunos deberíais tomaros un par de tilas antess de postear.

1 1 respuesta
B

#1987 Aun no respondieron a mis dudas xD. Directamente fueron a: para que quieres 4k? estas loco? antes de responder mi duda :(

Prava

#1982 Gsync no mejorará tu experiencia, a menos que eches de menos el vsync.

#1985 Nops, el lag que mete vsync está ahí. Por mucho framerate que limites seguirás teniendo lag.

#1959 ...

¿Pero qué thermal throttling ni qué niño muerto? Dices cosas sin sentido. El thermal-throttling (TT a partir de ahora) es una medida de seguridad que se activa cuando el procesador (gráfica, teléfono móvil, cpu, ssd nvme...) sobrepasa determinada temperatura de seguridad, para evitar que se queme. Implica una rebaja brutal de la frecuencia de trabajo justamente para evitar que se pueda dañar nada. Generalmente suele estar entorno a los 100ºC. Intel, por ejemplo, marca ese valor como TJmax.

El boost, en cambio, no tiene absolutamente nada que ver con el TT. Son cosas completamente diferentes. El boost simplemente comprueba el power target que tiene seteado la tarjeta con el power target que tiene actualmente y sube frecuencias (con un máximo) hasta alcanzar el objetivo. El problema está en que el power target depende de muchos factores (y la temperatura es uno de ellos), así que según se calienta una tarjeta (repito, nada de TT, que no tiene nada que ver) su power target se ve modificado y, en consecuencia, su máximo boost. Y por ende, claro, su rendimiento final.

Por eso mismo digo en mi post anterior en cuestión que hay que monitorizar las frecuencias y no simplemente probar 3 minutos in-game. Que el boost es como el overclock en la cpu: puedes encender el ordenador a una frecuencia determinada pero puede que no sea estable y, por ende, comparar resultados de boost sin considerar si hay bajada de frecuencias o no es absurdo.

Ahora, que tú puedes considerar que yo vengo en modo pedante :psyduck: porque potato cuando estoy hablando de cosas que son conocidas desde que tenemos boost en hardware. Otra cosa es que tú te leas lo que quieras, escuches campanas pero no tengas ni puta idea de dónde.

Vamos, no es tan obvio cuando me estás comparando el TT con el boost. No se parecen ni conceptualmente.

#1966 Hombre, bajando la calidad y settings siempre puedes conseguir los frames que tú quieras.

O puedes poner 1920 x 1080 en el monitor... y tendrás un escalado perfecto, así que lo verás igual que si tuvieras un monitor 1080p nativo, pero con un consumo de recursos muchísimo menor.

Porque claro, si por trabajo tiene que ser 4K sí o sí... pues todo es probar. Prueba 4K mid settings o 1080p todo en ultra. Y tú mismo decides.

4 respuestas
nerkaid

#1989 Ahora te preguntaría que cuando he comparado el TT con el boost, que es ningún sitio, y como no lo he comparado en ningún sitio y no tendrás respuesta, me soltarás otros 5 párrafos explicando lo que ya sabemos todos, como acabas de hacer y como hiciste el otro día, porque parece que piensas que la gente es tonta o algo, y que por escribir más y repetir lo mismo la gente no se entera de que ocurre. Igual es que con la gente con la que te relacionas funciona, no sé.

Durante esa respuesta, probablemente soltarías un par de pullas que no vienen a cuento, como la que acabas de soltar ahora de "escuchas campanas pero no tienes ni puta idea de dónde" y te irás por donde has venido (imagino que viniendo de alguien con esos modales, creyéndote superior al resto o algo por el estilo).

Así que directamente ni te voy a preguntar, así ahorramos tiempo y que sueltes alguna perlita de la que se descojone la gente, como la del otro día de "con 60 fps se aprovechan los 144 Hz".

1 respuesta
B

#1989 Pero normalmente no se ve mal si no usas la resolucion nativa de tu monitor? si es 4k y bajo a 1080, no se vera "tan bien" como en otros donde su resolucion nativa sea 1080, no?

3 respuestas
ArThoiD

#1991 No, porque 3840x2160 es justamente cuatro veces más que 1920x1080... Es decir, donde tienes cuatro píxeles en la primera, tendrás 1 en la segunda.

Pero no hay que hacer más conversión.

Si normalmente se ve mal es porque las divisiones no son con cocientes integros, por lo que hay píxeles que no concuerdan o hay mierdas raras.... en este caso la conversión sería simplemente ocupar 4 píxeles y tratarlos como si fuesen 1.

2 respuestas
Prava

#1990

#1961nerkaid:

¿Pero es que quién de aquí no sabe que una tarjeta que se sobrecalienta hace TT? Y es que ni si quiera explica nada de thermal throttling o habla de sobrecalentamiento ni nada... Dice "lo normal es que tras llevar un rato jugando se baje la frecuencia".

¿Qué aporta esa información a nadie? El que sepa que es el TT (el 99% de aquí) lo sabe de sobra, y el que no lo sepa, si es que hay alguien, se queda igual por que no explica nada, suelta una afirmación mas que debatible (una tarjeta trabajando a una temperatura adecuada no va a hacer TT)

Lo entiendes todo de puta madre cuando yo hablo de que las frecuencias bajan con el tiempo y tú me saltas con el TT. Sí, todo super claro lo tienes. Y puedes descojonarte con lo de que 60fps aprovechan los 144hz cuando, objetivamente, 144hz es mejor a cualquier tasa de framerate. Ahora, viendo tus últimas intervenciones, no espero que lo entiendas, que seguro que te hablo de la distribución de los frames en cada segundo (frametimes) y te me pierdes. Cada vez que lo intento me vienes con algún rollo estúpido. No te pongo en ignorados porque mediavida no tiene semejante opción.

Buenas tardes.

#1991 El reescalado tiene el siguiente problema: si tienes una imagen de 3x3 píxeles y la intentas dibujar en una pantalla de 4x4... es imposible que la imagen te quede perfectamente bien, pues necesariamente quedará algo desproporcionado. En cambio, si pasas una imagen de 3x3 en una pantalla de 6x6... pues no hay tal problema, pues cada píxel original son 4 en la otra pantalla.

Como dice #1992, 4K es 4 x 1080p. Por eso mismo si tienes un monitor 4K puedes ver contenido 1080p con reescalado nativo... que es, en la práctica, como si no hubiera reescalado ninguno. No hay pérdida ninguna de calidad.

3 respuestas
koalas

#1993 prava contestame tu que eres mas sabio, te quedarias en 1080 144hz o pasarias a 4k casi60fps?

3 respuestas
ArThoiD

#1994 1440p 144Hz IPS.

Existen grises. 4K en un monitor, a no ser que vayas a trabajar en video @ 4 pantallas FULLHD, lo veo estúpido.

1
n3krO

#1991 #1992 Eso es mentira Arthoid.

Deberia de ser asi, pero a no ser que hagas un upscalling en software, eso no va a pasar.

En el upscalling de las pantallas le da igual de que resolucion vienen, usan un algoritmo que funciona para cualquier resolucion y a tomar por culo, y ese algoritmo no tiene en cuenta si la resolucion es un divisor de la resolucion nativa, por lo que siempre habra habra algo de blur.

#1989 Por que das por hecho cosas sin saber que busco en la pantalla?

Como ya dije el strobbing si que me gusta, y sorpresa, G-sync funciona con strobbing. Y de paso tengo un panel IPS para tener buenos colores.

Mejora mi experiencia en cuanto a reproducion de colores sin empeorarla cuanto a la nitidez de la imagen. Y de paso elimino el tearing que tan poco me gusta.

#1994 http://www.pccomponentes.com/asus_rog_swift_pg279q_27__led_165hz.html

<3

2 respuestas
Prava

#1994 Es jodido contestar a esa pregunta sin hacerte otra. ¿Estás dispuesto a poner la gráfica high-end del momento, o un par de ellas, cada año? Si tienes el presupuesto go for it, por supuesto. Pero no te pongas un 4K si luego no vas a poder ponerte mínimo una 1080 (y la TI cuando salga, y...) porque tendrás que ir racaneando en opciones gráficas.

Para mí 4K es como comprarse un coche gasolina y luego andar con miramientos a la hora del kilómetraje que le metes por el tema del gasto de combustible. Mucha resolución = muchas necesidades de potencia gráfica = $$$$$$$.

#1996n3krO:

Deberia de ser asi, pero a no ser que hagas un upscalling en software, eso no va a pasar.

En el upscalling de las pantallas le da igual de que resolucion vienen, usan un algoritmo que funciona para cualquier resolucion y a tomar por culo, y ese algoritmo no tiene en cuenta si la resolucion es un divisor de la resolucion nativa, por lo que siempre habra habra algo de blur.

¿Y mediante el software de NVIDIA / AMD no se puede conseguir un divisor nativo?

#1996n3krO:

Por que das por hecho cosas sin saber que busco en la pantalla?

Como ya dije el strobbing si que me gusta, y sorpresa, G-sync funciona con strobbing. Y de paso tengo un panel IPS para tener buenos colores.

Mejora mi experiencia en cuanto a reproducion de colores sin empeorarla cuanto a la nitidez de la imagen. Y de paso elimino el tearing que tan poco me gusta.

?

Que yo sepa (corrígeme si me equivoco), el strobing no va ligado el gsync. Entonces lo que echabas de menos era el vsync (porque elimina el tearing), y en ese caso gsync es mucho mejor.

1 respuesta
ArThoiD

#1996 No es así exactamente, pero no vas a notar la diferencia salvo casos muy puntuales.

Algo que sí es muy aparente cuando usas resoluciones extrañas en un monitor 1080p por ejemplo.

Pero vaya, comprarse un 4K y usarlo a 1080p es de parguelas pobres.

2 respuestas
n3krO

#1997 Que yo sepa los drivers de AMD y/o Nvidia no tiene ese escenario previsto porque lo normal es que quieras ir a mas resolucion de la que puede tu pantalla, no ir a menos resolucion :|

#1998ArThoiD:

Pero vaya, comprarse un 4K y usarlo a 1080p es de parguelas pobres.

Esto xd

Cuanto a lo de G-Sync, al parecer me habia confundido, los monitores G-Sync si tienen soporte para strobbing pero no puedes tener G-Sync + Strobbing.... Pfffff, pues yo quiero framerate variable con strobbing :(

http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/

Lo que si puedes es activar ULMB (Ultra-Low Motion Blur), que es lo mismo que el strobbing pero mejor implementado (porque el que yo uso es un "hack"), pero o tienes ULMB o tienes G-Sync.

2 respuestas
Nikoss
#1989Prava:

Gsync no mejorará tu experiencia, a menos que eches de menos el vsync.

jajaja tío en serio xDDD
cada vez que hablas sube el puto pan xDDDDD

EDIT:

Gracias a Dios que no todo el mundo que tiene conocimientos sobre algo, habla con tu arrogancia. Si no Internet hubiese fracasado.

1 respuesta
koalas

aqui sube el pan con cualquiera... si dijerais cerveza...
#1999 pa gastarme ese pastizal en un monitor... me lo gasto en la 1080 que cojones.

2 respuestas
Nikoss

#2001 te doy la razón, en este hilo por lo que sea a la gente se le ha ido de las manos.

1 respuesta
n3krO

#2001 Porque no te lo gastas en las 2? ¯_(ツ)_/¯

1 respuesta
koalas

#2002 tu tambien quieres cerveza eeeeehhh XDDD

#2003 me saldria la broma por casi 1500 dejate... xD

2 respuestas
Nikoss

#2004 pues ahora mismo como no sea sin alcohol... estoy un poco jodido de ayer. Esto pasa por no beber en muchísimo tiempo que te jode la vida. Y mañana hay que currar T_T.

La 1080 para una res 1080p me parece demasiado overkill xD (incluso para >=144Hz).

1 respuesta
n3krO

#2004 Tampoco hay que comprarlo todo ya.

Yo es que me quede sin dinero (suficiente) por que me gasté unos 800 pavos en la habitacion + altavoces, si no ya me habria pillado ese monitor que te mandé y despues me pillaria la 1080 ti cuando saliera.

Encima ahora en verano parece que no voy a trabajar :( Tengo dinero para una 1070 como mucho y no tiene pinta de que vaya a trabajar en mucho tiempo pffff

1 respuesta
koalas

#2005 yo me voy a comprar la 1080, para 1080p +144hz eso va a ser un must

#2006 mis condolencias compañero, siempre comprabas...

B

#1993 Gracias por la info, eso mola. Para pasar de 4k a 2k si que ya no sirve y si ocurria el problema que decia, no?

#1998 Hombre, algunos se encuentran en esa situacion de que compran un monitor 4k por alguna razon fuerte, pero luego para otra cosa no le resulta tan bueno el 4k. Yo me compraria una grafica potente para 4k, pero si jugare solo un poco, pues me compensa que pueda jugar bien a 1080 sin tener que pagar una grafica super tocha para jugar solo unas pocas veces, pero si necesito el 4k para otras cosas muchas horas al dia para otras cosas.

1 respuesta
ArThoiD

#2008 Pues lo que digo, si necesitas 4k para otros temas, eso ya es otra cosa.

2k? qué es 2k?

Si te refieres a 1440p (QUE NO ES 2K POR FAVOR), ahí sí habría reescalado de mierda de toda la vida.

Prava

#2000 Ilumíname.

#1999 ¿Framerate variable? Estaba convencidísimo que NVIDIA había "renovado" el triple buffer hace mucho, pero como no recuerdo el nombre no he tenido cojones de haberlo encontrado.

¿Lo habré soñado?

2 respuestas