#960elmemo:Yo creo que estas cosas propietarias nunca llegan a buen puerto,parte que ningun desarrollador invertira en tecnología exclusiva
Entonces DirectX, PhysX y demás...
#964 la 2060 no creo que valga menos de 400€, como muy minimo 350€...
A falta de ver como rinden, yo miraria una 1060 depende la pasta que tengas. Recuerda que la 1060 para 1080p sigue siendo ideal.
#965 Aparcado pues,cojo una 1060 6gb y ya en Enero miramos las nuevas a ver...
Gracias a todos por vuestra colaboración.
downgrade al raytracing xD
Te presentan una cosa, cogen los billetes de nvidia y luego te la cambian por otra más cutre y te hablan de optimizar
DICE to Dial Back Ray-tracing Eye-candy in Battlefield V to Favor Performance
Algo natural dentro del Ray Tracing optmizar materiales, geometrias, para tener un mejor rendimiento, esto se hace tambien el resto de tecnicas ir equilibrandolas, es lo que se conoce como optimizar.
El Ray Tracing que usan de por si es una Ray Tracing optimizado de bajos Samples y con denoising para quitar el ruido que genera la imagen al usar bajos samples:
Ninguna GPU de aqui a unos 15 tiene potencia para procesar al menos 50,000 samples per Pixel, en tiempo que se maneja un juego, que son 16ms para 60fps, Turíng dedicando hardware RT cores logra un promedio 80 samples por pixel en 1 segundo.
Sin optimización estariamos lejísimos de ver Ray Tracing en real time.
He visto en PCcomponentes la Gigabyte Aorus Geforce GTX 1080 Ti 11GB DDR5X en promoción por 699€ a lo que estoy a la espera de la 2070 que ronda sobre los 639€
¿No me pierdo nada con la tecnología esta del reflejar y 4 pijadas mas no? Ya que he visto que la 1080Ti rinde como la 2080
Grasias
#976 ambos, pero decía 700 por la TI.
A día de hoy no pagaría más de 550 por una, pero vamos, depende de la prisa que tengas y el presupuesto.
#977 Bueno.... esta a casi 900€ sin la oferta..... y de segunda mano una gráfica no me convence mucho comprar.
Alguien me puede explicar a que se debe la inflación de precios de la gama 1070 y 1080/ti si ya hace que explotó la burbuja del Bitcoin 4 siglos...
Es que siguen los precios por las nubes :S
Para los juegos que sacan, que son casuals a mas no poder, me da que no renuevo grafica hasta el 2020 como minimo. Y eso que voy con una 1060 de 6gb para 1440p que se me quedaba algo corta desde el primer dia que la compre.
#973 Es que ni en renders para cine se usa raytracing matematicamente perfecto..., ni el Arnold lo usa, todos tienen optimizaciones que se separan del modelo matematico real, por ejemplo hacer proyecciones a un dome y tomar de ahi datos, o tirar en los X primeros rebotes muchos samples y luego conforme avanza cada uno reducirlo drasticamente...
Que no sea matematicamente perfecto no significa que no lo veas realista..., el cerebro humano es muy cabron y detecta casi todo lo antinatural, pero hasta cierto limite puedes trolearlo.
Bueno, viendo que esta posteando bastante gente entendida del tema quiero hacer una pregunta.
Una 2080 para jugar en 2k 144Hz es buena opción? Todas las reviews que veo se centran en 4k o fullhd, hace no mucho compré un monitor con estas caracteristicas y no tengo pensado tocar el 4k hasta dentro de un par de años al menos.
#985 Si quieres jugar al máximo a 144fps constantes o más se te puede llegar incluso a quedar corta en 2k. Pero de normal si, vaya. Todo dependerá del título en cuestión. A todo esto, piensa que normalmente jugar a 4k consume más o menos el doble que jugar a 2k. Si tienes en cuenta esto, lo del 4k lo puedes usar de orientación. Es decir 30 fps en 4k = a 60 en 4k, o en el peor de los casos 50.
#985 Es complicado que todos los juegos te vayan a ir a 144 en 2K, pero desde luego que la inmensa mayoría te irá por encima de 100fps constantes, lo cual ya está de puta madre.
El problema de los 144hz, es que apesar que el salto es pequeño, estas GPU ya hacen cuello de botella de CPU incluso a 1440p, estamos hablando de 8700 a 5ghz, que hacen cuello en ciertos juegos.
Los CPU no han avanzando en IPC en estos años y los desarrolladores estan vagos en programar en multiples nucleos, esto es preocupante porque si las GPU siguen aumentando de potencia y los CPU no estaremos limitados por estos, se necesitan que los programadores comienza paralelizar ,para sacarle partido a las GPU y los CPU de multiple nucleos.