#2040 te doy 20 pavos.
#2013 Con una de 750W, de sobra para las 3080. Parece ser que vienen con 2x8 (375W), y con un tdp de 325.
Donde creo que no salen las cuentas es con la 3090. Aunque en realidad luego depende bastante de si haces OC o no. Yo soy muy dado al undervolt y se puede rascar bastante potencia por ahí.
#2007 Estoy en la misma situación que tú. Mi idea es pasar de un i5 8600K a un i9 9900K y de la GTX 1060 6GB a una RTX 3070 16GB. Con 1000€ creo que tendré un buen future proof en el PC, especialmente en lo que respecta a CPU (8 núcleos y 16 hilos a 5GHz con posibilidad de OZ tiene que dar para largo no me jodas). Ademas si vendo ambas cosas me saldrá un poco más barato. Y me ahorro también tener que cambiar de placa base y tal.
#2043 Tengo el mismo procesador que tu y no pienso cambiarlo.
Es que vas a jugar en monitor de 240hz???
Si vas a jugar a 1440p no le veo el sentido, a menos que los juegos necesiten ya de 8 nucleos.
Y el 8600k ocea de lujo.
De hecho yo lo puedo subir a 4500mhz bajandole un poco el voltaje y ya si le subes un poco el voltaje lo puedes poner a 4900mhz facil.
#2044 Mi idea es jugar a 1080p 144Hz con gsync limitado a 144 fps. Soy más de fluidez a resolución. Cuando quiera jugar en la tele 4K pues ya lo pondré a 4K, 1800p, 1440p, etc ... Según el juego y a 60 fps con vsync. 6 núcleos y 6 hilos pueden limitar mucho en ese sentido a la gpu en juegos como Assassins Creed Origins. De todas formas primero iré a por la gráfica, y si con el tiempo ponen un i9 a buen precio ya lo pillaré.
#2037 Tú en ese video le quitas un par de filtros bajas las sombras y no vas a notar diferencia alguna gráficamente y si te van a subir los fps bastante, yo en movimiento los juegos con algún filtro bajado no noto diferencia alguna, ahora si claro me dedico a sacar fotos para luego meterles zoom para ver las diferencias pues seguro que las hay, pero mientras juego no noto diferencia alguna bajando un poco algún parámetro que consume mucho y no es su diferencia de ultra a medio es imperceptible.
Ahora voy entendiendo por que Nvidia puede subir los precios de manera absurda y vender como churros.
#2043 no tengo yo muy claro que ese cambio sea muy worth... porque te metes en una plataforma sin posibilidad de upgradear nada, y los 9900k se pagan carísimos ahora mismo.
#2030 #2031 Pero la experiencia de juego a que os referis?
Yo en mi caso no disfruto ningun shooter cuando hay input lag o hay rascones. Si pongo mirilla y hay un microlageo (la tipica frenada del movimiento grafico al poner la mirilla metiendo zoom) me toca la polla (y el aim, ya que el rato que se ralentiza tu precision es distinta, lo cual me parece importantisimo para la experiencia de juego).
- Jugar con todo en ultra a 50-60 fps es una buena experiencia de juego vs todo en "alto" quitando 3-4 efectos molestos a 100-110 sin stuttering/rascones? Es un argumento algo sesgado pero en la practica suele ser asi.
#2030 Arthoid, el DLLS no se nota? Es que no lo tengo muy claro como va el DLLs este, sinceramente. Basicamente reescala la resolucion en mitad del juego para mantener FPS? Reduce pixeles? Baja efectos graficos?
Segun lo entiendo te baja la calidad grafica mientras juegas para mantener una fps decentes?
Es que no comprendo la jugada en general de este tema. La peña se pilla un monitor 4K para jugar a 60 fps inestables con rascones en una resoluciones que va variando y una calidad grafica que va dando saltos tambien? Entonces ni 4K ni ultra? No es mas simple buscar una calidad grafica que te de unos fps decentes (100+) a una resolucion decente (1080/2K) y que te de un rendimiento estable y fluido para la experiencia de juego?
Que entiendo que a la mayoria le gusta mas decir que prefiere ver las sombras detalladas a 40 fps y que cuando algo explote en pantalla poder ver, durante los 3 segundos que se congela el juego, 5 millones de particulas y la luz proyectando sombras to guapas en las paredes que jugar fluido, pero no se.
Que alguien me lo explique pls.
#2049 Obviamente en shooters multiplayer yo soy de los que baja todo al mínimo para tener 200 fps si se puede. Y por eso mismo cambié una GTX1080 a una RTX 2070 Super, para jugar al Apex Legends a 1440p y 144 fps clavados, sin bajones ni ostias en vinagre. Porque con ratón y teclado busco fluidez, y en multiplayers busco la máxima consistencia.
Ahora, en single players más exigentes y en los que juego en mi TV 4K, pues me suda los cojones jugar a menos fps. En muchos casos, con tener 60 clavados con Vsync, va de sobras de bien. Especialmente en juegos de acción, ARPGs, o similares. El último que me pasé fue YS VIII, por ejemplo. A 60 fps, no hacen falta más con un mando. Iba perfecto. De hecho, muchos juegos consolizados no van a más de 60 fps, así que....
Sobre el DLSS, tienes la picha echa un lío macho xD
Básicamente es una técnica de escalado, en la que renderizas el juego a 1080p (o resoluciones inferiores, depende del caso), pero mediante un algoritmo escalas la imagen a 4k. Esos algoritmos los han entrenado mediante redes neuronales y dándole cantidades ingentes de imágenes a 4k y a otras resoluciones para que este sepa qué hacer, dónde añadir píxeles, etc.
El resultado es que en su versión 2.0, es difícil diferenciar entre un juego renderizado a 4k, y otro renderizado a 1080p y escalado a 4k mediante DLSS.
El problema? Que de momento, sólo los juegos que llevan la implementación de ese método de fábrica, se pueden beneficiar de ello. Peeeeeeeeeeeero se rumorea desde hace tiempo que Ampere (aka RTX 30XX) puede venir con DLSS 3.0 bajo el brazo, y que con esta versión, cualquier juego que implementa TAA (o algo así, era?) pueda usar DLSS directamente, sin que el desarrollador tenga que hacer esfuerzos extras.
#2049 el DLSS es un tipo de reescalado, no es resolución dinámica. Se puede ajustar la resolución en la que se renderiza y la de salida. Por ejemplo jugar a 4k desde 1080p, o a 1080p desde 540p, lo cual es un cuarto de la resolución de salida, no la mitad.
Sobre los resultados juzga tu mismo:
A mi me parecen impresionantes y esto es a lo que se refiere con la experiencia real. Sí, es un 1/4, ¿pero se ve como un 1/4? Ni de coña.
#2050 Si eso ultimo que dices es cierto, sería la hostia y las gráficas serían más caras que los rumores xD
Aunque merecería la pena la verdad.
Habiendo leído los últimos rumores y tal, yo por ejemplo (8700k+1060) quisiera cambiar la gráfica para 1080p180fps, que imagino que será suficiente, si no para llegar a los 180 si para +120, el caso es que en el salón tengo una C9 y es muy posible que algún finde de atrape me lleve la torre al salón y no se si dará la talla o tendré cuello de botella, que en verdad con probar SP 4k60fps me doy con una canto en los dientes, pero si puedo rascarle llegar a 90-100 estaría de lujo, pero me da que voy a tener que esperar después de navidad y ver números sobre papel para decidirme, lo hice con las serie 2000 y menos mal. Tb es verdad que este video, me hizo querer tener DLSS
Vosotros como veis el tema, ¿cual creéis que será una buena opción para los 4k60fps sin tener que sacrificar la mitad de las opciones gráficas?
A mi el DLSS ese me ha convencido
Apenas tiene artifacts en movimientos
Me parece insultante pagar +600€ en una gráfica y que lo te vendan es un reescalado para jugar decentemente a altas resoluciones o con RT. Es como si al cambiar de coche me venden que consumirá menos pero a cambio tengo que ir dando pedales. Como consumidores no deberíamos aceptar altos precios con estas triquiñuelas.
#2056 Precisamente el vídeo enseña que esos artifacts han sido ampliamente solucionados con el DLSS 2.0.
Es una técnica con muchísimo potencial, no sé por qué tanto hate.
#2047 entiendes que la gente hace lo que le da la gana con su dinero entonces? O que quieres decirme con que nvidia hace lo que quiere, tiene el 80% del mercado.
Tal vez no cambie porque me parezca caro pero no se porque tienes que entrar a valorarlo en vez del hecho objetivo de que quiero más potencia y si quiero subir el warzone a 10.000 fps y puedo permitirmelo lo haré y si quiero tener activado todo al máximo aunque tenga la vista de un burro, también. Y si no puedo me quedaré con lo que tengo.
A mi lo que me llama la atencion, es que la comparativas siempre son DLSS vs Nativa +TAA
Bien es sabido que el TAA emborrona la imagen y me parece que es como hacer trampa para favorecer al DLSS, aparte que el DLSS 2.0 incorpora de forma nativa un filtro de nitidez.
#2057 A mi como tecnología me parece muy bien si no estuviese tomando la entidad que está tomando. La gente empieza a aceptar que DLSS 3.0 es la solución para jugar a 2K con RT decentemente tras pagar 800€ en una grafica. Vamos venga. Con los precios de las actuales gráficas el DLSS debería usarse solo para pasar de 140 fps a 200. No para poder alcanzar los 80 fps.
Eso es lo que me parece mal. Que el fabricante empieza a vender DLSS como una ventaja, cuando la ventaja es para ellos, no para el consumidor. Imagínate que te compras un coche electrico y el fabricante te dice que ahora puedes tener +100 Km de autonomía si a cambio vas dando pedales. Pues igual.
Si pago 800€ por una nueva gráfica es para jugar a tope a las resoluciones actuales, como se ha hecho toda la vida. Y si no es técnicamente posible, no me cobres 800€.
#2058 Si te entiendo perfectamente a mí como si te venden una 3090 a 8000 mil euros y marchas para casa con una sonrisa de lado a lado, pero la excusa de los juegos que tú comentabas ya es otro tema cuando son juegos que con esa GPU se juega perfectamente, ni que se viese como el minecraft.
Ya puse antes que cada usuario es un mundo pero que no vengan aquí a vender la moto de que una gpu se queda corta por que a 2k no llega en todo ultra a 100 fps cuando en la mayoría de los juegos 60 FPS ya da una fluidez cojonuda y cuando juegas a fps competitivos quitas todos los filtros posibles para ver mejor al enemigo y tener fps máximos.
Es más aún vienen con la moto de los cutreport que no los mueve bien ni una jodida 2080ti.
#2059 En muchas si y no es junto, el TAA y el FXAA sin sharpening a veces son más contraproducentes que otra cosa, y muchas comparaciones están sesgadas. DF publicó ayer un vídeo donde se ve que renderizando a 1080p se folla el checkerboarding a 1440p, ambos salidas a 4k. Vamos, que no requiere ni la mitad de resolución real para conseguir igual o mejores resultado si esta bien aplicado, no es humo precisamente. El problema son ciertos artefactos, habrá que probarlo en condiciones para ver si con las últimas versiones es algo anecdotico o serio, y si con la salida del 3.0 y al aplicarlo de forma generalizada no da tol asco.
#2063 Eso es lo peor... que AMD en GPUs está RIP.
Al menos en procesadores dan competencia.
#2064 Esa escena es brutal, por eso digo que hay que darle caña. Si no representan ni el 5% del juego, yo me las trago a gusto. Si es un problema constante dependiendo el juego, tocará usar otros ajustes y/o jugar a peor frame rate.
Si yo lo que os digo es que vamos a pagar una millonada por las gráficas. Que digan que con DLSS lograré más rendimiento está bien, pero que sea necesario para lograr el mínimo de rendimiento está mal. Y por mínimo me refiero a +100 fps en ultra a 2K, que para mi sería el mínimo exigible hoy en día. Y si por una 3070 me quieren clavar 799€, entonces que sea en 4K.