Nvidia GeForce RTX 40 Series - El precio no tiene límites

256

XD

2 1 respuesta
Cryoned

#5761 capitán shill al rescateeeeeeee

2
R

Pc master race con menos vram que los consoleros

Asgaya

Madre mía abuelo, lo que fuiste y en lo que te has quedado. Ya das vergüenza ajena directamente. pareces un crio posteando.

"La gente quiere calidad y rendimiento sin pagar nuevo hardware"

La gente quiere jugar con el mismo equipo que juega RDR2 a 1440k a 120 fps, a este que es un pasillo y se ve mas o menos igual.

Como se puede obviar esto y seguir con la cancion de que si shill, maletines, etc Cuando eras tu siempre el primero que en cuanto la chupi de consolas de aquella se reia de los ports de PS3 y PS4 y su rendimineto eras el primero en decirlo, por exactamente el mismo motivo.

1
charlesmarri

War has changed...

Zenrox

Llevo un par de dias siguiendo el debate y me parece bastante interesante, y no lo voy a negar, me he pillado un pc hace poco con una 3060ti y me habeis cagado un poco xD (para 1080p)

Si bien es cierto que 8 gigas se va a quedar corto a corto-medio plazo (sobre todo a 1440p+) (a ver si empiezan a sacar ya realmente juegos next gen) considero que tambien es un problema de dejadez de los estudios

Como han dicho, que puedas jugar a titulos como RDR2 y al GOW de 2018 con todo en alto y la Vram no sea un problema, que en juegos como re4 y tlou que son hiper-mega pasilleros en comparacion e incluso peores graficamente, pues denota que algo falla.

Por mi parte con la 3060ti, estoy jugando al hogwarts con "casi" todo en alto, (he estado viendo videos comparativos y hay opciones graficas que de alto a ultra no se notan nada y bajan mucho los fps e imagino que la carga de Vram, asi que no tengo problemas en bajarlas. (Prefiero 144 fps en medio-alto, que 60 en ultra)

Uno de los mayores problemas creo que viene cuando la gente se compra un pc en teoria "top" pone todo al maximo sin preocuparse (normal joder, se han gastado sus buenos 2k+ en eso y es lo minimo) y no se preocupan en optimizar el juego

Cosas como las sombras o en algunos casos las texturas y muchas opciones, apenas son apreciables entre Alto y ultra, pero se come una cantidad de Vram considerable, asi que pienso que a partir de ahora en juegos "mal optimizados" habra que trastear mas de la cuenta para dejarlo perfecto

Soy de los que pensaban que el rtx era un poco timo, y al probar el 2077 por primera vez con rtx aclare mis sospechas, en mi caso pasar de jugar a 80-90 fps con todo en ultra a 25-30 (sin dlss. con el a duras penas llega a 60) por apenas diferencia, un par de luces y reflejos, no me merece la pena

Si no fuera porque muchas de las cosas que uso dependen de nvidia y la mala reputacion que siempre ha tenido amd con los drivers y la optimizacion, me hubiese planteado una AMD

No pretendo tener un debate acalorado con nadie, porque tampoco esque este super enterado ni haya hecho mil pruebas, simplemente dar mi opinion, un saludo y que vaya bien!

PD: a todo esto no pretendo para nada justificar la mierda que esta haciendo Nvidia con la vram, no tienen puta verguenza que en 2023 sigan sacando graficas de 700€+ de 8-10gb, ojala AMD de un golpe en la mesa y Nvidia espabile de una puta vez, si la serie 5000, no tiene minimo 12GB de vram en la gama mas baja (5050) esque ya no hay por donde cogerlo

1 respuesta
B

#5766 A mi me da un poco igual el tema de ultra y que el RT no merece el coste/beneficio en algunos escenarios dependiendo el tipo de juego y aplicación de este, también. La cosa es, que las texturas a menudo si se notan, quizá haya en algún juego no haya mucha diferencia entre high o medio si me apuras a ultra, pero es un ajuste que SI se suele notar, ya no con las opciones integradas únicamente, incluso con mods que tragan más. Y a diferencia de otras opciones que necesitan mucho más fuerza bruta, se solucionaría con ampliar la memoria, no es como querer jugar a muchos más frames, tener RT, etc., es un "problema" de fácil solución donde por racaneria o a sabiendas de que podían haber problemas a medio plazo, han decidido mirar a otro lado deliberadamente.

2
H

Info de la 4070: $599 confirmado , 186W de media de consumo

2 respuestas
Kirbos

Pregunta: Lo que más afecta al consumo de VRam es la calidad de texturas que elijas en cada juego, ¿no?

Es decir, con no elegir texturas Ultra estarias sobrado con 10GB no?

Y en cuanto al RT, estamos en 2023 y aun estoy por ver el juego en el que me merezca la pena activarlo y note una diferencia grafica que me vuele la cabeza.
Es el mayor engaño de los ultimos tienpos. Luego ves la iluminación que consiguen en StDenis en RDR2 sin Ray Tracing y te das cuenta del engaño.

#5732 a pasar por caja? He sido PCGamer toda mi vida, pero visto lo visto, si ahora mismo se me rompe el PC, me pillo una PS5 y una XBox series X y arreando. Quizas una suscripcion a Geforce now para jugar en el PC del curro.
Paso de seguir alimentando este circo.

3 respuestas
pelusilla6

#5768 Mira que gráficas más chulas, como van a vender el DLSS y RT jajaja

PD: Es una pena porque les han salido muy eficientes, en vez de aprovechar y meter más CU para que el salto fuese más bestia nanai, así con las próximas 5000 tendrán más maniobra. Menudo salto hay de la 4070 a la 4070ti en comparación con las 3070/3070ti.

1 1 respuesta
sPoiLeR

#5769 En principio si, luego tienes que estan mal hechos o poco optimizados que en general tienen consumos desmesurados por si incluso en low (como tlou). Con 10gb vas a poder jugar bien pero no con todo en ultra, al menos en los últimos juegos que están lanzando según se esta viendo.

Pero como tampoco es una tabla rasa, lo normal es que pongas todo a tope y antes se te queda corta de potencia, mas que por falta de vram. En los casos de que te falte vram, sería tocar texturas, distancia de renderizado, quitar Ray Tracing o incluso bajar el tipo de AA según el juego. Posiblemente quitando texturas de ultra a alto sea suficiente, que es lo que normal suele tragar de más.

Concoroncon

Pues he probado el DLSS3 en el hogwarts y en el the witcher 3 y no noto cosas raras, sera cosa de fijarme mas.
Al final lo de que la grafica se me ponia a 72ºC era que el soporte que trae la grafica para aguantarla, tocaba un ventilador y no le dejaba girar, ahora rara vez pasa de 62º.
He tenido suerte con el silicio de ZOTAC AMP 4080.

En juego anda entre 3030-3045 mhz

1 respuesta
alb3rtpr0

#5768 Eficiente ha salido de la hostia desde luego. Habrá que ver el rendimiento qué tal. De todas formas el tener solo 12GB de VRAM ya la descarta totalmente visto lo visto en los últimos acontecimientos. Una pena desde luego. Con 16GB la compraría en sustitución a mi 3060 Ti.

256

#5769 texturas de assets y npcs, resolución de sombras, shaders, etc..

#5770 es que esta 4070 es en realidad una XX60, que no engañe el marketing xD

Es eficiente? Sí, pero también lo era la 3060 / 3060ti, y eso que iban en el nodo de Samsung que era bastante peor.

pd:
Habrá que ir actualizando la tabla

edit2: contando que sean 5888 cuda cores;

2 respuestas
pelusilla6

#5774 Joder, es que si hubieran mantenido el % de CUDA con esa eficiencia y con TSMC hubiera sido un salto bastante pepino xdd

2
ArThoiD

#5774 Esto es como lo de las palomitas pequeñas-grandes y luego añadir las medianas.

Al hacer eso y si se juega con los precios, las grandes pasan a ser más atractivas y venden más. Y en este caso la grande es mucho más grande y también es más cara, pero vale la pena.

1
letee

entonces la mejor grafica calidad precio es la 6800xt¿

1 respuesta
256

#5777 son 600 pavos nueva xd es mucho mejor una 6700xt a 300-400€ en relación rendimiento/precio

todo depende del rendimiento que necesites

1 respuesta
H

#5778 Huy 600, yo la veo a 700-750 en europa y con toda la cara dura del mundo

1 respuesta
256

#5779 sale stock cada 2x3 en coolmod a 599€, si no es la shappire es la red dragon o sino la red devil

https://t.me/RX6000_StockFinder

y si no te importa reacondicionados con caja abierta, también están a 540-550€

Cryoned

las 7900 xt están a 830 ya, las xtx a 1050, tienen rendimientos/precio parecidos a las 6800xt de oferta a 600€ sin necesidad de buscar la oferta.

si el presupuesto te da, yo saltaría ya las 6800 a 600, pero claro, el tema es que son 850 y +1000€, el 98% de la gente no es algo que vaya a pagar y no debería ser un presupuesto aceptable, pero estamos como estamos.

quien busque algo decente pero sin romper el cerdo tipo <500€ está vendidísimo ahora mismo

1 respuesta
256
#5781Cryoned:

quien busque algo decente pero sin romper el cerdo tipo 500€ está vendidísimo ahora mismo

ese es el problema, y tampoco es que 500€ sea calderilla, que es bastante. Antes te pillabas una 970 por menos de 400€ y te pasabas por el forro la consola del turno xD

Ahora por 500€ te comes los mocos y la mierda que vayas a comprar se va a cagar encima vs el rendimiento que obtendrías en un juego optimizado en una PS5, sin obviar que la PS5 por 500 es un sist completo y no tienes que gastar nada más, mientras que con la GPU de 500€ tienes que comprar CPU, RAM, MOBO, PSU, ssd, etc..

Espero de verdad que con la siguiente gen cambien las cosas, quizás nunca volvamos al punto de tener verdaderas XX70 a 500€ y XX80 a 700€, pero es que lo de actual gen es una vergüenza.

1
xoxoa

#5772 La gente que mete mierda al DLSS3 es por puro ego, nada más.

Tiene algunos glitches puntuales en algunos juegos y ya. Lo que pasa es que luego esta gente ven una review en youtube de uno que mira las cosas con lupa en una imagen estática y te montan un pollo, gente que tiene una gráfica incompatible con dlss3 y meten mierda por meterla.

3 respuestas
sPoiLeR

#5783 Falta potencia gráfica para todas las opciones y además RT, aun teniendo una 4090 y tienen que tirar de DLSS. O meten mejores specs a la gama media o bajan mucho los precios, no hay mucho mas.

Ahora que nvidia empuja con Path Tracing como evolución del Ray Tracing, van a ser risas y las gráficas actuales se van a quedar en nada. En unos días veremos en CP2077 que ocurre.

Cryoned
#5783xoxoa:

glitches puntuales

"puntuales", aka en el 50% de los frames xd, buen copium. Esto es como volver a la época de los 20fps con la gente defendiéndolos,

  • es más cinemático
  • el ojo no ve más de 30

  • tu ojo no ve los glitches constantes de dlss3 y el ghosting es para que se vea mejor
  • la diferencia del input lag entre 20fps y 120 no lo nota nadie, tu mano no puede sentir menos de 1 segundo de input lag xd
2
ArThoiD

Yo el DLSS creo que lo probé en Cyberpunk por primera y única vez. Vi el esperpento de ártifacts que creaba en las SSR y dije venga, hasta luego xDD Literalmente luces parpadeando y glitcheando en las reflexiones.

1 1 respuesta
Cryoned

#5786 y eso que encima 2077 es la joya de la corona en la implementación de dlss3 para nvidia y trabajan ingenieros de nvidia codo a codo con cdpr, es lamentable xd

1 respuesta
ArThoiD

#5787 Yo sólo probé no sé si sería DLSS2 o cuál, pero vaya...

1 respuesta
Cryoned

#5788 ah, no, o sea, dlss2, es cutre pero puede llegar a tener un pase en tarjetas low end que sea eso o no jugarlo de ninguna manera, se ve peor y añade glitches, ghosting y demás pero bueno, aunque yo no lo usaría nunca lo puedo llegar a entender para un tío con una 2060 y un monitor 4k, pero es que si ves la implementación del 3 con frame insertion

imagina los problemas de dlss2 multiplicados por 25 xd

SkyeS

Pues yo estoy con #5783 he probado el dlss3 en cp2077, spiderman y algún juego más y no he notado nada, salvo algo muy muy puntual. Será por ir con la 4090? Lo que si es cierto, es que aun con esta gráfica, el rt consume demasiado, hay una diferencia abismal en fps entre tenerlo activado y desactivado.

1 respuesta