Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


fortxu

#4409 No te parece que NVIDIA ya sabria las especificaciones de todas las tarjetas de AMD? Me parece que esas empresas tienen filtraciones de las filtraciones antes que nosotros.
Han visto lo que tenia preparado y han sacado deprisa y corriendo las 4 tarjetas que tenian fabricadas para ser los primeros y cortarles ventas

PoYarko

#4405 No me acabo de convencer, sigo viendo el tema similar con el argumento de los núcleos y la vram, que es exactamente lo mismo lo del "por si acaso en el futuro se queda corta esa cantidad de vram" como dije también con el tema de los núcleos. A ver si alguien puede mostrar con comparativas juegos donde una 3080 con 10 gb se empieza a quedar corta, con caidas de fps a 1440, que coño, a 4k ya puestos respecto a una....3090 de 24gb?, porque no están todavía las de AMD y no se puede todavía saber, y no vale simplemente una captura con la vram asignada de un par de juegos, quiero saber si con más ram da más fps en 2k, o 4k, cuántos, y si con 10gb hay un lastre evidente.

Siguiendo claro con las especulaciones creo que en 4k puede que sí se viera, pero hasta que no hayan tales comparativs, ni zorra idea de cuánto. Sí podría ser algo preocupante una 3060 con 6gb o la 3070 con 8gb, pero creo que no será preocupate si el usuario la busca para jugar en 1080p, y tampoco se quedarán cortas a 1440p en bastante tiempo..

Yo me centraría más en el rendimiento bruto, y no tanto en la vram. Ahí es donde hay que poner el foco, luego en el precio y finalmente cuando llegue el momento en el stock, no me vale de nada todo lo demás si luego siemplemte se "lanzan" al mercado mucho más demandante sin un stock razonable.

1 1 respuesta
Dani_Jackson

#4410 El truco es que la GDDR6X es cara y escasa, cosa que se olvida/desconoce.

Prava

#4400 Creo que no entiendes lo que implica quedarse sin vram. No es "perder un poco de rendimiento" es "paso de 60fps a 14fps y el juego pierde toda la fluidez, porque va a saltos".

Además, me gustaría presentarte a la NVIDIA GTX1080 TI. Lanzada en Q1 2017, con 11GB de VRAM. ¿Qué cuánta más potencia le saca la 3080? Creo que algo así como el doble o más. ¿Y teniendo el doble de potencia lleva menos vram? Pues sí, tal cual.

Así que tenemos 3 escenarios posibles, tal y como lo veo yo.
a) Ha disminuido el uso de vram con el tiempo. (este escenario me parece poco probable dado que los assets cada vez son más gordos, hay más polígonos, más filtros, etc).
b) NVIDIA lleva 3 años vendiendo mucha más vram de la necesaria.
c) NVIDIA ha metido menos de la que toca y están rezando a los Dioses para que sea suficiente.

#4405ErlaNtz6:

Fíjate tu, que pille un 6/12 con tranquilidad y estoy por repetir con el 5600x, sobre todo porque el 8/16 cuesta un 50% más, cuando aquí la opción que se me puede quedar corta y sin esperar demasiado, es la que encima es más cara.

Viendo que las consolas montan 8/16 más pronto que tarde empezarán a darle uso a lo que tienen, sobre todo cuando se abandonen los cross-gen.

2 respuestas
PoYarko

#4414

#4414Prava:

Así que tenemos 3 escenarios posibles, tal y como lo veo yo.
a) Ha disminuido el uso de vram con el tiempo. (este escenario me parece poco probable dado que los assets cada vez son más gordos, hay más polígonos, más filtros, etc).
b) NVIDIA lleva 3 años vendiendo mucha más vram de la necesaria.
c) NVIDIA ha metido menos de la que toca y están rezando a los Dioses para que sea suficiente.

En tal caso la opción B a un 80% y la C a un 20%.

Con la 1070 he estado jugando con 8gb vram a 1080p y en los últimos meses a 2k, y no he visto que se quedara corta ni esas pérdidas de fluidez de las que hablas en caso de "quedarse sin vram". Y claro que sí, siempre es mejor más, es mejor más vram, más núcleos en el caso de los procesadores, ahora que acompañe el precio... por eso me alegro por amd si lo hace bien, porque el efecto de la competencia será bueno para los consumidores, ahora, el absurdo como dije es insinuar que una xx80 se va a quedar "corta" en un par de años, concretamente por la vram... y se está diciendo claramente que eso va a pasar, no que puede, y es más, no me da muy buena espina que los que apoyan incondicionalmente a amd se enfoquen sobre todo en el tema de la vram, es como si temieran que en fuerza bruta al final sea similar o incluso algo peor en algunos escenarios, y tuvieran que tener la última palabra con un "si vale, da menos fps, pero la vram en un futuro será super importante tener esos 16gb..."

#4414Prava:

Viendo que las consolas montan 8/16 más pronto que tarde empezarán a darle uso a lo que tienen, sobre todo cuando se abandonen los cross-gen.

Edito: Sobre eso, la ps4 usa 8 núcleos desde el 2013, un i3 (de 4) y una 1060 destrozan a la ps4 .

Y con la 1050ti.

Importa muchísimo más la potencia por núcleo, que el número de núcleos.

3 respuestas
Overwatch

#4415 Yo creo que con 10gb podemos estar tranquilos unos cuantos años a 1440p...

1 1 respuesta
fortxu

#4416 de sobra. aunque mi 8700k me preocupa mas

2 respuestas
B

#4412 De momento en rendimiento bruto parecen parejas, con más VRAM y mejor precio. Yo ya he dicho, hasta que haya benchs reales no compro nada, pero es que por mucho que haya benchs, no suelen tocar ni mods, ni lo que estar por venir. Al final es apostar un poco a ciegas, hay indicio de que para 4k pueda quedarse justita.

#4414 Respecto la CPU, la cosa es, que va a haber mucho cross-gen y la diferencia de precio es bastante importante. Para cuando un 5600x empiece a ir apurado en resoluciones altas, seguramente haya llovido bastante. De entrada debería ir bien y luego ya se verá como queda. No descarto del todo un 5800x o incluso esperar para el 700, si hubieran sacado el 5700 a buen precio y de entrada la historia cambiaría bastante. Si la CPU de SX/PS5 es una especie de 3700 este con el IPC que tiene anda muy a la par si todo estuviera bien optimizado para usar todos los cores, cosa que no y menos de entrada.

Ahora, que miras como ha envejecido un 4790K (4/8) vs un 4690K (4/4), 2014, es decir, post-lanzamiento PS4/XO y lo que le saca el 4/8 6 años más tarde es ABISMAL:

#4415 Un 3300x también rinde que flipas para ser un 4/8, pero cuando salió PS4 quien compro una CPU por debajo de cores/threads ya se vio lo que paso como en el video que le he puesto a Prava. Y ahora mismo estamos en un punto parecido, alguien que compre un Zen 3 o un intel de 10-11 generación 8/16 si estira bastante antes de upgradear seguramente termine teniendo mucho mejor rendimiento a largo plazo. Además de que el siguiente cambio será de CPU+RAM+Placa (quien sabe si PSU también si cambia el estandar), ahora un 6/12 es un pelín arriesgado dependiendo de la frecuencia en la que decidas cambiar componentes.

Tencru

#4417 A mi me preocupa mi 2700 xD a ver cuando llegue la 3080

Prava
#4415PoYarko:

Con la 1070 he estado jugando con 8gb vram a 1080p y en los últimos meses a 2k, y no he visto que se quedara corta ni esas pérdidas de fluidez de las que hablas en caso de "quedarse sin vram"

La 1070 no tiene músculo suficiente para que pueda darse la situación en la que notes falta de vram. Vamos, quizá en un escenario tan extremo en la que la gráfica vaya a 10fps... pero es que ese escenario es irrelevante.

Y yo de AMD fanboy tengo poco, de hecho la última gráfica AMD que tuve fue una X1950pro, y jamás he tenido una cpu que no sea Intel... pero es que 10GB son insuficientes.

Vamos, yo no voy a entrar en las RTX3080 precisamente por la vram (la pasta la tengo), y eso que estoy muy contento con la larga lista de gráficas NVIDIA que he tenido en los últimos 10 años.

Como ejemplo "de la calle" la vram es como llevar unos neumáticos u otros. En un coche de 50cv te da igual qué neumático montes porque el límite lo pone todo lo demás. En un coche de 500cv si no montas el neumático correcto tienes que relajar el paso.

#4415PoYarko:

Edito: Sobre eso, la ps4 usa 8 núcleos desde el 2013, un i3 (de 4) y una 1060 destrozan a la ps4 .

La PS4 monta una cpu JAGUAR que ya el día de lanzamiento rendía menos de la mitad que cualquier cpu de pc. PS5 y las nuevas Xbox sí llevan una cpu actual y acorde a lo que se monta en pc. No hay comparación posible.

1 respuesta
PoYarko
#4420Prava:

La PS4 monta una cpu JAGUAR que ya el día de lanzamiento rendía menos de la mitad que cualquier cpu de pc. PS5 y las nuevas Xbox sí llevan una cpu actual y acorde a lo que se monta en pc. No hay comparación posible.

Por eso dije que importa mucho más la potencia por núcleo que el número de núcleos, por eso mismo que señalas. En unos meses cuando estén las consolas llegando a los usuarios a ver qué desempeño tienen los últimos ryzen y la respuesta de intel, me gustaría ver cómo rinden estas nuevas consolas con juegos cpu dependientes donde el ipc alto es la clave, luego se dirá que los juegos están "mal optimizados", curiosamente suelen ser juegos de mundo abierto, gran cantidad de ia, npc, información constantemente cargando del servidor al cliente en el caso de ser multijugador, es decir, la mayoría de juegos triple AAA que están por venir, los más vendidos serán así.

Ahora, hay que recordar una cosa, la 2080 tiene 8gb, la 3080 tiene 10gb, la 2080 ti tiene 11, ¿la 3080 ti unos 12 o 14, quizás? La cosa no es tanto que nvidia se haya quedado corta en vram, es que AMD ha querido presentarse por todo lo alto con mucha más vram, al igual que los ryzen fueron un gran reclamo por su cantidad de núcleos, co las primeras series sin dar vergúenza ajena con la potencia por núcleo a pesar de no llegar a intel, y sobre todo con precios competitivos dando cpus de hasta 8/16 muy asequibles, y a mí eso me parece bien, gracias a eso pude pillar un intel de 6/12 como el 8700k, por 400 euros, en vez de otro refrito similar al 7700k de 4/8.

Para mí la vram se te puede quedar corta si vas a usar varios monitores a 2k, en el caso de una 3070, no con una 3080, y puede que en unos años, al igual que pasaba con la 1080, para eso está la TI. Y yo no soy tampoco un fanboy de nvidia, de hecho pienso que la 6090 si vale 1000-1100 euros es la que habría que pensar en pillar para alguien que tiene varios monitores 2k para juegos en simuladores de coches, aviones etc, esa gráfica para ese presupuesto es más lógica, la 3090 muere por el precio, sin más.

Ahora, para jugar en un solo monitor 1080p, 2k 144hz, y 4k 60fps, la 3080 va sobrada ahora, y dentro de los próximos años. Y puedo hablar de esa gráfica porque la tengo, ni idea de la 3070, la 3060 o las de AMD cuando empiecen a llegar con suerte a lo largo del año que viene se sabrá.

#4417fortxu:

de sobra. aunque mi 8700k me preocupa mas

Yo tengo el 8700k a 4.8 1240v y ya he probado un buen puñado de juegos con la 3080, y no creo que cambie de procesador en 2 años como mínimo, a no ser que vea un procesador que saque más de un 25% en ipc.

1 respuesta
kainlucifer

#4421 1.24... baja eso hijo, a 1.17 lo tengo yo xD

2 respuestas
PoYarko

#4422 Me peta, no hay manera si es a 4.8, si quieres por MP me dices qué placa usas, y cómo lo has dejado tu, pero he seguido todo tipo de guías, y si pudiera dejarlo a más frecuencia o con menos voltaje, ahora con la 3080, lo haría de cabeza.

1 respuesta
fortxu

#4423 Mi Roadmap de cambios en el equipo es dejar el procesador hasta la normalizacion de la DDR5, que supongo que sera dentro de 2 años o asi. Si no nos come otro virus, un ataque extraterrestre o Godzilla emergiendo del pacifico

#4422 Joe, que voltaje mas bueno. loteria del silicio, supongo.

1
pakillo_rbb

la que quito vs la que pongo.... vaya bicho y eso que la 980 ti ya me parece gigante :joy:

3 1 respuesta
Lord_Khronus

#4425 Es mucho más ancha? A ver si no me cabe la mía... xD

1 respuesta
pakillo_rbb

#4426 segun especificaciones:

gtx 980 ti: H=39 L=296 W=120 mm

rtx 3070: H=32 L=267 W=135 mm

pero la rtx la veo mucho mas monstruosa

1 1 respuesta
radius

Bueno ya tengo mi evga 3080 black montada.
Despues de un rato de rayada porque en idle me chupaba 30% power, el reloj no bajaba de 1700Mhz y 60c, reinstalando los drivers parece que se ha solucionado.
Ahora a probar algun juego y mirar el undervolt

1 respuesta
S

#4428 Interesado en ver como rinde ese modelo en concreto. Estoy entre esa y la FTW3. La voy a pasar por agua con lo que si rinde bien en Hz es posible que me ahorre la pasta de la FTW3 y me pague parte del bloque.

Overwatch

#4427 Pues con la 3080 alucinas.

La verdad es que son bien grandotas... mientras otros componentes cada vez son más pequeños, las gpus son cada vez más grandes.
A alguno ni le entra en la caja xD

1 respuesta
pakillo_rbb

#4430 yo que cada vez quiero una torre mas pequeña, pero fresquita.... con estos monstruos que se nos vienen encima va a ser imposible :joy:

necro_x

Llevo unos días con la Zotac 3090 Trinity y la verdad que me esta decepcionando un poco en tema temperaturas.
En rendimiento es una bestia y probando animación muy exigente a 8k 60fps teniendo un buen resultado. El problema esta en la temperatura.

Alcanza fácilmente los 77º con los ventiladores al 67%. Y las frecuencias empiezan a bajar, pasando de los 1900 a 1700/1800 mhz a partir de los 70º.
La caja siendo una Corsair Carbide Air 540 y 4 ventiladores Noctua NF-S12A recién comprados sincronizados a la temperatura de la gpu. La habitación: 23/24º.

Que 77º tampoco es un problema pero es mas por el verano. Ya tuve problemas hace tres años con la Aorus 1080 ti y su disipador de serie.

Esto es jugando a Overwatch todo en ultra con resolución 1080p y 200% escala de renderización:

spoiler
1 respuesta
Optimus-Prai

#4432 ostias! Yo la verdad que no he mirado undervolt por qué no me pasa de 66 jugando a Warzone y me parecen temps aceptables aún así le tengo que echar un rato.

Supongo que la 3090 puede ser un poco más calentita pero 77°C ya se suben un pelin... Pero es que es una 3090 y Zotac no sé si tiene de las mejores disipaciones.

La caja que tienes es pura ventilacion...no me quiero imaginar en otra caja esa gráfica

Cyph3r

Recuerdo cuando me compré la 960 había dos modelos 2GB y 4GB y me compré el de 4GB y la verdad es que fue la mejor elección he podido aguantar con la 960 gracias a esos 2GB extras ya que muchos juegos con 2GB es poner texturas al medio o menos.

Yo creo que 8 ahora mismo está bien pero en un par de años se va a quedar corto.

1
ZelD4

https://elchapuzasinformatico.com/2020/11/la-geforce-rtx-3080-no-puede-mover-godfall-4k-con-raytracing-por-falta-de-memoria-vram/

2 respuestas
danao

me tocaria mucho los cojones que a futuro tuvieramos que elegir como con las consolas, los juegos optimizados para unos o para otros.

Optimus-Prai

#4435 se puede crear ya un hilo de 3080 falta de Vram? dios.. con el monotema , quien quiera mas Vram ya sabe RNDA y a disfrutar de los 16GB...Ez.ç

No entiendo si con los 10GB de vram son una castaña de grafica , se sigan revalorizando a dia de hoy..

ZelD4
2 respuestas
sPoiLeR

#4435 Lo que comentábamos en otro hilo, un partner de AMD de un juego que ni ha salido. elchatarras siendo elchatarras.

1
danao

#4438 ufff si eso es cierto se viene 3080 por 1100€

1 respuesta