Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


ArThoiD

#1770 Bueno, pues que la enseñen. Otra cosa es que funcione con la api de DXR y tal, y que los juegos que actualmente lo usan, también soporten AMD.

Se supone que sí, pero veremos.

1 respuesta
DunedainBF

amd perdería funciones como rtx voice no? o sería compatible o están desarrollando algo idéntico propio?

hay pequeñas cosas como esas, el shadowplay, que son un plus para decantarse por la que es la apuesta más segura.

1 respuesta
B

#1771

Si hasta hay una demo oficial de hace 5 meses con reflejos por un tubo y sombras RT 🤭:

eondev

#1772 pos esas mierdas si les dan por hacer su propia versión o algo estándar guay, sino pues como otras tantas tecnologías de nvidia gameworks/physics que AMD no tiene con la salvedad de que esto sí parece que se use mucho xD

IchiGoIn

La pregunta es, para 2k@144Hz, que lo que la mayoría creo que optará ¿son necesarios más de 10GB de ram?

2 respuestas
ArThoiD

#1775 No

1 1 respuesta
IchiGoIn

#1776 Pues entonces no sé porqué tanto revuelo, yo no pienso saltar a 4k en el PC, de momento voy bien con fhd y la idea es en un tiempo saltar a 2k como máximo.

1 respuesta
B

#1775 la pregunta clave no es si son, sino si serán

si serán con los juegos desarrollados para la nueva gen de consolas.
a mi parecer, irá justo.

solo fijandote con la vram que tienen las consolas...

aunque nvidia tenga gddr6x con mas ancho de banda y la tecnologia esa para cargar de forma mas directa las texturas ... 10gb son lo que son

3
Czhincksx

Una pequeña reflexión. La generación anterior tenía el tope de gama en la 2080 Ti con un TDP de 250W y para esta gen van a sacar una 3070 algo superior con 220W. Eso significa que no han podido mejorar demasiado en rendimiento por vatio pese a pasar de 12 a 8nm y han tirado de fuerza bruta. Esa fuerza bruta también se ve reflejada en el tamaño de los chips, que son enormes y por tanto, más caros de producir que la generación anterior. Pero Nvidia ha podido sacar una 3070 a 500$ porque tenía un margen de beneficios brutal en la serie 2000. Y ese margen de beneficios era así porque AMD no era competencia en la gama alta.

¿Y por qué no lo era? Pues porque lo máximo que sacó con arquitectura RDNA fue una 5700xt de 250mm2 y 225W de consumo pese a estar fabricada en 7nm. El chip de la 5700xt tenía un tamaño de gama media como mucho y AMD no se planteó sacar una RDNA de 80 CUs porque se iba a los 400W, que es una puta locura.

Así que Nvidia habrá visto eso y esperando que AMD no mejore esto significativamente han podido sacar una generación con unos consumos astronómicos y así dar un golpe sobre la mesa y eclipsar lo que saque AMD y consolas.

Pero... En la generación anterior, el tope de gama tenía 11GB de RAM. Normalmente la VRAM estará ajustada para que traiga la cantidad adecuada que el chip pueda procesar. Y llevamos con 8GB desde la 1070, que está muy por detrás en capacidad de proceso. Aún así de aquella consideraron que 8GB era lo adecuado. Incluso AMD los metió en la rx480, no porque esa GPU fuera a usar toda la memoria de forma eficiente, sino porque la vendieron como rival de la 1080 haciendo crossfire.

Total, que todo hace indicar que 8GB es menos de lo que una 3070 podría aprovechar y que el único motivo por el que la han sacado con esa cantidad es porque a día de hoy en los juegos actuales no se va a notar que están capadas y van a dar unos resultados buenísimos, pero en cuanto saquen juegos que requieran más VRAM van a empezar a bajar en rendimiento. Así, pese a que ahora impresionan en los benchmarks, están hechas con obsolescencia programada para poder sacar unas Ti/Super el año que viene con más memoria y así rendir mucho más en juegos nuevos y resoluciones mayores.

Ahora mismo Nvidia debe tener una arquitectura muy fina y les debe estar costando mucho mejorarla. Por eso han tirado por subir TDP y gráficas más grandes. Y por eso mantienen la VRAM limitada en las 3070 y 3080, para poder actualizar con las Ti mientras los 5nm maduran lo suficiente para poder sacar la serie 4000 en 2022.

Y mientras AMD es posible que saque su serie 6000 sin limitaciones en VRAM porque no tienen capacidad de competir en potencia bruta con Nvidia ni tampoco en rendimiento por vatio y así intentar convencer a la gente con el marketing de más VRAM y las promesas a futuro. Pero a corto plazo no se va a notar en los juegos que están por venir el que tenga más memoria y para cuando se empiece a notar vendrán las Ti/Super y listo.

Así que podría ser serie 6000 en octubre/noviembre y las Ti/Super en Julio de 2021. En 2021 irán llegando también gráficas de gama media y baja. Luego la serie 7000 de AMD y RTX 4000 para mayo/junio de 2022.

1 respuesta
SKuD-Ro

A los que tengáis (casi) claro que vais a cambiar a la serie 3000:

¿Pondríais la estética como requisito para comprar o solo miráis specs?
¿Os haría replantearos la compra que sea de X ensamblador aun si os gusta estéticamente y os convencen specs/precio?
¿De las listadas hasta la fecha a cual le habéis echado el ojo y esperáis su review?
¿Que ensamblador es un NO, ni siquiera voy a mirar sus reviews, y cual SI y con cual lo compararíais?

En mi caso no quiero que destaque mucho en mi equipo (Negro y algún led rojo) y de lo que he visto me convence la MSI Ventus (tengo actualmente la 1060 gaming x y pega en estética y no me ha dado ningún fallo) o la Zotac Trinity (que me gusta estéticamente pero ni idea de la marca, ¿puede que sea la antigua xfx?). También me convence la FE pero no se yo si 2 ventiladores serán suficientes, aunque tengo buen flujo de aire y una buena aio para la cpu, sigo viviendo en Alicante y son muchos meses de calorcito intensivo.

PD: Perdón si las preguntas no deberían ir aquí, pero creo que encaja con la idea de discutir sobre la serie 3000.

3 respuestas
B

#1779

RDNA 2 mejora el consumo/rendimiento un 50%, eso quiere decir que 224w de la 5700xt puede ofrecer un 50% mas de rendimiento :

Tambien tendra mayor IPC y mejoras en frecuencias mas altas que RDNA:

Con lo que no tiene RT y estas cosas, creo que estais subestimando lo que puede conseguir AMD con una GPU con 80cu y sus proximas GPU.

1 respuesta
Czhincksx

#1781 ojo porque esto siempre lo anuncian de dos formas. O bajar consumo manteniendo rendimiento o mejorar rendimiento con el mismo consumo, y creo que ese 50% era para lo primero.

Subir rendimiento siempre arroja peores números de rendimiento por vatio que mantener rendimiento y bajar consumo.

Aún así es cierto que una RDNA2 de 80 cus puede ser un monstruo, aunque no creo que se acerque a la 3090.

1 respuesta
B

#1782

Las mis grafica te dice que es aumentar rendimiento manteniendo consumo, en pocas palabras RDNA2 es mas eficiente energéticamente que RDNA.

Otra cosa que se me olvido comentar es que hay posibilidades que AMD use los 7nm EUV, que brindan 20% mas densidad que los 7nm DUV actuales que usan para las 5700, pueden ser GPU con un tamaño pequeño y mas baratas de fabricar.

1 respuesta
Leu
#1780SKuD-Ro:

¿Pondríais la estética como requisito para comprar o solo miráis specs?

Depende, así de primeras no, pero debo decir que no tengo un Kit Molón, tengo un pc normal sin lucecitas ni hostias. Debo decir que si tuviera un PC de ataque de epilepsia si que miraría la estética.

#1780SKuD-Ro:

¿Os haría replantearos la compra que sea de X ensamblador aun si os gusta estéticamente y os convencen specs/precio?

Los ensambladores suelen ofrecer cosas bastante parecidas a precios distintos, yo confiaría en las de siempre y si encuentro algo nuevo no tendría problema en probar (a no ser que los ventis y las disipación las viera una mierda) pero la base es prácticamente la misma.

Respecto a la FE, yo compraría estas. El problema es que creo que las FE solo las venderá nvidia (supongo y creo) así que a ellos no se la voy a comprar. La gráfica la voy a comprar en amazon si o si, por lo que la primera 3080 que vea a buen precio la pillaré.

Tengo que decir que yo voy a cambiar una GTX670 a una RTX3080.
Voy a tener que comprarme unos ojos nuevos y todo xD

1
danao

#1780 creo que estamos todos con casi las mismas dudas.
yo me estoy fijando en los backplate básicamente, ya que tienen pensado sacar aire hacia arriba que sea lo mejor para luego echarlo fuera.
la estética también influye claro, creo que muchos están en contra de tener exceso de led, otros buscan 0 led y a otros les vale con una linea chorra.

Me gustaría ver las reviews de FE, EVGA, Zotac, Gigabyte, Asus, KFA2 y MSI. Seguramente si la FE sale bien parada en la reviews la coja, si no en el orden que he puesto, siempre hablando de modelos que tengan un precio entre 700 y 750.
Creo que las gainward no las recomiendan porque ser una de las marcas que más RMA tiene.

Las MSI Ventus disipa por los lados, es un posible modelo para gente con refrigeración por aire.

Veremos mucho precio de refurbished de gente que compre una 3080 que no es la que quiere realmente hasta que pueda cogerse la que quiere y haya stock

1
vene-nemesis

#1777 FHD es 2k, 1440p es 2,5K

1 respuesta
Supplicce

#1780

1 - La estética puede ser "importante" en según que ocasiones, es algo bastante personal/situacional, yo no tengo la torre precisamente a la vista y en ppio me dan igual los leds las lucecillas y esas cosas busco más el rendimiento (eso no quita que tambien me guste tenerlo todo limpito ordenado y que se haga "bonito" a la vista)

2 - Ligado con lo anterior, yo personalmente voy a comprarla si o si (vengo de una 970 y he pillado el tipico lg 27" 144hz que tanto se habla en el foro, asique toca renovar) ya sea la FE o de un ensamblador si no se suben a la parra con los precios, y, me convence lo que "prometen" (ya que este año parece que las FE van a salir mas pulidas que otros años, al menos en tema temp si todo va como se ha anunciado, y puede que la diferencia FE-custom no sea demasiado canteada).

3 - Personalmente me gusta el modelo de EVGA (https://www.evga.com/articles/01434/evga-geforce-rtx-30-series/) pero no la he visto listada en los tipicas paginas españolas solo en uk y por ahí, no se si va salir mas tarde aqui o si no la han listado todavia por algun motivo...

4 - En ppio no tengo a ninguno "vetado" esto es como siempre puede que una "marca" lo haga bien un año y la cague al siguiente, habrá que esperar reviews o fiarse en que aciertas con lo que has eligido, si no siempre puedes devolver el producto

En mi caso las 3 que mas me convencen sobre el papel es la propia FE, la de evga y quizas la de kfa2 con el mini ventilador trasero extra (aunque me parece un poco "raro" el diseño)

1
Vancete

Hace cosa de un año y pico tuve una Vega 56, con TDP de 210W, en carga llegaba a consumir 300W sin despeinarse mucho.

Créeis que la 3080 también superará el TDP? Porque si sé que no va a pasar nunca de consumir 320W puedo andar tranquilo con la fuente.

DunedainBF

#1786 what? no sé de donde viene eso que dices de 2 y 2,5k . Imagino que estás hablando y redondeando los píxeles en horizontal pero nunca había visto a nadie llamarlo así y es confuso.

1440p son los mal llamados 2k y fhd 1080p, lo demás es confundir o yo ya soy mayor

1 respuesta
vene-nemesis

#1789 si hablamos de resoluciones en la horizontal 1440p son 2,5k, no es que esté mal llamado 2k, es que 2k es una resolución inferior.

1 respuesta
Vancete

Sí, de hecho 1440p es un 80% más de puntos que 1080p, con lo que 2k y 2.5k lía aún más el asunto. El 4K por cierto viene a que es justo 4 veces 1080p.

DunedainBF

#1790 yo ya te digo que he imaginado que tus tiros iban por ahí con la línea horizontal pero creo que estás siendo confuso.

Cualquier persona que te hable de 2K va a estar refiriéndose a 1440p y no a 1080, y lo de 2,5k es que ni lo había leído.

2 respuestas
vene-nemesis

#1792 y cuando le respondan en referencia a 1080p, que es la verdadera resolución 2k y no en referencia a 1440p se lo va a pasar pipa con información que no responde a su pregunta real.

Why is it called 4K?
Because the images are around 4,000 pixels wide. And before you ask, yes, the industry named 1080 resolution after image height, but named 4K after image width. For extra added fun, you also might hear this resolution referred to as 2160p.

BLZKZ

#1792 lo que no quita que decir 2k a 1440p esté mal

edit: y 4k en realidad es 4096x2160, pero en 16:9 es 3840 por eso no está mal

2 respuestas
DunedainBF

#1794 ya, ya dije que sería

#1789DunedainBF:

1440p son los mal llamados 2k

pero es que eso ya lo tenemos interiorizado creo. Empezar a llamar ahora a 1080p 2k y a 1440p 2,5k, es confundir ahora más a la people xd

vene-nemesis
#1794BLZKZ:

y 4k en realidad es 4096x2160, pero en 16:9 es 3840 por eso no está mal

Exacto

Czhincksx

#1783 como consigan ese +50% entonces sí, la 6900xt con 80 cus puede ser muy bestia. Sería un x3 de rendimiento comparada con una 5700xt. En ese caso el problema es queque requeriría quizás más ancho de banda del que puede proporcionar gddr6 y tendría que meter a lo mejor 20GB HBM2, lo que la encarecerá.

Pero bueno, con un x3 de la 5700xt quizás sí podría competir con una 3090. Va a estar curioso. Algo tiene que haber desde luego, para que Nvidia siga esta estrategia de precios. Pero sigo pensando que la 3070 y 3080 salen capadas por el tamaño de VRAM y en 2 años la 2080 Ti será superior a la 3070 en los nuevos juegos con todo en ultra y resoluciones altas (quizás no si activan rtx).

1 respuesta
B

#1797

Hombre no se donde sacas el 3x 🙃, una GPU el doble de potente de la 5700xt (40CU) de 80CU si puede ser, estaria en el ratio de la RTX3080.

A la 3090 no creo que la pille, pero tampoco hace falta, esa GPU por precio/rendimiento no existe para el usuario normal.

1 respuesta
danao

Zotac 3080

2 respuestas
Carcinoma

#1799 Madre de dios, ese monstruo a 2.1 estará en los 420W tranquilamente.