Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


ArThoiD

#1710 La VRAM son los padres.

Para cuando eso importe, cambias de gráfica.

/care

1 respuesta
sPoiLeR

#1710 No creo que la vram sea un dealbraker. Imagina que AMD lanza una tarjeta que rinde como una 3080 pero que:

  • RT no rinde bien o no tiene nada que ver con la gama 3000
  • No tiene DLSS
  • No tiene features como I/O, Reflex (que si lo tienes igual lo usas)
  • No tiene software especifico para streaming (que cada vez lo usa más gente)
  • Los drivers no están bien optimizados

A igualdad de precio yo tengo claro que nvidia es la decisión logica. Otra cosa es que el rendimiento sea mayor o que tengan mejor precio. Y aun asi habría que valorar todo eso. Que igual luego con la tarjeta te regalan cyberpunk y ya esta todo dicho.

2 respuestas
B

#1683 DDR5 no va a estar disponible/ producida en altos volumenes hasta finales de 2021/ principios de 2022. Yo no se quien emepezó el rumor de que el año que viene Zen 4 va a ser 5nm, DDR5 y Pcie5.0 pero todo el mundo lo repite por todos lados como pollos sin cabeza. Y solo tienes que teclear 2 palabras en google para darte cuenta que el año que viene no vamos a tener ni PCIE5.0 ni DDR5.

Y como dicen otros usuarios, cada vez que se hace el salto de RAM las primeras horneadas no son tan rápidas comparadas con la anterior generación, y aún por encima tienen un sobrecoste de la ostia ya que es algo nuevo y no estandarizado.
Ahora es muy buen momento para comprar DDR4, por muy extraño que parezca. Hay kits de 32GB por 100€ con micron E-die que se pueden subir fácilmente a 4000MHz.

3 1 respuesta
eondev

#1700 Sí, pero hay generaciones totalmente continuistas, lo que vengo a decir es que si Nvidia hubiese reducido el proceso de litografia a 8nm con lo que es Ampere, manteniendo el tamaño del DIE, y reduciendo consumos la mejora habría sido pues del 10% si eso xD Y AMD la habría superado sí o sí.
Si AMD se marca también un tarjetón pues igual tenemos rendimientos parejos incluso a menor consumo.

Ahora mismo todo está en el aire y pese que AMD siempre va a rebufo, cada vez sus tarjetas son en relación a la anterior generación, más potentes.

ShyntaX

#1712 En tema de drivers un amigo paso las de cain con las 5700xt, imagino que ahora irán finos los drivers. Aunque bueno eso ocurre también en nvidia, pero la verdad que desde que tengo la serie 1000 nvidia no he tenido problemas. Cada caso será diferente...

Ridote

@Kalgator cuántas tienes ya encargadas cabrón, que siempre que sale algo nuevo te compras tres o cuatro

1 respuesta
Prava
#1712sPoiLeR:

No creo que la vram sea un dealbraker. Imagina que AMD lanza una tarjeta que rinde como una 3080 pero que:
-RT no rinde bien o no tiene nada que ver con la gama 3000
-No tiene DLSS
-No tiene features como I/O, Reflex (que si lo tienes igual lo usas)
-No tiene software especifico para streaming (que cada vez lo usa más gente)
-Los drivers no están bien optimizados
-Tiene 16 GB de vram

Añado una línea para darle más interés. ¿Te imaginas quasi-rendimiento de 3080 pero con 16GB de VRAM a precio un pelín inferior? Ya te digo yo que sería una muy buena opción a considerar.

PD: y yo también soy mucho más de NVIDIA... pero 10GB de vram se me antojan pocos.

#1711 No son tanto los padres, no. Las 3080 andarán muy, muy justas de vram, sino se quedan cortos. Tienen menos vram que las 2080 TI rindiendo un 30-40% más.

1 1 respuesta
B

#1683 Precisamente quiero evitar eso, usar DDR5 sin contar el nuevo estándar de PSU eso suponiendo que salga ya como ha comentado _Morrigan. A saber el hostión que te pueden pegar por las mems para que no se note nada los primeros años, total teniendo ya 24GB de DDR4 a 3200. B550 + Ryzen 3700/4600 a lo mucho mucho 4700, y a aguantar un puñado de años. De cara a Ampere no, pero de cara a un par de generaciones PCIE 4.0 podría venir bien y b550 tienen soporte en Ryzen 3000 actualmente, en los 4000 por confirmar.

Con el HDMI 2.1, que saldrá por fin con Ampere, desde el 2018 llevo escuchando que ya esta aquí. Despues de dos años y pico vamos a tenerlo en las GPU de gama alta, en 0 monitores y exclusivamente en un puñado suelto de TVs de gama alta....

danao
#1717Prava:

Las 3080 andarán muy, muy justas de vram

pero hablas para juegos en 4k verdad?

el problema que tenemos de cara al futuro es que no sabemos que viene y tampoco sabemos como se comportarán las tarjetas :sweat_smile:

3 respuestas
Naith

Ingenieros de NVIDIA: hemos consultado a desarrolladores y 10GB es más que suficiente.
Mediavideros: 16GB van a ir justos, y debería ser lo mínimo.

2 respuestas
B

#1719 Hombre, la 3080 dudo que se quede corta a corto/medio plazo. Pero viendo lo que twitteó el programador de ID Software diciendo que 8gb será lo mínimo incluso a resoluciones inferiores a 4k... Yo creo para los que nos estamos planteando la 3070 es una putada xD

nerkaid

#1719 A día de hoy en 4K los juegos están comiendo 4-6GB de VRAM, con la llegada de las consolas se espera que suba algo, pero yo creo que hay un poco de alarmamismo con lo de los "solo" 10GBs, especialmente cuando hablamos de una memoria tan rápida.

Prava

#1719 Hombre, sabemos que aún teniendo el lastre de la actual gen de consolas las cpus potentes siguen siendo necesarias y que la vram es un factor. Ahora espera a que salga la next-gen donde las consolas tendrán una cpu y una gpu de verdad y.... puede ser un festival.

#1720Naith:

Ingenieros de NVIDIA: hemos consultado a desarrolladores y 10GB es más que suficiente

¿Source? Porque es tan suficiente que a la 3090 le han metido el doble de la vram que debería llevar (pues en configuración idéntica a la 3080 serían 12GB).

2 respuestas
Naith

#1713 si tecleas un poco en google verás que DDR5 llega con la próxima generación.

1 respuesta
nerkaid

#1723

He went on to explain that in a number of games, such as Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Red Dead Redemption 2, and Gears of War 5, NVIDIA was able to achieve frame rates of 60-100fps with graphic settings maxed, 4K resolution, and RTX turned on in games that support it. Despite those high settings, each game only used between 4GB and 6GB of memory, so it looks like 10GB of memory was determined to be sufficient enough for 4K gameplay at max settings.

https://www.reddit.com/r/nvidia/comments/ilhao8/nvidia_rtx_30series_you_asked_we_answered/

Y lo de la 3090 con 24 GB, ¿sabéis que las gráficas se usan para más cosas que jugar no?

HeXaN

Ya no os digo para 1440p que es el punto dulce actual.

1 1 respuesta
ArThoiD

#1723 La next-gen llega en 2022, y se sabe.

Que yo sepa no hay ningún juego que pase de 6 GB de VRAM sin AA en 4K.... Así que si se da el caso, se quita el AA y a volar, pero eso, en un año dudo mucho que aumenten un 100% el consumo.

Y, again, todo medido con programas que miden la memoria asignada, no en uso. Casi siempre se da el caso que el mismo juego, con diferentes gráficas, siempre "consume" más VRAM en la gráfica que tiene más, porque el sistema le asigna más directamente.

sPoiLeR

#1726 Un 27GN850 se va a venir para casa, y no me voy a comer la cabeza con el 4K. Hasta que no se pueda jugar a 4K 144hz claramente creo que no daré el salto.

4 2 respuestas
B

Mi idea es actualizar placa, gpu y cpu, si RTX IO se nota mucho meter un nvme pequeñito más adelante y lo mismo un disipador/aio. En la serie 5000 dentro de unos 4 años donde no sería raro que duplicarán prácticamente el rendimiento de las 3000 y los 10gb de ram fueran ya un poco así, ir a por una 5070-5080 (ahí ya sera para ir full 4k y me la sudará bastante el cuello de botella a 1080-1440), y ya aguantar otros 2-4 años, si te descuidas hasta la next-next-gen. Cambio 200 veces de opinión y el futuro es incierto, pero bueno xd..

Pienso muchísimo en el futuro, al final hasta un CV1 rasca con los juegos exigentes junto a una 2080Ti, no me quiero imaginar como tiene que ir un Reverb G2 / Pimax con algo next-gen.

#1728 No todos juegos necesitan 60 fps y el DLSS esta ahí, en realidad el 4k es bastante más factible de lo que parece. Pero full ultra sin reescalados y a altos FPS en juegos next-gen ni de cerca.

1 respuesta
B

#1720 Y que va a decir alguien que trabaja para Nvidia? "Sabemos que 8GB no serán suficientes para medio/largo plazo, pero queremos que paséis por caja en la siguiente generación"
Pues no, obviamente van a decir que después de indagar e investigar lo que han sacado es lo idóneo para todos los casos.

#1724 Empezando la producción en 2021 a baja escala, e incrementando a medida que pasa el año, con Zen 3 saliendo casi en Diciembre, te crees que va a salir Zen 4 con DDR5 en 2021?? como mucho saldrá a finales de año/principios de 2022 si no, Zen 3 será la generación de CPUs más corta que haya tenido Ryzen.

Y cogiendo lo siguiente con muchas pinzas, el leak que hubo del roadmap hace 1 mes de las CPUs de AMD indica que para el año vamos a tener "Warhol" en 7nm y con PCIE 4.0. Espérate que para el año no saquen un refresco de Zen 3 como Zen + lo fué de Zen, o simplemente una versión "XT" de Zen 3.

1 respuesta
neZbo

#1728 Yo también sigo a 1080p y no tengo intención de subir de resolución. Puede que yo esté ciego, pero con mis ojos no considero que el salto esté justificado. Y para mover según qué cosas a según qué resoluciones y Hz... suerte.

Y como aquí la peña salta a la mínima resalto que es sólo mi opinión, o que igual estoy ciego, pero no necesito más de 1080p a 27" xD

1 3 respuestas
Popino

#1729

Cambio 200 veces de opinión y el futuro es incierto, pero bueno xd

Literalmente yo xdd

1
HeXaN
#1731neZbo:

Yo también sigo a 1080p y no tengo intención de subir de resolución.

@ArThoiD dile algo.

1 respuesta
neZbo

#1733 En realidad son todo ventajas para mí, me he pillado una 2080 tirada de precio y me puedo saltar la gen 30xx tranquílamente.

Que a ver, si me saliera el dinero por las orejas pues sí, me iría a lo top aunque mis ojos no lo apreciasen, pero no es el caso xD

1 respuesta
ArThoiD

#1734 Pues hombre, para quedarte en 1080p te sobraba hasta con una 2070 XD

1 respuesta
B

#1731 Como no va a estar justificado... Si solo la diferencia de nitidez en la resolución es abismal. Y más viniendo de 1080p a 27" que deben de estar los pixeles más estirados... xD

1 respuesta
Overwatch

#1730 Esta claro que todo esta medido. Igual en 2 años los 8gb se quedan cortos para 1440p

1 respuesta
B

Lo bueno de 1080p es que es tolerable, da muchos frames y los monitores de 240hz tienen buen precio. Es una forma de jugar fluido a prácticamente todo sin dejarte un riñón, y fluidez > calidad, en el caso de que tengas que elegir una.

1
neZbo

#1735 Pues también, pero la oferta de la 2080 me tentó mucho.

#1736 Eso es lo que dice todo el mundo, pero ya te digo que yo debo estar ciego o mis standares de calidad son muy bajos xD

2 respuestas
B

#1737 Yo en 2 años dudo muchísimo que 8gb se queden cortos para 1440p, ten en cuenta que los juegos que vamos a ver este y los próximos 1-2 años van a ser juegos de transición, los cuales se han hecho con las consolas viejas en mente... llevan ya años de desarrollo... etc.

Pero es que hay gente que a día de hoy sigue con una 1070 por ejemplo. Una gráfica de hace ya 4 años. Para quien tenga pensado estirar eso o más la 3070, igual para entonces los 8GB se le quedan cortos. Y la 1070 ya tenía 8GB por entonces, que sí que eran DDR5 y la 3070 lleva DDR6 y todo lo que quieras, pero me sigue pareciendo una racaneada de cojones. Pasan las generaciones, 2020, y seguimos con los mismos o menos GB que en Pascal.

#1739 al final todo depende de la persona, a mi me parece una diferencia bastante grande. Míralo por el lado bueno, te ahorras una buena pasta xD