Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


danao

#2040 correcto. Es que hace que la gente se vuelva loca y en cuanto alguien con ese setup solo dice "se queda corta" el gallinero se agita xD

Vancete

#2039 bf y fs2020 ya se comen 8 gigas y pico si maxeas todo, a la mínima que salga algún juego next gen (incluso no me extrañaría verlo en cyberpunk) esos 10gb estarán ahí ahí. 12Gb hubiese sido mejor decisión, pero entonces no podrán darte tantas razones para dar el salto a la de 20gb.

3 respuestas
neZbo

#2039 A mí también me parece exagerado lo de los 20gb, sería el nicho dentro del nicho, tipo los casos que comenta #2040

Ignoro para temas profesionales (renderizados etc) el impacto que pueda tener.

B

#2042 Imagino que hablas de 4k

danao

#2042 pero estamos hablando de 4k? Porque yo he jugado con la 2070 8gb a tope de gama de gráficos al bf5@1440p y no tenía problemas de memoria. No iba a 74053fps porque la tarjeta en sí no daba más pero iba fluido

Prava

#2020 jajajajaja. En mis tiempos de mod, hardware era un oasis de tranquilidad... ahora, que tampoco recuerdo que nunca un launch de una familia de gráficas generara este hype, también te lo digo.

#2042 no puedes saber cuánta memoria usa un programa o videojuego. Tú puedes ver la cantidad de memoria ocupada en la gráfica, pero no cuánta de ella está en uso, piensa que la gráfica va escribiendo en memoria pero no todo lo que está escrito está en uso.

3 2 respuestas
Carcinoma

#2046 Exactamente, el indicador de vram usada no sirve para nada en absoluto. La única prueba válida son los benchmarks, a ver qué nos cuentan.

1 1 respuesta
richmonde

#2046 #2047 agree.

Ahora bien, te sirve como indicador de "en máxima carga, gastará esto".

Si tienes alguna otra cosa en segundo plano que trague memoria, obviamente te permite saber que potencialmente puede llegar a rascar.

RPV: Memoria reservada != Memoria en uso 100% del tiempo

1 respuesta
ArThoiD
#2048richmonde:

Ahora bien, te sirve como indicador de "en máxima carga, gastará esto".

Hmmmm no necesariamente....

Para los pesadillas de "10 GB de VRAM no son suficientes mimimimi"

Leed este artículo de pe a pa, y luego venís a escribir otra vez:

https://www.techspot.com/article/1785-nvidia-geforce-rtx-2060-vram-enough/

1
Cl0ud7
eondev

#2032 eso es cacharreo? tirar el dinero para pinchar una tarjeta grafica peor de lo qeu van a sacar al mismo precio? xddd guao menudo cacharreo

3
Carcinoma

Para los pesadillas de “8GB es suficiente”:

Los de Nvidia tontos no son, y eligieron el test de Doom a 4K porque es precisamente donde iba 2080 se empieza a ahogar. Se ve claro como el agua cómo sufre la 2080 a esa resolución, y es por eso que para 4K, estas primeras Ampere no parecen contar con la cantidad adecuada de VRAM.

Así que NO, 8GB no parecen suficientes en 4K para los próximos triple A que se avecinan, y es algo muy a tener en cuenta.

2 2 respuestas
richmonde


3090/3080/3070

Ahora sí podremos decir a ver quién la tiene más grande xD

1 2 respuestas
HeXaN
#2052Carcinoma:

Así que NO, 8GB (por suerte la 3080 trae 10 GB) no parecen suficientes en 4K para los próximos triple A que se avecinan

Te lo completo que siempre se os olvidan cosas.

1 1 respuesta
B

#2053 -> #1986

Carcinoma

#2054 Sí, pero aquí hay gente también interesada en la 3070, y muchas risas con compararla con la 2080Ti. Y está por ver a esa resolución si la 3070 da la talla.

Así que SÍ, la VRAM importa. Que solo sea a algunos, pues bien, pero importa.

Lo que no puede ser es que algunos estén todo el puto día dando la matraca con el cuello de botella, y desdeñen este factor igual a tener en cuenta.

1 respuesta
B

Que estas gpu de 10gb se quedarán cortas a mitad de gen ni cotiza.

2 1 respuesta
ArThoiD

#2057 Quién cojones mantiene una GPU 5 años?

El pobre que ahorra 6 meses para comprársela?

Venga ya macho.

#2052 Habría que ver otro tipo de tests, eso huele raro.

4 respuestas
B

#2056 Los que estamos contemplando la 3070 nos renta mucho esperar a lo que saque AMD, al menos eso creo. Porque llegar van a llegar al nivel de la 3070 como mínimo, y si ofrecen ese rendimiento a menos precio y con más GB... habrá que contemplar también las otras prestaciones como RTX, DLSS, etc... pero bueno. A las muy malas harán que Nvidia saque una 70TI/super quizás con algo de más GB.

La 3080 ya es otro cantar, no se va a quedar corta a corto/medio plazo ni de coña.

Carcinoma

#2058 Pues eso, hay que esperar a los tests. No tendré ningún problema en admitir que los tests indican suficiencia de las Ampere en todas las resoluciones.

1 respuesta
ArThoiD

#2060 Y porque un juego increíblemente anómalo tenga ese comportamiento, no dice absolutamente nada tbh. La media de uso de VRAM en todo el resto de juegos AAA no debe pasar de 4-5 GB, a 4k.

Y de todos modos, yo estoy diciendo que 10 GB y encima GDDR6X son más que suficientes, no 8.

BlackBeasT

Al final entonces 2080ti mejor que la 3070?

2 respuestas
richmonde

#2058 Ojo, que hay gente que no gana los 4000€ al mes de media en MV.

Que opino lo mismo. Si quieres ese producto, no estas ahorrando 6 meses para el. Ya tienes ese dinero y decides gastarlo allí.

Ahora, si para pillarte una GPU tienes que ahorrar 6 meses, quizá no deberías ir a ésa GPU.

Diferente que vayas a hacerte una máquina totalmente nueva, entonces algo si que deberías ahorrar si vas a soltar una morterada.

#2062 muy similares, aunque 3070 partes de una mejora sustancial en DLSS y RT (teoricamente)

2 1 respuesta
neZbo

#2062 Al final hasta que no salgan benchmarks generalizados es difícil dar una opinión al respecto sin mojarse demasiado xD

1
ArThoiD

El asunto es que, para cuando la VRAM se quede corta, la gráfica ya no dará para jugar a 4k sobrado igualmente.... Osea, los juegos irán a 40-50 fps y habrá que bajar resolución igualmente.

La potencia bruta siempre va a verse limitada muchísimo antes que la VRAM.

2 2 respuestas
ManKorR

#2053 vaya tanque.

richmonde

#2065 Agree, las 1080 Ti te leen mientras asienten. Nunca, absolutamente nunca, he sobrepasado los 7GB reservando (ojo, no en uso!) de una 1080 Ti, en 1440p.

Ahora, sí que ha rascado. Y además, teniendo en cuenta que mi PC tiene CPU bottleneck en 1440p (no mucho, pero suficientemente perceptible para que se note).

BLZKZ
#2058ArThoiD:

Quién cojones mantiene una GPU 5 años?

:man_raising_hand:

#2058ArThoiD:

El pobre que ahorra 6 meses para comprársela?

Cuidado caballero xD que te puede a veces la lengua

5 1 respuesta
HeXaN

#2068 Pero tú no juegas, cabrón.

2 2 respuestas
ArThoiD

#2069 Eso iba a decir.

Si te la sudan los juegos y demás, pues todavía, pero no iba por ahí.

1 respuesta