AMD Radeon RX 6000 Series - Aquí tienes los 16GB

B

#1527 Te hablo a nivel conceptual y de forma simplista, degradar la imagen para conseguir más rendimiento. A nivel interno en efecto, se parecen una mierda.

Si en Gears 5 esta bien no digo nada y ahí seguramente se podrá combinar, así que es un poco lo de siempre, que dependerá de la aplicación, pero en Tactics no es así ni de coña.

#1529 Es que no es 1%, RT y/o DLSS de los ultimos lanzamientos lo tienen un puñado de juegos, y son juegos que sin el DLSS dejan inviable usar RT y/o alta resolución. Otros muchos juegos no tienen soporte, o directamente los antiguos, pero es que justamente todos esos, una 3080 te los suele mover bien.

Vamos, que no es humo, CP2077, Control, Exodus y Legion son juegos de primer nivel y calidad, bastante relevantes como para ignorarlos, además de la futura aplicación a TW3. Ahí hay más de 200 horas de juego si te mola ese tipo de juegos, además de otros con RT regulero como Shadow of the Tomb Raider, donde tienes el boost de FPS con el DLSS si lo necesitas, de la implementacion de Black Ops Cold War ni puta idea, Final Fantasy XV creo que no tiene la 2.0 pero sigues teniendo la opción, y así... No son 2 juegos que no importan a nadie.

2
PoYarko

#1520

#1520ErlaNtz6:

Es posible que una 3080 envejezca mejor en ciertos escenarios incluso con el handicap de los 10gb, quizá no para juegos modeados, pero en una mala aunque la VRAM colapsará tienes la opción de bajar detalles/resolución y un posible boost, mientras que lo ofrece AMD es una incógnita.

A saber. Llevo todo el día dándole al tema de la vram mirando cosas para vr, y ojito ojito que ahora sí tengo miedito con las 10 gb de la 3080. porque me están llamando mucho las gafas hp reverb g2 2160 x 2160 LCD panels per eye, eso es una animalada de resolución equivalente a 4k, y por lo visto no es 4k doble como creía, sino algo más de 4k, no me quedó todavía claro pero bueno, sigue siendo una animalada.

Por lo que he visto la 3080 parece que ahora se podría defender con juegos como half life alyx en cuanto a vram, pero no se no se, me gustaría saber cómo irían esas gafas con un 6800xt, lo del oc en esas gráficas puede ser muy determinante. Si no fuera porque es la 3080 tuf oc la que tengo ya instalada lo tendría más claro... estoy ahora en un sin vivir que no se qué hacer si me decanto ya por AMD tengo que devolver sí o sí en unos días la 3080 hasta el 22 de noviembre tengo de máximo para hacerlo, y si lo hago para pillar AMD lo haría a ciegas sin saber qué me deparará realmente, a no ser que salga de dudas solo mirando las reviews en apenas un día para poder tener oportunidad de pillar una y me huele que los análisis van a ser una guerra sucia y no creo que salgan reviews y benchmark para vr con esas resoluciones con la 6800xt en los primeros días, que es de lo que estoy ahora mismo más preocupado, ya que no solo me voy a mover con mi pantalla a 2k 144hz sino a más resoluciones y a saber qué rendimiento habrá en futuros títulos y claro, aunque pueda uno decir, "pues bajas texturas de épico o ultra a muy alta o alta en 4k y a seguir viviendo..." también también, si me quedo con la 3080 pues en algún título seguro que lo tendré que hacer en un tiempo si quiero llegar a juegos vr a 90 fps estables a esas resoluciones.

Y lo peor de todo es que si voy con AMD y luego me arrepiento porque no logro pillar una, o si la pillo la gráfica no llega, se retrasa, se cancela y toda la puta ruina del stock pandémico me voy a cagar en la puta cien veces después de haber tenido instalada una 3080 tuf oc.

También puedo hacer la cabronada máxima, poner a la venta la 3080 por 950, y cuando la vendiera pillar una de AMD a otro especulador también por otro dineral por lo que la misma cabronada se volvería contra mí y estaría en paz con el universo :smiley:

1 2 respuestas
Tencru

#1532 Tienes 30 días para devolver la 3080, las 6000 salen el 18 así que puedes comprar una y no devolver la 3080 aún.

1 respuesta
B

Comparado la cantidad de juegos que salen por año con los que lleva DLSS.... Sin tener encuenta los anteriores 1%.

Pero bueno que cada uno le da importancia que desee, es mi opinión personal, si tuviera que comprarme una GPU lo ultimo que miraria seria el DLSS o el Supersampling de AMD, me iria a rendimiento en rasterizacion, cuando este mas generalizada, me plantearía a tomarlo encuenta.

1
PoYarko

#1533 Claro, estoy pensando otra cosa, como también tendría 30 para devolver la 6800xt si la pillo en pccomponentes, aunque lo malo es que no creo que tenga las dos en casa pronto a no ser que me pille igualmente la de AMD para no devolver la 3080 por desistimiento, y luego si me convence la 6800xt la 3080 la pongo a la venta, que no la vendo la 3080 a buen precio en 25 días o así, pues me la quedaría de momento y devolvería la 6800xt antes de que se me pasara el plazo. Pero no creo que vaya a tener tanta suerte como para pillar el primer día una 6800xt, pero ahí estaré con el f5 seguro los primeros segundos y la cuenta de pccomponentes logueado y listo para comprar. Suerte a todos xD, porque vamos a estar un buen puñado ahí con una agonía que no va a ser ni medio normal.

B

#1532 El tema de la VR es bastante peliagudo, no he encontrado mucha información al respecto y hasta tener el PC en condiciones no podre monitorear nada, pero es bastante probable que las GPUs actuales no vayan especialmente bien en un HMD tocho según en que.

Mira la 2080Ti, sufre con unas Explorer que van a 2880x1440 (1440x1440 por ojo) con un juego de 2017 con varias opciones en bajo:

También te digo que he visto a otros que si mantienen los 90 estables con un mix de settings en otras gafas, pero ahora imaginate unas G2 a full con algo tragón, pff.

Hay juegos que tragan mucho más como DCS, donde por cierto, el consumo de CPU por citar algo, es mucho más bestia en VR:
https://www.mediavida.com/foro/hard-soft/i7-4790-3080-ok-or-not-ok-660112/2#49

No sé como afectará aquí el tema de la VRAM, a lo que voy, aquí no parece que la relación sea 1:1, por Reddit algunos comentan que los HMD gordos no son tragones como se creen, pero sin benchs y sin saber en que juego afecta de que forma, son palabras vacías. Lo que esta claro es que la VR traga, y que puede pasar que haya más cosas que se queden cortas ajenas a la VRAM. Si encima sale algún juego pepino y Nvidia esta ahí para meter el DLSS, puede pasar lo mismo que en los monitores, que saquen ventaja.

Por otra parte he leído sobre problemas visuales con GPUs AMD mientras que con Nvidia comentaban que no pasaba, no se si era flicker en Pavlov VR o que hostias... Así que infórmate bien antes de decidir nada y pregunta a gente que le haya dado caña de verdad a su HMD.

1
fortxu

#1529 Me atreveria a decir que ningun triple A va a salir sin estas tecnologias de aqui en adelante. Es una opnion personal, desde luego. Para mi, la generacion pasada fue una prueba, esta sera la consolidacion. Ya se encargara NVIDIA de que cada gran titulo lo implemente.
Otra cosa seran los juegos indie y demas, pero esos juegos ya no estan mi target. Solo tengo una vida, no me da para jugar 5 horas al dia( ni dos).

1 1 respuesta
isvidal

Rtx sera como g sync.

Cuestion de tiempo que les pete en los morros. Ahora si durante este tiempo engañan a 4, pues todo lo que se llevan.

1 1 respuesta
fortxu

#1538 si es como G sync perfecto. Una tecnologia cojonuda que al final esta abierta a todo el mundo. AMD y NVIDIA. Todos ganamos

1 1 respuesta
isvidal

#1539 Que yo sepa g-sync al principio era propietaria y requería de un chip especial pero se acabaron bajando los pantalones al ver que freesync era libre y no requería del chip.

Y hasta donde yo se, hoy por hoy, gsync simplemente acaba siendo freesync camuflado.

1 respuesta
sPoiLeR

#1540 Para nada, de hecho hay 3 niveles de gsync. Lo que ocurre es que la mayoria de mortales usamos el normal porque es más barato y "democrático" en número de modelos y luego porque te permite cambiar entre amd y nvidia sin cambiar monitor.

Pero ten en cuenta que los gama alta si que llevan chips incluido, y con el tema del nvidia reflex, los nuevos modelos competitivos de 360hz tiene aun mas especificaciones propietarias. Por cierto que esto ultimo, sin necesidad de tener un monitor especifico, en según que juegos te aumentan hasta 15-20 fps de regalo.

2 respuestas
isvidal

#1541 Entonces nada, recordaba algo vagamente de cuando me compre la gráfica en 2016 leer estas mierdas.

Pinchejotron

vendo rtx 3080 pm

Cryoned

#1541 y que los módulos gsync meten strobe a cualquier monitor, que el 99% de los freesync no tiene porque el fabricante pasa de implementarlo por su cuenta

gsync ventajas tiene, otra cosa es que quieras pagar 200€ por el módulo vs freesync y además quedarte con un monitor que solo funcionaba con una marca de gráficas.

pero vamos, es obvio que dlss y rtx tienen los días contados antes de que haya alternativas abiertas y libres que lo maten

2 respuestas
Prava

#1544 no olvides del overdrive variable ;)

1
choper

#1537 Es que hacer una equivalencia entre número total de juegos que salen y x tecnologías punteras gráficas, es una falacia argumentativa del 15 xD

Si es por el 99% de los juegos que salen no necesitaríamos gpu nuevas más que una vez cada 15 años (por decir algo), porque puedes mover el 90% de los juegos con gráficas de hace 10 años... por esa regla de 3 que no inventen rt, ni dlss y ni de coña compréis una serie 6000 que vuestra 980 todavía puede con el 90% de los juegos existentes.

Menos mal que la humanidad y la tecnología avanzan inevitablemente a pesar de estos puntos de vista rarunos que tienen algunos. Pero bueno argumentos como los culos, todos tienen uno y hay que respetarlos, supongo.

B

#1544

El RTX es tecnología abierta se basa en DXR y otras API.

El DLSS tambien es abierto es Machine learning, lo unico exclusivo de Nvidia es que ellos han entrenado su propia IA en sus servidores. Pero cada desarrollador o compañia puede entrenar su algoritmo para su motor, aunque tenga un coste claro en pagar servidores.

4 respuestas
Cryoned
#1547elmemo:

El DLSS tambien es abierto

¿Tienes el enlace del código que usan o un github?


Y rtx es tan abierto como que varios juegos han confirmado ya que su raytracing no funcionaba en amd y por eso amd no quiso mostrar demasiado. Que base su fundación en una cosa, no quiere decir que la implementación específica de nvidia con optimizaciones para su hardware valga para todo.

1 2 respuestas
HeXaN

#1547 Ninguno de los dos es abierto.

1
B

Los monitores con modulo de g-sync además suelen tener el rango más amplio. Si aquí pasa lo mismo y AMD se marca un DLSS Hacendado y abierto, Nvidia podría utilizar el estándar abierto y el propio, que es lo que le pasa en los monitores.

1 respuesta
Cryoned
#1550ErlaNtz6:

que es lo que le pasa en los monitores.

solo en los nuevos que creo hay 0, todos los monitores viejos no soportan freesync, y el 99% de los nuevos por no decir 100% se lanzan con freesync y le ponen el compatible gsync pero no módulo.

1 respuesta
B

#1551 Todos los que tienen GSYNC Ultimate son bastante nuevos y dentro de los otros también hay varios como el NXG253, PG259QNR, X25 o el AW2521H:

https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

En el DLSS no se si será tan dramático, pero vaya, mientras tanto tienen un puñado de juegos actuales y por lanzar, si la historia se repite, ya habrá tiempo para que sea algo que no se tenga en cuenta.

doogie780

#1547

Pero cómo que el DLSS es abierto porque es ML? Pero por qué afirmas cosas así tan categóricamente? WTF

B

#1548

De funcionar funciona otra cosa si con menor o mejor rendimiento, y la propia Nvidia a dicho que lo que ha esta implementado se basa DXR, ni optix ni nada.

Y la inteligencia artificial es abierta, cualquiera la pueda usar.

1 respuesta
Frave

De tener un paper a una implementación concreta hay un mundo, el concepto de abierto no es eso.

Cryoned
#1554elmemo:

Y la inteligencia artificial es abierta

ah bueno, como el concepto de programar es abierto, eso significa que también lo es ios o windows, cualquiera puede usar la programación para construir aplicaciones

cómo no había caído.

2
B

Para aclarar si os referís a marcas, la marca RTX y DLSS sin son de Nvidia. Las tecnicas que usan esas marcas no, el Ray Tracing es abierto y la implementacion RTX de Nvidia se basa en DXR API abierta que pueden usar otros hardware.

Y respecto al DLSS como ya explique la Inteligencia Artificial es libre, lo único propietario de Nvidia es el entrenamiento(su algoritmo de IA).

1
HeXaN

Ay Dios mío lo que tiene que leer uno.

sPoiLeR

Han listado algunas custom en finlandia


https://videocardz.com/newz/sapphire-radeon-rx-6800-xt-nitro-series-listed-for-preorder-in-finland

1 respuesta
JuGuLaToR

#1559 Pues allí el IVA es del 23%, así que en principio no debería haber mucha diferencia con los precios de aquí.