#660 por eso donde coño meten la ti entre esas dos
Nvidia está replicando el conglomerado de tarjetas que tenía en la serie 20. Saltitos pequeños entre versiones contiguas. En cuanto a rendimiento.
Pero metiendo un sobrecoste brutal a cosas como: "Quieres ram pues te casco 600 pavos de sobrecoste para 24gb si quieres dar salto desde los supuestos 12gb de la 3080ti o los 10 de la 3080 base".
Imagino que para la gama media (3070ti y la 3080) el sobrecoste pretende justificar el salto de GDDR6 a GDDR6X. Ya que tienen mismca cantidad de ram. Y rendimiento no debe haber tanto margen.
Yo no tengo intenciónes de cambiar de GPU, pero por $450 por esa 6800 me lo hubiera planteado seriamente, por 574 na..
#656 la cosa está en, va esa 3070ti a desbancar a la 3080 por 120$ menos? Porque por 50$ (650$) hay una gráfica que va a estar de tú a tú con la 3080 y viene con 16GB de ram.
Que el RT queda muy bien para el marketing pero es un gimmick mas, de momento, y no tiene pinta de ser mas que eso en esta gen que entra en juegos, y el DLSS es una idea cojonuda si quieres jugar a juegos con la calidad de imagen que te da un servicio de streaming con algoritmos que te van a meter blur donde puedan engañarte al ojo, y eso cuando funciona, que dependes 100% de que nvidia haga el análisis del juego donde lo vas a meter.
Y no tengo nada en contra de estas tecnologías, pero están lejos de ser selling points realistas en una gráfica en el momento en el que estamos.
La gran victoria esta gen ha sido la bajada de precios y jugar en 1440p como reyes de forma "asequible".
#635 siempre y cuando no se marquen un /nvidia y limiten el consumo por hardware para que la gente no pueda ocear mucho
#664vene-nemesis:Y no tengo nada en contra de estas tecnologías, pero están lejos de ser selling points realistas en una gráfica en el momento en el que estamos.
RT con las 3000, ya empieza a ser algo "útil" en el sentido de buscar por ejemplo 1440p 60fps con todo al máximo SIIII condicional, los developers lo usasen todos. Pero es que hay 2 juegos con soporte y 0 diseñados desde la base pensando en RT xD
como no lo hacen, es como tú dices, algo que el consumidor debería ignorarlo hasta dentro de un par de años donde raster va a mandar si o si o si. Pero sin embargo la maquinaria de marketing de nvidia ha conseguido metérselo a la peña entre ceja y ceja xD, RT y dlss, cosa que es un psyduck completamente, pero ya ves, hasta aquí en este hilo tienes a gente diciendo que sin dlss nada, con lo que es algo que quieras que no, va a vender tarjetas y hacer decantarse por los verdes.
#652 Si se cumple, donde dije digo, digo Diego:
We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price.
Oh... Que rápido cambian las exigencias de HW, en un mes tú.
Eso dependera de los AIB y sus Bios, supungo que las custom mas tochas tendran un power limit alto para que las pongas a 2,6ghz
#667 solo el tiempo nos dirá quien hizo buena elección y quien no.
Veras que el año que viene otra generación nueva, la 4000 de nvidia y la 7000 de amd porque el futuro de la industria requiere blablabla
#666 si, esa es otra, querer RT y DLSS juntos, o cualquier tipo de SS, en la misma gráfica, quiero la mejor calidad gráfica posible en iluminación pero oye, méteme también eso de bajar la calidad de la imagen porque da mas FPS .
Tiene que ser las risas ver las caras de los ingenieros en reuniones entre el departamento de ingeniería y el de marketing cuando les piden que saquen 2 tecnologías que apuntan en direcciones diametralmente opuestas a la vez.
Lógicamente, si te da para tirar a resolución máxima pues genial. Pero los que habláis de regular del DLSS denotáis una ignorancia de aquella manera.
Veremos cuanto ocupa esa infinite cache de 128mb, de momento no se si es oficial pero TPU marca 536mm2 para la 6800XT.
Talvez si algun dia se abaratará la HBM, la cache deje de ser necesaria.
Yo os invito a ver DS con DLSS y comentar que mal se ve. Ya os digo que no se nota diferencia alguna y la ganancia en fps es brutal. Pero vamos, que tan malo es, que hasta amd tiene que implementarlo.
Creo que nadie se ha leido como funciona DLSS, de hecho difícilmente va a poder perder calidad si hace el entrenamiento a 16K.
#675 jeje lo tengo más que comprobado, perder detalle de imagen por un 15-20% menos de gpu como que paso
Nativo y Sharpening es lo que manda. A lo mejor es que no notas la diferencia y más si juegas con settings stock de gpu.
#678 En los juegos que esta bien implementado no pierdes calidad de imagen, puedes tener algún artifact suelto pero precisamente calidad de imagen no se pierde.
#680 Precisamente es lo que se le puede achacar porque no esta totalmente pulido, pero decir que pierdes calidad de imagen..xD, si parece magia.
#681 Te lo he explicado ya, a resolución nativa con Sharpening y otros ajustes más si activas dssl se pierde bastante definición.
Igual jugando normal no se nota tanto, pero el dssl no es para mí.
No tengo mucha idea, por lo que pregunto, en comparación con la 3080, la inferioridad en memory bus que tiene 256, la GDDR6 en lugar de GDDRX y memory speee 16Gb en lugar de 19Gb sera muy relevante?
Que otras diferencias hay con la 3080?
#684 las comparaciones así a pelo sirven de poco. Porque la arquitectura como conjunto es lo que determina el rendimiento (ancho bus, velocidad del bus, cache, etc, etc). Mira benchmarks y ya.
#684 no tiene sentido hablar del bus de memoria, ni de la tecnología de la memoria, ni del infinity cache ni nada de eso.
Te da absolutamente igual todo eso, lo que te importa es lo que rinde, y lo que rinde lo dicen los benchmarks.
El cómo lo hayan conseguido te da igual como consumidor, ni te importa, ni te interesa, son solo buzzwords de marketing. Tú compras rendimiento, no galimatías tecnológicos. Esos se quedan en los hilos de especulaciones cuando hacemos de nostradamus de lo que puede venir, pero una vez en la calle todo eso es irrelevante.
#683 Para ser la version 2.0 me parece que es un boost espectacular como opción y que tenga algunos artifacts tampoco es el fin del mundo.
Al final es nvidia quien procesa los juegos al completo desde su “megaordenador” y es la que manda la información a las gráficas mediante updates, con lo cual es algo vivo y se puede corregir. Y con ampere aparte hay hardware dedicado para dlss.
Al final no deja de ser un extra más que se suma a la comparativa.
#687sPoiLeR:y que tenga algunos artifacts tampoco es el fin del mundo.
si tiene algunos artifacts ya no es "no notar ninguna diferencia", es cambiar fps por calidad gráfica.
Y no es que se note poco, es muy notoria la pérdida de calidad de imagen. Que igual en algunos casos es mejor eso que bajar la resolución o los detalles, pero desde luego está a años luz de "no notarse nada"
#657 Es que no cabe. Como mucho van a meter una 3090 con la mitad de vram (12GB) y algo menos de clock y le pondrán "3080 Super" o "3080 TI".