Comparativa de Nvidia de rendimiento de la RTX 2080 y la GTX 1080

Frave

#930 pero es que eso es lo que hay ahora. que Dlssx2 es lo mismo pero usando imagenes con resolución 4k.

1 respuesta
Cryoned

#931 Yo no leo 4K en lo que has puesto, leo resolución nativa e implementación dlss encima sin especificar 4k o 1080p, sino dlss a cualquier resolución

Lo actual y presentado en los benchmarks es 1440p con upscaling y comparado con 4K nativo.

yo quiero 1440p tssaa vs 1440p vs dlss y rendimientos.

1 respuesta
Frave

#932 mmmmm vale voy a clarificar:

DLSS -> reduce el input a la mitad de resolucion y lo mete en la red para generar un AA.
DLSSx2 -> usa la resolución nativa de la imagen la mete en la red y genera un AA.

Ya lo que no tengo tan claro es que hay ahora mismo en las reviews porque es muy confuso lo de poner 4k. Yo entiendo que usan 4k con DLSS ahora mismo les da una imagen de 1440p con AA . Y de esa reducción de la resolución es de donde viene la mejora en fps, como ya me explico ArThoiD. Osea que tal como entiendo yo es lo mismo usar 4k+ DLSS que 1440p+DLSSx2, solo tiene sentido el DLSSx2 en 4k no?

1 respuesta
Cryoned
#933Frave:

Yo entiendo que usan 4k con DLSS ahora mismo les da una imagen de 1440p con AA

exacto, eso es el dlss que han podido probar con ff15 y el benchmark

#933Frave:

Osea que tal como entiendo yo es lo mismo usar 4k+ DLSS que 1440p+DLSSx2, solo tiene sentido el DLSSx2 en 4k no?

DLSSx2 como yo entiendo los textos, es usar dlss de antialiasing a la resolución nativa, sin upscaling ni nada.

Vamos, una forma de antialiasing gratuito porque no usa los cores de la gpu en sí.

A partir de eso, necesitamos comparativas de calidad y ver si tiene input lag como otros métodos de antialiasing. Si no tuviese lag, aunque no fuese igual de efectivo que las mejores formas de aa y tampoco añade fallos gráficos, sería un pequeño avance.

Fascaso

Entonces esta generación de Nvdia a nivel calidad-precio no merece la pena si te vas a comprar un pc en breves?

Por que entre una cosa y otra andaba esperando y por el precio que es y la diferencia de rendimiento...también dudaba entre si esperar a algo de AMD o que por el tema de los monitores (freesync los he visto bastante más baratos que Gsync)

B

Yo lo que entiendo es lo siguiente:

DLSS: Hace un downsampling, si tienes 4k baja la resolución a 1440p y por medio de la IA la vuelve escalar hacia la nativa.

DLSS 2x: Un upscaling o Supersampling(SSAA), escala la imagen a una resolución superior de la nativa y luego la vuelve adaptar, 2x de DLSS equivaldria a x64 de SSAA en calidad, por lo cual se ahorra mucho rendimiento:

DLSS 2x a 1440p = 4k resolución.
SSAA 64x a 1440p = 128k resolución.

1 respuesta
Cryoned

da igual xD

Frave

#936 yo lo de que la red re-escale a resolución nativa solo lo he visto en la presentación de las tarjetas pero en la documentación técnica no dice nada de que hagan un up-sampling en ningún momento...la red aprende a reducir el aliasing fin.

1 respuesta
B

#938

El DLSS viene siendo lo mismo que el Chekerboard de las consolas, la resolución se reduce al 50% y luego por medios de filtro se trata de construir la otra mitad, para que quede un resultado parecido a la nativa.

Solo que en el caso de DLSS no usa filtros por software, si no que usa la IA ,por medio de los Tensor core de la GPU para reconstruir el otro 50%, La IA segun dicen deberia de dar mejores resultados ,que el filtro por software del Chekerboard.

NVIDIA tambien utiliza esta clases de reconstrucción por medio de Tensor/IA para el tema de Samples en el Ray Tracing lo que se conoce como denoising, al tener solo 4 samples por pixel, te genera una imágen granulada, el denoising trata de filtrar la imagen para que de una imagen limpia como si se hubieran calculado 100,000 samples por pixel, esto hay dos formas de hacerlo:

  • Denoising por Tensor/IA
  • Denoising por software, que es lo que estan usando actualmente las compañias y juegos mostrado con Ray Tracing.

Asi como el DLSS, estos filtros de reconstrucción tendria una mejor calidad si se aplican por IA/Tensor esto en el papel,en la práctica esta por verse.

1 respuesta
Frave

#939 lee #929 , tengo bastante claro lo que hace el DLSS y no es precisamente escalar la imagen a una resolución diferente lo que hace es corregir el aliasing, y el normal usa de input la imagen a la mitad de resolucion y el x2 usa la nativa. La mejora en rendimiento viene de ahí.

Aidanciyo

Para mi que todos los test, sobre todo de juegos sin usar el DLSS frente a antialiasing tradicional... pues como que habrá que repetirlos todos. O ya las paginas los dejarán asi para siempre como los resultados definitivos


Candyland ha publicado una prueba de rendimiento muy interesante utilizando la demo técnica Infiltrator y una tarjeta gráfica RTX 2080 TI. En dicha prueba miden el rendimiento y la calidad gráfica que es posible conseguir utilizando dos métodos diferentes de suavizado de bordes: DLSS y TAA.

La diferencia en términos de rendimiento es enorme, tanto que utilizando DLSS se mantiene un nivel de fluidez óptimo en todas las escenas de la demo, algo que no es posible con TAA. Dicha técnica produce caídas de rendimiento muy grandes, que en algunos casos baja incluso de los 20 fotogramas por segundo.

El rendimiento depende en gran medida de la escena en concreto, pero bajo DLSS hay partes en las que la RTX 2080 TI triplica los resultados obtenidos bajo TAA. En otras escenas la diferencia se reduce, pero la primera siempre se impone.

NVIDIA confirmó que el suavizado de bordes DLSS se apoya sobre los núcleos ténsor de las tarjetas gráficas RTX serie 20, lo que significa que es un sistema potenciado por la inteligencia artificial que renderiza a una resolución menor a la final y reescala para conseguir una mayor calidad de imagen. Esto permite mejorar el rendimiento de forma notable sin hacer grandes sacrificios en calidad visual.

NVIDIA ha dicho que tiene pensado seguir desarrollando tecnologías gráficas que aprovechen el potencial de los núcleos ténsor que incluyen sus RTX serie 20 (también están presentes en Volta), pero no ha concretado nada todavía.


2 respuestas
B

#941

Correcto es lo que explicado es un Chekerboard utlizando IA/Tensor.

B

.

ArThoiD
#941Aidanciyo:

El rendimiento depende en gran medida de la escena en concreto, pero bajo DLSS hay partes en las que la RTX 2080 TI triplica los resultados obtenidos bajo TAA. En otras escenas la diferencia se reduce, pero la primera siempre se impone.

Esque eso no sorprende cuando entiendes que se está renderizando a una resolución muuuuuuuuuy inferior xD Exactamente 2.25 veces inferior.

Es todo una engañifa llamar "4k" al DLSS palero este.

B

.

3 respuestas
koalas

yo ahora pregunto una cosa. en serio merece la pena aplicar esos filtros que consumen una barbaridad en rendimiento? solo por ver la imagen mas borrosa ?¿ srly?

B

En resumen quedaria asi:

DLSS: Menos calidad de imagen,pero mayor rendimiento al renderizar a la mitad de resolución de la nativa.

DLSS 2x : Es la de mayor calidad, equivale a un SSAA a 64x en AA, con la contra que a diferencia de la otra estariar renderizando a una mayor, doble de la nativa, por lo cual restará rendimiento.

Rendimiento o calidad.

Frave

#945 em amijo no se si sabes que la doble precisión no se usa en DL ya que no mejora los resultados y es super lento incluso en tarjetas hechas expresamente para ello. Vamos que la doble precisión en DL no vale para absolutamente nada. Pero vamos veo que vienes a meter con calzador otra vez el tema AMD vs Nvidia. Suerte usando AMD para DL.

1 respuesta
1 comentario moderado
B

#948 No lo decia en el contexto de DL, lo decia por que hay soluciones muy potentes y no caras, y no era por meter nada, era por si a alguien le podia servir de algo saber que no hace falta dejarse la vida para pagar una tarjeta de 9000 euros cuando tienes opciones que salen por menos de 300 y a un rendimiento mas que aceptable..., y de hecho hay tambien alguna nVidia que merece la pena, pero todos sabemos que ni has mirado la tabla..., pero esta claro que no interesa, pues fuera.

#949 Reportado, a ver si hay chocopunto como anuncio antes el moderador...

Se borra todo, y solucionado majetes XDD

1 respuesta
B

#945

Los Tensor Core de Turing no solo traen FP16, si no unidades de calculos enteros INT8/INT4, para acelerar mas algunas redes neuronal.

Los FP16 no se utlizan en juegos desde hace tiempo, dan muy poca precisión, pqra el renderizando de calidad actual, actualmente se utlizan FP32 y INT32 en juegos, y en algunos casos como Wolfenstein 2 precision Mixta FP32/16.

B

#950 reportado because potato...

Alu

WTF????

https://www.reddit.com/r/nvidia/comments/9hslku/evga_geforce_rtx_2080_ti_2080_xcxc_ultra_bios/

https://www.3dmark.com/3dm/28733672?

Faster than a stock 2080 Ti FE card. :) Thanks EVGA.

NICCCCEEEEEE!!!!

I am faster than a stock RTX 2080 Ti FE now with this update. This was also a first attempt, I will continue to push.

Time Spy Graphics Score: 12444

Core +140Mhz
Memory +1200Mhz
Voltage 100%
Power 130%
Fans 100%

Max temp: 56

2 respuestas
HeXaN

#953 Joder, menudo puntazo. Se van a revalorizar rápido.

1 1 respuesta
Alu

#954 A ver si sacan mas info por que pasar de una 2080 a una 2080ti (sin OC) son palabras mayores...

n3krO

#929 Ojo que en ningun momento hablan de 4K, o 1440p o nada.

Hablan de render resolution y de target resolution.

DLSS siempre emula el target resolution con SSAA x64 (por ejemplo, si se esta hablando de 4K en el target eso seria 32K de resolucion nativa downsampleado a 4K)

La diferencia es que con DLSS partes de una resolucion menor y la magia del deeplearning intenta recrear la imagen buena mientras que con DLSSx2 partes de la misma resolucin y la magia del deeplearning solo tiene que "corregir" los pixeles para acercarla a la imagen buena.

1 respuesta
Frave

#956 vale si eso puede ser que la única diferencia entre el normal y el X2 sea que la entrada es diferente pero la salida siempre es la misma. No se porque me había obcecado en que deberían tener el mismo tamaño la entrada y la salida....

Vale ahora que veo la imagen completa y entiendo mas o menos lo que hace me parece bastante prometedor mi única preocupación es el tema de la consistencia del DL con juegos y no con benchmarks y luego el tema de por ejemplo se añade una nueva animación o un nuevo mapa a un juego pum te toca actualizar otra vez y re-entrenar todo el modelo porque el DL funciona de culo con cosas que no ha visto en train por lo que cada vez que se añada algo Nvidia tendrá que rehacer el modelo y actualizar el driver con el. Por no hablar de lo que ya comente de la inconsistencia en imágenes estáticas.... dios que hype para verlo en persona.

#956

Ojo que en ningun momento hablan de 4K, o 1440p o nada.

Bueno en realidad si mencionan las resoluciones pero me imagino que es porque si quieres usar el DLSS con 1080p por ejemplo tendrian que reentrenar el modelo con inputs a 1080p y claro mantener tanto modelo con resoluciones diferentes debe ser un coñazo. En #902 tienes en negro donde las mencionan que es donde yo me empece a liar...

1 respuesta
n3krO

#957 se supone que el aprendizaje no es 100% aleatorio, sino que hay un algoritmo para cambiar el valor de los pesos. Si usan los algoritmos de vanguardia la solución de de la red neuronal debería de ser estable (que variaciones pequeñas en la entrada se deberían de traducir en variaciones pequeñas en la salida) con la contra de que sería menos precisa con las imágenes de entrenamiento.

Por ejemplo, mejor tener 80% de fidelidad con todas las imágenes que 99% con las de entrenamiento y 60% con las demás.

Te dejo un video con bastantes matematicas hablando sobre estos algoritmos aunque no entra en los especificos para mejorar la fidelidad en global en vez de en el training set. Habia uno bueno hace 2 o 3 años pero ya no me acuerdo de que canal era.

1 respuesta
Frave

#958 ya pero es que justamente le tema es que la redes neuronales no funcionan así son por desgracia hoy en dia bastante caja negra :( mirate el vídeo que puse en #924 , variaciones pequeñas en la entrada a veces cambian radicalmente la salida, de hecho les pasa ya eso como se puede ver en el vídeo de la camiseta. Normalmente le tema de varianza vs sesgo no es algo fácil de seguir, sueles tener overfiting gordo ( en Deep learning).

edit: emm soy ingeniero y me dedico al deep learning se de lo que hablo xD

1
B

En rumores que leido dicen que el tema de DLSS , Nvidia ofrece su Saturn V gratis ,para que los desarrolladores envien sus juegos para sacar el código via driver del DLSS, esto ya lo sabemos. Pero segun su intensión seria cobrar por esto o venderles ese super ordenador en un futuro, esto solo seria como una demo de prueba gratis xD

Yo creo que estas cosas propietarias nunca llegan a buen puerto,parte que ningun desarrollador invertira en tecnología exclusiva, cuando las consolas y partes de la GPU de PC, son AMD que no tienen Tensor Core o tendran algo distinto para IA.

Y por eso justamente no estan usando tampoco denoising en el Ray Tracing por Tensor core, porque los desarrolladores necesitan trabajar sobre algo standar y no algo exclusivo que solo sirvan para ese hardware, que encima puedan tener un costo extra ,por eso estan optando por denoising propios, asi les servirá para otros hardware y no solo para uno en concreto.

1 respuesta