Comparativa de Nvidia de rendimiento de la RTX 2080 y la GTX 1080

Frave

#900 eso es lo que dijeron en la presentación para que la gente lo entendiese la realidad es otra:

DLSS requires a training set of full resolution frames of the aliased images that use one sample per pixel to act as a baseline for training. Another full resolution set of frames with at least 64 samples per pixel acts as the reference that DLSS aims to achieve. At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information. Training also requires a variety of scenes from the game in order to generate the best results.

1 respuesta
ArThoiD

#901 Eso explica cómo se entrena el algoritmo, no lo que escala al final en el juego.

We know that this is the case because similar to the temporal injection jittering technique seen in titles such as Spider-Man on PlayStation 4, on every scene cut, there is no data from the prior frame the algorithm can work with. This leaves us with one frame of an untreated image and that means that - yes - DLSS can be pixel-counted. We only have 4K demos to work with but the lower base resolution Nvidia refers to is confirmed at 1440p. This massively reduces the shading power required to produce the base frame, then DLSS steps in to reconstruct the image. It does a remarkable job bearing in mind it only has around 44 per cent of a full 4K image to work with - we have a bunch of comparison images on this page and you can draw your own conclusions..

2 respuestas
Frave

#902 claro, me refiero explica que el DLSS es un TAA pero hecho con redes neuronales, fin. Lo deberían haber llamado DLAA no super-sampling....

1 respuesta
ArThoiD

#903 No, lee mi última cita en el post editado arriba.

1 respuesta
Frave

#904 ??? en negrita lo que dice es que ahora mismo solo hay demos para usar el DLSS en 4k pero que se podra usar con 1440p mas adelante, claro esto tiene sentido ya que deep learning esta muy influenciado por los ejemplos usados en el train, usar dlss en un 1080p entrenado con 4k por ejemplo daría unos resultados espantosos.

edit: O no se si se refiere a que el deep learning utiliza para corregir una imagen 1440p y no la entera en 4k y luego reescalan, esto suele hacerse en deep learning ya que una imagen en 4k ocupa una burrada de memoria....no se voy a revisarlo.

1 respuesta
ArThoiD

#905 Tio, el inglés bien??

Dice claramente que la resolución de renderizado es 1440p... Y sigue leyendo el artículo, porque en Infiltrator es lo mismo.

DLSS simplemente es un Upscaling de 1440p a 4k más o menos decente, nada más.

A ver si te piensas que ganas un 44% de rendimiento por la puta cara, o que el TAA reduce tantísimo el rendimiento vs 4k sin AA xDD Obviamente no.... Esa es la diferencia de 1440p a 4k, sin más, mírate cualquier review de cualquier juego y suele haber ese salto de 1440p a 4k.

1 respuesta
Frave

#906 si si vale he querido leer lo que me ha salido de los huevos xD, vale si tiene sentido que utilicen imagen 1440p para corregir el AA lo que no tengo claro es si la red devuelve la imagen 4k o que hacen para generarla.

1 respuesta
ArThoiD

#907 La red what?

A ver, la red la entrena Nvidia en sus super-ordenadores del copon bendito, de ahí extraen un algoritmo y ese algoritmo lo usan los drivers en tu PC para escalar la imagen.

En tu PC no hay nada de deep learning ni ocho cuartos.

Nvidia subirá los perfiles/algoritmos de cada juego individualmente y hasta que ellos no lo hagan no podrás utilizar DLSS en los juegos.

2 respuestas
Frave

#908 mmm vale si tiene sentido que el TAA no mate tanto el rendimiento y la diferencia sea que esta usando 1440p vale creo que ya lo voy entiendo, osea estan haciendo un up-sampling usando deep learnig. Pero vamos volvemos a lo que decíamos antes la comparación no tiene mucho sentido lo suyo seria comparar 1440p+taa vs DLSS no?

Respecto a lo que dices del deep learning, la red la entrenan en su super ordenador claro, pero luego tu la ejecutas en la tarjeta gráfica a tiempo real usando los módulos estos que han metido nuevos, que básicamente es hardware especifico para redes neuronales. Digamos que una red neuronal entrenarla es super costoso ya que tienes que meterle no un ejemplo cada vez si no varios y hacer un calculo de optimización ( técnicamente se llama stochastic gradient descent) y repites esto durante millones de veces, pero una vez la red está entrenada ejectuarla es mucho mas liviano ( de hecho es una de sus grandes cualidades) ya que solo metes un ejemplo cada vez y no necesitas hacer la optimizacion ( osea el training) simplemente pasas el ejemplo por la red.

Osea que Nvidia entrena la red para un juego especifico y tu te bajas esa red despues y la ejecutas en la 2080ti por ejemplo. Esto va integrado en los drivers del juego claro no tienes que bajarte tu nada xD.

1 respuesta
ArThoiD

#909 La cosa es que la idea es que eso se pelea con 4k, y el resultado es bastante creíble aunque un poco emborronado.

Y sí, tendrás que bajarte la red o el algoritmo como pollas lo quieras llamar para cada juego, ya que Nvidia tendrá que entrenar la red con cada juego independientemente.

1 respuesta
Frave

#910 ya claro pero sin los modulos de deep learning de las nuevas rtx no haces nada, la cosa es que es ese hardware el que hace la magia.

1 respuesta
ArThoiD

#911 Bueno, claro.

Pero esque llamarlos "módulos deep learning" es un poco derp imo.

1 respuesta
Frave

#912 bueno técnicamente los han llamado "tensor cores" pero vamos es básicamente para deep learning xD

1 respuesta
ArThoiD

#913 Pero en el caso de las Turing es más bien para usar las redes, no para entrenarlas, ergo no para aprender.

Whatever xD

1 respuesta
n3krO

#899 #900 Si fuera como un TAA lo llamarian como DLAA. Es un metodo de super sampling asi que arthoid tiene razón.

Lo que pasa es que la prensa esta haciendo comparaciones absudas. Las 2 comparaciones posibles son 1440p+DLSS vs 1440p+TAA vs 4K downsampleado a 1440p. Y la otra seria 4K de DLSS vs 4K nativos.

Igual DLSS es "suficientemente bueno" para hacer downsampling pero no "tan bueno" como para usarlo como imagen nativa.

#908ArThoiD:

A ver, la red la entrena Nvidia en sus super-ordenadores del copon bendito, de ahí extraen un algoritmo y ese algoritmo lo usan los drivers en tu PC para escalar la imagen.

Lo unico, que no extraen un algoritmo. Extraen las matrices de la deepnet y esas matrices las multiplican los tensor core de la arquitetura turing.

El deep learning es totalmente lo contrario a la construcion de algoritmos.

2 respuestas
Frave

#914 en mi lab hemos comprado dos 2080ti para entrenar redes básicamente xD. Se pueden usar para ambas cosas, la cosa es que las "antiguas gpus" usan los cuda cores tradicionales en cambio las nuevas tienen estos tensor cores que hacen las operaciones en la red mucho mas eficientes y liberan los cuda cores para usarlos en renderizar el juego.

#915 si si ya me cosque de eso, esta todo algo confuso aunque estoy leyendo el blog de ingenieros de Nvidia y ya tengo una idea mas precisa de lo que hacen. Basicamente el DLSS es entra imagen 1440p sin AA y sale una imagen 1440p con AA ( usan como target para entrenar imagenes 1440p con x64AA). Y van a sacar DLSSx2 que es lo mismo pero usando la resolución nativa de de 4k como entrada a la red.

1 respuesta
ArThoiD

#916 Para eso son mejores las Titan V que yo sepa. Aunque también más caras, o las V100 xD

#915 Lo que tiene el márketing...

2 respuestas
Frave

#917 claro pero paga tu lo que valen eso se lo podran permitir en Harvard pero no en españistan xD

n3krO
#917ArThoiD:

Lo que tiene el márketing...

Iluminame en que he fallado al suponer que entrenan una deep neural network y que los drivers lo que hacen es decirnos los valores de esa deep neural network para que nuestros GPUs la ejecuten sin necesidad de entrenarla nosotros?

Es que vamos, para "ejecutar un algoritmo" no necesitas tensor cores.

2 respuestas
Frave

#919 en mi opinión todo lo que has dicho es tal cual es....

ArThoiD

#919 Me refería a la parte antes de que editaras eh? Respecto al 4K DLSS, relaja.

Sobre lo otro, llámalo como quieras, no soy experto en deep learning y posiblemente use algunos términos erróneamente, pero nos referimos a lo mismo.

1 respuesta
Frave

#921 es simplemente que es algo inexacto hablar de algoritmo respecto a las redes neuronales desde el punto de vista técnico ya que un algoritmo implica una serie de pasos y reglas conocidos y la gracia del deep learning es que la red "inventa" sus pesos osea ( los pasos del algoritmo) con el proceso de entrenamiento y de hecho es muy jodido conocer lo que hace exactamente por dentro en modo ejecución. Digamos que simplemente como ya decia n3krO te bajas unos pesos o valores que son los parámetros de la red y listo, no te bajas un "algoritmo". Pero vamos que esto es ser muy quisquilloso.

1 respuesta
ArThoiD

#922 Okay, con lo de los pesos voy viendo mejor por dónde va el asunto. Pero eso, es un tema bastante complicado en el que particularmente no tengo mucho interés y prefiero no entrar xD

Undestood.

Frave

Bueno pues lo que saco en claro yo de esto es que la comparación de DLSS vs 4k+TAA no tiene puto sentido. Lo suyo seria comparar la calidad de imagen de DLSS vs 1440p+TAA y DLSSx2 vs 4k+TAA no?

Por cierto una cosa que me he fijado es la incosistencia del DLSS en algunas escenas estáticas. Esto suele pasar en Deep learnig con imágenes ya que una cosa mala de esta técnica es que a veces variar un pixel de la entrada corrompe absolutamente la salida, técnicamente se llama one-pixel attack.

Si os fijáis en este video en la camiseta en el minuto 1:05, yo veo inconsistencias en esa textura a pesar de que la escena no cambia apenas.

B

#859

Ya vamos por 7nm, cuando alcancemos 3nm seguira sin haber potencia suficiente para RT,lo que trata Nvidia es acortar el proceso para Ray Tracing dedicando hardware, esta pensando mas futuro.

Aunque supungo que las compañias tendra algo bajo la manga cuando se llegue al limite del silicio actual, grafeno o otro.

Cryoned

Yo tengo curiosidad por ver si dlss se puede aplicar sin reescalado como downsampling o sólo es útil con upscale guarro

1 respuesta
n3krO

#926 puedes usar DL para cambiar la cara de actrices porno por caras de otras actrices como no vas a poder usarlo para AA. La pregunta es si tiene sentido en un punto de vista de calidad vs rendimiento. Yo sigo sin reemplazar mi MSAA con Alpha Textures por nada.

2 respuestas
Cryoned

#927 dependerá de la diferencia de calidad sin upscaling y si dlss es gratis en rendimiento.

También hay que ver si añade lag a la imagen

1 respuesta
Frave

#927 #928 es que de hecho el DLSS es un AA no un upsampling, o al menos eso es lo que saco yo en claro de la divulgación de Nvidia, no se si en las pruebas que hay se han equivocado al poner 4k+DLSS o que tras hacerse el DLSS con 1440p hacen un reescalado a 4k. Pero la red la entrenan así:

The key to this result is the training process for DLSS, where it gets the opportunity to learn how to produce the desired output based on large numbers of super-high-quality examples. To train the network, we collect thousands of “ground truth” reference images rendered with the gold standard method for perfect image quality, 64x supersampling (64xSS). 64x supersampling means that instead of shading each pixel once, we shade at 64 different offsets within the pixel, and then combine the outputs, producing a resulting image with ideal detail and anti-aliasing quality. We also capture matching raw input images rendered normally. Next, we start training the DLSS network to match the 64xSS output frames, by going through each input, asking DLSS to produce an output, measuring the difference between its output and the 64xSS target, and adjusting the weights in the network based on the differences, through a process called back propagation.

Y van a sacar un DLSSx2 que es lo mismo pero usando 4k como input en lugar de 1440p:

In addition to the DLSS capability described above, which is the standard DLSS mode, we provide a second mode, called DLSS 2X. In this case, DLSS input is rendered at the final target resolution and then combined by a larger DLSS network to produce an output image that approaches the level of the 64x super sample rendering – a result that would be impossible to achieve in real time by any traditional means

https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/

2 respuestas
Cryoned

#929 Ese dlssx2 es lo que quiero ver yo a 1440

1 respuesta