Rumor: PS5 no estaría basada en un RDNA 2 verdadero

McDyron

#353 Según Vandal: "Por lo que el Modo Rendimiento podría prescindir de esta tecnología en favor de un funcionamiento del juego a mayor tasa de frames por segundo. Al ser un modo opcional, entendemos que por defecto el juego hará hincapié en el apartado gráfico con más detalle, ray tracing y una tasa de frames por segundo más baja, probablemente en 30 fps". ¿De verdad no se está pillando las indirectas de que si quieres ray tracing en Spiderman Morales vas a tener que jugar a 30fps por segundo o que el 4k jugando a 60fps va a ser un escalado de 1440p?

https://vandal.elespanol.com/noticia/1350736327/spiderman-miles-morales-tendra-un-modo-rendimiento-para-jugar-a-60fps/

1 respuesta
eondev

#361 Y vandal quién es, si no es más que un medio inútil el que escribe ese artículo sacando conclusiones de una chistera, posiblemente leídas de otro pavo que tampoco tiene idea de nada.

Ya veremos cómo juegan con las resoluciones, la tasa de refresco y la calidad gráfica final. Que macho, os creéis que un pc hoy en día de 3k soporta 60fps 4k con RT o qué xDDDDDDDDDDDDDDDDDD

Muy posiblemente, los 30 fps serán para soluciones con raytracing a tope de gama con algún reescalado DLSS sobre 4k. Y una opción sin tanta carga gráfica a 60 fps en distintas resoluciones, no tiene más.

Si queréis raytracing es lo que hay. Aquí no hay magia y ni con una 3080ti solucionarían el problema.

2 respuestas
NeV3rKilL

#362 La cosa es que AMD no tiene la magia del DLSS y eso me produce sentimientos encontrados.

¿Es bueno porque así están obligados a sacar músculo? ¿Es malo porque así van a bajar el nivel de calidad en conjunto para poder moverlo todo?

morel10

#362 AMD no tiene DLSS así que buena suerte a todos y gracias por participar. Ojalá tuvieran algo parecido pero la inversión que hizo Nvidia con la IA ha sido tremenda y durante muchos años

1 respuesta
eondev

#364 Ahora, y eso es una solución de software que no atañe a AMD como fabricante de hardware. Sony como Microsoft tienen en su poder la capacidad de hacer su propio dlss, que para algo tienen control total del hardware.

1 respuesta
Cryoned
#365eondev:

Sony como Microsoft tienen en su poder la capacidad de hacer su propio dlss, que para algo tienen control total del hardware.

tuvieron.

el hardware lleva elegido años, y para desarrollar algo similar, necesitas una gpu distinta a las clásicas con especializaciones tipo tensor cores de nvidia. No han tenido tiempo de implementar algo similar, e igual les va a pasar con el raytracing, que va a estar lejos del rendimiento de nvidia por ser algo de última hora.

De todas maneras no sé qué narices le pasa a la gente con dlss cuando es una ñapa a evitar de ser posible.

2 respuestas
eondev

#366 Bueno, que yo sepa con rdna2 sí van a tener soporte por hardware para RT. Nada les impide que con ese hardware desarrollen su propio dlss.

Sonos

Microsoft tiene DirectML, aún por demostrar que consiguen con ello, pero es la alternativa y es compatible con Series X.

1 respuesta
Cl0ud7

#368 El problema es que los numeros que ha dado MS de machine learning son una mierda comparados con los de turing y Sony ni ha hablado del tema, creo que solo comento que el tempest se podia usar para eso.
Lo que es extraño es que (no lo recuerdo bien) una tia de EA creo, comento que estaban muy entusiasmados con las posibilidades que ofrecian las nuevas consolas en cuanto a ML, entonces no se, igual se estan escondiendo algo ambas.

2
s4rge
#359SikorZ:

seguimos con rendimiento de 1990 no lo acabo de entender jamás

Ni eso, en los 90 los juegos iban a 60 fps, mírate un Sonic o Mario para que flipes xD solo hemos ido para atrás con ese tema.

1 respuesta
NeV3rKilL
#366Cryoned:

De todas maneras no sé qué narices le pasa a la gente con dlss cuando es una ñapa a evitar de ser posible.

Para nada. DLSS 2.0 se ve incluso mejor que nativo y te da +50% fps. La ñapa a evitar fue el DLSS 1.0.

Que el postproceso que mete DLSS 2.0 si lo aplicase sobre la imagen nativa sería aún mejor?, pues sí. Pero si el baremo es el nativo, dlss 2.0 no tiene nada que envidiarle.

3 respuestas
ArThoiD

#371 Tampoco te flipes XD Mejor que nativo ni de coña.

Pero si, Cryo como siempre es super extremista, el DLSS 2.0 es bastante top.

De todos modos ya hemos visto implementaciones de 4k con checkerboarding en PS4 Pro.... Al fin y al cabo es un escalado similar. En estas consolas veremos cosas por el estilo, que no sea un algoritmo general da igual, cada juego llevará su mierda, o se acabará estandarizando algún método de escalado que use la consola sin necesidad de que el dev ponga mucho esfuerzo.

1 respuesta
Cryoned
#371NeV3rKilL:

Pero si el baremo es el nativo, dlss 2.0 no tiene nada que envidiarle

excepto ghosting, doble imagen, problemas manejando las partículas con estelas, exceso de sharpening en zonas y de borrosidad en otras, etc.

pero si, una imagen reconstruida tiene más calidad que la original si. Ya casi casi está dlss como los memes de csi con el enhance a 2 pixels hasta sacar la matrícula.

2 respuestas
HeXaN

#371 No tienen ningún sentido lo que dices.

1 respuesta
Dante88

#373 Cuando renderizas una imagen temporal las texturas pierden detalle. Además de que los algoritmos de anti-aliasing enborronan toda la imagen cuando lo unico deseable es evitar los dientes de sierra en bordes o algunos puntos de la imagen.

Con los algoritmos basados en AI se pueden saltar estas limitaciones y verse mejor que el original, si.

Y lo más importante es que el proceso es hasta 10 veces más rápido que generar la imagen a gran resolución directamente.

2 respuestas
Ninja-Killer

Se avecina una discusión épica de cuestiones técnicas que desconocía totalmente. Continúen por favor! :P

HeXaN

#375 Una imagen renderizada de forma nativa a 4K se verá siempre mejor que una imagen renderizada y subida con DLSS.

No nos hagamos pajas mentales.

1 respuesta
Cl0ud7

#375 de hecho digital Foundry tiene algun video sobre el tema este y si es verdad que reconstruye mejor ciertas zonas, otra cosa ya es en movimiento, habria que verlo.

s4rge

#377 Pero creo que el DLSS no re-escala ninguna imagen, según tengo entendido la IA de nvidia ha sido "entrenada" para saber cómo se vería la imagen de ese juego en 4K y rellena los píxeles que faltan. No es simplemente coger la imagen y estirarla llenándola de efectos AA para suavizarla cómo se hacía hasta ahora.

Más bien lo llamaría reconstrucción de la imagen, no re-escalado cómo tal.

1 respuesta
Cryoned

por ejemplo, algunos de los problemas de dlss, con screens de W1zzard en tpu

dlss: ghosting, halos y falta de nitidez por momentos, se ve en los bordes de la figura. Problemas con las partículas desapareciendo o dejando estelas.

nativo: Imagen con nitidez perfecta y sin problemas visuales, la única queja puede ser el borde de sierra.

TAA: Con lo que comparan siempre dlss


borroso y horrible pero sin ghosting, halos, sharpening, etc.


DLSS es una tecnología para que los pobres podamos jugar a cosas que piden mucho sin lloriquear demasiado de bajada de fps o de tener que jugar a menos resolución sin pixel perfect haciendo que se vea peor aún.

Como opción para eso, ser pobre y no poder mover a resolución nativa un juego, sacrificando a cambio calidad de imagen, es algo útil, pero no lo convierte en deseable.


#379 claro, el problema de entrenar es que reconstruye con lo que cree que es. Es como si coges la mona lisa, le sacas una foto, la imprimes en tamaño 4x al original arreglas lo que crees que hay que cambiar y dices que tiene más definición. No puede ser, no existe esa definición de origen, te lo estás inventando.

Eso lleva el problema de que aunque algunas veces si es cierto que lo clava y el efecto queda muy bien, en otras te mete unas cagadas de alucine que destrozan toda la imagen porque el inventman que hace el algoritmo sobre lo que cree que se debería ver ahí, no acierta.

2 respuestas
eondev

#380 no se ve ;/

1 respuesta
ArThoiD

#380 Esas imágenes cabrón. Y seguro que son de DLSS 2, no?

1 respuesta
Cryoned

#381 #382 ah el hotlinking xD

arreglado

1 respuesta
ArThoiD

#383 En movimiento, estoy bastante seguro de que esos defectos son complicados de ver.

Nunca he usado DLSS pero tendré que probarlo, seguramente da el pego, siempre que no puedas moverlo a resolución nativa, claro.

1 respuesta
Cryoned

#384 No, es parte de la implementación, no se puede hacer nada para evitar el ghosting y demás. Luego entras en lo de siempre, gente que no tiene ojos o que todo le parece bien, pero los problemas visuales están ahí y no se van a ir a ningún lado.

DLSS es TAA + IA, y la implementación es lo que es y la razón por la que nvidia se emperra en no compararlo nunca con la imagen nativa ni con juegos que no sean de ir a pedales.

https://developer.unigine.com/en/docs/2.6.1/principles/render/temporal_aa/

Ghosting
This anti-aliasing technique works perfectly for static scenes (without any moving objects). But when objects are moving, frames will significantly differ one from another and we will see a trail of "ghosts" of the moving object. This effect is called ghosting.

https://aws.amazon.com/es/blogs/gametech/anti-ghosting-with-temporal-anti-aliasing/


Y es una de las razones por las que el 99% de los AA son basura que solo destrozan la imagen.

Con 720p, 1080p tenía sentido usarlos en pantallas grandes bajo ciertos prismas, con 4k que es lo que se emperra nvidia en mostrar, no tiene demasiado usar AA.

Y es por eso, que el resumen de DLSS es tecnología para los que somos pobres. Que va a ser útil en gamas bajas o si alguien se emperra en correr rdr2 4k 144fps sacrificando calidad, y nadie lo discute, pero no es lo que se debería aspirar a tener.

Vamos, no hemos esperado 20 años desde la muerte de los crt para pasar por fin a pantallas de alta resolución +144hz + ulmb y de repente volver a meter problemas visuales similares a nivel de software xDD

1 respuesta
Tukansson

#370 pero que coño dices, nunca perdiste más de 50 anillos en el sonic o qué?

Jamás he vuelto a ver un bajón de frames así 😂

1 respuesta
ArThoiD

#385 Ya, si tienes razón, pero si se quiere usar RTX me da que quedan varias generaciones hasta poder correrlo tranquilamente a resoluciones nativas...

1 respuesta
Cryoned

#387 si, sobre todo si se emperran en meter un 20% de mejora cada 3 años y con los precios que gastan xD

yo estoy convencido de que DLSS se va a usar muchísimo y le va a hacer mucho daño a AMD, en cuanto llegue la implementación 3.0 por drivers y ni dependan de los desarrolladores, va a ser un boom en las gamas bajas, porque entre no jugar o sacrificar algo de calidad pero poder hacerlo, es lo que hay. En la gama 60 será una característica de marketing tremenda

1 respuesta
ArThoiD

#388 Sip, totalmente.

sPoiLeR

El DLSS 2.0 bien implantando ya es una realidad, solo hay que ver Death Stranding que lo mueve una RTX2060 a 4k@60fps. Es que comparas eso con una 5700XT, y es como dios a un gitano.

El listado de los juegos que vienen con soporte DLSS se va a ir agrandando cada día y en cuanto empiecen a implementarlo a nivel de motor gráfico como con UE4, pues muchos mas juegos. Al final los que salimos ganando son los usuarios.

En las consolas supongo que deberían sacar algo similar, o olvidarse del RT por un tiempo.