7800 xt hellhound y 0 ruido, tanto a 2k ultra como en 4k. La tarjeta está más tiempo con los ventiladores apagados que encendidos, cosa rara, pero dicen que es normal, una maravilla.
Es por el cero rpm cuando la GPU está en reposo y está en 50 o menos grados los ventiladores se apagan , aunque esto lo puedes desactivar en el Adrenaline , y hay opiniones diversas algunos creen que lo de apagarse y encender lleva más desgaste en lo ventiladores a que este girando unos rpm bajos, otros creen lo contrario que es más perjudicial tenerlos girando todo el tiempo. Aunque bajo mi opinión da igual los ventiladores actuales de las GPU tienen una duración bastante alta terminarás cambiando GPU antes que se aruinen.
El perfil de estas GPU también vienen bastante bajo, mi XFX viene default con un 35%( unos 1200rpm) incluso aguanta así hasta los 74 grados que es cuando comienza subir, yo lo tengo con un perfil más agresivo 43% y 64 grados, sigue siendo silencioso, partir de los 55% es que ya se comienza percibir ruido, y 70% si ya es totalmente audible.
Pero esa Hellhound 7800xt segun las review es super silencioso y fresca.
Ahora dicen que alan wake 2 tiene ghosting si usas dlss y no usas RT y rt reconstruction. Mientras q fsr no tiene ghosting.
Minuto 7.15 aprox empieza a hablarlo
https://youtu.be/kXR0bOA0jfY?feature=shared
A lo mejor es porque esta usando frame generation
#1927 Lo suyo sería probar con la última versión del .dll del DLSS y el DLSS Tweaker a cambiar uno de los presets hasta dar con el que no de ghosting.
eso es imposible porque a mi me han dicho que el reescalado hasta se ve mejor que el rendering nativo
pero vamos, ese ghosting es turbo exagerado, no lo tenía ni dlss 1 xD
#1929 mirar el video y decidid pero no neguéis lo q puedo ver con mis ojos…tal como dice, la cara tiene mucho ghosting
#1930 a mi no me molesta, me tengo que fijar mucho para darme cuenta de lo de la cara
Aparte en el min 15 esta diciendo que no es por el frame gen, es del ray tracing con el dlss de nvidia, y cuando pone el fsr no hay
#1931 no puedo meterme en tu cabeza para saber tu opinion. Al fin y al cabo hardware unboxed hizo comparativa dlss vs fsr vs nativo en varios juegos y dlss ganaba por encima de nativo muchas veces. Y no ya solo por aliasing.
Asi que no se si estas siendo sincero o sarcastico, pero nada, que no falten comentarios como el tuyo.
#1935panterarosa3:y dlss ganaba por encima de nativo muchas veces.
dlss en realidad solo llega a verse "mejor" que nativo, las veces en las cuales la implementación del TAA es tan atroz que casi cualquier opción a eliminarlo mejora la imagen.
A día de hoy casi cualquier juego que lleve opción de DLSS, lleva opción de DLAA, que es nativo menos TAA, con lo que esas comparativas si las hacen de nuevo en juegos actuales que lo soporten, no volverían a darse.
#1936 me fio mas de HU. Y de todas formas, incluso si fuera empate. Incluso si DLSS fuera ligeramente inferior, mientras no de ghosting etc… te esta dando un 70-80% extra de fps que en nativo.
Con esa ganancia de fps, puedes sacrificar los fps y subir mas la resolucion.
Asi que entonces quien ganaria?
Nativo 2K o 3K + DLSS? Digo 3K por decir algo aproximado a un 70% extra de carga procesado a la gpu. Puede ser mas o menos.
#1937panterarosa3:me fio mas de HU.
puedes fiarte de HU o de quien quieras mientras sean pruebas objetivas, no Tim sentado ante la cámara y diciendo "me parece que esto se ve mejor", porque no usó absolutamente ninguna metodología excepto lo que le gustaba a sus ojos en 4 escenas contadas para el vídeo xD
me acuerdo que decía que death stranding era la polla con dlss mientras ignoraba los problemones que tenía ese juego con el ghosting
#1937panterarosa3:Con esa ganancia de fps, puedes sacrificar los fps y subir mas la resolucion.
¿Cómo va eso de bajar la resolución para hacer upscaling, para subir la resolución?
#1937panterarosa3:Nativo 2K o digamos 3K + DLSS?
no hay 3k dlss, 4k con dlss quality renderiza a 1440p
no tiene sentido usar dldsr 4k con dlss quality que renderiza a 1440p, para hacer upscaling a 4k, para hacer downscaling a 1440p
para eso usas 1440p y pones dlaa, es que no tiene sentido lo que dices xD
#1938 jooooder. Hay q explicarlo todo al detalle.
Imagina que tu gpu te da qhd 60fps en nativo
Ahora si pones DLsS quality te da 100fps reescalando desde “no se” a QHD y tu me dices que nativo se ve mejor. Ok.
Ahora pongo 3K y me da 40fps en nativo. Pero activo DLsS y me da 60fps.
¿Cual se ve mejor? ¿QHD nativo o 3K con DLSS? Por tanto creo q DLsS es ganar. Porque o bien ganas fps, o bien si quieres que se vea mejor q nativo, subes mas la resolucion.
#1939 nativo siempre se verá mejor que un upscale salvo que hayan hecho algún descalabro con el engine que arregle nvidia en el camino tipo TAA, o para alguien que confunda un filtro de sharpening con ganar calidad.
#1940 nativo siempre se vera mejor q upscale. Ok.
Pero si nativo lo tienes en QHD y DLsS te esta haciendo upscale desde QHD a 3K. Cual se ve mejor? Qhd o 3K dlss?
En fin. No voy a darle mas vueltas porque no tiene sentido. Si no me entendiste me rindo.
Jajajajajajajaj
#1941 vamos a ver
pongamos que tu monitor es 1440p
si usas dlss quality a 1440p, renderiza a 1707x960 y no va a verse mejor que 1440p nativo
si usas DLDSR para engañar al juego y decirle que use 4K, puedes hacer dos cosas
usar 4k de resolución de renderizado nativa y hacer downsampling, en cuyo caso mejora la imagen a 1440p nativo
o lo que creo que tú dices
usar 4k de dldsr, y a ese 4k añadirle DLSS, eso significaría que usas 1440p de resolución de renderizado, para hacer upscale a 4k con dlss, para a continuación hacer downscale a 1440p de tu monitor
No tiene sentido y siempre en todos los filtros de reescalado vas a añadir problemas a la imagen, ghosting, shimmering, flickering, etc y por supuesto vas a perder frames en el camino.
DLSS se usa para ganar fps a costa de la calidad de imagen, es una técnica que mejora el upscaling clásico por muchísimo, pero sigue sin poder hacer que algo con 2 pixels de información se vea mejor que algo con 4 porque literalmente se inventa esos dos píxels.
#1942 [media] https://media.tenor.com/MHi_sQmVI_sAAAAd/cj-gta.gif[/media]
Ok. Pues dejemoslo en que ganas mas fps.
Pero yo creo que se nota una diferencia de renderizad a 3K y hacer downsampling a QHD usando DSR. Yo lo veo mejor.
#1943 pero es que DLDSR no es DLSS y tampoco te da más frames, te hace perder muchos porque estás renderizando a mucha más resolución
son tecnologías literalmente opuestas, DLSS es para ganar fps a costa de calidad de imagen y DLDSR es para ganar calidad de imagen a costa de fps
y DLSS solo podría mejorar a nativo si el engine es un pifostio con implementaciones lamentables de TAA, que DLSS sustituye
Si queréis un "benchmark" hecho con UE 5.2 (Lumen, nanite y toda la hostia), con DX12 y Vulkan: https://www.nexusmods.com/site/mods/621
Es un dolor bajarlo, pero ahí está.
Y la demos que hay también son gratis.
Este video si esta bien de alex , un poco en profundidad el UE5 con Lumen y Nanite, la mayoría de juego están usando Lumen Software, Lumen hardware al ser Ray tracing mejora la precisión en la GI , pero principalmente en los reflejos, el rendimiento al menos en Nvidia es pequeño. pero aqui comete un error Alex al no probarlo con GPU AMD ya que estas son mas debiles en RT y al final de cuenta las Consolas son AMD, por cual ese podria ser el motivo que solo usen Lumen Software.
#1948 Lo mas importante es el tema de que UE5 a día de hoy hace mal uso de los procesadores modernos y de esos subprocesos múltiples.
He puesto justo cuando habla de eso.
Y eso es un problema.