Otro motivo más para solo comprar nvidia
#630 Debo reconocer que en papel, es impresionante. Pero ya sabemos como es nvidia. Si te muestra
Sabes que es un test cogido con pinzas, en el que han seleccionado el mejor frame con el highest FPS increase.
No les quito mérito, es una pasada si es capaz de mover CP2077 con RT a 100+ FPS, pero falta saber si es ultra, 1080, 2k, 4k, etc...
En cualquier caso, para la gen 5000 o 6000 será ideal esta tecnología. Las 4000 son los early adopters de esto, como en su día fue el gimmick de RT en las 2000, y el DLSS1.0
#632 y hasta que se vea en movimiento nada.. porque todas estas tecnologías son perfect en estática con fotos pero cuando se pueden ver los problemas es cuando empieza el movimiento.
Y del FSR3 aún no se sabe nada, en fin. Que seguramente no vaya a estar al mismo nivel pero tela. Q1 2023 decían.
La putada del DLSS3/3.5/whatever es la guarrada de nvidia de limitarlo solo a las 4000, y así usarlo como incentivo de compra para esta gen de mierda.
No se por que queréis DLSS. Dame NATIVA no me pongas mierdas de filtros y demás para trampear el rendimientoz
#634 ostia rip xD
alternativa: https://videocardz.com/newz/nvidia-announces-dlss-3-5-with-ray-reconstruction-launches-this-fall
Pero domde dice que es exclusivo de las 4000?
Dlss 3.5 deberia funcionar en las 2000 y 3000 , sin embargo sera el frame generation lo que no funcione.
Ahora, funcionara el raytracing reconstruction? No veo porque deberia ser exclusivo de las 4000…
Estando papa amazon o páginas que trabajan online con un gran volumen de pedidos no entiendo por qué la gente sigue comprando en appinformatica, beep y derivados.
Menudos tiros al pie que os metéis.
#638 Ahí pone que esta diseñada para la serie RTX 40 y siguientes.
NVIDIA is giving finishing touches to a groundbreaking new gaming technology that it plans to release some time this Fall. Called simply DLSS 3.5, the technology builds on DLSS 3, and introduces a new feature called Ray Tracing Reconstruction (RR). Designed for NVIDIA GeForce RTX 40-series "Ada" and later GPUs, DLSS 3.5 promises superior ray tracing effects than native rendering. NVIDIA uses an AI-based de-noiser for its ray tracing tech, and DLSS 3.5 intends to upgrade this part of the ray tracing pipeline in games that have it enabled.
DLSS 3.5 RR replaces NVIDIA's current AI-based de-noiser with an algorithm that reconstructs ray data more intelligently. NVIDIA's current de-noiser uses AI to reconstruct "missing" rays, but isn't functionally different from any other de-noising technique in the industry. DLSS 3.5 RR reconstructs ray traced elements in your game more "intelligently," as it accounts in even more inputs from the game engine, and uses a DNN that has been trained on 5 times the data, on a game-specific basis. Games that leverage DLSS 3.5 should end up looking better than native resolution and the legacy de-noiser. At launch, at least six games and content-creation apps will support DLSS 3.5, including "Alan Wake II," "Portal with RTX," and "Cyberpunk 2077." Among the apps include the NVIDIA Omniverse platform, D5 Renderer, and Chaos Vantage.
Yo no le veo mucho sentido a la nueva tecnología de Nvidia ya que es un efecto posterior.
El denoising por IA tendría sentido de forma nativa en los juegos ya que ahorraría rendimiento, de hacer ese denoising por los Shaders tradicional de las GPU.
Esto Nvidia se lo planteo desde la salida de la RTX 2000, pero los desarrolladores siempre van usar denoising que funcione en todas las GPU y consolas, por cual nunca despegó esta idea de Nvidia del denoising IA y hoy parece que lo intentarán meter como un denoising posterior.
Pero los denoising que utilizan los juegos actuales ya ofrecen una calidad buena, sin ruido visible y bajo ghost, por lo cual esto de Nvidia es más marketing que algo necesario.
Ya han detallado lo del DLSS 3.5 en el blog oficial de NVIDIA:
https://blogs.nvidia.com/blog/2023/08/22/dlss-ai-rtx-remix-half-life-d5-render-chaos-vantage/
#638 Al final parece que el Ray Reconstruction lo soportan todas las RTX según este párrafo:
NVIDIA DLSS 3.5 adds Ray Reconstruction, which improves ray-traced image quality for all GeForce RTX GPUs by replacing hand-tuned denoisers with an NVIDIA supercomputer-trained AI network that generates higher-quality pixels in between sampled rays.
#646 Van a ser risas cuando no presenten nada tras la bola de nieve que se ha hecho con los rumores de que saldría para Starfield xD
Para AMD será difícil seguirle el ritmo a Nvidia, ya que tras el nulo salto de rendimiento de las RTX 4000 y sus sobreprecios, Nvidia está sacando un moton de tecnología ramdon para intentar darles un valor sus GPU, y al final Nvidia tiene el peso en marketing, AMD no le toca otra que intentar seguirle el ritmo, como al loco que le das la razón y le seguís el juego.
Así que pronto veremos un FSR 3.5 con denoising IA también, no será de extrañar.
Ya no saben qué hacer para vender las 40XX con los precios desorbitados que tienen, tengo ganas de ver qué nueva tecnología "indispensable" se inventan en unos meses.
Yo necesito cambiar de gráfica, que la GTX 1080 está pidiendo tierra, por una lado prefiero una de NVIDIA porque tengo entendido que consumen menos y controlan mejor la temperatura, pero en cuanto a potencia bruta AMD les ha pasado la mano por la cara una y otra vez esta gen a excepción de a la 4090.
#648 A ver, que la gráfica consuma 450W no la hace nula en rendimiento. La hace cara para bolsillos con telarañas, pero el FPS/Watt es un 60% más eficiente xD
https://thepcenthusiast.com/geforce-rtx-4090-vs-rtx-3090-ti-comparison/
Que le meten mucha mierda? Si, pero que en raster es un 50-60% mejor, gastando lo mismo que la 3090 Ti. Eso es eficiencia. Si gastase 700W, entonces no, no seria eficiente, porque FPS/Watt sería idéntico, por lo que simplemente sería mejor por simple fuerza bruta.
Luego, los sobreprecios, es un tema completamente ajeno a su rendimiento. Si lo midieses por FPS/€, seguiría compensando la 4090 retail, vs 3090 ti retail.
Que el lineup de la serie 4000 es basura, en eso estamos de acuerdo todos. Y ojo, no por rendimiento, que son parejas a las 3000, sino porque te cobran una burrada por lo mismo que hace 2-3 años, con el gimmick de FG y DLSS3.0... si las bajasen 150€ en toda la lineup, seria una serie muy buena en precio/calidad.
Peeeero... eso es un tema diferente.
4090 no se podría considerar una GPU gaming o para el grueso de este mercado, es una GPU de más de 1500pavos, se que gusta mucho sacarla en todo para hablar de fuerza bruta y enzalsar a Nvidia, pero no es lo que se van comprar los gamer.
Cuando hablamos de gaming hablamos de 4070 para abajo, y en esas gamas el salto de rendimiento ha sido ridículo y debido a su precio, Nvidia le esta intentando dar valor por medio de estas tecnologías.
Porcierto lo del Pathtracing Nvidia lo está forzando para crear una necesidad de estas tecnologías, pero es ridículo porque no es algo pensando en la optimización vs la potencia actual, si no solo para darle una utilidad sus tecnología.
Alan wake 2 4k 30fps con una 4090 sin DLSS, cyberpunk 16fps.....
#654 Creará esa necesidad para el que sea lo suficientemente corto para tenerla
Yo me estoy gozando el cyberpunk a todo trapo en 4K todo en ultra y sabes que? No le he puesto el rivatuner ni una sola vez.
Si me compré la 4090 fue para no tener que preocuparme en mirar números que me hagan estar más pendiente de si el rendimiento es bueno que de disfrutar el juego.
Y mano de santo oye
Osea que si te va 30fps, te tapas los ojos y asunto arreglado jajaja.
Si estar pendiente del rendimiento no te interesaba bajo mi humilde opinión te salía más rentable una consola te hubieras ahorrado más del mil pavos y disfrutar de los juegos.
#654 El detalle de esos bajos FPS es por el RT, que está más que claro que es una tecnología en juegos exigentes para usar junto al DSL. Pero si lo juegas sin RT van bien de rendimiento aunque sea en ultra 4K en una 4090