Hilo: Nvidia RTX3000, "Ampere" (Rumores)

Cypress-Hill

#177

Tenía la misma duda que tú y mirando vídeos en youtube de los siguientes juegos en 4k ultra los datos son los siguientes:

Final Fantasy XV entre 10gb y 11gb de media

Battlefield V ultra ray tracing on 7.5gb de media

Anthem sobre 6gb

Pubg sobre 7.5gb

Metro Exodus sobre 6gb

Project Cars 2 sobre 5.5gb

Forza Horizon 4 sobre 7.5gb

The Witcher 3 sobre 6gb

shadow of the tomb raider sobre 7.5gb

Algún poseedor de una 2080ti que afirme o desmienta pls.

1 5 respuestas
HeXaN

#180 Sí, monté un PC con mis piezas antiguas y esa GPU pero el mío principal lleva verde.

1
eondev

El otro día por telegram, un sueco que trabaja en una compañía fuerte de videojuegos, concretamente con el motor gráfico se quejaba muy fuertemente de Nvidia. Decía que era una pesadilla, restricciones por todos lados y que desarrollar para AMD es una gozada, que por desgracia AMD tiene que estar continuamente fixeando sus drivers y librerías para adaptarse al software escrito para Nvidia.

Las tarjetas Nvidia de hecho son el "validation device", que AMD hace tecnología genérica muy fácil de trabajar con ella y no da problemas de ningún tipo. Son pura fuerza bruta. Que el mundo sería un lugar mejor si Nvidia no existiese o si tuviese políticas FOSS (open source).

1 respuesta
Xustis

Se mirara la 3060 a largo plazo por si alcanza un precio asumible, con unas temperaturas, rendimiento y consumo tan bueno como la 2060 y si no pues pasando que por ahora voy de lujo.

B

#183 Al igual que cierto youtuber se quejaba el otro día de que casualmente los portátiles top de gama de la serie 4000 de ryzen no llevaban gráficas de gama alta y que en cambio el mimo modelo con intel si.

Los maletines pudren la industria de la informática.

B

A mi me parece una diferencia demasiado grande en " cudas core" de la 3080 a la 3080ti.

256 RT Core serian 2 por SM.

A mi me parecen un poco fake estas especificaciones, pero quien sabe.

1 respuesta
Cryoned

#186 lo mismo se quitan la titan del medio

1 respuesta
Unr3al

#181

Por ejemplo en The Witcher 3 con todo al máximo y a 4K :

aún falta para esos 6GB...

1 respuesta
Snagg

A ver que se cuenta de la 3080ti y hago un renove por mi 2080ti de cara a usarla en la TV a 4k@120

#181 Están en torno a eso y más de uno rozando el máximo.

1 respuesta
alb3rtpr0

#177 Si es que el problema está en que las desarrolladoras portean los juegos de consola a PC como el culo. Y esto se traduce en cantidades de VRAM desmesuradas en lo que refiere a texturas. Hay juegos que al ponerlas al máximo te llena entero la capacidad máxima. Ya pasó algo similar en la época de ps4 al salir. Muchas veces las texturas al máximo en pc eran equivalente a la calidad de ps4 porque en consola la memoria va unificada, así que tienen mogollón de espacio para ellas. En cambio imagínate en aquella época las gráficas con memorias dedicadas de 2GB, y ya no te cuento las de 1GB. Yo lo sufrí en mis carnes con Metal Gear Solid V Ground Zeroes: Texturas en alto y sombras al máximo en GTX 560 Ti 1GB y a tomar por culo el rendimiento (se clavaba en unos 10 fps, y no era por que las sombras fueran tan exigentes, simplemente se quedaba sin memoria disponible la tarjeta).
Con esta nueva generación de consolas, miedo me da lo que pueda pasar. Quizás lo más conveniente sea actualizar a la serie 4000, pero yo tengo ahora una GTX 1060 6GB y hay mono joer.

1
B

#187

Sigue siendo mucha diferencia en cudas entre una RTX Titan y una RTX 2080 hay un 56% en Cudas, entre esta 3080ti y la 3080 un 77%, seria primera vez que una 3080ti le saca tanto una 3080, en rendimiento seria entre un 65-70%. generalmente entre una 80/ti hay entorno 40-50% mas de Cudas, entre un 30-40% diferencia en rendimientos.

Aparte que es dudoso que las 3080ti lleven el chip completo de primeras seria la primera vez también, pero si lo lleva la 3080 tendrá mas de esos 4608 cudas.

Prava

#181 Esos datos no son verídicos. Tú puedes ver cuánta memoria tienes en uso, sí, pero no es real. Imagina que tienes 15GB y cargas 6GB en assets. Poco después, cargas otros 6GB y dejas de utilizar los 6GB anteriores: es probable que el uso de memoria esté muy por encima de 6GB simplemente porque los tienes en uso (en uso = tienes algo metido, se use o no), cuando realmente no estás trabajando con ellos.

Por eso ver la memoria que un software te dice que está acumulada no tiene utilidad. A menos que las cosas hayan cambiado tantísimo.

#189 Tu 2080TI no tiene HDMI 2.1 así que tendrás que tirar de 4:2:0 para 4K @ 120hz.

#179 A nivel de cpu no veo motivos para elegir Intel, si te digo la verdad. Hablando de GPU... NVIDIA tiene el DLSS 2.0 que es una revolución si los juegos empiezan a soportarlo masivamente. A ver qué nos trae AMD con esta nueva hornada, espero que traiga algo parecido al DLSS 2.0 y, por supuesto, Ray Tracing.

#180 No jodas que AMD sigue igual que hace años con el tema de drivers...

3 respuestas
Cryoned
#192Prava:

NVIDIA tiene el DLSS 2.0 que es una revolución si los juegos empiezan a soportarlo masivamente.

deberían porque ya no tienen ni que hacer entrenamiento individual, lo hace la propia nvidia de forma global para cualquier tipo de imagen y para el dev es trivial implementarlo, 0 trabajo según he leído.

la verdad que ha sido un mazazo sobre la mesa, ya he leído a varios que tenían en mente una 5000 de ati y tras ver dlss 2.0 han paralizado todo y están esperando al 14 y si va para largo están mirando 2070 super

3 respuestas
HeXaN

#193 Esa es la teoría... A ver luego la práctica en qué queda.

1 respuesta
Cryoned

#194 esperemos que en nada y tenga que entrar amd a implementar algo similar de código abierto xD

1
Khams

#193 y yo me he comprado una 2070 super en marzo jaja, espero no arrepentirme demasiado, por lo menos estaba rebajada a 480😅😅

1 respuesta
Cryoned

#196 muy buen precio la verdad, supongo que la de coolmod

hace mucho ruido?

1 respuesta
Khams

#197 que va, una reacondicionada de pccompentes.

Es la "Gigabyte GeForce RTX 2070 Super Windforce OC 3X 8gb"

De ruido va bien pero creo recordar mi 1060 más silenciosa jaja, ya no sé si es la cpu.

De momento va muy bien, la verdad. Espero que vaya para largo y dure mucho!

2 respuestas
Cryoned

#198 ah vale nada nada, es que en coolmod tienen de oferta las kfa2, pe ro nunca encontré reviews decentes de esa marca xD

Prava
#193Cryoned:

deberían porque ya no tienen ni que hacer entrenamiento individual, lo hace la propia nvidia de forma global para cualquier tipo de imagen y para el dev es trivial implementarlo, 0 trabajo según he leído.

¿Seguro? Juraría que leí unos comentarios de Metro Exodus donde depende de los devs. Mira, aquí lo tengo:

https://www.reddit.com/r/nvidia/comments/fayg3f/metro_exodus_devs_on_dlss_20_we_may_implement_it/

#193Cryoned:

la verdad que ha sido un mazazo sobre la mesa, ya he leído a varios que tenían en mente una 5000 de ati y tras ver dlss 2.0 han paralizado todo y están esperando al 14 y si va para largo están mirando 2070 super

Es mi caso. No me caso con nadie en tema de marcas, ni en los tiempos en los que physx valía para nada (y pese a eso he tenido casi siempre NVIDIA) pero es que DLSS 2.0 sí es una revolución pues la mejora de rendimiento es brutal, algo especialmente necesario con tecnologías tragonas como Ray Tracing.

A ver qué saca AMD, pero como no traigan nada específico les veo mal.

1 respuesta
Cryoned

#200 https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

One Network For All Games - The original DLSS required training the AI network for each new game. DLSS 2.0 trains using non-game-specific content, delivering a generalized network that works across games. This means faster game integrations, and ultimately more DLSS games.

kas

#181 #188 Gracias!

Como se puede mirar?

1 respuesta
pelusilla6

#192 En teoria mucho mejor que años atrás, de hecho hay gente que ningún tipo de problema desde el día 1 con la misma gráfica que yo. Otros les era injugable y acabaron devolviendo, mientras que a mi eran pantallazos negros aleatorios (escucho el juego pero no puedo hacer nada aparte de reiniciar a machete).

La potencia bruta la tienen, con que mejoren drivers (Pero esto ya se lleva diciendo años)... aunque ahora con el DLSS 2.0 y lo de RTX voice como no se pongan las pilas vuelven a perder mercado fijo

-Khaezen

A mí en GPU que no me quiten Nvidia, ya ni que decir en gama alta, en la que AMD no tiene nada. Y he tenido de las dos.

Alu

@prava estas turbo hypeado con el 2.1 cabron

No se supone que toda turing fue updateada con 2.1?

1 respuesta
BrAv0

no veo el momento de gastar 500€ en una gama media/baja!

3
Snagg

#192 A eso me refería con hacer un renove de la 2080ti por la 3080ti, es una de las pocas cosas que echo en falta (además de la mejora de rendimiento y tener más tensors).

B

El reescalado por IA o DLSS 2.0, tiene un par de inconvenientes :

  • Las Tecnologías propietarias no suelen tener mucho futuro, el DLSS solo se implementara en juegos patrocinados por Nvidia. Me recuerda physx🤭.

  • El reescalado por IA no es barato de implementar en codigo abierto, necesita entrenamiento y eso se hace en servidores, alquilar servidores tiene un coste, no es algo que pueda hacer cada estudio individual como cualquier otra tecnica en sus PC o motor.

Aunque supungo que es algo llegara de todos modos, los motores graficos principales alquilarán servidores(AMD o Nvidia, otros ) para entranar sus algoritmos y incluirlo en el motor, los estudios con motor propio haran lo mismo.

En temas de compatibilidad y hardware no creo que se tenga problema la IA va por medio de FP16, INT8 o 4 etc, pero dividió aque las consolas no tienen tensor core y tiene un ratio de ALU FP16 2:1 respecto a los FP32, tendrian muy poca potencia, el algoritmo deberia estar diseñado para INT8 o 4, 48 y 96 TOPS (equivalente a Tflops, pero en calculo entero) en xbox series x y 40 y 80 Tops en PS5.

2 respuestas
HeXaN
#208elmemo:

no es algo que pueda hacer cada estudio individual

Cualquier estudio AAA puede sin problemas.

B

A mi para lo que mas me llama IA es para temas texturas, principalmente en estos tiempos donde los juegos pesan mas.

Seria un buen metodo de compresión de texturas, volver a texturas 512 * 512 o 1024*1024, y utilizar la IA para reescalarlas a 4k o 8k, seria una pasada.

Tema cerrado