#780 y mas mientras no haya stock de 3080
Lo bueno de que Coolmod aún no me haya dado gráfica (ni me dará en 1 mes) es que podré ver lo que saca AMD.
#783 sí, podrás elegir y lo suyo es que en cuanto puedas pongas el distill porque ya los de AMD se lo están oliendo.
se supone de todas formas que las AMD traen mayor computación en general no? el problema es luego en juegos cuando le pesa el culo?
#784 A mí me mosquea el tema del RT y el DLSS. Mi predicción es la misma que hace 1 mes:
- Igual rendimiento en fuerza bruta (quizás algo menos o quizás un pelín más)
- Peor rendimiento RT
- Sin DLSS
- Precio similar a la 3080
Y con esto tengo claro que sigo a por la 3080.
Ahora bien, ¿tendrán algún as bajo la manga? Lo veremos el 28 xd.
#786 Yo siempre voy a por el modelo que competiría con la 3080 claro. Y creo que AMD sabe que o sacan algo muy bueno al mismo precio o se van a comer los mocos porque en features salen perdiendo por mucho (hablo de gama alta).
A no ser, como digo, que se saquen de la manga alguna tecnología nueva compatible solo con sus nuevos ryzen que aumente rendimiento o cualquier pollada de esas. Entonces sí que puede ser interesante.
#785 DLSS yo creo que es lo único que se puede dar por hecho que tendrá algo similar. Es más, ya están preparando soluciones más generalistas para incluir directamente en API's como directx y DLSS con el tiempo pasará a ser como gsync, una tecnología que nvidia fue la primera en traer pero que tendrá que abandonar a favor de proyectos abiertos que se harán el estándar.
respecto a RT es bueno recordar algo que ya han mencionado un par de comentaristas en este hilo y que no es ninguna tontería. Las dos grandes consolas llevan RT de AMD, y ya sabemos que los juegos se construyen principalmente pensando en las consolas, por lo que no es baladí pensar que a buen seguro el RT que saquen será implementado sobre todo pensando en optimizarlo y aprovecharlo para AMD. De todos modos a mi modo de ver el uso del RT pienso que sigue siendo más bien una demo tecnológica de uso muy puntual que algo que realmente vaya a marcar la diferencia.
#792 No hay milagros. El RT es lo que es, un proceso ultra exigente de cálculo. Puedes optimizarlo hasta cierto punto, puedes utilizar truquillos en los shaders o con grandes cantidades de cache, pero al final del día sigue siendo un proceso energético brutal que tiene que entrar dentro del consumo de la gráfica. Y peor aún puede funcionar, si como parece en RDNA2 el RT corre a cargo también de las unidades de texturizado.
Y ya se ha visto que tanto PS5 como Xbox SX tienen un Raytracing bastante pobre en comparación con Turing tanto en rendimiento como en calidad (reflejos borrosísimos), no digamos ya con Ampere. Así que esperar que las 6000 vayan a ser revolucionarias en ese aspecto es en mi opinión esperar demasiado.
#793Carcinoma:reflejos borrosísimos
Eso depende de las pasadas que configures, a menor potencia de cálculo menor claridad y no tiene por qué ser reflejo de nada, una series X consume 200W (el sistema completo), se está hablando de 350W sólo la GPU aquí.
Hablar de que el RT está por debajo y blablabla sin tener ni media certeza es hablar demasiado. Y con esto no digo que AMD vaya estar al nivel o superar, simplemente que es absurdo categorizar de esa manera sobre este tema.
#794 Bueno, yo te estoy hablando de los ejemplos que tenemos ya en algunos juegos de las nuevas consolas. Por ejemplo, el DMC5. Y si eso es indicativo de alguna manera de las nuevas gráficas porque comparten arquitectura, no es descabellado pensar que anden igualmente parejas en rendimiento en rayos. No es una simple cuestión de potencia, es que parece ser que integrar los procesos en las mismas unidades no ayuda.
Pero bueno, que en cinco días sabremos la verdad. Si los ingenieros de AMD se la han sacado, les aplaudiré como el que más.
#795Carcinoma:no es descabellado pensar que anden igualmente parejas en rendimiento en rayos.
Consumiendo menos de la mitad sí lo es ¯_(ツ)_/¯
#796 Los reflejos que yo he visto por ahora de consola lucen peor de lo que lucen en una 2070 o 2060 que consumen más o menos parecido.
Ningún milagro espero.
Pues hablando de RT, fresquito desde Igor's Lab:
https://www.igorslab.de/en/3dmark-in-ultra-hd-benchmarks-the-rx-6800xt-without-and-with-raytracing/
Por supuesto son rumores, pero él dice que vienen de dos fuentes independientes. Y sí, se ve que en RT no parecen ir muy boyantes aunque más de lo que creía.
#794BLZKZ:una series X consume 200W (el sistema completo)
La series X la han puesto a 210W con un juego de la actual gen. Así que tiene margen de subida todavía, piensa que lleva una fuente de 315W.
#805 y aún así el máximo no estará muy lejos de eso, porque ahí tienes que meter un margen + consumo de lector. Y hablamos del SoC completo, con un ryzen 3000 8/16. Vamos que la GPU si pasa de 150-180W en algún momento seguro que es bastante puntual
#803 aunque la lie en RT ojito a las otras 2 eh... que esta no es la 6900
creo que van a salir al mismo precio que la 3080
Los que decís que los juegos estarán optimizados para el RT de las consolas... recordad que nVidia también suele meter pasta en las desarrolladoras. You know... the way it's meant to be played. Y si tienen que meterla, la meterán.
Se puede poner muy curiosa la cosa. Si los rumores son ciertos y AMD supera en raster a Nvidia, volverían las batallitas entre fanboys de cada marca por "mi raster es mejor que el tuyo" y "jódete que no puedes activar RT".
#803 no queda claro si la 3080 esta usando DLSS en ese benchmark, dice que rinde bien la amd teniendo en cuenta que no usa DLSS, lo que podría dar a entender que la 3080 si lo está usando. Habría que ver entonces en bruto cual rinde mejor porque claro no es lo mismo renderizar a una resolución que a una inferior