Hogwarts Legacy #HG | Wingardium Leviosa!

No queremos debates innecesarios y menos con la salida tan inminente del juego. El estudio se ha desmarcado absolutamente de cualquier cosa que les pueda hacer daño y el que quiera comprarlo está en su derecho tanto como el que no quiera, no hay más.
Ronjoujoujou

#1079 Que gráfica? De todas formas como dicen por arriba el juego huele a performance issue day 1. Hasta que no pase una semana y los benchmark se puedan usar como referencia...

ArThoiD

#1079 tendras una grafica de 2012 asi que seguramente vete olvidando.

1 respuesta
SLiM

Ya empiezan los de la master race 😂😂😂

1 respuesta
D10X

#1083

Pues que tenga Denuvo me tira un huevo para atras, y mas con un SP q mira que no me importaria pagar ... pero me jode horrores instalar mierda en mi equipo. Y si a eso le sumas que huele a problemas de rendimiento (que estan tirando con el UE4, ni siquiera explotan el UE5), pues seguro que la implementacion de Denuvo va a ser una puta mierda.

Pues nada, a esperar con las velas arriadas o que lo metan en el Xcloud del Gamepass.

1 1 respuesta
Ronjoujoujou

#1084 Nos jode a todos... Nunca entenderé la necesidad de poner denuvo, que lo revientan en una semana y encima es un malware que roba recursos xD.

1 respuesta
spud

viendo lo de Denuvo estoy planteandome pillarlo mejor para PS5 que para pc...

D10X

#1085 Denuvo se tarda varios meses, o incluso no se llega nunca a romper la proteccion.

Los que han tardado menos, ha sido por gañanadas de los desarrolladores q han liberado versiones sin Denuvo por error (como en el FFXV, o el F1 2022)

1 respuesta
Dredston

.

SikorZ

Yo espero que lo de equiparar la 2080ti a la 6800xt sea un fallo o algo... Si no, la cosa pinta MUY mal, supongo que para consolas mas, no? (las consolas llevan graficas amd... verdad?)

1 respuesta
Longview

#1089 Para PS5 no creo, los gameplays extensos se estaban mostrando en una PS5 y el rendimiento era óptimo, también la exclusividad de marketing da un plus.

1 respuesta
SikorZ

#1090 Pero PS5 tiene AMD no? Entonces entiendo que se han equivocado en los requeriments si en ps5 va bien

1 respuesta
Longview

#1091 No tengo ni idea la verdad, en consolas ya han dicho que hay varios modos gráficos.

También hay que entender que la versión que se jugará en PC es la de PS5|Xbox Series y no la de PS4 | One, de ahí que pidan más.

2 respuestas
SikorZ

#1092 No, si que pidan mas tiene logica, lo que no la tiene pedirte una 2080ti y luego una 6800xt que es algo mejor que una 3080, por eso mis dudas

O es un fallo enorme o han volado maletines de NVIDIA..

2 respuestas
Tras

Buenas, vistos los requisitos... Los servicios cloud como GeForce now, xcloud, Amazon Luna, Boosteroid etc. ¿Hay algo de info acerca de si lo meterán y cuando?

#1093 maletines o que lo han optimizado más para gráficas Nvidia que amd, lo cual no sería ninguna novedad.

1 respuesta
D10X

#1093 Le estas dando vueltas a una tonteria enorme.

Han puesta una 2080 porque el juego esta confirmado que sera compatible con DLSS 3, y no se sabe nada del FSR de AMD, asi que seguramente cuando hicieron esa lista han tenido en cuenta solo el DLSS.

Ya no solo en la 2080, es que en todos los requisitos las NVIDIA son menos potentes que las AMD que han metido.

2 respuestas
Aegar

#1095 Solo las series 4000 son compatibles con dlss 3

1 respuesta
SikorZ

#1095 Pero si la 2080 no tiene dlss3, tiene el dlss2 xd

#1094Tras:

maletines o que lo han optimizado más para gráficas Nvidia que amd, lo cual no sería ninguna novedad.

qué juego conoces tu en el que rinda igual una 2080ti con una 6800xt? xd

1 respuesta
D10X

#1096 DLSS 3 es compatible con toda la gama RTX. Otra cosa, es que tenga funciones exclusivas para la serie 4000. Para el caso ... que los requisitos son mas bajos en NVIDIA porque han metido el DLSS.

Me choca mas esa 1080ti contra la 5700xt que el resto.

2 respuestas
Tras

#1097

qué juego conoces tu en el que rinda igual una 2080ti con una 6800xt? xd

Pues unos cuantos... ;)

https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-Ti-vs-AMD-RX-6800-XT/4027vs4089

3 respuestas
pelusilla6

#1099 Dejad de usar esa página por dios 🫤

D10X

#1099 Usar comparativas de GPU en base a equipos con configuraciones distintas ... q puede salir mal.

Mira esta del GTAV, por ejemplo:

1
SikorZ

#1098 Bueno, puede ser que como para los settings estan usando DLSS y no FSR pues ahi esté la clave.

Osea, que para 2k/4k sin DLSS entonces mínimo hará falta una 3080, no una 2080ti, que es la equivalente a la 6800xt

Me flipa estos trends de ahora, te sacan los requisitos ya incluyendo que vas a usar DLSS/FSR, vaya puta estafada nos meten tanto las compañías de juegos como las de graficas...

#1099 Eso es a 1080p colega.. xD

Es mas o menos una 3080 de nvidia, no una 2080ti

2
Rhs

Vengo esperando cosas del juego y veo una discusión sobre qué gráfica es mejor, cansinos

5 3 respuestas
PoetaEscueto

Doy gracias de jugar en consola.

No será la mejor versión (o sí, no lo se xD) pero qué tranquilidad no tener que preocuparme por estas mierdas.

2
Tras

#1103 Es que es una "cosa del juego". Acaban de publicar los requisitos mínimos y recomendados para el juego. Creo que en este caso la conversación acerca de gráficas no sobra.

1 respuesta
SilentMike

Yo lo pillaré para switch, me la pela que los gráficos sean mejores o peores, mientras pueda usar un joicon como si de una varita se tratase, ya me veo haciendo el canelo en el salón.

0nLy

#1048 por expericencia, ningún juego de este estilo llega a 60fps en ultra a 1440p a no ser que tengas las 4080/4090

1 respuesta
Rhs

#1105 no creo que sea tan difícil, hay unas specs mínimas se cumplen o no, lleváis una página hablando que sí algo rinde mejor o no, también podemos hablar de lo buena que está Hermione en HP3 o es mejor Luna, total Tb es del juego si es q Tb..

1 2 respuestas
n40k1

#1103 No es guerra de gráficas, se están comparando debido los requerimientos que pide el juego del hilo y que a la gente le está causando confusión. A ver si leémos un poco antes de quejarnos, sobre todo si se tiene la piel tan fina.

#1103 Lo mismito en tu último ejemplo, porque hace falta una tarjeta gráfica para eso, claro.

1 respuesta
1 comentario moderado