Esto es real?
#5281 Eso es por la generación de frames? Dios mio, pero si me duele hasta a mi y y tengo la misma sensibilidad para los gráficos que un gato de escayola
#5284 por el TAA o por mala implementación de reescalado (los reescalados tienen un AA temporal de base).
Con quitar el AA y no usar reescalados debería de desaparecer.
Aqui no parece que sea tan exagerado:
#5284 nah, eso es ghosting de TAA, todos los juegos que hacen implementaciones de mierda de ese tipo tienen ghosting y demás problemas
#5285256:Con quitar el AA y no usar reescalados debería de desaparecer.
si te dejan, que hay juegos que no tiran sin TAA, o peor, están tan pensados en TAA que revientan mucho más sin ello
#5286 sí deja hasta donde he visto, que luego al quitarlo el juego sea un desastre porque está hecho con TAA en mente pues ahí ya ni idea.
Y a ver si sale TPU o HU haciendo algun bench de rendimiento, porque tampoco dicen cosas muy buenas en ese aspecto. Y el video de DF en la PS5 pues.. xd
Familia, pregunta rápida.
Si quisiera empezar a tontear con temas de IA, ¿por dónde debería empezar? No he programado en la vida...
Lo he estado jugando ya un rato, sin TXAA se ve de putisima pena, tiene stutters bastante constantes y el raton se mueve mal como si fuese joystick.
De fps iba decente creo a 90+ en epic
Lo que no entiendo es qué ha ocurrido para que el TAA sea ahora una opción tan odiada. ¿Es a raíz de UE5?
Desde siempre se ha dicho que había que activar las opciones de AA al máximo.
#5293 realmente no, los problemas de TAA siempre han estado ahí. Quizas ahora se le de más eco porque se notan mas, están peor implementados o porque la gente empieza a cansarse un poco. (Y con la gente me refiero a los 4 gatos de aqui o reddit, porque al grueso del público le da igual xd)
Puedes irte a juegos de la generación pasada y encontrarte con el TAA causando los mismos problemas de blur.
Pero claro, qué haces? Juegas sin AA? Juegas con FXAA? A dia de hoy prácticamente nadie implementa MSAA y otros medios de AA. Y entre no AA, FXAA y TAA mucha gente elige TAA por que sin AA o con FXAA es una fiesta de shimmering y dientes de sierra.
Más allá de las settings de AA puedes tirar de reescalados, a veces los reescalados hacen mejor trabajo de AA que el propio AA del juego y se ve algo mejor.
En teoría la mejor solución es tirar de superresoluciones, DLDSR, etc.. y escalar hacia arriba y luego hacer downscale. Pero si no lo combinas con una técnica de reescalado (dlss por ej) eso sólo es posible con juegos donde vayas sobrado en potencia, y precisamente los juegos de esta gen no van muy bien optimizados que digamos (gracias UE5) asique está la cosa jodida.
#5291 yo ando programando scripts últimamente con chatgpt y es para darle un guantazo con la mano abierta, pero si eres metódico hasta el punto de generar una gestión de requisitos con él, empieza a rodar un poco
¿Algún entendido en tarjetas Wifi para el PC? Me he mudado y tendría que tirar cable para pillarlo directamente desde el router o usar un PLC.
El caso es que en el portátil de la empresa básicamente me llega casi toda la velocidad contratada y va por wifi.
Y he pensado en pillarle una tarjeta wifi al PC principal y quitarme de cables.
¿Alguna recomendación, lo veis mejor opción que un PLC?
#5298 Si vas a jugar a juegos online me olvidaría del Wifi. Por muy bueno que sea, siempre habrá saltos de latencia y notarás lagazos en los juegos.
Si tienes opción, tira cable, merece la pena y encima suele ser más barato que una tarjeta wifi o plc decentes.
#5291 Lo primero yo diría que es aprender un lenguaje de programación para aprender las cosas básicas y los conceptos, para llegar a un punto donde aunque no puedas "recrear" un código que veas porque obviamente no tienes la habilidad, sí sepas leerlo, entenderlo, seguir flujos, debuggearlo o incluso editarlo si no es muy avanzado.
Si vas a tocar cosas de IA, lo lógico es tirar por python que, en mi opinión, es el lenguaje más sencillo y "divertido" ya que tiene librerías para todo y puedes hacer cualquier cosa que se te ocurra sin mucho conocimiento. Una vez tengas la base ya es ponerte con temas de IA.
Llego tarde con la noticia de los 3nm xd
Para mí es totalmente inesperado y un puntazo para AMD. Qué tampoco sé cómo habrá conseguido que TSMC les reserve obleas. Es posible que sea gracias a que no van a gama alta que han podido hacer algo así. Por eso Nvidia con chips tochisimos no les hubiera salido rentable a estas alturas tan tempranas hacerlos a 3nm.
Otro video de investigación de esta gente, esta vez le toca a la castaña del conector 12VHPWR
For this content, we collaborated with Aris of Cybenetics (Hardware Busters), Der8auer, Elmor of Elmor Labs, and others to fact check the research.
Lisa Su apuntando la fecha de salida para poner la suya un mes más tarde de hacerse públicos los precios y rendimientos de nvidia.
#5306Cryoned:Lisa Su apuntando la fecha de salida para poner la suya un mes más tarde de hacerse públicos los precios y rendimientos de nvidia.
Pero si esta vez no van a competir en el high end, si Nvidia hace como esta gen y no saca la XX70 junto a las otras (la saca meses o medio año mas tarde)... tampoco van a tener "referencia" para la gama donde supuestamente van a sacar sus productos, mas allá de extrapolar basándose en el precio/rendimiento de los modelos caros que anuncie Nvidia.
Que al final harán lo de siempre, sacarán un producto perf/$ mediocre, se llevarán reviews mediocres, y al mes siguiente están bajándole el precio. Porque el departamento de marketing de AMD parece que nunca aprende.