#29 A mi me va petado el vídeo de Youtube, es por la CPU, GPU o ambos?
Tengo un i5 650 @ 3.2 Ghz, 8 GB y una AMD HD5850 de 1 GB DDR5
#31 CPU, los de youtube si que puedo sin ningún problema, pero si pongo un canal de satélite UHD (Sintonizadora DVB-S2 en PC) mi i5-3570K se pone al 99% de carga y da tirones el canal xD
#29 El bitrate es importante, e influye en la calidad, pero no tiene nada que ver con el 4K. En un vídeo normal a 1080p30, tenemos 2.073.600 (1920x1080) píxeles que se actualizan 30 veces por segundo.
En el caso de 4K (2160p30), esta cantidad es 4 veces superior 8.294.400 (3840×2160) píxeles que se actualizan 30 veces por segundo, por lo que se requerira 4 veces más bitrate que en 1080p.
Ahora, ¿Esta mejora de 4 veces más bitrate hace que se vea a más calidad la imagen? ¿Si cojo una muestra de 100x100 pixels en 1080p y otra de 100x100 pixels en 4K, se verá mejor la 4K? La respuesta es no, la calidad de imagen es exactamente la misma, y solo se ve mejora al representar más pixeles en el mismo espacio (aumenta la relación ppi). Es decir, la calidad no está en el aumento de bitrate, la calidad está en el aumento de resolución al mismo tamaño de representación.
#32 Me lo temía, algún día haré update. Gracias. ¿AMD no tiene en sus drivers ninguna opción para que use GPU en los vídeos no?
Bah, da igual, total el monitor es FullHD...
#33 El mismo video a mayor bitrate mejora, ponle un bitrate de mierda a un video a 4k y veras que pasa. Que el bitrate sea necesario por lo que requiere un frame rate o una resolucion mas alta, no es excluyente de que un bitrate alto no pueda mejorar (tu mismo dices que afecta en la calidad, y asi es), otra cosa es que youtube tolere mas bitrate ya que a mas resolucion debe ser mas alto.
El planteamiento adecuado es comparar 1080 a 2mbps vs 1080 a 8mbps, no cuadruplicar el bitrate acorde a la resolucion, que eso es otra historia y lo que pasa en youtube. En el caso que expones tienes razon y es asi, pero porque es proporcional el aumento de bits con la resolucion.
#29 El downsampling no se yo si actua igual en videojuegos que en videos, ya que el proceso no es el mismo; estas comparando imagenes prerrenderizadas con redenrizadas.
Lo del cuadruple lo comento porque hay gente que se cree que 4k es dos veces 1080p, por eso de que "x2160" es el doble de "1080", olvidando que es una multiplicacion e ignorando el otro coeficiente.
Los juegos bien optimizados como RYSE se mueve a 4K sin mucho problema.
No me sorprendería que fuese perfectamente jugable con una 780ti.
Pero wtf¿? xDDD porque siguen emperrados en subir la resolucion a 4k y no hacen como nosotros en cine y se centran en mejorar aspectos como hair, aa, volumetricas, particulas etc? menudo marketing se marcan madre mia, y algunos caeran en estas tonterias.
Si no teneis monitores de 4k olvidaos de ver el juego en 4k. Si notais alguna mejoría es simplemente por la compresión del 1080 y del 4k; pero lo que estais viendo no es 4k a no ser que tengais monitor con esa resolución
#40 Existe en sensores y opticas malas, o baja resolución en motores de render incluidos ingame. No entiendo tu comentario.
#41 en aliasing en los juegos no es porque tenga baja resolucion, también depende del sistema de rendering que esten usando (deferred o forward, tiene pinta de que usan una mezcla) cada vez se está usando mas deferred rendering y una de las desventajas que tiene es un aliasing muy malo, y hay pocas soluciones buenas (TXAA creo recordar que es la mejor), si renderizas el juego a 4k y haces downscale a 1080p vas a tener menos aliasing que uno que juegue directamente a 1080p, por eso está tan de moda ahora el downscaling en los juegos, renderizar mas de lo que tu monitor enseña, ganas nitidez (en resumidas un enfocar de photoshop?) y te evitas mucho aliasing (ya que un pixel de 1080p son 4 de 4k y al reducir una imagen en ese pixel que se convierte tiene mas información de la que coger y hacer mejor blend con los pixeles adjacentes).
Espero haberme explicado bien xD
#41 El subir la resolucion es un muy buen antialiasing, ademas no emborrona la imagen como otras tecnicas. De todas formas a mi tampoco me gusta esto, consume una barbaridad para lo que es, los 2k si tienen algo mas de sentido para segun que juego, igualmente sigue chupando lo suyo.
#41 El aliasing va estar ahí siempre (a no ser que tuvieses una resolución infinita, cosa que obviamente no es posible).
Podemos debatir en que momento los artefactos que provoca dejan de ser perceptibles en una pantalla de X resolución todo lo que quieras pero vamos, que en el caso del PC está bastante lejos de 1920x1080, más que nada porque con un sampling a 4K en un monitor de 24" aun sigue siendo bastante aparente.
Si tenéis dudas de esas cosas mandadle un mp a Flynn y seguro que os deja unas clases particulares baratitas. Con que tengáis google y Urban Dictionary a mano es todo el material didáctico que necesitaréis.
Erlantz seguro que también se ofrece.
#58 ¿Este hilo fue serio en algún momento? Riéte tu también hombre que se te ve decaido.
#59 No digo que se haya perdido la seriedad, solo que siempre acaban saliendo estas "discusiones" por llamarlas de alguna manera, y ya cansan :S
Vale que el hilo ya va provocando, pero bueno.