¿Es el Ultra HD Blu-ray/4K Blu-ray un timo?

S

Como todos sabemos, en la industria del home video han proliferado múltiples formatos, cada uno vendiendo una serie de bondades para justificar su adquisición, tanto en términos de calidad visual como auditiva. En esta carrera, tras pasar por el Betamax, el VHS, el Laserdisc, el DVD y el Blu-ray entre otros, se ha llegado al Ultra HD Blu-ray o 4K Blu-ray como nuevo formato que promete poder visualizar el cine como nunca ante había sido posible, pudiendo apreciar una calidad en términos de imagen y sonido, excepcional e inusitada.

Ahora bien, existen voces discordantes que cuestionan este discurso y esgrimen que como formato, el 4K, no aporta mejoras sustanciales. Y precisamente sobre esta cuestión han debatido largo y tendido, en el siguiente vídeo:

Cómo dudo que casi nadie esté dispuesto a visualizarse más de dos horas (aunque un servidor si lo ha hecho), procedo a compartir las reflexiones o frases más destacadas, con su correspondiente minutaje (para el que quiera corroborar y escuchar de manera literal dichas declaraciones), para introducir este debate.

Minuto 14:08: Es imposible en términos de resolución distinguir entre Full HD (1080p) y 4K, porque el ojo humano carece de la capacidad visual necesaria para percibirlo.

Minuto 17:43: Durante el estudio llevado a cabo por Hank Mahler, consistente en que 10 personas seleccionadas aleatoriamente, visualizaran la misma proyección en diferentes formatos y resoluciones, se evidenció que nadie advertía disparidad alguna entre Full HD y 4K, hasta el punto de que muchos pensaban que estaban visualizando el mismo formato.

Minuto 26:58: A diferencia de lo que se vende para promocionar el HDR (High Dynamic Range), el SDR (Standard Dynamic Range) no presenta ningún problema en términos de colorido, siendo la colorimetaría original apreciada en salas, de tal modo que el Blu-ray es más respetuoso con la visión fidedigna del director (minuto 27:20). El 4K en conjunción con el HDR, altera la colorimetría original (minuto 28:00).

Minuto 35:15: Las películas editadas en 4K basadas en una producción efectuada en celuloide (la mayoría), modifican el fotoquímico, cambiando los colores y por tanto, transformando el resultado visual original.

Minuto 56:58: El 4K tiende a emplear tecnologías como la IA para poder dotar de más definición a los fondos y los elementos que figuren en los mismos en planos alejados, lo que conlleva que la imagen se deforme (por ejemplo cabezas que se achatan), ya que la IA interpreta incorrectamente la información en pantalla.

Minuto 1:00:10: En cualquier cinta rodada en celuloide, su fotoquímico está diseñado para disponer de un promedio de 48 nits de brillo.

Minuto 1:02:19: El Blu-ray es el formato definitivo en términos cinéfilos, porque el SDR (Standard Dynamic Range) que alojan se ejecuta a una media de 48 nits y un máximo de 100 (picos), lo que coincide con la capacidad del celuloide y su fotoquímico, respetándose el brillo primigenio.

Minuto 1:18:37: El Blu-ray está confeccionado para cine proyectado y el 4K, está enfocado para televisiones.

Minuto 1:30:26: El 4K se trata de un formato premium cuya relación calidad-precio, no compensa.

Minuto 1:42:11: No se va a identificar cambio alguno en el 4K, a no ser que estés muy cerca de la pantalla (un metro de distancia), no siendo la manera ideal ni óptima de visualizar cine.

Minuto 1:42:41: No es cierto que la diferencia entre la imagen de un Blu-ray y 4K se discierna en televisiones de 55 o más pulgadas, porque a mayor tamaño de pantalla, necesitas de mayor distancia para poder ver correctamente la imagen, ya que de no ser así, tendrías que estar girando la cabeza constantemente al no abarcar tu visión todo el ancho de la pantalla.

Minuto 1:52:08: No es necesaria mayor resolución, si a cierta distancia, no la puedes atisbar. ¿Para qué se necesita más resolución, si el ojo no la va a notar a cierta distancia?

¿Qué opináis, el 4K en formato físico es necesario, aporta mejoras sustanciales? Y por otro lado, ¿pensáis que una cinta remasterizada en 4K y con HDR, se verá mejor que una cuyo máster de imagen sea en Full HD (1080p)?

¡Saludos!

2
HeXaN
#1Serkenobi:

Es imposible en términos de resolución distinguir entre Full HD (1080p) y 4K, porque el ojo humano carece de la capacidad visual necesaria para percibirlo.

Esto es bastante dependiente de la distancia de visionado. A la distancia a la que tengo mi TV noto claramente la diferencia entre estas resoluciones.

1 respuesta
A

Las diferencias se notan por el tamaño aparente de la pantalla. Ponte un juego de ps1 en una tele de 60 y verás píxeles como cabezas de bebés.

S
#2HeXaN:

Esto es bastante dependiente de la distancia de visionado. A la distancia a la que tengo mi TV noto claramente la diferencia entre estas resoluciones.

¿A qué distancia ves las televisión (y cuántas pulgadas tiene la misma) cuando visualizas un contenido en 4K? Por curiosidad.

2 2 respuestas
HeXaN

#4 Un par de metros con 65".

1
crb2222

#4 83” a 3,20

RusTu

Me están viniendo recuerdos de Vietnam con lo de los 60Hz

2 1 respuesta
HeXaN

#7 Tiene pinta de que son los típicos de "el cine sólo se ve bien en el cine y todo lo demás es basura", la verdad.

5 2 respuestas
alblanesjr

Lo que si que es cierto es que el salto de 1080p a 4K no es tan grande como cuando saltamos del 480p al 1080p, y ni que decir del VHS al DVD.

1 1 respuesta
S
#3Akiles_X:

Las diferencias se notan por el tamaño aparente de la pantalla. Ponte un juego de ps1 en una tele de 60 y verás píxeles como cabezas de bebés.

Cierto, en ese caso la distancia es un factor determinante. Dejando a un lado qué aparato es más óptimo para jugar a un videojuego de Playstation 1, si alguien lo hiciera en una televisión de 60 pulgadas pero jugara a 7 metros de distancia, no vería los píxeles, al igual que en las antiguas televisiones de tubo no los apreciabas (o no mucho, al menos) aunque jugaras a un metro y medio de distancia, porque eran más pequeñas (15, 16, 17, 18 pulgadas, etc). Por tanto la relación tamaño-distancia es indivisible.

#5HeXaN:

Un par de metros con 65".

#6crb2222:

83” a 3,20

Pues teóricamente, tanto @HeXaN como @crb2222 tendríais que estar mucho más cerca de la pantalla para apreciar el 4K:

Resulta que según estudios oftalmológicos recientes, la agudeza visual media es de 1,3 min arc (minutos de arco, una medida de ángulos). Un cálculo trigonométrico sencillo nos permite ver que con esta agudeza visual, una persona no debería situarse más allá de 84 cm para poder apreciar cada píxel. A mayor distancia, sencillamente dejan de apreciarse.

Por lo tanto, esa TV que está ahora a 3 m del sofá tiene un serio problema: ni en broma se aprecia toda su flamante resolución 4K. Demasiada distancia para tan poca agudeza visual. Igual si un halcón se sienta al lado, él sí que llega a apreciar todo el detalle, pero un humano no. Está MUY por encima de sus capacidades visuales.

A esa distancia, el píxel tendría que medir algo más de 1 mm de lado (1,135 mm exactamente), lo que supone algo más del triple que el anterior, y 9 veces más área. Pero, claro, con ese tamaño de píxel, la TV 4K no sería de 55”, sino de… ¡200 pulgadas!

Asi que si quieres estar sentado cómodamente a 3 m de la TV, ve preparando una de 200”, porque con una de menos el gasto será en vano.

Vamos a suponer que nos quedamos con la que tenemos, la de 55”.

  • ¿Qué habría que hacer para apreciar el 4K en todo su esplendor? Pues acercarse a la TV. Mucho.

  • ¿Cuánto exactamente? Pues con esa agudeza visual y ese tamaño de píxel, hay que situarse a 85 cm. Ni más ni menos.

  • ¿85 cm? Pero ¡eso es una locura! pensarás.

  • Pues si, un poquillo cerca, pero así son las cosas.

  • Ok, pues entonces acepto cambiar de TV por una mayor. Pero 200 es una monstruosidad. Vayamos a por una de 65”…

Bien, pues con una de 65” la cosa mejora mucho. Pero no tanto como crees, porque con el tamaño de píxel de esa TV hay que situarse a… 1 metro (99 cm para ser exactos).

https://www.hugorodriguez.com/blog/reviews/el-dilema-del-4k/

#7RusTu:

Me están viniendo recuerdos de Vietnam con lo de los 60Hz

¿A qué te refieres?

1 respuesta
crb2222

#9 de hecho si, lo que con el salto a 1080 la gente subio de pulgadas acorde la resolución, vaya castañas de 32” se calzaban antes.

Ahora hemos subido a 4k y la gente sigue estancada en 45-55” y claro, pues no se nota a las distancias que se suele poner el sofa.

Cosas de ser un pais pobre con unos tamaños de comedor que bueno…

N05O1uNbBO7t

Joder, yo noto un salto tremendo entre 1080p y 4k. Hasta el 2k lo noto entre estos dos. Lo que si no noto es la diferencia entre 4k y 8k, me acabo de comprar una tv de 8k y la diferencia es indistinguible xddd

PD: Obviamente depende de la pantalla. Por ejemplo en una pantalla de movil difícilmente notaras un resolución mayor a 1080p.

1 respuesta
S
#12N05O1uNbBO7t:

Joder, yo noto un salto tremendo entre 1080p y 4k. Hasta el 2k lo noto entre estos dos.

La mayor parte de las películas se graban y estrenan a 2K, por tanto es normal que a 2K notes diferencias y mejoras.

#12N05O1uNbBO7t:

PD: Obviamente depende de la pantalla. Por ejemplo en una pantalla de movil difícilmente notaras un resolución mayor a 1080p.

Por supuesto, eso es innegociable, a menor tamaño de pantalla, menor sentido tiene aplicar mayor resolución, porque no se va a apreciar, es imposible. De ahí que no tenga sentido una videoconsola portátil o un móvil con pantallas 4K.

1
TRON

La resolución depende del tamaño de la pantalla y distancia a la que estás. Decir que 4K es mejor que 1080p sólo por ser mayor es una chorrada cuando hablamos de cine. Y si ya entramos en tecnicismos de calidad del producto no acabaríamos nunca. Hay ediciones BD a 1080p que se ven mejor que reediciones 4K, por chapuzas que han hecho.

Hablando a nivel de consumidor, claro, a nivel de producir una película ya es otro cantar.

edit: leyendo las citas del vídeo según el minuto, dicen alguna mentira que otra.

1 2 respuestas
HeXaN

#14 Sin ir más lejos ESDLA es mejor en sus ediciones 1080p y no 4K.

1 1 respuesta
S

#15 Si no recuerdo mal, fue muy polémica la remasterización en 4K de dicha saga, porque alteraron los entornos, escenarios y colores, ¿no?

#14TRON:

edit: leyendo las citas del vídeo según el minuto, dicen alguna mentira que otra.

¿Podrías compartir algún ejemplo e ilustrarnos @TRON ?

1 respuesta
alfema

En RTings tienen un artículo con información interesante sobre la distancia en función de tamaño y resolución, ángulo de visión, ... TV Size to Distance Calculator and Science.

TRON

#16 claro:

#1Serkenobi:

Es imposible en términos de resolución distinguir entre Full HD (1080p) y 4K, porque el ojo humano carece de la capacidad visual necesaria para percibirlo.

Se percibe mayor nitidez porque estás comprimiendo el tamaño de reproducción de la imagen, por tema de hacer los píxeles más pequeños. No es lo mismo una TV de 40" a 4K que una de 60". La de 40 se verá "mejor".

#1Serkenobi:

se evidenció que nadie advertía disparidad alguna entre Full HD y 4K, hasta el punto de que muchos pensaban que estaban visualizando el mismo formato.

Esto no lo dudo en absoluto y estoy 100% seguro de que es real, pero a nivel técnico hay que saber qué gente ha visualizado las imágenes. A un montador o colorista de nivel no le vas a engañar, pero al consumidor medio sí.

#1Serkenobi:

A diferencia de lo que se vende para promocionar el HDR (High Dynamic Range), el SDR (Standard Dynamic Range) no presenta ningún problema en términos de colorido,

Falso, el HDR ayuda con el banding (seguramente más de uno tiene que hacer zoom para apreciar la diferencia) y con la fidelidad a la hora de reproducir el color. A lo mejor una TV con SDR no va a ser capaz de mostrar imagen en una parte con sombra y sólo verás negro, pero con una TV con HDR sí podrías llegar a percibir algo.

A nivel de consumidor es algo que debes tener buen ojo para percibirlo, pero decir que no presenta problemas es falso. A lo mejor deberían definirlo de otra forma.

#1Serkenobi:

siendo la colorimetaría original apreciada en salas

Técnicamente podríamos decir que esto también es falso, ya que la fotometría original sólo es apreciable al 100% si se usa el proyector con el que se ha preparado el etalonaje. Pongo la mano en el fuego que no se ve igual una película en un proyector digital a uno analógico, o un proyector de exactamente la misma resolución pero de gama alta a gama media (porque no todos los cines pueden permitirse proyectores high end, y menos si comparamos a España con USA).

#1Serkenobi:

de tal modo que el Blu-ray es más respetuoso con la visión fidedigna del director

No he visto el vídeo, pero técnicamente esto es falso, ya que el Blu-Ray es para consumo en casa y alterado para ello, por lo que aquí es cuando más se altera la imagen. Cada TV reproduce el color distinto, cada persona tiene el brillo de la TV distinto (esto afecta una barbaridad), entre otros factores incontrolables. Estamos hablando de un nivel de descontrol de la imagen que sólo por ver la TV con la persiana subida o bajada afecta el etalonaje aunque sea externamente.

#1Serkenobi:

El 4K en conjunción con el HDR, altera la colorimetría original (minuto 28:00).

La resolución es imposible que afecte al color, esto es debido al tipo de panel que se usa, y el HDR afecta al color sí, pero sólo si reproduces una película SDR en un monitor HDR, hoy día las películas se colorean en HDR y luego se pasan a SDR, y pondría la mano en el fuego de que hay algunas producciones que incluso hacen ambos, uno HDR y otro SDR.

#1Serkenobi:

Las películas editadas en 4K basadas en una producción efectuada en celuloide (la mayoría)

Fake, hoy día el celuloide es una minoría. Añadir que el film 35mm produce una imagen ya de por sí capaz de 4K.

#1Serkenobi:

modifican el fotoquímico, cambiando los colores y por tanto, transformando el resultado visual original.

Nah, el proceso de digitalización no afecta al color porque se hace el etalonaje en LOG y esto ya viene de antes de que existieran las cámaras digitales y fuera todo analógico. Era una técnica que hacía el celuloide prácticamente carente de contraste, lo que permitía controlarlo de forma muchísimo más precisa durante la posproducción.

#1Serkenobi:

l 4K tiende a emplear tecnologías como la IA para poder dotar de más definición a los fondos y los elementos que figuren en los mismos en planos alejados

¿Tiende? Esto es decir mucho, la IA es algo muy nuevo y no se usa tanto en mi opinión, es mucho más común el uso de CGI tradicional, Unreal engine, etc.

**

Podría seguir pero bueno, creo que para más de uno ya me he pasado demasiado. Puedo estar equivocado en alguna cosa, no soy colorista profesional pero entiendo unos mínimos al formar parte del sector, tampoco digo que lo que yo posteo va a misa.

edit: añadida alguna cosilla más

2 2 respuestas
S
#18TRON:

Podría seguir pero bueno, creo que para más de uno ya me he pasado demasiado.

Nunca tendré problemas en que una persona bien informada, aporte su conocimiento y nos enriquezca a todos, potenciando además el debate. Por tanto por mi parte, siéntete a gusto de explicar con todo detalle lo que estimes oportuno.

No tengo ahora mismo tiempo para responder con detalle, pero si quiero adelantar una cosa:

#18TRON:

Fake, hoy día el celuloide es una minoría.

Cuando puse eso, me refería a que ellos esgrimían que en el cómputo general, la mayor parte de las películas producidas hasta la fecha fueron efectuadas en celuloide (lo cuál tiene sentido, porque no se empezó a grabar en digital hasta principios del siglo XXI), de tal modo que la mayor parte de las ediciones comercializadas en 4K, son de sagas rodadas en celuloide (compartieron varios ejemplos como Indiana Jones, Aliens, Los cazafantasmas, etc).

#18TRON:

Añadir que el film 35mm produce una imagen ya de por sí capaz de 4K.

Según ellos, los 35mm alcanzan máximo los 2,4K de resolución. ¿Entonces la cifra que aportaron, no es correcta?

1 respuesta
TRON
#19Serkenobi:

Según ellos, los 35mm alcanzan máximo los 2,4K de resolución. ¿Entonces la cifra que aportaron, no es correcta?

Sí y no, es un poco lo que pasa con lo que he leído que has resumido, en algunas cosas van bien encaminados pero no llegan a decir cosas verdaderamente ciertas.

Con celuloide de buena calidad de 35mm puedes incluso llegar a exceder el 4K, mientras que con film de peor calidad, que podrían usarlo para películas de bajo presupuesto, serie B, etc, no. Por eso he puesto "capaz".

edit: por especificar un poco más, es extramadamente importante las condiciones en las que se ha usado ese celuloide, tanto de luz, como de clima, y lente usada. No es lo mismo usar una lente Cooke que una Samyang.

edit 2: con los años se puede exprimir más el 35mm y conseguir mayores resoluciones del original, por el uso de nuevos sensores y mejoras en el proceso de debayering. Antiguamente los sensores CCD que se usaban sólo podían exprimir la resolución del sensor al 100% en el canal verde y se perdía calidad de imagen en el rojo y azul.

1 1 respuesta
Ninja-Killer

Nueva palabra aprendida: etalonaje

1
Vitov

Para mi 1080p es suficiente

Sinso

.

Sinso

#8 Estarán viendo 40'' a 3m

#10 A las papanatadas de defender que era absurdo monitores de más de 60hz porque el ojo humano no era capaz de procesar 60 imágenes por segundo

1 respuesta
neo-ns

Mucho hablar de 1080p y 4K pero no hablamos del bitrate....

Tengo una cámara tocha de grabar y entre 1080p 60fps, 422 all-i 200mb y 4k 420 longop 150mb es bastante difícil de apreciar.

Ambos rondan 1,5 GB por minuto de video más o menos.

1 respuesta
TRON

#25 hablar de bitrate de la cámara cuando estamos hablando de cine no vale la pena, se sobreentiende que tienen la cámara correctamente configurada para sacar la máxima calidad posible, es decir, ruedan en RAW.

Sería más relevante el bitrate del bluray pero no creo que valga la pena ponerse tan específico en pro de hablar del tema de forma más simplificada.

S

Ahora ya estoy en condiciones de responder con tranquilidad y detalle tu gran exposición @TRON . Que lo primero de todo, gracias por tu aportación, la valoro y estimo por lo expresado en mi anterior mensaje.

#18TRON:

Esto no lo dudo en absoluto y estoy 100% seguro de que es real, pero a nivel técnico hay que saber qué gente ha visualizado las imágenes. A un montador o colorista de nivel no le vas a engañar, pero al consumidor medio sí.

Claro, alguien que sea un experto y trabaje minuciosamente en la industria del cine podrá atisbar y percibir los detalles y diferencias entre un formato y otro, al igual que un experto en sonido seguro que nota el cambio entre un Dolby True HD y un DTS-HD MA, pero por lo que ellos expusieron y tu pareces corroborar, el común de los mortales no notaría variación alguna entre un Blu-ray y un Blu-ray 4K (partiendo de que el Blu-ray goce de un buen máster, claro), porque son matices sutiles no apreciables a simple vista como fue por ejemplo el salto del DVD al Blu-ray (y que para poder captarlos, debes disponer de un equipo y condiciones muy específicas, no vas a percatarte del 4K con una televisión de 42 pulgadas a 5 metros de distancia).

#18TRON:

Falso, el HDR ayuda con el banding (seguramente más de uno tiene que hacer zoom para apreciar la diferencia) y con la fidelidad a la hora de reproducir el color. A lo mejor una TV con SDR no va a ser capaz de mostrar imagen en una parte con sombra y sólo verás negro, pero con una TV con HDR sí podrías llegar a percibir algo.

Entonces sino supone una molestia, aclárame una cuestión: si el HDR no perjudica la colorimetría, ¿porque hay películas donde se producen alteraciones drásticas que modifican por completo la atmósfera de la cinta? Y te pongo algunos ejemplos (habiendo visualizado ambos casos y comparativas, en las mismas condiciones).

En La Cosa de 1982, la remasterización en 4K de 2016 eleva el nivel de brillo una barbaridad, de tal modo que parece que están iluminando el entorno con focos de 100.000 lúmenes. Obviamente eso no cuadra con un escenario que se desarrolla en la Antártida, cosa que no sucede en el máster en Blu-ray de 2008.

En el caso de la trilogía clásica de Star Wars remasterizada por Disney en 4K es incluso peor, primero las tonalidades blancas se vuelven grisáceas, luego las tonalidades azules desparecen, hasta el punto de que se produce el absurdo de que no se pueden apreciar los contornos y figuras de las nubes en el cielo porque tiende a clarearse todo, después los verdes intensos se convierten en pálidos y tenues y al igual que con La Cosa de 1982, se incrementa en exceso el brillo, algo sobre todo palpable en Tatoine, donde la iluminación es totalmente artificial, como la propia de las luces de un quirófano. El máster de Fox de 2011 es muy superior al trabajo acometido por Disney (sin ser perfecto).

Si el HDR no afecta a la colorimetría, ¿a qué se deben esos casos que he mencionado?

#18TRON:

Técnicamente podríamos decir que esto también es falso, ya que la fotometría original sólo es apreciable al 100% si se usa el proyector con el que se ha preparado el etalonaje. Pongo la mano en el fuego que no se ve igual una película en un proyector digital a uno analógico, o un proyector de exactamente la misma resolución pero de gama alta a gama media (porque no todos los cines pueden permitirse proyectores high end, y menos si comparamos a España con USA).

Ese detalle que marco en negrita, ahora que lo recuerdo, lo mencionan, que en función al proyector cambia el visualizado (creo recordar que decían literalmente, que no era lo mismo un proyector digital que uno de 35mm).

En cuanto al Blu-ray, precisando, no aseguraban que la colorimetría fuese 100% idéntica, pero sí que era lo más cercano a lo visible en salas, garantizando que los colores eran más fieles que los presentes en el 4K.

#18TRON:

No he visto el vídeo, pero técnicamente esto es falso, ya que el Blu-Ray es para consumo en casa y alterado para ello, por lo que aquí es cuando más se altera la imagen.

Exponían que era el formato que menos la modificaba y el que más se acercaba a la experiencia en salas, mucho más que el 4K. ¿Es cierto a tu juicio?

#18TRON:

Era una técnica que hacía el celuloide prácticamente carente de contraste, lo que permitía controlarlo de forma muchísimo más precisa durante la posproducción.

Entonces, a la hora de manipularlo para futuras ediciones en home video, ¿cómo precisaban cuál era la colirimetría más adecuada en base a lo exhibido en salas?

#20TRON:

Sí y no, es un poco lo que pasa con lo que he leído que has resumido, en algunas cosas van bien encaminados pero no llegan a decir cosas verdaderamente ciertas.

Entiendo que, por decirlo de alguna manera, parten de una base correcta, pero no profundizan o la desarrollan con acierto, detallando todos los matices, ¿no?

#20TRON:

Con celuloide de buena calidad de 35mm puedes incluso llegar a exceder el 4K, mientras que con film de peor calidad, que podrían usarlo para películas de bajo presupuesto, serie B, etc, no. Por eso he puesto "capaz".

Tiene sentido y es lógico.

#20TRON:

edit: por especificar un poco más, es extramadamente importante las condiciones en las que se ha usado ese celuloide, tanto de luz, como de clima, y lente usada. No es lo mismo usar una lente Cooke que una Samyang.

Incluso la conservación influye, claro, hay celuloides que se habrán degradado más que otros por un mal almacenamiento.

#20TRON:

edit 2: con los años se puede exprimir más el 35mm y conseguir mayores resoluciones del original, por el uso de nuevos sensores y mejoras en el proceso de debayering. Antiguamente los sensores CCD que se usaban sólo podían exprimir la resolución del sensor al 100% en el canal verde y se perdía calidad de imagen en el rojo y azul.

Muy interesante este dato, lo desconocía. Es reconfortante cuando aprendes detalles nuevos como éste :thumbsup:

#24Sinso:

A las papanatadas de defender que era absurdo monitores de más de 60hz porque el ojo humano no era capaz de procesar 60 imágenes por segundo

¡Ah, eso! Lo que sí es cierto es que el salto es menor y tampoco se nota tantísimo como pasar de 30 a 60 fps. Y lo digo con conocimiento de causa.

Obviamente para juegos competitivos es muy importante, pero me atrevería a decir que en el 90% de los juegos, las diferencias jugables entre 60 y 120 fps no son sustanciales. Vamos, no creo que se juegue mejor, por poner un ejemplo, A Plague Tale: Requiem a 120 fps que a 60 fps.

¡Saludos!

1 respuesta
TRON
#27Serkenobi:

Si el HDR no afecta a la colorimetría, ¿a qué se deben esos casos que he mencionado?

Es lo que comentaba en el otro post, que no se trata de resolución o sdr/hdr, se trata de que algunas reediciones son una chapuza. Por eso los ejemplos que pones no se entiende que se vea tan diferente, simplemente es porque han hecho una reedición a 4K lo más barata y rápida posible sin respetar como se merece la visión del director.

También hay que decir que el HDR a nivel consumidor en cuanto a configuración está extremadamente limitado y a veces una película se puede ver fatal porque la técnica que la TV usada es mala, o la TV en sí lo es. Si sumas una reedición mala y una TV mala, tienes receta doble para el fracaso.

#27Serkenobi:

¿Es cierto a tu juicio?

Tenemos que partir de la base de que la resolución no importa, el tamaño de la imagen no afecta al color ni nada, son cosas separadas. Cuando el colorista trabaja en una película tiene que hacer el etalonaje para cine y el etalonaje para dvd/bd, y el rango dinámico y calidad de la reproducción del color de una tele y un proyector varían enormemente, normalmente cuando pones a la venta una película, sin importar el formato, ya no se ve igual. Por las limitaciones de las TVs en sí: existen infinitas marcas, infinitos paneles, y ninguno reproduce el color igual.

Probablemente una TV de gama alta que cuesta miles de euros puede reproducirte la película de forma muy fiel, si la edición a BluRay es buena, porque hay películas que como comento, tienen ediciones desastrosas...

#27Serkenobi:

Entonces, a la hora de manipularlo para futuras ediciones en home video, ¿cómo precisaban cuál era la colirimetría más adecuada en base a lo exhibido en salas?

Tenían que hacer retoques en base a las limitaciones de las TV, acercarse mucho al original pero no igualarlo sólo por ser forma de reproducción distinta. Antiguamente incluso tenían que recortar la imagen para pasar de 2.35:1 o 1.85:1 a 4:3, que es la relación de aspecto de las TVs.

Es sorprendente lo mucho que cambia el color sólo por el hecho de que un proyector proyecta la imagen sobre una superficie opaca y blanca desde la misma dirección, a una TV que se proyecta a sí misma.

No sé exactamente cómo explicar esto, es como imprimir una foto o verla en el móvil, la reproducción del color será muy distinta y más viva en el móvil al ser una pantalla brillante, en vez de un trozo de papel como la fotografía. Tal vez la foto es más fiel porque el fotógrafo preparó la foto para la impresión, no para verla en una pantalla, o al revés, quién sabe.

La teoría es esta pero todos sabemos que muchas veces se hace mal y sale lo contrario. El problema no es la tecnología sino que por motivos monetarios no siempre se edita como merece la obra y se hacen chapuzas por reducir costes, por lo que no se aplica bien el HDR:

1 1 respuesta
Aidanciyo

Yo distingo una película 4k de 40gb de una a 1080p de 5gb, sin embargo, la película no va a ser mejor película por tener mas líneas, ni se ve notoriamente mejor para el gasto energético de espacio y de hardware que necesita un sistema para reproducir un UHD.

incluso la pérdida de definición mejora muchas películas sobre todo las que tienen efectos especiales de los dosmiles para atrás, un caso notorio es ESDLA que la versión 4k en MI EXPERIENCIA es horrible, empezando por retalonaje y siguiendo por que los efectos cantan.

1 respuesta
TomRipley

Vaya estupidez de debate, con perdón.

El salto de calidad de un Bluray normal a uno UHD 4K es notable. El incremento en resolución y bitrate se notan de sobra a poco que te vayas a una relación tamaño/distancia de la pantalla medianamente decentes para visionar cine.

El HDR sí que me cuesta más apreciarlo, la verdad. Pero en cuanto a resolución y bitrate, yo lo noto claramente.