Joer, que complicado seguirte si no citas y solo pones cursivas, pero, bueno, haremos el esfuerzo de separar cosas:
Por otro lado, no se si has llegado a ver lado a lado una Panasonic, una Sony y una LG. Yo sí, y puedo decirte que las diferencias entre ellas son mínimas.
No es exactamente así.
Si pones los modelos de referencia Premium y una calibración mínima en cada una de ellas en un modo de imagen profesional, estoy bastante de acuerdo. Aunque sí hay diferencias.
En otros casos (incluso en modelos de la misma casa) hay diferencias más que obvias, como por el tupo de tratamiento/protección antibrillo de la pantalla. Y si es desde hace tres años para aquí, bastante más (sobre todo en reproducción de color).
De hecho, en algunos modelos de hace unos tres años LG actualizó varias veces su tone mapping y su preajuste de color.
Hombre, ¿me vas a corregir a mi lo que he visto?. Yo no se cual será tu experiencia al respecto, yo cuento la mía. Sobre todo porque "de momento" creo que tengo un ojo crítico y se buscar diferencias. Y apenas las hay.
Respecto al tema del antibrillo...no se si sabes que todos los paneles los fabrica LG Display. El tratamiento "antibrillo" luce por su ausencia en TODAS las que he visto (no existen pantallas OLED Mate, vamos). Pon una ventana detrás o una lampara, y la cagarás. En todas
Respecto al tone mapping, cada fabricante ha "atacado" el problema desde diferentes perspectivas. Con el SDR no había problema, todos los televisores cumplían y chimpún.
El HDR es otro cantar. Se definen unas normas, que ningún display cumple, y tienen que hacer que esa señal se visualice en sus displays (aunque éste sea el mismo para todas, como es OLED). Es algo que ya he puesto en varias ocasiones pero se daban dos opciones:
1) Unas marcas eligen clipear más allá de los nits del Display.
2) Unas marcas eligen adaptar el contenido dentro de los nits del Display.
El resultado con las dos opciones no siempre era bueno:
Si clipeas más allá de 600/700 nits, te encontrarás con unos pocos planos (que es la realidad) donde sencillamente no verás detalle. El resto de la imagen no se ve afectada.
Si eliges el Tone Mapping (una técnica precisamente usada muchísmo en fotografía), adaptas la señal para que "quepa" dentro de las especificaciones del display. Aquí abrimos dos opciones:
2a) Adaptas la señal llevando el peso en la parte baja
2b) Adaptas la señal llevando el peso en la parte alta
2c) Adaptas la señal repartiendo el peso en toda la imagen
Las tres opciones no son perfectas. En el caso de LG (que es la que más conozco, insisto), el resultado era que el HDR quedaba ligeramente más oscuro de lo que originalmente tenía que ser, como resultado de esa adaptación Tone Mapping.
Al final, tenías que elegir entre susto o muerte
Esto, obviamente, partiendo de metadatos ESTÁTICOS. Con Dolby Vision (Metadatos dinámicos), no había tanto problema porque no había adaptación más que en esos pocos planos donde el HDR se iba de madre.
¿Qué sucede el año pasado?. Que la gran mayoría de fabricantes decide optar por un método diferente. Ignorar los metadatos, crear unos al vuelo en función del display, y optimizar la imagen para que intente ser lo más fiel posible pero sin dar sensación de que "se ve diferente". De ahí surgen todas esas opciones de "Dynamic Mapping" y tal.
Es un paso inteligente y lógico. Al menos hasta que los displays lleguen a los famosos 10.000 nits de target que marca el estandar y se elimine el concepto "Tone Mapping", que es necesario hoy día.
Se eliminan de un plumazo los efectos más adversos del Tone Mapping, pero siguen habiendo diferencias.
Por eso, lejos del uso de patrones de chequeo y control, cuando pones una misma película en las cuatro contendientes en liza, las diferencias están y existen, pero NO por una mejor colorimetría (el panel físicamente tiene su límite y poco se puede hacer al respecto), sino por la implementación del Tone Mapping.
Que sí, que Panasonic por ejemplo saca una imagen absolutamente de referencia. Pero claro, ¿a qué precio?. O más bien...¿que sobreprecio?. Cada uno deberá valorarlo como persona. Pero cuando pones una Panasonic al lado de una LG y resulta que las diferencias no son noche-día como parece que se da a entender...pues es cuando dices...mira macho, me ahorro dinero y prácticamente la imagen es la misma. Y tengo mejor Smart (porque Panasonic es una mierda en Smart, reconozcamoslo).
si estás en un ambiente absolutamente oscuro
No te hace falta un ambiente absolutamente oscuro, sino con luz controlada.
Siempre partimos de la base de que la calibración debe hacerse teniendo en cuenta la zona en la que está la pantalla.
Por si te vale de referencia, uno de los portátiles que utilizo para calibrar tiene pantalla OLED.
Sí, es correcto. Como he dicho, en un ambiente sin ausencia de luz, el valor por defecto de brillo puede ser correcto ("puede" no significa que lo sea).
¿Qué haces cuando intruduces una fuente de luz, aunque sea mínima y NO tienes sonda ni quieres liarte con la calibración a 20 puntos?. Tienes que usar los controles que tienes a mano, y convendrás conmigo que ajustar brillo y contraste es la única herramienta posible.
Vamos, que no es algo que saque yo de mi chistera. Que hasta los discos de calibración te dicen que ajustes el control de BRILLO y CONTRASTE con sus patrones. ¿O me vas a negar que esto no es así?
Si hasta Windows, en su asistente de ajuste de pantalla te dice claramente que uses el control de brillo y contraste de tu monitor para los patrones que te enseña
Si la Xbox tiene su práctico ajuste de imagen donde te dice que ajustes brillo y contraste en tu televisor
Que entiendo que tú lo llevas a la parte más "profesional", pero te pregunto de nuevo...¿Cuantas personas aquí aparte de tu y yo, tienen las herramientas Y conocimientos para ello?.
Me concederás la lógica de que tiene que haber un camino intermedio y éste pasa por el que pasa el 90% de la gente, que es usar patrones, controles de imagen y ya.
¿Estamos de acuerdo o no?
Sigamos:
El gamma es una curva lorgarítmica que aunque se ve afectada por el brillo (todo está relacionado), no se ve tan alterada como comentas
Debatible.
De hecho esa fue una de las razones por las que se apostó hace algunos años por un gamma híbrido (HLG) para que en escenas (especialmente retransmisiones que no puedan ser pretrabajadas) en las que haya zonas de mucho brillo y mucha sombra/oscuridad a la vez la imagen sean mas naturales y menos forzadas y el control de brillo no es tan efectivo
Hum...no. HLG fue desarrollado para tener A LA VEZ una señal SDR y HDR, de tal forma que si NO tenías un televisor HDR, verías la imagen con su color correcto, mientras que si tenías HDR y HLG, los metadatos que se envían dentro de la señal, adaptan la imagen para aprovechar al máximo el rango dinámico.
El resultado, obviamente, no es comparable con una señal HDR verdadera, pero oye, da el pego.
Al menos cuando estuve estudiando todo este tema, era así como funcionaba "el invento". No se si tú tienes más información al respecto que yo, si es así, puedes facilitarme (si quieres) esa información que parece que yo no dispongo.
Porque a ojo desnudo, sin referencia, mediciones, marca, ni nada que te indique lo que estás viendo, es jodidamente dificil saber si lo que ves es "correcto"
Estoy de acuerdo. Es que directamente es imposible. Salvo en ejemplos muy exagerados (pantalla sobre saturadas).
Es como saber cuanto es un metro de tela o un kilo de carne. Si no tienes una báscula o un metro, es imposible.
Entonces, implicitamente me estás dando la razón en mis planteamientos. En ausencia de una sonda que te diga si vas bien o vas mal, no sabrás nunca a ciencia cierta si lo que ves es correcto (en ámbito de color, no de intensidad de gris, claro).
Y como digo, prácticamente nadie tiene una sonda en su casa. Al final, tienes que tomar otro camino más sencillo, que es el que se ha hecho siempre...patrones, controles básicos y al menos tendrás al 90% la imagen correcta. Que ya es mucho
Siento el troncho