yeye2 escribió:HDR TV es simplemente un standar , cualquier tevision o monitor 10bits de color y un de contraste minimo con un pico maximo de negros defino (en standard 1 es de 1000 nits por 0.05 de pico de negro)
Muchos aqui tendreis monitores de PC casi compatibles y ni lo sabreis.(seran 10bits y se acercaran al pico de negros/brillo, si son paneles IPS)
Por cierto, HDR en fotografia y en TV ES LO MISMO , que estais bastante perdidos. Simplemente se basa en hacer "STOPS" de rango, vamos poner exposiciones de -10 -8 - 6 -4 y combinar los resultados, asi en una unica imagen tendras todas las zonas con detalles, . Lo unico que dado que combinas una imagen con muchas exposiciones los rangos de colores y de contrastes van a ser muy amplios y es por eso que para ver esa gama de contrastes y colores necesitas al menos una pantalla 10bits y con un pico de negros definido, que es los que se llama "HDR compatible"
Y tienes camaras de fotos que captan HDR , empezando por iphones y samsungs galaxys
Eso no es cierto, es algo que se repite como un mantra, pero NO es cierto.
Sí es cierto que partiendo de varias fotografías expuestas tanto en un lado como en otro, logras una imágen HDR (guardada en un archivo .HDR o .EXR) que luego te valdrá para:
1) Generar un mapa de reflexiones o de entorno en programas de Animación 3D (es lo que se lleva haciendo LUSTROS)
2) Generar una imagen de 8 bits fusionando altas y bajas luces para obtener una imagen "balanceada" (Tone Mapping) en 8bits. Con la variante de que aquí va en gustos estéticos (buenos y malos)
3) Generar una imagen "doblemente expuesta" (que permite ver por ejemplo el interior de una habitación y el exterior de la ventana, al tener expuestas las dos variantes). Esto es tan antiguo como la propia fotografía y se llama "doble exposición". Es más, puedes realizar ese truco en digital con el uso de flash y manteniendo obturación (así se generan muchos trucos de "fantasmas", entre otras cosas)
En el caso del HDR para vídeo, se parte de una imagen expuesta normal, pero que se registra a 16 bits o más, además de capturar la imagen con una curva de gamma logarítmica, que ofrece una imagen poco contrastada, lavada de color y en general poco atractiva (el tan famoso "look ikea" de hace unos años). Esa imagen tiene los suficientes "stops" como para más adelante poder sacar una versión en HDR que permita no solo retener el detalle en las sombras, sino potenciar las altas luces más allá de los 100nits (que es el límite en vídeo SDR).
Pero claro, todo esto sin verlo en vivo, es complicado de explicar. Hay que verlo desde la imagen original, ver como es, ver como se crea el HDR. Es tan radicalmente diferente al falso HDR fotográfico, que no tiene NADA, NADA, NADA que ver.
Y al que tenga dudas al respecto, tiene las puertas de mi despacho abiertas. No me importa explicarlo 1000 veces, pero hay que VERLO para entenderlo.