@darksch Claro, es que es así como funciona todo esto. Si es en tiempo real, no puedes precalcular nada, solo adelantarte unos milisegundos, que te de tiempo a analizar un fotograma por delante. Pero el algoritmo funciona, no tienes más que ver como lo hace el Dynamic Tone Mapping. No suele fallar ni una.
Dolby Vision es igual, solo que tienes la versión para vídeo donde se ha hecho un precálculo antes de todo el contenido, pues este es fijo. Ahora bien, la aplicación de esos cambios se hace en tiempo real, porque depende de la pantalla, no se si me explico.
Las pantallas tienen un rango de funcionamiento, y no hay dos iguales, incluso dentro del mismo modelo. Esas especificaciones internas están "grabadas a fuego" desde que salen de la factoría, y en el caso de DV es la pantalla que la que dice al motor "eh, que yo como máximo puedo darte 877 nits de pico, todo lo que supere eso tengo que hacer una adaptación tonal". El engine dice "vale, yo adapto mi salida a ese máximo y ya tú haces lo tuyo".
Básicamente es así como se "comunican"
Tú puedes tener un masterizado a 4000 nits, que la adaptación tonal será la que se encargue de que no se pierdan esos detalles y queden justo en las especificaciones de la pantalla, sin demérito del resto de luminancia que queden por debajo.
Luego ya nuestra percepción visual va aparte. Tú puedes tener 100 nits de pico pero parecer que son 400, porque nuestra vista es adaptativa al entorno. De hecho, de eso va mi próximo vídeo, el cual como siempre causará no poca polémica entre mis queridos haters que tanto cariño me tienen. Un besito para ellos.