zgotenz escribió:@actpower Igual es psicologico, o igual viene por el bitrate al que sacan las pistas, pero yo sí he notado cierta diferencia de calidad entre las pistas DD/DTS y las TrueHD/DTS-HD, también influye que me acabo de gastar casi 2mil pavos en altavoces y ampli.
Por poner un ejemplo de bitrates, Misión Imposible 4, 4k uhd bdremux, pista DD5.1 castellano 640 kb/s fijos, pista True HD 7.1 4492 kb/s variables, con picos de 6759 kb/s. Y esto es a lo que viene el original, no hay downgrades.
A ver si me llega el Vero 4k y puedo empezar a comparar bien, q ahora casi sólo veo 4k y como uso la TV me tengo que limitar a audios no HD.
Es tema del ampli, de como maneja la EQ en función de la señal de entrada. Te garantizo que si extraes esas dos pistas y las comparas por diferencia, te quedas a cuadros. A ver, a veces los encoders alteran la señal original, el codec Dolby Vision tiene múltiples opciones y de hecho lo he visto alterar cosas en las pistas originales para "normalizar" diálogos y tal. Pero si se hace correctamente, las diferencias son mínimas.
Obviamente el bitrate está ahí, pero yendo a un bitrate con mínima calidad (y 640kb/s es muy buena), no tendrías excesivas diferencias. Sé que jode comprarse un equipamiento de audio brutal para luego descubrir que todo era una mentira (a ver, con matices), pero que el ampli maneja las señales y las altera a placer, es un hecho.
Un ejemplo: En mi recien comprado Marantz, que lleva Auddysey, hice una primera calibración. Claro, al venir del sonido de otro ampli, el cerebro se me cortocircuitaba, yo no lo escuchaba igual...Jugando con los parámetros logré algo más o menos satisfactorio, pero la cagué a base de bien pensando en que iba a mejorar. Activé una serie de opciones que "ecualizaban" el sonido en tiempo real y aquello parecía una maravillas, hasta que empezó a hacer cosas muy raras. En Netflix el audio no tenía la misma calidad, claramente podía escuchar frecuencias destrozadas (su bitrate en audio no es que sea el mejor) y en los juegos los sonidos me rodeaban pero joder, no escuchaba un pimiento por el central.
Tratando de compensar todo este mogollón de mierdas decidí subir el central, pero la voz seguía ahogandose. Viendo una peli aquello empezó a mostrarme que muy bien no iba, las voces subían y bajaban...hasta que decidí desactivar esa opción y PUM, ya todo empezó a sonar como debía. Claro, los traseros ya no tenían tanta presencia, tenían LA QUE TENÍAN QUE TENER.
El mejor ejemplo que siempre hago es ponerme un videojuego, con posicionamiento en 5.1 real y con un sonido que vaya pasando por todos los altavoces (giro la cámara), para así comprobar que el nivel es el correcto desde mi punto de escucha y por todos los altavoces.
El que luego en una peli los traseros tengan más o menos presencia, es exclusivamente de la mezcla. Hay mezclas muy ligeritas y otras con más marcado en los traseros, pero lo que es la "calidad" del sonido es la misma.
Un sonido "más fuerte" no es mejor. Simplemente está a más volumen, pero no otorga más beneficios. El tema aquí está en la dinámica del sonido, es un poco como en los OLED, cuanto más rango dinámico tengas, el sonido será mucho más rico en matices. Y claro, ahí un equipo de altos vuelos es capaz de mostrarlos como debe.
El tema de las calidades de audio es algo que suele salir recurrentemente en foros, y da para largo, y lo lógico es escucharlos y analizarlos, porque desde el teclado es complicado de hacerse una idea de lo que quiero transmitir, pero es la verdad, aunque duela...si quitamos fuera de la ecuación el ampli y sus procesados, analizando sencillamente la forma de onda, te llevas sorpresas.
A mayores de la info que comenta actpower, añadir que el Dolby Vision hoy en día lo meten en los blurays 4k como una pista 4k uhd con HDR10 y luego una pista extra a 1080p donde añaden la capa de Dolby Vision. Yo tengo ahora que me fastidia que puedo ver Netflix en 4k Dolby VIsion y audio DD o DTS en la TV (sin audio HD en ARC) o ver Netflix 4k HDR10 y audio Dolby Atmos en la Xbox (no tiene DV), ains..
A ver, lo de la pista DV en 1080p es un error de lectura de los Softwares. La imagen viene codificada en HDR10, en todos los casos. Lo que sucede es que DV lleva unos metadatos asociados en una pista accesoria (algo así como el 3D o el Atmos) que van indicando el nivel de luminancia de cada fotograma. El televisor lee esos metadatos y va aplicando la fórmula al vuelo. Por eso saca un mejor rendimiento al televisor, ya que con los metadatos estáticos se pierden cosas por el camino.
En realidad todo esto no es más que limitación de los televisores. Al no poder llegar a los 10.000 nits, tiene que haber una manipulación en la imagen, llamada Tone Mapping. Ese Tone Mapping es responsable de la imagen final y no todos los reproductores y televisores manejan esa conversión bajo unas normas, cada una tiene el suyo (un follón tremendo).
Aún tardaremos unos cuantos años en llegar a televisores que ofrezcan 10.000 nits de pico máximo y entonces el concepto "metadatos" se olvidará, porque no serán necesarios. La imagen se verá tal cual se diseñó. A día de hoy, como no existen ni siquiera monitores profesionales que ofrezcan tal cantidad de nits, las limitaciones del masterizado pasan por los 1000 y los 4000 nits.
En teoría, un televisor que ofrezca más de 1000 nits, podría visualizar la señal completa de HDR con 1000 nits sin hacer guarrerías, pero la realidad es que se siguen haciendo.
darksch escribió:Y eso de la "doble capa" HDR también podrá usarse en juegos o ahí nos vamos olvidando del Dobly Vision?
Ya hay juegos en PC que soportan Dolby Vision, como Mass Effect Andromeda. Así que no es descartable que en un futuro puedan ser usados en videoconsolas, o más correctamente algún sistema de HDR dinámico, para poder sacarle el máximo jugo a la imagen de los juegos, que es 100% pura y digital sin compresión. A día de hoy, no hay nada más.