profundidad del color de 8 bits vs 10 bits

Que es mas preferible para vosotros??jugar a 144 hz con 8 bits o 120hz con 10 bits??
¿Resolucion de 8bit?

¿No estas confundiendo profundidad de color con resolucion?

Pensando en los juegos y que te refieres a la profundidad de color, te dara lo mismo jugar a 8bit de color que a 10bit de color en cuanto a la representacion del color dentro del juego. Asi que, sera que valores mas si lo que quieres es una mayor velocidad de frames del monitor.
TRASTARO escribió:¿Resolucion de 8bit?

¿No estas confundiendo profundidad de color con resolucion?

Pensando en los juegos y que te refieres a la profundidad de color, te dara lo mismo jugar a 8bit de color que a 10bit de color en cuanto a la representacion del color dentro del juego. Asi que, sera que valores mas si lo que quieres es una mayor velocidad de frames del monitor.

perdona, ya lo modifique
entonces esa diferencia de bits en que lo tengo que diferenciar....decir que el monitor acepta HDR "samsung G5 odyssey"
¿Te interesa el tema del HDR [en juegos o videos]?, debes usar Si-o-Si 10bit de color, que es la cantidad minima de manejo del color para un HDR Real. Hay televisores y monitores que son de 8bit de color pero pueden simular 10bit [8bit + FRC] con lo que el HDR que se obtiene es simulado y es del que hablan que se ve raro y mal en cualquuier foro que aborde este tema.

¿No te interesa el HDR?, pues como dije antes, en juegos te dara lo mismo el usar 10bit que 8bit, y entonces si te 'preocupa' mas el tema de la velocidad de fps pues usas 8bit.

¿En donde se nota el cambio de 10bit vs 8bit?, pues que se tiene un degradadop de color mas suave y 'natural' en videos codificados a 10bit de color, o en texturas de 10bit de color, pero como decia, para el tema juegos y mas los de accion ni tiempo te dara para percatarte de eso, ademas de que para ahorrar ancho de banda en el bus interno de la tarjeta de video [principalmente nvidia] suelen manejar solo 8bit de color.

.
TRASTARO escribió:¿Te interesa el tema del HDR [en juegos o videos]?, debes usar Si-o-Si 10bit de color, que es la cantidad minima de manejo del color para un HDR Real. Hay televisores y monitores que son de 8bit de color pero pueden simular 10bit [8bit + FRC] con lo que el HDR que se obtiene es simulado y es del que hablan que se ve raro y mal en cualquuier foro que aborde este tema.

¿No te interesa el HDR?, pues como dije antes, en juegos te dara lo mismo el usar 10bit que 8bit, y entonces si te 'preocupa' mas el tema de la velocidad de fps pues usas 8bit.

¿En donde se nota el cambio de 10bit vs 8bit?, pues que se tiene un degradadop de color mas suave y 'natural' en videos codificados a 10bit de color, o en texturas de 10bit de color, pero como decia, para el tema juegos y mas los de accion ni tiempo te dara para percatarte de eso, ademas de que para ahorrar ancho de banda en el bus interno de la tarjeta de video [principalmente nvidia] suelen manejar solo 8bit de color.

.

ok gracias,queda entendido
4 respuestas