¿Te interesa el tema del HDR [en juegos o videos]?, debes usar Si-o-Si 10bit de color, que es la cantidad minima de manejo del color para un HDR Real. Hay televisores y monitores que son de 8bit de color pero pueden simular 10bit [8bit + FRC] con lo que el HDR que se obtiene es simulado y es del que hablan que se ve raro y mal en cualquuier foro que aborde este tema.
¿No te interesa el HDR?, pues como dije antes, en juegos te dara lo mismo el usar 10bit que 8bit, y entonces si te 'preocupa' mas el tema de la velocidad de fps pues usas 8bit.
¿En donde se nota el cambio de 10bit vs 8bit?, pues que se tiene un degradadop de color mas suave y 'natural' en videos codificados a 10bit de color, o en texturas de 10bit de color, pero como decia, para el tema juegos y mas los de accion ni tiempo te dara para percatarte de eso, ademas de que para ahorrar ancho de banda en el bus interno de la tarjeta de video [principalmente nvidia] suelen manejar solo 8bit de color.
.