Ya, pues el "sentido común" que tú tienes (y yo), no lo tienen muchísimos otros, que ponen la luz de fondo (u OLED, en el caso de los OLED) a tope, en SDR.
En HDR es que TIENE que estar a tope, precisamente por que así es como se ha diseñado el HDR. Piensa que la imagen está masterizada con ese hecho en mente, como el SDR te dice que NO debes superar un máximo de luz emitida.
Pero dado que en HDR el máximo son 10.000 nits y no existe un display actual que pueda llegar a eso (ni a 4000, ni a 2000 en condiciones óptimas y reguladas), pues se echa mano de diferentes algoritmos para "encajar" la imagen en el potencial del televisor, en un proceso llamado Tone Mapping.
Que es un proceso PARECIDO (no igual, es obvio que no) al de pasar una imagen HDR de foto (con varias exposiciones) a SDR (que es lo que ve al final la gente).
Si quieres comparar realmente SDR con HDR, lo primero que tienes que cercionarte es que la producción de LUZ de SDR no supere los 120 cd/m. Es entonces cuando podrás comparar DE VERDAD.
Entiendo tu posición, y ojo, se puede dar el caso de televisores cuyo HDR no de todo lo que debiera dar (no de pico, sino de imagen en si), pero las comparaciones, para hacerlas, se tienen que hacer de esa forma. De lo contrario se cae en el error de pensar que SDR es más luminoso que HDR. No lo es, bajo la teoría y ajustando BIEN los displays.