A ver, que aquí tampoco hay tanto debate, que es matemático, joe, no nos flipemos...
Existe una cosa que se llama distancia de agudeza visual, y está lo que llamamos una visión 20/20 (20 en pies, 6 en metros). Esta visión es una visión perfecta. Vamos, perfecta... una visión normal, alguien que no necesita gafas, vaya.
Pero vamos, lo que nos interesa.
¿Importan las pulgadas? Sí, ¿por qué? Porque si la resolución es siempre la misma (4k en este caso), las pulgadas van a determinar el tamaño del pixel. Y es con el tamaño del pixel y la agudeza visual, con lo que podemos determinar en qué momento vale o no la pena.
Ejemplo: un monitor de 24" 1080p tiene el mismo tamaño de pixel, exactamente el mismo, que un monitor de 32" 1440p. Es decir, si te sientas a 50cm del de 24", vas a ver todo exactamente igual que si te sientas a 50cm del de 32". Ni "creo", ni "en mi opinión", ni hostias... Se ve exactamente igual, te guste o no.
Pero seguimos con lo que nos interesa.
¿Qué pasa si se supera la distancia de agudeza visual? Pues que lo mismo te da 1080p, que 8k, porque el ojo no ve la diferencia. Por ejemplo, en un monitor de 32" 1440p, con una agudeza visual perfecta (20/20), la distancia de agudeza visual está más o menos en 1 metro. ¿Qué quiere decir esto?
Que si te sientas a un metro y medio de distancia, y tienes 32"... 1440p y 4k se va a ver igual... y 28k también... Porque si a 1440p el ojo ya no es capaz de discernir lo que viene a ser el pixel, pues hacerlo aún más pequeño no va a cambiar nada...
Eso es ciencia, a partir de ahí, si alguien cree o quiere creer que algo se ve mejor o peor, a eso se le llama fe, y es otra historia...