A la distancia que normalmente juego (3 metros a pantalla de 77") no puedo distinguir si un juego baja de 4K a por ejemplo 1440P. Las interfaces de los juegos la mayoría de las veces están a definición 4K REAL, eso hace que el propio juego en sí, sus gráficos, se confundan fácilmente. Y si añades el factor movimiento, ya para que más...
Esto es algo que la gente no acaba de entender. A fotograma parado y acercándose a la pantalla, pues claro que "se ven cosas". Hasta en una peli 4K real.
En condiciones NORMALES (hablo de condiciones NORMALES), esa bajada de resolución no se notará tanto.
Ahora, añadir resolución temporal (más fotogramas por segundo) hace que la resolución ESPACIAL aumente. Es de cajón. Tienes el DOBLE de información visual en movimiento!!!. Y claro que se nota de 30fps a 60fps. Ya de 60fps a 120fps es más discutible y complicado, es añadir mucha más información temporal y aunque nuestra vista pueda percibir el movimiento contínuo de forma fluida a partir de los 48fps, es una progresión logarítmica...llega un punto en que no sabes realmente si estás viendo algo a 60fps o a 120fps, sobre todo en movimientos lentos.
Otro factor que ayuda a minimizar todo es el motion blur, un "corrimiento" de los pixeles para otorgar fluidez a un movimiento que claramente está por debajo de X fotogramas por segundo. Por eso por ejemplo en el Forza Horizon 5 es comnplicado distinguir 30 fps de 60fps, porque por defecto tiene un motion blur que funciona MUY BIEN y da el pego. Pero en otros juegos no, y es donde se nota claramente.
Que por cierto, el motion blur obviamente baja la resolución TEMPORAL y ESPACIAL, a cambio de darte una fluidez y evitar stacatto.
Es todo más complicado de lo que parece, como veis. No se trata de un solo factor, son muchos a tener en cuenta.