Hasta donde tengo entendido, en la óptica humana, el ojo es capaz de registrar 24/25 imágenes por segundo, pero éso es en el espacio panorámico, es decir, en los casi 180º que tiene nuestra visión (son 100 y pico creo. Está calculado pero no me acuerdo. Es un valor entre 100 y 180, al que le interese que busque xDDDD)
Éso significa que en pantallas como las del cine con reproducir la imagen a 24 frames nuestro ojo capta en "tiempo real" el cambio de imágenes, ya que son pantallas que casi enfocan toda nuestra visión. Pero en pantallas mucho más pequeñas, como un monitor, el ojo sí que enfoca con más precisión y es capaz de captar mayores frecuencias. Realmente lo que notamos es una sensación de "velocidad" en la imagen, aunque la veamos con la misma precisión... De hecho en un juego corriendo a 60 fps y a 100 fps somos capaces de notar cierta diferencia (aunque no deberíamos).
A la vez que el ojo se fatiga muchísimo menos al visualizar imágenes con más frecuencia ya que las pantallas oscilan en su refresco. Pinta punto a punto y, aunque no nos demos cuenta, la pantalla pasa en negro mucho más tiempo del que pensamos. Si la frecuencia es alta nuestro ojo capta mejor la imagen en sí, ya que no llega a ver pantallas negras dada su rapidez, y nuestros ojos no están tan rojos xDDDDDDD
De hecho si ponéis Windows (o Linux) a 50 Hz en el monitor, estáis un par de horas usándolo y después ponéis a 75 Hz o más notaréis claramente que el ojo está más relajado y veis la pantalla bastante mejor.

(A mí, al menos, me sucede xDDDD)
Un saludo