Si, todo ésto viene porque los fabricantes no indican éste dato de inputlag, no les interesa.
Prácticamente todos los TV y la mayoría de monitores son 60hz (reales), lo que sería un actualización de 60 veces en un segundo.
1 segundo / 60 veces = 0,01666... segundos, entre 1000 = 16,66.. milisegundos. Eso como mucho mucho, osea, el máximo tiempo que pasa si pilla el anterior fotograma recién sacado, y como mínimo pues lo minimo, 0 o 1ms, ya digo, segun pille al fotograma anterior.
Este dato se suele medir en promedio, lo que serían unos 8ms, es lo que tendrían de base cualquier panel de 60hz.
Eso por parte del panel, pero habría que sumar el retraso que nos da el procesador de la TV/monitor, el tiempo de respuesta, el tiempo que tarda en procesar una imagen que le entra, hasta soltarla hacia el panel, para que luego como digo, pase la responsabilidad a la rapidez del panel en mostrarla.
En los monitores el tiempo o capacidad de respuesta suele ir de 1 a 5, que sumándole lo del panel serían de 9 a 13ms. En las TV pues salvo que sea un buen modelo para jugar, esta cifra suele subir bastante mas, porque están destinados a que se vea bien la imagen, lo que hacen con procesados y procesados.. lo que obviamente retrasa la salida a la imagen.
Response time + hz = inputlag
O en español, inputlag sería el total de:
lo que tarda el procesador (de tv/monitor) en coger y soltar la imagen al panel
+
lo que tarda el panel en mostrar limpiamente ese nuevo fotograma y borrar completamente el anterior