Riwer escribió:Lo mismo decian hace años sobre que el ojo humano no apreciaba mas de 24fps y burradas de magnitud similar.
Es que eso no es que "alguien" lo diga.
El ser humano, en general, porque cada uno es como es, puede procesar, trasladándolo a un mundo material y cuantificable, en torno a unas 10 imágenes por segundo. O, dicho de otra manera, el cerebro procesa una imagen cada décima de segundo y que, por imperfecciones propias de nuestros ojos y del cerebro, se perciben como continuidad.
Nota para los menos avispados: el mundo no es a 10fps, sólo se percibe así.
Ahora bien, si tu estableces un vídeo a 10fps, por cómo funciona el ojo y el cerebro, eres perfectamente capaz de percibir la discontinuidad de imágenes porque, según cada uno, es capaz de percibir la escasez de información.
Se estableció que para que el ser humano no fuera consciente de la discontinuidad (esto creo que se puede buscar por la Wikipedia quien lo pensó), sobraban con usarse 20fps, pero para afinar más, en el caso del cine, se opto por 24fps (lo de PAL a 25fps y NTSC a 30fps es una cuestión diferente y relacionada con la electricidad y los televisores de rayos catódicos).
Yo no voy a decir que a más de 24fps no se perciba, pero para establecer un marco de continuidad no es necesario más. En general, la gente no percibe si hay más o menos fps porque sus ojos y cerebro no dan para más. Luego estamos los que estamos "más entrenados" y que, cuando nos bajan los fps por debajo de un tanto, lo notamos mucho. Pero esto también es un poco mentirijillas, porque cuando notamos los bajones, sobre todo en juegos, no es porque bajen de X, sino porque el juego a tenido un parón en el procesamiento de imágenes. Si alguien dice que nota diferencia entre 60fps y 30fps, sin que se lo digan o lo sepa, no digo que mienta, pero casi.
Respecto a la resolución es tres cuartos de lo mismo, pero con el tamaño de representación.
Dependiendo del tamaño donde se represente, llega un momento que no sabes si es 720p, 1080p, 2160p o 4320p.