¿60 fps falsos?

battman80 escribió:
Metalhead escribió:Dejadlo que es el defensor de las causas imposibles, por más que le pongáis evidencias va a seguir en sus trece.

PD. batman https://www.youtube.com/watch?v=gzFQ9f5Bdmg , sin acritud XD


Te lo agradezco compi, creeme que a estas alturas de le pelicula no me molestan para nada estos consejos, pero es inutil, no tengo remedio, es la historia de mi vida a la hora de escribir. Si te dijese que aprobé examenes hasta en la universidad porque los profesores prefirieron aprobarlos "al peso" que leerselos? [+risas]


Tú no hagas caso a @Metalhead, EOL no sería el mismo sin esa cara de susto que se te queda al ver que battman80 ha escrito un post que ocupa medio hilo. Los battmanposts son patrimonio de EOL, ya te lo dije hace tiempo xD
@Senegio , lo malo es verlos desde el movil, que ahí hasta a mi me asustan [reojillo]

Che, al menos esta vez no se dirá que no estamos teniendo un debate productivo, con la ciencia encima de la mesa. [+risas] [beer]


Edit: y por ser crítico con la informacion anterior que he puesto, y usando info mas actual en fecha para que sea del gusto de todos [angelito] , incluso en el peor de los presupuestos, cualquiera normal llega a distinguir los 60 frames por segundo, y por tanto a poder diferenciarlo de los 30, los 15, o los 4. Y esta vez, los experimentos son usando las tecnicas de flashes de luz que se escudaba antes el compañero me parece, me parece!.

Ahora, como complemento de esta info, ya sabemos que ese limite basico de 60 puede ir mas allá en parte de la poblacion, por genetica o por entrenamiento de la capacidad de percepción.
Curiosas las imagenes y interesantes las explicaciones.

http://nerdist.com/your-brain-has-a-fra ... etty-slow/
http://www.mmo-champion.com/threads/157 ... 0-FPS-quot

Pero vamos, que lo de los 24-30 frames, rematadamente desterrado para siempre jamas. [beer]

pd: lo que tambien queda claro es lo "inocente" de obesionarse porque un juego vaya a 70, 90 o mas frames cuando se usan monitores de 60 HZs [+risas] .
Le acabo de preguntar a un colega (amigo óptico) y me cuenta que la información que pulula por internet es nefasta, el ojo humano sí que puede percibir la diferencia entre 60fps y 30fps, Lo contrario al parecer es un bulo de origen un tanto incierto.

Un saludo.

EDITO: es estudiante es de óptica y optometría, no un bloguero que saca la información de otro bloguero que a su vez ha escuchado el rumor en algún sitio. Este tema es Goebbels en estado puro.

EDITO 2: ya veo que habéis puesto fuentes que yo no he sabido encontrar y habéis aclarado el tema [+risas]

Pues nada, myth busted.

@oscargeek
Es que yo creo que eso de que el ojo no percibe mas de 25-30fps no es que sea un bulo, sinó que es un mal entendido. Creo que la explicación inicial era que 25fps es el punto en el que el ojo humano percibe una imagen como completamente fluida. Eso no quiere decir que no se pueda percibir más fluidez, pero 25fps son fluidos por si mismos.
Jori escribió:Es que yo creo que eso de que el ojo no percibe mas de 25-30fps no es que sea un bulo, sinó que es un mal entendido. Creo que la explicación inicial era que 25fps es el punto en el que el ojo humano percibe una imagen como completamente fluida. Eso no quiere decir que no se pueda percibir más fluidez, pero 25fps son fluidos por si mismos.


Exacto, también se da a entender eso en alguns de las fuentes que he citado, es un mínimo que nos han metido en la cabeza desde la industria del cine, porwue cuando filmar cada frame suponía un hito tecnológico, la menor cantidad posible para que no se viese "ralentizado" eran esos 24 frsmes y ahí se quedaron y con eso nos bombardearon para los siempres, un poco como se intenta hacer ahors desde las consolas con los 30 frsmes por el mismo motivo, sería más caro llegar a los 60 y nos quieren vender la moto de que los 30 molan y no se notan [+risas]
oscargeek escribió:
darkpolo5 escribió:tu te respondes solo, ese es el por que no tenemos cines ni demas contenidos a mas fps, tu crees que es lo mismo renderizar una secuencia de 5 segundos a 30fps que una a 60? ya solo eso es un huevo de pasta y tiempo, preguntale a pixar y a James Cameron por ejemplo.
Otra cosa es que tambien el contenido a bajos fps queda mas "cinematografico" aunque esto para mi es una falacia para utilizar el minimo de recursos buscando el punto minimo para que el ojo humano vea fluido


Ya hay películas a 60 fps. De hecho están pensando en adoptar el estándar de 60 Hzs. ¿Te crees que les cuesta más pasta grabar y renderizar a unos fps que a otros cuando es un proceso automático?

En fin, que esto iba para el OP si quiere cogerlo y para aquellos que no tengan conocimientos por ciencia infusa, para el resto ya os he dado la razón y os he animado a que compreis media docena de Titan X y monitores a 4k.


Diselo a los estudios de efectos digitales que tienen que retocar fotograma a fotograma si no les costara mas retocar 60 imagenes por segundo o 24 como lo hacen ahora.
Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...
Jori escribió:Es que yo creo que eso de que el ojo no percibe mas de 25-30fps no es que sea un bulo, sinó que es un mal entendido. Creo que la explicación inicial era que 25fps es el punto en el que el ojo humano percibe una imagen como completamente fluida. Eso no quiere decir que no se pueda percibir más fluidez, pero 25fps son fluidos por si mismos.

Es que algún iluminado con comprensión lectora nula (o que le convenía) dijo aquello y eso se ha vuelto una bola de nieve enorme que no la para nadie.

Y el tema de "Cinematográfico" es otra cosa para agarrarse los machos... no se que manía de mezclar Cine y Videojuegos.

En el Cine te sientas en tu butaca o en la TV de tu casa, pillas palomitas y te ves la peli sin problema alguno, la cámara se mueve de aquí para allá, la gente corre y todo esto te crea esa sensación de "agobio" en las películas de terror/acción en la que no ves una mierda y te hace ir perdido y el no saber que pasa te crea tensión... son trucos del cine, la cosa es que en el cine eres un "espectador".

Pero ahora llega el juego donde ya no eres espectador, sino que eres el protagonista, estas viendo lo que ocurre, necesitas verlo para reaccionar y reaccionar rápido... de nada te sirve que te metan 24 FPS para que se te haga "cinematográfico" necesitas el mayor número de frames para ver las cosas claras, reaccionar rápidamente y poder salir de esa situación.

Es una insensatez decir que no se capta más de 30FPS cuando en un juego ya notas un mundo de 30 a 60 y teniendo yo un monitor de 120hz os digo que la fluidez de movimiento de 60 a 120 ya no es tan gorda pero la nitidez de lo que sucede en pantalla se nota una barbaridad... no hay que buscar los tres pies al gato, se dice tanto en PC como en consolas, pásate por los foros del DMC nuevo de PS4 y la gente habla maravillas de los 60FPS y así con todos los que llegan a ese nivel... se notan le pese a quien le pese. Yo de lo que no estaría tan seguro es de los 120 a los 144 o más... pero sin haberlo visto prefiero callarme a hablar demasiado.
Doxtroy escribió:Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...


[buuuaaaa] [buuuaaaa] [buuuaaaa]

Gracias, creia que mi respuesta al tema del hilo (porque hay mas sensacion de fluidez en un video a 60 fps que en un juego a 60 fps) habia caido en saco roto y nadie lo habia leido.
Sylvestre escribió:
Doxtroy escribió:Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...


[buuuaaaa] [buuuaaaa] [buuuaaaa]

Gracias, creia que mi respuesta al tema del hilo (porque hay mas sensacion de fluidez en un video a 60 fps que en un juego a 60 fps) habia caido en saco roto y nadie lo habia leido.


Tranquilo yo también me he quedado con tu respuesta, ya que es una duda que también tenia. Flipaba al ver los videos a 60fps y a la hora de jugar yo no daba tanta impresion de fluidez, miraba el contador de fps y veo 60 y yo :-? :-?

Pasa en cualquier video? o es por la mierda de compresion que hace youtube?
Supongo que en un video sin compresion tendría que percibirse igual. Ya que no se ve "borroso"
Que a estas alturas de la película todavía haya gente que piense que no se puede captar más de 30 imágenes por segundo... [facepalm]

Todavía no he visto un monitor de 120/144Hz, pero tengo curiosidad. A refrescos tan altos no he llegado, pero en un monitor CRT a 60Hz se te caían los ojos del parpadeo, por ejemplo, mínimo había que subirlo a 85Hz para no notar tanto el refresco de la imagen, así que sí, el ojo puede captar la diferencias en tasas de imágenes por segundo bastante más altas de 30, a menos que se tenga algún problema de visión que lo imposibilite. En otros casos es la falta de ganas o interés en apreciar la diferencia.
Me encantan estos hilos que se inventan limitaciones discretas a sistemas continuos como nuestro sentido de la vista en base a nada.
Sergio_acosta escribió:
Sylvestre escribió:
Doxtroy escribió:Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...


[buuuaaaa] [buuuaaaa] [buuuaaaa]

Gracias, creia que mi respuesta al tema del hilo (porque hay mas sensacion de fluidez en un video a 60 fps que en un juego a 60 fps) habia caido en saco roto y nadie lo habia leido.


Tranquilo yo también me he quedado con tu respuesta, ya que es una duda que también tenia. Flipaba al ver los videos a 60fps y a la hora de jugar yo no daba tanta impresion de fluidez, miraba el contador de fps y veo 60 y yo :-? :-?

Pasa en cualquier video? o es por la mierda de compresion que hace youtube?
Supongo que en un video sin compresion tendría que percibirse igual. Ya que no se ve "borroso"


Si fuera un video sin compresion se veria y se sentiria igual, pero es que TODOS los videos tienen compresion, desde el de youtube a un blu-ray tienen compresion. El FRAPS si que no comprime, pero claro un solo minuto pesa una burrada, piensa que cada fotograma es un .bmp (una imagen sin compresion), un .jpg o .png no servirian porque ya llevan compresion.

Una imagen .bmp a 1920x1080 = 6 MB
6 MB x 60 imagenes = 360 MB en 1 segundo
360 MB + 60 segundos = 21.600 MB (21 Gigas) para 1 minuto

Asi que imaginate una pelicula de 2 horas (120 mintuos), se necesitarian mas de 100 blu-rays.
Edit: estaba leyendo las FAQ's del Fraps y pone que si que tienen un poco de compresion sus videos y sale a unos 4 gigas el minuto. Asi que ya no se si existe algun programa para capturar video en RAW o sin compresion.

Xiphias escribió:Que a estas alturas de la película todavía haya gente que piense que no se puede captar más de 30 imágenes por segundo... [facepalm]

Todavía no he visto un monitor de 120/144Hz, pero tengo curiosidad. A refrescos tan altos no he llegado, pero en un monitor CRT a 60Hz se te caían los ojos del parpadeo, por ejemplo, mínimo había que subirlo a 85Hz para no notar tanto el refresco de la imagen, así que sí, el ojo puede captar la diferencias en tasas de imágenes por segundo bastante más altas de 30, a menos que se tenga algún problema de visión que lo imposibilite. En otros casos es la falta de ganas o interés en apreciar la diferencia.


Es que era eso mismo lo que pasaba con los monitores CRT, el ojo llegaba a notar una especie de parpadeo a 60 hz, y a 85 hz era cuando ya no molestaba, pero es que si llegaste a probar un CRT de 120 o 144 hz ahi los ojos si que descansaban, eran una gloria.
Y es que en los TFT de ahora (o leds como querais llamarlos) un pixel cuando no recibe electricidad tarda en apagarse unos cuantos milisegundos y aun sigue encendido cuando el siguiente barrido (el siguiente herzio) actualiza la pantalla, por lo qu eno se pone negro. Pero en los CRT's el pixel se apagaba literalmente en nanosegundo al no recibir electricidad por lo que entre un barrido y el siguiente (entre un herzio y el siguiente) a los pixeles les daba tiempo en apagarse y volverse negros por eso lo del parpadeo a "pocos" herzios como son 60 hz.
oscargeek escribió:A ver, voy a intentar explicarlo más o menos.

La gráfica del PC reserva en su memoria lo que se está mostrando en pantalla ahora mismo, imaginaros que tenemos una pantalla de 3x3 en lugar de 1920x1080 para este ejemplo, en la memoria imaginaros que tenemos esto:

N N N
N N N
N N N

N = Negro, B = Blanco así que tendriamos la pantalla entera en negro.

Ahora, un juego os va a 70 frames por segundo (por ejemplo), eso significa que cada segundo se actualiza 70 veces ese rango de memoria con todo lo que está cambiando, por ejemplo, imaginaros que la pantalla pasa de negro (N) a blanco (B), tendriamos esto:

B B B
B B B
B B B

Ok, esto es en la gráfica pero realmente vosotros cuando veis lo que está sucediendo lo veis en el monitor que tiene un refresco que no cambia y pongamos que es 60 HZs o sea que se refresca 60 veces casa segundo.

Si la gráfica se refresca 70 veces y el monitor se refresca 60 veces significa que cada refresco del monitor equivale a 1,16 refrescos de la gráfica.

Ese ",16" significa que cuando se refresca el monitor la gráfica ha empezado a cambiar el frame pero ha cambiado un frame y además ha cambiado un 16% del próximo, en el siguiente refresco habrá un desfase de un 32%, después un 48%, etc..

Entonces imaginaros que tenemos la pantalla en negro como antes y que pasa a estar en blanco pero ese 16%, 32%, 48% (etc..) de desfase hace que en el monitor en esa decima de segundo se vea así

B B B
B N N
N N N

cuando deberia verse o todo negro (N) o todo blanco (B) y esto ocurre constantemente y es la sensación de la que estais hablando.

Existe una cosa que es el "vsync" o "sincronización vertical" que lo que hace es que la gráfica solo se actualice con multiplos del refresco de la pantalla.. por ejemplo si vuestro monitor va a 60 HZs la gráfica puede ir a 30, 60, 90, 120 fps (etc..) y nunca habrá medio frame colgado porque cada 2, 1, 0.5, 0.25 Hzs (etc..) habrá siempre un frame completo.

También deciros que el ojo humano no detecta más de 30 fps con lo que una vez que están sincronizados los frames es imposible que noteis que un juego va a 120 fps lo que pasa que por el efecto de disparidad que os he explicado la gente piensa que se creen que con 200 fps lo van a disfrutar más (y es falso).



Después de decir la tontería del final te has quedado sin credibilidad enhorabuena.
Yo también noto los vídeos de youtube mas suaves que los juegos (60fps ambos) y como se ha comentado la respuesta puede estar en el blur,gracias por la respuesta por que no tenia ni idea.

El debate que ha abierto oscargeek me parece una estupidez digna de un troll,a parte de que el royo que ha soltado en la primera pagina no tiene nada que ver con el tema del hilo.Para rematar dice que es programador,te cagas!!

Tengo monitor 144hz y se nota claramente la diferencia entre 30,60 y 144 fps.
A mi me pones 3 monitores con un mismo juego,uno a 30 ,otro a 60 y otro a 120 y adivino cual es cual con 100% de acierto,es mas,cualquiera lo haría por que la diferencia de fluidez es clara.
Sylvestre escribió:
Si fuera un video sin compresion se veria y se sentiria igual, pero es que TODOS los videos tienen compresion, desde el de youtube a un blu-ray tienen compresion. El FRAPS si que no comprime, pero claro un solo minuto pesa una burrada, piensa que cada fotograma es un .bmp (una imagen sin compresion), un .jpg o .png no servirian porque ya llevan compresion.

Una imagen .bmp a 1920x1080 = 6 MB
6 MB x 60 imagenes = 360 MB en 1 segundo
360 MB + 60 segundos = 21.600 MB (21 Gigas) para 1 minuto

Asi que imaginate una pelicula de 2 horas (120 mintuos), se necesitarian mas de 100 blu-rays.
Edit: estaba leyendo las FAQ's del Fraps y pone que si que tienen un poco de compresion sus videos y sale a unos 4 gigas el minuto. Asi que ya no se si existe algun programa para capturar video en RAW o sin compresion.


Gracias por la explicacion, mas bien la pregunta que hubiera querido hacer, es si a mayor compresion, mayor fluidez (puesto que a menor calidad mas borroso se ve). Si me dices que sin compresion sería igual, supongo que la respuesta será sí.

Me ha resultado interesante que por el "efecto blur" se note mas fluidez en un video que en el juego, siendo los mismos fps. Que cosas xD
Yo he visto 60 fps en LoL con tres graficas diferentes y todas tienen diferente nivel de fluides con las mismas configuariciones.
Los 60 se notan y en cualquier cosa. Llevo haciendo durante un año un juego para Android. Lo empeze a 30 frames y lo he pasado a 60 frames y os aseguro que la diferencia es notable.

También comentar que tampoco noto igual los 30 fps de consola que si fuerzo los 30 fps en según que juegos de PC. En consola se notan más seves mientras que en PC son más bruscos. Aunque nunca hago eso ya que la gracia de tener ordenador es precisamente disfrutar de los juegos a tasa de refresco más elevadas. Los juegos suben enteros de calidad a partir de 60hz. :)
No le deis más bola... El tio quiere un par de minutos de protagonismo y se los habeis dado. Si para el no hay diferencia entre 30 y 60 fps dejarle, está vacilando.

A ver si alguna vez programas un juego en quintus o unity y dejas la gestión de fps en 30, porque para ti se ve bien... Durarás mucho como programador, en tu mundo virtual jeje
"El topico de que el ojo humano no detecta mas de 30 fps por segundo"
Hay que empezar a cortarlo ..
Entonces porque sacan monitores con 120/144hz ...?
El ojo humano puede no detectar tantas variaciones , PERO EL RESULTADO DE JUGAR POR EJEMPLO EN UN MONITOR DE 144HZ A UNA MEDIA DE 140 FPS es tan sumamente diferente al ojo tanto que cuando vuelves a un monitor normal , la diferencia la aprecias muchísimo .
Un monitor a 120hz con unos 90 fps siempre se va a ver mas fluido la imagen que en un monitor a 60hz .. El simple hecho de que el monitor tenga la capacidad de procesar 30 imágenes más , le aporta una fluidez y una experiencia jugable inmejorable .
Tal vez el ojo humano no detecte mas de 30 fps , pero el resultado en si , si , es muy palpable y la experiencia muy diferente, ayer jugué en un monitor ultradelp del copon ( el de un colega ) y si , se veía de puta madre ( mejor que el mío) ahora fue ponerme a jugar al call of duty al nuevo , y notaba poca fluidez ( y no por el pc , tiene una 980 y un i7) sino porque estoy acostumbrado a jugar con un monitor que me aporta el mejor rendimiento en escena rápido , gracias entre otras cosas a los hz.
La diferencia entre 30 fps y 60 se notan , al igual que se notan la diferencia entre 60 y 100 fps ( siempre y cUsando el monitor pueda procesar tantas imágenes los hercios)
Un saludo
Por no abrir un hilo...
Como medis los fps? Me vendría bien como guia para aprender a ajustar los ajustes de video , gracias
Yo con Fraps, aunque hay muuuchos otros.
coco182 escribió:Por no abrir un hilo...
Como medis los fps? Me vendría bien como guia para aprender a ajustar los ajustes de video , gracias


Steam Te los nuestra en todos los juegos sin necesidad de nada accesorio, busca por las opciones de configuración.
Doxtroy escribió:Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...

Mira, creo que nadie aquí ha dado con la tecla de por qué los videos de YT a 60 FPS, por poner, se notan mucho más suaves que un juego a 60 FPS. Si buscas un poco por Google verás que mucha gente fuera también se lo pregunta pero parece que nadie es capaz de averiguarlo. Me parece una cosa muy rara. Yo soy muy, muy, muy sensible con el tema de la fluidez. No hablo ya de fotogramas por segundo, sino de latencias. Es un tema con el que ando algo obsesionado. El que un juego que a 60FPS debería mantener una latencia constante de 16.666ms salte a más de 20ms (23, 24, 25...) es una cosa que ya noto y que me molesta. Dicho esto no voy a responder a la GILIPOLLEZ del experto que se ha bajado de su torre de marfil a hablar con los mortales y que debe tener el cinematógrafo de los Lumiere proyectándole en el cerebro a 24FPS en vez de ojos. Por no hablar de que se ha ido por los cerros de Úbeda explicando la sincronización vertical y la ausencia de tearing. En cualquier caso, las respuestas más razonables a nuestra pregunta que he visto por Internet hablan de un frametime absolutamente constante de 16.666ms en videos que puede contribuir a crear una ilusión de absoluta fluidez. Si bien esto es así, creo que no es el factor dominante. No soy un experto en edición de video, pero si me preguntas, el principal motivo de que un video de YT se vea distinto es la interpolación de los fotogramas. Esto implica que mientras en un juego vas a ver 60FPS que pasan de uno a otro con una latencia variable en ms, un video en You Tube a 60FPS hace que los fotogramas se fundan (=el interpolado) unos con otros (precisamente para dar sensación de fluidez sin añadir más fotogramas reales) a una latencia completamente fija.
Me parece imposible hoy en dia que alguien siga afirmando que el el jodio ojo humano solo perciba 30fps...
la diferencia es abismal, y no solo en el visionado de un video, en donde mas se nota es jugando.
NeoDecoy escribió:
Doxtroy escribió:Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...

Mira, creo que nadie aquí ha dado con la tecla de por qué los videos de YT a 60 FPS, por poner, se notan mucho más suaves que un juego a 60 FPS. Si buscas un poco por Google verás que mucha gente fuera también se lo pregunta pero parece que nadie es capaz de averiguarlo. Me parece una cosa muy rara. Yo soy muy, muy, muy sensible con el tema de la fluidez. No hablo ya de fotogramas por segundo, sino de latencias. Es un tema con el que ando algo obsesionado. El que un juego que a 60FPS debería mantener una latencia constante de 16.666ms salte a más de 20ms (23, 24, 25...) es una cosa que ya noto y que me molesta. Dicho esto no voy a responder a la GILIPOLLEZ del experto que se ha bajado de su torre de marfil a hablar con los mortales y que debe tener el cinematógrafo de los Lumiere proyectándole en el cerebro a 24FPS en vez de ojos. Por no hablar de que se ha ido por los cerros de Úbeda explicando la sincronización vertical y la ausencia de tearing. En cualquier caso, las respuestas más razonables a nuestra pregunta que he visto por Internet hablan de un frametime absolutamente constante de 16.666ms en videos que puede contribuir a crear una ilusión de absoluta fluidez. Si bien esto es así, creo que no es el factor dominante. No soy un experto en edición de video, pero si me preguntas, el principal motivo de que un video de YT se vea distinto es la interpolación de los fotogramas. Esto implica que mientras en un juego vas a ver 60FPS que pasan de uno a otro con una latencia variable en ms, un video en You Tube a 60FPS hace que los fotogramas se fundan (=el interpolado) unos con otros (precisamente para dar sensación de fluidez sin añadir más fotogramas reales) a una latencia completamente fija.


Lo del frametime como comentas puede ser la causa. Se puede ver en los vídeos en el mpc hc, pulsando crtl+j, que en la mayoría de vídeos los fps y frametimes son constantes.

Estuve haciendo alguna prueba con juegos y vídeos con un programa para ver el microstuttering: http://www.5group.com/wordpress/2012/07 ... e-1-0-rc1/

Pongo dos ejemplos para que se vea claro:

Uno es de un juego a 30fps y 60hz:
Imagen

Uno de un vídeo a 24fps y 48hz:
Imagen


Aparte de lo anterior, sobre lo de los 30fps yo por lo menos a 60hz, noto que la imagen se duplica, también a 37fps y 74hz, o a 60fps y 120hz (esto último lo probé con un CRT y la imagen se ve claramente doble, por no tener ghosting ni blur). Hice unas cuantas pruebas que comente en otro foro: http://foro.noticias3d.com/vbulletin/sh ... ost5268082

No se que puede causar eso porque por ejemplo a 48fps y 48hz no lo noto y por ejemplo a 42fps y 42hz también se nota menos, pero en general la imagen se ve más borrosa en movimiento que a 60hz o 74hz, porque en los lcd a más hz hay mayor nitidez en las imágenes en movimiento.

Lo de que se dupliquen los fotogramas, no me lo invento, en este link: http://www.pcper.com/reviews/Graphics-C ... ies-Differ y en este vídeo: https://www.youtube.com/watch?v=VkrJU5d2RfA&hd=1; hablan del gsync y el freesync y comentan que en el primero a partir de 37fps pasa a 74hz y a duplicar fotogramas. Yo no tengo un monitor de esos, por lo que entiendo que puede que o los juegos o los drivers de la gráfica lo hagan.

Saludos.
yoI escribió:
NeoDecoy escribió:
Doxtroy escribió:Dios la que he liado no? Ha sido divertido e instructivo leer todos vuestros comentarios. Al final me quedo con el tema del blur de movimiento, que era la duda que tenia.
Muchas gracias!
PD: podéis seguir con el offtopic que es interesante...

Mira, creo que nadie aquí ha dado con la tecla de por qué los videos de YT a 60 FPS, por poner, se notan mucho más suaves que un juego a 60 FPS. Si buscas un poco por Google verás que mucha gente fuera también se lo pregunta pero parece que nadie es capaz de averiguarlo. Me parece una cosa muy rara. Yo soy muy, muy, muy sensible con el tema de la fluidez. No hablo ya de fotogramas por segundo, sino de latencias. Es un tema con el que ando algo obsesionado. El que un juego que a 60FPS debería mantener una latencia constante de 16.666ms salte a más de 20ms (23, 24, 25...) es una cosa que ya noto y que me molesta. Dicho esto no voy a responder a la GILIPOLLEZ del experto que se ha bajado de su torre de marfil a hablar con los mortales y que debe tener el cinematógrafo de los Lumiere proyectándole en el cerebro a 24FPS en vez de ojos. Por no hablar de que se ha ido por los cerros de Úbeda explicando la sincronización vertical y la ausencia de tearing. En cualquier caso, las respuestas más razonables a nuestra pregunta que he visto por Internet hablan de un frametime absolutamente constante de 16.666ms en videos que puede contribuir a crear una ilusión de absoluta fluidez. Si bien esto es así, creo que no es el factor dominante. No soy un experto en edición de video, pero si me preguntas, el principal motivo de que un video de YT se vea distinto es la interpolación de los fotogramas. Esto implica que mientras en un juego vas a ver 60FPS que pasan de uno a otro con una latencia variable en ms, un video en You Tube a 60FPS hace que los fotogramas se fundan (=el interpolado) unos con otros (precisamente para dar sensación de fluidez sin añadir más fotogramas reales) a una latencia completamente fija.


Lo del frametime como comentas puede ser la causa. Se puede ver en los vídeos en el mpc hc, pulsando crtl+j, que en la mayoría de vídeos los fps y frametimes son constantes.

Estuve haciendo alguna prueba con juegos y vídeos con un programa para ver el microstuttering: http://www.5group.com/wordpress/2012/07 ... e-1-0-rc1/

Pongo dos ejemplos para que se vea claro:

Uno es de un juego a 30fps y 60hz:
Imagen

Uno de un vídeo a 24fps y 48hz:
Imagen


Aparte de lo anterior, sobre lo de los 30fps yo por lo menos a 60hz, noto que la imagen se duplica, también a 37fps y 74hz, o a 60fps y 120hz (esto último lo probé con un CRT y la imagen se ve claramente doble, por no tener ghosting ni blur). Hice unas cuantas pruebas que comente en otro foro: http://foro.noticias3d.com/vbulletin/sh ... ost5268082

No se que puede causar eso porque por ejemplo a 48fps y 48hz no lo noto y por ejemplo a 42fps y 42hz también se nota menos, pero en general la imagen se ve más borrosa en movimiento que a 60hz o 74hz, porque en los lcd a más hz hay mayor nitidez en las imágenes en movimiento.

Lo de que se dupliquen los fotogramas, no me lo invento, en este link: http://www.pcper.com/reviews/Graphics-C ... ies-Differ y en este vídeo: https://www.youtube.com/watch?v=VkrJU5d2RfA&hd=1; hablan del gsync y el freesync y comentan que en el primero a partir de 37fps pasa a 74hz y a duplicar fotogramas. Yo no tengo un monitor de esos, por lo que entiendo que puede que o los juegos o los drivers de la gráfica lo hagan.

Saludos.

No sé si te sigo en lo de que la imagen se duplica. Si te refieres a que el mismo fotograma pasa dos veces, a doble tasa de refresco y para no dejar la pantalla en negro necesariamente tienes que duplicar todos los fotogramas, dejándolos el doble de tiempo en pantalla (33.333ms a 30fps). De nuevo, con el interpolado permites que en lugar de repetir fotogramas el segundo sea una mezcla de los dos incrementando artificialmente la fluidez del movimiento.

Por cierto, gracias por descubrirme el GPU MIST, yo venía tirando del Afterburner y del FRAFS Bench Viewer para abrir los benchmarks del Fraps. El día que sea millonario tengo en mente pillar una capturadora para FCAT (y un módulo GSYNC de paso). Hasta entonces habrá que tirar de las reviews de las webs que tienen montado el apaño.

La verdad, ojalá yo tampoco viera nada más allá de los 24FPS de las películas, me iba a facilitar mucho la vida. XD
No sé si te sigo en lo de que la imagen se duplica. Si te refieres a que el mismo fotograma pasa dos veces, a doble tasa de refresco y para no dejar la pantalla en negro necesariamente tienes que duplicar todos los fotogramas, dejándolos el doble de tiempo en pantalla (33.333ms a 30fps). De nuevo, con el interpolado permites que en lugar de repetir fotogramas el segundo sea una mezcla de los dos incrementando artificialmente la fluidez del movimiento.

Por cierto, gracias por descubrirme el GPU MIST, yo venía tirando del Afterburner y del FRAFS Bench Viewer para abrir los benchmarks del Fraps. El día que sea millonario tengo en mente pillar una capturadora para FCAT (y un módulo GSYNC de paso). Hasta entonces habrá que tirar de las reviews de las webs que tienen montado el apaño.

La verdad, ojalá yo tampoco viera nada más allá de los 24FPS de las películas, me iba a facilitar mucho la vida. XD


Sí eso, que el mismo fotogramas pasa dos veces, y al mover la cámara o si pasan cosa rápido se ven dobles. Y puede ser que en los vídeos utilicen interpolación (no se muy bien como funciona esto tampoco) y en los juegos no, y por eso los vídeos se ven mas fluidos y sin ese efecto doble, y en los juegos no.

Editado:
Sobre los 24fps y hz y 30 fps y hz. Y todo esto de la doble imagen o borrosidad, también tengo que decir que depende de la le velocidad a la que pase el objeto por la pantalla o se mueva la cámara, y de si es un lcd, crt, plasma o proyector.

Por ejemplo en estos test:
http://www.testufo.com/#test=framerates ... ne&pps=720
http://www.testufo.com/#test=blurtrail

Se puede variar la velocidad con la que pasa el ufo y la linea, en el 1º 960 pixels por segundo y en el 2º 16 pixel por fotograma.

Y probando los test con un crt a 46hz y fps, a esas velocidades la imagen se ve nítida y continua (el parpadeo es más una subida y bajada de brillo, no que la imagen que muestre parpadee), aunque por el parpadeo es imposible estar mucho rato viendo algo..., a menos velocidad también se ve bien, pero a mayores es difícil seguir la imagen. A 100hz o 120hz es lo mismo pero sin parpadeo por lo que es usable.

En el lcd hasta a 60hz fps se ve borroso, y si se bajas la velocidad se ven menos borrosos pero no del todo bien. Al aumentar la velocidad, por ejemplo la linea se va haciendo más gruesa por el blur o el ghosting, lo que en el crt no pasa. Y a 24hz o 30hz el lcd no parpadea, pero la imagen se ve borrosa y doble.

Por todo esto lo que entiendo es que según la velocidad con la que el objeto pase por la pantalla habrá unos hz y fps a los cuales se deja de ver bien, sin importar cual sea el límite que tenga la vista.
Y que se vea o no tiene que ver más con la tecnología de la pantalla que con la vista que tengas, un lcd no es capaz de mostrar claramente una imagen en movimientos muy rápidos si no es con altos hz y retroiluminación con un parpadeo equivalente, interpolación y overdrive. Pero un crt por lo que he probado la imagen se ve nítida y continua a 46hz pero por el parpadeo en imposible usarlo. No se si en un crt a 24hz se vería la imagen nítida y sin saltos o parpadeos, lo que si se ve es que es imposible usaro.

En proyectores o plasmas no se como se verán. Lo que si me suena a ver leido es que los proyectores de los cines interpolan o muestran la imagen dos veces, por lo que van a 24x2 fps 48hz, entiendo.

Saludos.
Acabo de leer la primera página de este post y vaya telita. Os voy a dar una sorpresa. LA VIDA REAL NO FUNCIONA EN FPS :O
Porque os creéis que el ojo humano solo ve 30 fps en vez de leer e informaros un poquito, o ya ni siquiera eso, pon un vídeo a 30 y otro a 60, ¿Notas la diferencia? Sorpresa, el ojo humano puede ver más de 30 imágenes por segundo.
http://www.100fps.com/how_many_frames_c ... ns_see.htm
Como podéis leer pilotos de caza fueron capaces de distinguir una imagen entre 220 en un segundo (220fps) y ser capaces de identificar lo que veían. Obviamente no todos somos pilotos de caza, pero vamos, decir que el ojo humano solo distingue 30 fps es de ser retrasado mental, más que nada porque si notas diferencia entre un vídeo a 30 y otro a 60 es porque tu ojo capta la diferencia. De hecho de 60 a 144 se nota la diferencia también (Y una burrada, por cierto) los que juguéis en monitores a 144hz sabréis de lo que os hablo.
Por cierto, ¿a qué viene esa necesidad inherente de ponerle limites digitales (tecnológicos más bien) a algo orgánico y que funciona de una manera totalmente diferente?
Lo peor de todo es que están los típicos iluminados que se lo cuenta el amigo de turno y ya lo toman como verdad universal y se lo intentas debatir y te sueltan el típico "Está demostrado científicamente, infórmate" Sin aportarte una fuente que lo demuestre o algún tipo de información mas allá de su palabra...

PD: Era todo mentira. LA VIDA REAL VA A 30 FPS [boing]


Saludos
yoI escribió:
No sé si te sigo en lo de que la imagen se duplica. Si te refieres a que el mismo fotograma pasa dos veces, a doble tasa de refresco y para no dejar la pantalla en negro necesariamente tienes que duplicar todos los fotogramas, dejándolos el doble de tiempo en pantalla (33.333ms a 30fps). De nuevo, con el interpolado permites que en lugar de repetir fotogramas el segundo sea una mezcla de los dos incrementando artificialmente la fluidez del movimiento.

Por cierto, gracias por descubrirme el GPU MIST, yo venía tirando del Afterburner y del FRAFS Bench Viewer para abrir los benchmarks del Fraps. El día que sea millonario tengo en mente pillar una capturadora para FCAT (y un módulo GSYNC de paso). Hasta entonces habrá que tirar de las reviews de las webs que tienen montado el apaño.

La verdad, ojalá yo tampoco viera nada más allá de los 24FPS de las películas, me iba a facilitar mucho la vida. XD


Sí eso, que el mismo fotogramas pasa dos veces, y al mover la cámara o si pasan cosa rápido se ven dobles. Y puede ser que en los vídeos utilicen interpolación (no se muy bien como funciona esto tampoco) y en los juegos no, y por eso los vídeos se ven mas fluidos y sin ese efecto doble, y en los juegos no.

Editado:
Sobre los 24fps y hz y 30 fps y hz. Y todo esto de la doble imagen o borrosidad, también tengo que decir que depende de la le velocidad a la que pase el objeto por la pantalla o se mueva la cámara, y de si es un lcd, crt, plasma o proyector.

Por ejemplo en estos test:
http://www.testufo.com/#test=framerates ... ne&pps=720
http://www.testufo.com/#test=blurtrail

Se puede variar la velocidad con la que pasa el ufo y la linea, en el 1º 960 pixels por segundo y en el 2º 16 pixel por fotograma.

Y probando los test con un crt a 46hz y fps, a esas velocidades la imagen se ve nítida y continua (el parpadeo es más una subida y bajada de brillo, no que la imagen que muestre parpadee), aunque por el parpadeo es imposible estar mucho rato viendo algo..., a menos velocidad también se ve bien, pero a mayores es difícil seguir la imagen. A 100hz o 120hz es lo mismo pero sin parpadeo por lo que es usable.

En el lcd hasta a 60hz fps se ve borroso, y si se bajas la velocidad se ven menos borrosos pero no del todo bien. Al aumentar la velocidad, por ejemplo la linea se va haciendo más gruesa por el blur o el ghosting, lo que en el crt no pasa. Y a 24hz o 30hz el lcd no parpadea, pero la imagen se ve borrosa y doble.

Por todo esto lo que entiendo es que según la velocidad con la que el objeto pase por la pantalla habrá unos hz y fps a los cuales se deja de ver bien, sin importar cual sea el límite que tenga la vista.
Y que se vea o no tiene que ver más con la tecnología de la pantalla que con la vista que tengas, un lcd no es capaz de mostrar claramente una imagen en movimientos muy rápidos si no es con altos hz y retroiluminación con un parpadeo equivalente, interpolación y overdrive. Pero un crt por lo que he probado la imagen se ve nítida y continua a 46hz pero por el parpadeo en imposible usarlo. No se si en un crt a 24hz se vería la imagen nítida y sin saltos o parpadeos, lo que si se ve es que es imposible usaro.

En proyectores o plasmas no se como se verán. Lo que si me suena a ver leido es que los proyectores de los cines interpolan o muestran la imagen dos veces, por lo que van a 24x2 fps 48hz, entiendo.

Saludos.


Lo bueno es que en ciertos monitores de 120Hz puedes usar el LighBoost que lo que hace es eliminarte todo el blur (se ve como un CRT de nitido) y tampoco hay flickering.

120Hz:
Imagen

120Hz + Lighboost:
Imagen
Vaya debate. Es tan fácil como poner un juego en consola que vaya a 30 fps y luego ponerlo en pc y que vaya a 60 fps. Se nota muchisimo la diferencia.
U otro ejemplo. Sale un juego en ps4 a 1080 y 60 fps y es la caña, una bestialidad, se mueve de lujo.... pero si sale a 1080 y 30fps, entonces el ojo humano ya no ve a mas de 24 fps XD
Baktor escribió:
yoI escribió:
No sé si te sigo en lo de que la imagen se duplica. Si te refieres a que el mismo fotograma pasa dos veces, a doble tasa de refresco y para no dejar la pantalla en negro necesariamente tienes que duplicar todos los fotogramas, dejándolos el doble de tiempo en pantalla (33.333ms a 30fps). De nuevo, con el interpolado permites que en lugar de repetir fotogramas el segundo sea una mezcla de los dos incrementando artificialmente la fluidez del movimiento.

Por cierto, gracias por descubrirme el GPU MIST, yo venía tirando del Afterburner y del FRAFS Bench Viewer para abrir los benchmarks del Fraps. El día que sea millonario tengo en mente pillar una capturadora para FCAT (y un módulo GSYNC de paso). Hasta entonces habrá que tirar de las reviews de las webs que tienen montado el apaño.

La verdad, ojalá yo tampoco viera nada más allá de los 24FPS de las películas, me iba a facilitar mucho la vida. XD


Sí eso, que el mismo fotogramas pasa dos veces, y al mover la cámara o si pasan cosa rápido se ven dobles. Y puede ser que en los vídeos utilicen interpolación (no se muy bien como funciona esto tampoco) y en los juegos no, y por eso los vídeos se ven mas fluidos y sin ese efecto doble, y en los juegos no.

Editado:
Sobre los 24fps y hz y 30 fps y hz. Y todo esto de la doble imagen o borrosidad, también tengo que decir que depende de la le velocidad a la que pase el objeto por la pantalla o se mueva la cámara, y de si es un lcd, crt, plasma o proyector.

Por ejemplo en estos test:
http://www.testufo.com/#test=framerates ... ne&pps=720
http://www.testufo.com/#test=blurtrail

Se puede variar la velocidad con la que pasa el ufo y la linea, en el 1º 960 pixels por segundo y en el 2º 16 pixel por fotograma.

Y probando los test con un crt a 46hz y fps, a esas velocidades la imagen se ve nítida y continua (el parpadeo es más una subida y bajada de brillo, no que la imagen que muestre parpadee), aunque por el parpadeo es imposible estar mucho rato viendo algo..., a menos velocidad también se ve bien, pero a mayores es difícil seguir la imagen. A 100hz o 120hz es lo mismo pero sin parpadeo por lo que es usable.

En el lcd hasta a 60hz fps se ve borroso, y si se bajas la velocidad se ven menos borrosos pero no del todo bien. Al aumentar la velocidad, por ejemplo la linea se va haciendo más gruesa por el blur o el ghosting, lo que en el crt no pasa. Y a 24hz o 30hz el lcd no parpadea, pero la imagen se ve borrosa y doble.

Por todo esto lo que entiendo es que según la velocidad con la que el objeto pase por la pantalla habrá unos hz y fps a los cuales se deja de ver bien, sin importar cual sea el límite que tenga la vista.
Y que se vea o no tiene que ver más con la tecnología de la pantalla que con la vista que tengas, un lcd no es capaz de mostrar claramente una imagen en movimientos muy rápidos si no es con altos hz y retroiluminación con un parpadeo equivalente, interpolación y overdrive. Pero un crt por lo que he probado la imagen se ve nítida y continua a 46hz pero por el parpadeo en imposible usarlo. No se si en un crt a 24hz se vería la imagen nítida y sin saltos o parpadeos, lo que si se ve es que es imposible usaro.

En proyectores o plasmas no se como se verán. Lo que si me suena a ver leido es que los proyectores de los cines interpolan o muestran la imagen dos veces, por lo que van a 24x2 fps 48hz, entiendo.

Saludos.


Lo bueno es que en ciertos monitores de 120Hz puedes usar el LighBoost que lo que hace es eliminarte todo el blur (se ve como un CRT de nitido) y tampoco hay flickering.

120Hz:
Imagen

120Hz + Lighboost:
Imagen


Sí es a lo que me refería con retroiluminación con un parpadeo equivalente, entiendo que la retroiluminación parpadea a 120hz, para quitar la borrosidad creada por la retención de la luz que tiene la retina, por lo que he entendido, que tampoco es que lo entienda perfectamente, ni que sepa de esto xD.

Lo que no entiendo es como se pueden meter imágenes o mensajes subliminales en películas, si todo el mundo ve más de de 24fps o 25fps, xD. Yo ya me pierdo xD.
También supongo que en imágenes en movimiento el límite de fps será menor que en estático, al tener que seguir el ojo a la imagen, y que en el los cambios de luminosidad será mayor. Menudo lio xD.

Y además lo de que yo note doble imagen a 30fps y 60hz porque yo veo que claramente duplica los fps y nadie me dice que lo ve, ya no entiendo nada xD, aunque por lo que he buscado en este mismo foro hay gente que ve lo mismo:

hilo_porque-a-los-juegos-les-ocurre-esto-entrad-es-importante_1060247

hilo_que-es-lo-que-falla-en-mi-tv-que-me-da-este-problema_1567340

Yo ya no se si esto tiene que ver también con el paso de resoluciones entrerlazadas a progresivas. En las primeras, entiendo, van entiendo 25 fps partidos por la mitad, en lineas de barrio (o algo así xD), en 50fps y con 50hz, y los segundos a 25 o 30 fps en 50hz o 60hz y por lo que veo duplican la imagen sin más. El primer caso es en una xbox 360 ,editado: y el 2º con la 360 y la ps3. Con consolas anteriores no he visto que digan nada, que también puede ser que se usaran con tvs crt.
Editado: y lo raro es que la gente que juegua en pc no lo comente, que en este se tenía resoluciones progresivas desde antes. Yo esto lo veo en pcs, en consolas no he probado ninguna desde la ps2, y esta conectándola a un lcd probando también se nota, pero no se si los lcd pasan las entrelazadas a progresivas... xD, y cuando la tenía constada a una tv crt, no me fijaba en esas cosas, xD.

Saludos.
Yo jugando veo los 60 fps mas naturales que a 30 sin duda, pero en los videos miro un gameplay en youtube a 60 fps (reales del video), o el trailer del hobbit por ej a 60 fps y me parece muy falsos, o sea directamente es que parece que vayan con cámara rápida y queda super mal y cutre... en definitiva nada natural, no me gusta la sensación que da, que no es precisamente la de ir a 60 fps, sino más bien a 300 fps, es muy exagerado [tomaaa]
AlexRow escribió:Yo jugando veo los 60 fps mas naturales que a 30 sin duda, pero en los videos miro un gameplay en youtube a 60 fps (reales del video), o el trailer del hobbit por ej a 60 fps y me parece muy falsos, o sea directamente es que parece que vayan con cámara rápida y queda super mal y cutre... en definitiva nada natural, no me gusta la sensación que da, que no es precisamente la de ir a 60 fps, sino más bien a 300 fps, es muy exagerado [tomaaa]


Sobre lo de los 48fps de hobbit, he encontrado por casualidad en un foro en ingles este artículo: http://accidentalscientist.com/2014/12/ ... alley.html , que habla de eso que comentas.

No lo he llegado a entender del todo, habla del microtemblo natural del ojo que es de media en las personas de 83.68Hz con un rango de 70-103Hz. Y de que, si he entendido bien a partir de una imagen mostrada a esos hz se be la imagen a mayor resolución y que de ahí para abajo se van perdiendo datos, hasta que a 41hz se ve la imagen dolbe xD. Y que por eso le da a la imagen un aspecto te tener menor resolución y efecto "dreamier" (soñado o fantástico).

Lo bueno es que con las pruebas que hice con el lcd al bajar de 41 o 42 hz veía las imágenes claramente dobles, puede ser por eso. xD

Saludos.
Una pelicula se ve rara a mas de 24 fotogramas ya que estamos acostumbrados a verla asi...cuando nacio el cine se utilizaban 18 imagenes por segundo para ahorrar el caro celuloide, pero con la llegada del audio se vio que a esa velocidad se desincronizaba e sonido, por lo que se subio a 24....los juegos si agradecen mas fps por la inmediatez de reaccion....

La soberana estupidez de que el ojo humano no detecta mas de 30fotogramas por segundo es infumable y de ciegos...entonces no habria diferencia en ver una pelicula a 24 y luego una telenovela...la cadencia de la imagen en movimiento es totalmente diferente...

hay pruebas que se hacen a pilotos aereos de cazas en los cuales se demuestra que el ojo humano si ve mas de esos 60fps...bastantes mas
yoI escribió:
AlexRow escribió:Yo jugando veo los 60 fps mas naturales que a 30 sin duda, pero en los videos miro un gameplay en youtube a 60 fps (reales del video), o el trailer del hobbit por ej a 60 fps y me parece muy falsos, o sea directamente es que parece que vayan con cámara rápida y queda super mal y cutre... en definitiva nada natural, no me gusta la sensación que da, que no es precisamente la de ir a 60 fps, sino más bien a 300 fps, es muy exagerado [tomaaa]


Sobre lo de los 48fps de hobbit, he encontrado por casualidad en un foro en ingles este artículo: http://accidentalscientist.com/2014/12/ ... alley.html , que habla de eso que comentas.

No lo he llegado a entender del todo, habla del microtemblo natural del ojo que es de media en las personas de 83.68Hz con un rango de 70-103Hz. Y de que, si he entendido bien a partir de una imagen mostrada a esos hz se be la imagen a mayor resolución y que de ahí para abajo se van perdiendo datos, hasta que a 41hz se ve la imagen dolbe xD. Y que por eso le da a la imagen un aspecto te tener menor resolución y efecto "dreamier" (soñado o fantástico).

Lo bueno es que con las pruebas que hice con el lcd al bajar de 41 o 42 hz veía las imágenes claramente dobles, puede ser por eso. xD

Saludos.

Yo lo que lo veo es como si fuera a camara rápida, yo jugando a 60 fps no tengo ese efecto, de hecho jugando a 60 fps se representa mejor viendo un video a 30 fps que no a 60 fps, que da la sensación como de ir a 300 fps. Por ejemplo el trailer este:

https://www.youtube.com/watch?v=T3ny9zIckP0

Si lo veo en 480p que es 30 fps, lo veo normal, si lo jugase a 60 fps, se vería casi con ese "ritmo" y velocidad, en cambio si pongo el video a 720p ya con 60 fps, se ve todo a cámara rapida y queda bastante como el culo de falso porque no va a la velocidad real que deberían ir las escenas.

Y llevo jugado muchísimos juegos a 60 fps, vamos que estoy más que acostumbrado a ese refresco, pero cuando lo veo en el video no es la misma sensación ni de coña, queda faltal porque es como si tuviera un efecto artificial para pasarlo a camara rapida.
Un juego guapo para comprobar esta diferencia de 60 fps juego/60 fps video dentro de un mismo juego es el Outlast. Jugando todo el rato a 60 fps, se ve mucho más fluido cuando ves a través de la cámara de vídeo, porque simula ese efecto blur de los videos. Me imagino que esto tendrá que ver más con las limitaciones de los sensores de las cámaras, que no existen a la hora de generar una imagen sintética pero que muchas veces se intentam simular en pos del realismo, como los efectos de lente sucia.
oscargeek escribió:No hijo no, si yo no te vendo la moto a ti ni a nadie. Por mi podeis destinar todo vuestro dinero a tecnología. Más me pagarán a mi por hacer mi trabajo :D (y lo digo totalmente en serio)



Tu sigue ganando dinero que ya nos quedamos nosotros con nuestros 144hz disfrutando y viendo las cosas que para ti son imposibles.
No se si captaremos más de 30 fps o no pero la fluidez del movimiento se nota y mucho.

http://www.testufo.com/#test=framerates

Este test llega hasta los 144hz pero si no teneis un monitor acorde no aparece la opción, pero bueno, creo que ya se nota el cambio de 30 a 60.
KailKatarn escribió:
oscargeek escribió:No hijo no, si yo no te vendo la moto a ti ni a nadie. Por mi podeis destinar todo vuestro dinero a tecnología. Más me pagarán a mi por hacer mi trabajo :D (y lo digo totalmente en serio)



Tu sigue ganando dinero que ya nos quedamos nosotros con nuestros 144hz disfrutando y viendo las cosas que para ti son imposibles.

@KailKatarn totalmente de acuerdo

@Cantones pues entonces si lo notas
Esto me recuerda a las discusiones que habia en la época de la PSX y la SEGA SATURN en las revistas de turno jaja.
Ya por entonces se criticaba la conversion del Daytona USA para Saturn porqué iva a 25fps... y para justificarlo se decia que el ojo humano ya tiene suficiente con 25fps para "captar una sansación de movimiento", es decir, engañar el cerebro para que de la sensación de que el coche se desplaza por un circuito. Decian que menos de 20/25 frames en secuencias muy rápidas pueden no dar sensacón de movimiento, e interpretarse como "un pase de diapositivas", pero por supuesto que se aprecian más de 30fps y va en favor de la fluidez, pero a partir de 25... ya existe sensacion de movimiento (aunque brusca XDD)
AlexRow escribió:
yoI escribió:
AlexRow escribió:Yo jugando veo los 60 fps mas naturales que a 30 sin duda, pero en los videos miro un gameplay en youtube a 60 fps (reales del video), o el trailer del hobbit por ej a 60 fps y me parece muy falsos, o sea directamente es que parece que vayan con cámara rápida y queda super mal y cutre... en definitiva nada natural, no me gusta la sensación que da, que no es precisamente la de ir a 60 fps, sino más bien a 300 fps, es muy exagerado [tomaaa]


Sobre lo de los 48fps de hobbit, he encontrado por casualidad en un foro en ingles este artículo: http://accidentalscientist.com/2014/12/ ... alley.html , que habla de eso que comentas.

No lo he llegado a entender del todo, habla del microtemblo natural del ojo que es de media en las personas de 83.68Hz con un rango de 70-103Hz. Y de que, si he entendido bien a partir de una imagen mostrada a esos hz se be la imagen a mayor resolución y que de ahí para abajo se van perdiendo datos, hasta que a 41hz se ve la imagen dolbe xD. Y que por eso le da a la imagen un aspecto te tener menor resolución y efecto "dreamier" (soñado o fantástico).

Lo bueno es que con las pruebas que hice con el lcd al bajar de 41 o 42 hz veía las imágenes claramente dobles, puede ser por eso. xD

Saludos.

Yo lo que lo veo es como si fuera a camara rápida, yo jugando a 60 fps no tengo ese efecto, de hecho jugando a 60 fps se representa mejor viendo un video a 30 fps que no a 60 fps, que da la sensación como de ir a 300 fps. Por ejemplo el trailer este:

https://www.youtube.com/watch?v=T3ny9zIckP0

Si lo veo en 480p que es 30 fps, lo veo normal, si lo jugase a 60 fps, se vería casi con ese "ritmo" y velocidad, en cambio si pongo el video a 720p ya con 60 fps, se ve todo a cámara rapida y queda bastante como el culo de falso porque no va a la velocidad real que deberían ir las escenas.

Y llevo jugado muchísimos juegos a 60 fps, vamos que estoy más que acostumbrado a ese refresco, pero cuando lo veo en el video no es la misma sensación ni de coña, queda faltal porque es como si tuviera un efecto artificial para pasarlo a camara rapida.


Pues sí que se ve acelerado, puede que el vídeo este grabado a 30fps y hayan usado interpolación para subirlo a 60. A mí usando un programa que le hace intepolación a los vidos, el SVP, según como lo tenga configurado también me da esa sensación.

Saludos.
yoI escribió:Pues sí que se ve acelerado, puede que el vídeo este grabado a 30fps y hayan usado interpolación para subirlo a 60. A mí usando un programa que le hace intepolación a los vidos, el SVP, según como lo tenga configurado también me da esa sensación.

Saludos.

Hum, entonces puede que sea eso que dices, tendría mucho sentido, o sea que no se han grabado nativamente a 60 fps y de ahí que se vea artificial al hacer la interpolación de 30 a 60. No se si en algún video de youtube a 60 fps se verá natural, yo por ahora a todos los que he visto les pasa ese efecto.
Refloto el hilo para comentar que por lo que he encontrado este hilo del foro del SVP (programa para hacer interpolación de imagen en vídeos): http://www.svp-team.com/forum/viewtopic.php?id=1883 que explica muy bien ese efecto de doble imagen que comento en mensajes anteriores, y el porque de que se de, que es que a 30fps y 60hz o a mitad de fps que de hz, hay que duplicar fotogramas o interpolar la imagen para que no parpadee. Hay unos cuantos vídeos de ejemplos en los que se ve claramente que solo intercalando un fotograma en negro la imagen parpadea y es imposible de verse. No pensaba que sería tan exagerado ese efecto.

Así que esa es la causa de la la imagen doble.

CUIDADO, NO HAY QUE HACER lo que pone de:
I can tell you how to customize SVP to get every second black frame.
It is on your own risk. IT IS HARMULL FOR EYES. It can be not safe for people with some diseases.

1. Open file C:\Program Files (x86)\SVP\AVS\MSmoothFps.avs in notepad.
2. Add line to the end of file:

interleave(last,last.BlankClip)

3. Close and save
4. In SVP profile window choose Target frame rate: To screen refreshrate / 2

You will get 48 fps at your 96 Hz monitor. You will see how ugly video looks.


Me ha jodido la pantalla, me parpadea, otra que tengo no me lo hace. Ni aun apagando y volviendo a abrir el ordenado así que es la pantalla. [+furioso]

Edito: Pues lo he puesto por vga y no parpadea, lo vuelvo a poner por hdmi y parpadeaba, pero parece que con el tiempo se ha quitado el parpadeo.

Saludos.
93 respuestas
1, 2