LuiTrO escribió:Riwer escribió:LuiTrO escribió:A ver son 2 imágenes diferentes, separadas por una pequeña distancia. Esa distancia es la que hay entre nuestros ojos, por eso en la vida real vemos en 3d.
Por lo tanto, el juego debe renderizar 2 imágenes a 30 fps para cada pantalla(60fps), como mínimo, pero claro como siempre nos meterán los 30fps
Lo ideal sería 60 fps en cada pantalla (120) más la sincronización vertical activada.
No, Si tu ves a 30fps con cada ojo, ves a 30fps, no a 60.
De hecho no funciona asi, los fps no se dividen, y probablemente la pantalla tampoco. Debe ir a 60fps cada seccion (sea division de una pantalla, u otra pantalla).
Tiene que ejecutar "60 fotogramas por segundo" en cada panel para decir que va a 60fps, independientemente del numero de paneles que hayan o de las divisiones que tenga un propio panel.
De hecho ni siquiera un monitor de 120fps (60 en 3D) funciona asi.
A ver, los monitores o tv no van ni a 30 ni 60 ni 120 fps.
Los monitores o tv van a 60hz o 120hz.
Todos los monitores en 3d tienen que ir a 120hz. 60 imágenes por segundo por cada ojo ya sea 3d activo o pasivo.
Ahora si tenemos la sincronización activada en un juego en 3d la gráfica tiene que renderizar 120fps. La sincronización no es mas que hacer sincronizar los fps renderizados por la gráfica con los Hz.
Se puede jugar con 30fps? Si para cada ojo 30fps. Es decir, que la gráfica tiene que renderizar 60fps (imágenes por segundo).
Ahora en oculus rift tenemos dos pantallas, donde en cada pantalla la gráfica tiene que renderizar para una pantalla 30fps y otros 30fps para la otra pantalla.
Por lo tanto los juegos que van a 60fps y 1080p, en 3d irán a 30fps y 1080p, mas o menos.
No, dejando de lado el v-sync, que da igual si jugamos con o sin frames cortados, 30+30 no es 60, y te estas confundiendo con el 3D de las pantallas que es bastante diferente.
Ademas, en un monitor 120fps, juegas 3D a 60fps, no a 30, y no es porque sea "para cada ojo", ya ese encargaran las gafas de captar lo que hay que captar de tu monitor. Pero oculus no funciona asi.
Primero en oculus es una sola pantalla (pero da ig ual si es una o son 2), de 1920x1080 en los ultimos devkits, que se divide verticalmente (como el coop de RE5 y 6 por ejemplo).
Y cada division vertical es por tanto 960x1080. Obviamente la vertical es la misma, y cogen el 50% de la horizontal para cada lente. Porque oculus tiene 2 lentes encima de una pantalla que muestra "graficos a pantalla partida".
Cada pantalla partida ya tiene su camara completa "compriimida verticalmente" y con efecto de ojo de pez, que al verla a traves las lentes y sus aumento/deformaciones queda de forma natural para nuestro ojo.
En sentido de tecnologia, detras de las lentes no hay mas que una pantalla 1080p a 60fps. Pero nada impediria que fisicamente fuesen dos verticales de 960x1080. Y lo que estoy diciendo es que si fuera el caso, AMBAS deberian funcionar a 60fps para tener una fluidez de 60fps.
Viendo cada pantalla a 30fps tu no ves una fluidez de 60fps bajo ningun concepto, en ningun sistema. De hecho fps es una medida de tiempo (por segundo) y si van a 30fps, se procesan 30 fotogramas en un segundo.
Ponlo como quieras pero nunca sera una fluidez de 60fps asi.
En los monitores 3D de 120fps, se interpolan los fotogramas al mismo tiempo en toda la pantalla, creando 2 emisiones de 60fps, y cada lente de la gafa capta cada emision. Un monitor 120fps por tanto hace 2 emisiones a 60fps para el 3D, y es 3D a 60fps, no a 120fps.
Por lo tanto, a pesar de que en estos visores no son fotogramas superpuestos, tampoco se cumpliria. Si emitireas 2 veces a 30fps, tendrias un panel de 60Hercios, pero una fluidez de 30fps. Y por mucho que sea 30fps para cada ojo, no son 60fps. Se seguirian emitiendo 30 fotogramas en un segundo.