› Foros › Multiplataforma › General
Danimonto escribió:La cuestión del tema es "cueal es la mejor combinación" si 720p a 60fps o 1080 a 30fps... Tú lo que estás planteado es el número de píxeles que mueve la pantalla cada segundo y ese es un puto dato tan irrelevante como tu capacidad de entendimiento.
Entiende, la cantidad de pixeles que mueve una pantalla pierde sentido si ponemos un juego a 8k pero solo a 2fps y otro a 720p a 60fps. El de 8k a 2fps lleva más píxeles por segundo, pero sería INJUGABLE...coño saca la calculadora tío, entiende que esa multiplicación solo da como resultado la cantidad de pixeles por minuto y es un dato que ni tiene sentido ni fue el que se preguntó?!!
Mira,hagamos algo... Tienes amigos entendidos del tema? Digo entendidos de verdad, no como tú. Si es así,muestrales este hilo y verás las risas que se van a echar. Yo hice lo mismo, lo he consultado en 2 grupos y en ambos el descojone es brutal... Hasta mi esposa entiende eso...
kosmos224 escribió:A ver @Dave338 según tú, a cuanto mayor es la tasa de FPS mayor es la densidad de píxeles. Según yo, un juego a una resolución de 1920x1080 va a tener siempre esa cantidad de píxeles, 1920 horizontales x 1080 verticales así los FPS sean 30, 60, 120 o 144. ¿No?
Otra. Según tú un juego a 720p 120 FPS consumirá más recursos que el mismo juego a 1080p 30 FPS. Te cuento mi experiencia. Yo el Borderlands a 1080p con toda la configuración gráfica en alto lo movía a 12 FPS. A la misma configuración gráfica, pero a 720p lo movía a 30 FPS constantes. Todo esto haciendo mediciones con el MSI Afterburner. Según tú premisa ¿no debería ser al contrario? ¿Cómo es que a la misma carga gráfica una resolución menor va mejor que a una mayor? Según lo que dices debería ser al revés, menor resolución y mayor porcentaje de FPS = menor rendimiento.
Lo pregunto en buen plan y sin ánimo de pelear.
Pochettino escribió:Osea si existe un juego muy bueno a 720p y 60fps...y se lo quiere llevar a 1080p y 30fps......se tiene que sacrificar si o sí carga gráfica ?
Oystein Aarseth escribió:Yo prefiero los 720p y 60 fps, no tengo ojo bionico para detectar las diferencias entre 720p y 1080p pero vaya que se nota la diferencia entre 30fps y 60 fps sobre todo por la parte jugable.Pochettino escribió:Osea si existe un juego muy bueno a 720p y 60fps...y se lo quiere llevar a 1080p y 30fps......se tiene que sacrificar si o sí carga gráfica ?
En consolas si, las consolas son hardware cerrados con las limitaciones que esto conlleva y siempre se tendrá que sacrificar cosas a la hora de optimizar.
Oystein Aarseth escribió:Yo prefiero los 720p y 60 fps, no tengo ojo bionico para detectar las diferencias entre 720p y 1080p pero vaya que se nota la diferencia entre 30fps y 60 fps sobre todo por la parte jugable.
David Ricardo escribió:A igual resolución, cuanto mayor sea el frame rate, más píxeles tiene que procesar la gráfica. A 60 frames tiene que procesar el doble de píxeles por segundo que a 30.
Si bajas la resolución es normal que aumente el frame rate porque la gráfica tiene que procesar menos píxeles por frame y por tanto puede procesar más frames por segundo.
Es perfectamente lógico que si bajas la resolución a menos de la mitad, la gráfica te de un frame rate de más del doble. Como cada frame está compuesto de menos píxeles, le da tiempo a procesar más frames por segundo.
Todo esto suponiendo que el factor limitante sea la gpu. Porque si el factor limitante es la cpu, igual bajas la resolución y el frame rate sigue igual, porque aunque la gráfica tenga recursos de sobra, si la cpu no puede con el juego, el frame rate no va a aumentar.
En Neogaf ya dijeron cuando salieron las specs de las consolas nuevas que habría que escoger 2 de entre estas 3 opciones:
1080p
60fps
Gráficos next gen
Y yo creo que se cumple bastante, salvo casos excepcionales como Forza y presumiblemente el próximo GT, que ponen buenos gráficos a 1080p y 60 frames, en general hay que escoger. Si quieres gráficos next gen tendrá que ser a 30 frames. Si quieres gráficos next gen a 60 frames tendrá que ser a menor resolución.
David Ricardo escribió:En esta generación la mayoría de juegos tiran por los 1080p/30 en consolas, así que en tu caso te recomendaría pillar un PC con buena CPU y una GPU medianera. Así podrás poner los juegos a 60 frames y, como de vista no andas muy allá, la resolución la pones a 720p y perfecto. Tienes lo máximo que puedes disfrutar por no muchos euros.
David Ricardo escribió:kosmos224 escribió:A ver @Dave338 según tú, a cuanto mayor es la tasa de FPS mayor es la densidad de píxeles. Según yo, un juego a una resolución de 1920x1080 va a tener siempre esa cantidad de píxeles, 1920 horizontales x 1080 verticales así los FPS sean 30, 60, 120 o 144. ¿No?
Otra. Según tú un juego a 720p 120 FPS consumirá más recursos que el mismo juego a 1080p 30 FPS. Te cuento mi experiencia. Yo el Borderlands a 1080p con toda la configuración gráfica en alto lo movía a 12 FPS. A la misma configuración gráfica, pero a 720p lo movía a 30 FPS constantes. Todo esto haciendo mediciones con el MSI Afterburner. Según tú premisa ¿no debería ser al contrario? ¿Cómo es que a la misma carga gráfica una resolución menor va mejor que a una mayor? Según lo que dices debería ser al revés, menor resolución y mayor porcentaje de FPS = menor rendimiento.
Lo pregunto en buen plan y sin ánimo de pelear.
A igual resolución, cuanto mayor sea el frame rate, más píxeles tiene que procesar la gráfica. A 60 frames tiene que procesar el doble de píxeles por segundo que a 30.
Si bajas la resolución es normal que aumente el frame rate porque la gráfica tiene que procesar menos píxeles por frame y por tanto puede procesar más frames por segundo.
Es perfectamente lógico que si bajas la resolución a menos de la mitad, la gráfica te de un frame rate de más del doble. Como cada frame está compuesto de menos píxeles, le da tiempo a procesar más frames por segundo.
Todo esto suponiendo que el factor limitante sea la gpu. Porque si el factor limitante es la cpu, igual bajas la resolución y el frame rate sigue igual, porque aunque la gráfica tenga recursos de sobra, si la cpu no puede con el juego, el frame rate no va a aumentar.
En Neogaf ya dijeron cuando salieron las specs de las consolas nuevas que habría que escoger 2 de entre estas 3 opciones:
1080p
60fps
Gráficos next gen
Y yo creo que se cumple bastante, salvo casos excepcionales como Forza y presumiblemente el próximo GT, que ponen buenos gráficos a 1080p y 60 frames, en general hay que escoger. Si quieres gráficos next gen tendrá que ser a 30 frames. Si quieres gráficos next gen a 60 frames tendrá que ser a menor resolución.
A la pregunta del op, pues depende totalmente de gustos personales. 720p a 60 ó 1080p a 30. Las opciones gráficas serán bastante similares entre ambas configuraciones, así que según la preferencia sea frame rate o resolución, cada uno que elija lo que más le guste.
En general las compañías suelen preferir apurar la resolución y la carga gráfica del juego antes que el frame rate porque es más fácil de enseñar en fotos, y a la gente los juegos le entran por los ojos.
Danimonto escribió:Jooooder pero de donde sacas tú que puedes multiplicar los FPS por resolución? Eso es juntar lentejas con piña, eso es juntar peras con manzanas... bafff... Tranquilo que pronto no solo yo estara cayéndote para decirte que COMO COÑO VAS A MULTIPLICAR FPS X RESOLUCIÓN y sobre todo PARA QUÉ o sea, que resultado se obtiene???
Ejemplo: 2 manzanas más 2 manzanas= 4 manzanas. 2 peras más 2 manzanas= 2peras2manzanas.
Multiplicar resolución y fps da un resultado heterogéneo (si es que sabes que quiere decir eso). En ningún caso es un resultado homogéneo o sea, no se puede juntar, no se puede porque no, dios no lo quiere así, Gokú llora cada vez que alguien dice eso, cada vez que alguien multiplica pixeles por fotogramas un gato lindo, 2 conejitos y 3 ardillitas mueren de sida.
Multiplicar FPS con resolución es la sandez más grande que he leído este año (tranquilo, que la del año pasado es insuperable).
A ver gurú, dime algo... tú qué prefieres, un juego a 8k a 2 fps o una a 720p a 60 fps?
Según tu tecnica milagrosa, la cuenta sería esta:
8k: 8192 x 4320 x 2= 70.778.880
720p: 720 x 1080 x 60= 46.656.000
Resultados:
8k = 70.778.880
720p= 46.656.000
Según esos números, 8k a 2 fps es casi el doble de mejor.. pero.. en serio tú crees eso? En serio tú piesas que basandote en ese resultado puedes determinar que es mejor?
Joder, no puedo creer que yo siendo estudioso del marketing y nuevas tecnologías tenga más conocimientos de esto que un flamante infomático
Justin B escribió:[facepalm] x1000000000
Pero que cojones???
Dime que no es verdad lo que estoy leyendo, porque estoy sintiendo vergüenza ajena de semejante ridiculo
Estas multiplicando pixeles * fps? pero que cojones??
Y tienes los santos cojones de decir a la gente que no tiene ni zorra idea, cuando estas soltando la mayor subnormalidad que he leido en años y dejando en evidencia una ignorancia acojonante.
De verdad, tienes que estar bromeando. Por dios, dime que bromeas que esta vergüenza ajena ya me esta hasta doliendo
jas1 escribió:La resolución sirve para que se vea todo mas nítido.
Si para conseguir los 1080 hay que sacrificar calidad visual (efectos, texturas, cantidad de objetos, gente en pantalla y demas), mas detalles y mayor fluidez para mi es mejor los 720p.
[facepalm] x1000000000
Pero que cojones???
Dime que no es verdad lo que estoy leyendo, porque estoy sintiendo vergüenza ajena de semejante ridiculo
Estas multiplicando pixeles * fps? pero que cojones??
Y tienes los santos cojones de decir a la gente que no tiene ni zorra idea, cuando estas soltando la mayor subnormalidad que he leido en años y dejando en evidencia una ignorancia acojonante.
De verdad, tienes que estar bromeando. Por dios, dime que bromeas que esta vergüenza ajena ya me esta hasta doliendo
Only 34% of PC gamers game at 1080p according to Steam's Monthly hardware survey, which is much lower than what many would expect.
1080p is still the resolution of choice however with the largest number of users, which is 34.72% of Steam's userbase. 1366x768 remains as Steam's second most popular resolution, though this is undoubtedly due to the influence of laptops.
Some other noteworthy resolution stats is that 1440x900 is used by 5.04% of Steam's users and 1440p is now used by more than 1% of Steam users, which goes to show how popular this resolution is becoming.
Dave338 escribió:Danimonto escribió:Jooooder pero de donde sacas tú que puedes multiplicar los FPS por resolución? Eso es juntar lentejas con piña, eso es juntar peras con manzanas... bafff... Tranquilo que pronto no solo yo estara cayéndote para decirte que COMO COÑO VAS A MULTIPLICAR FPS X RESOLUCIÓN y sobre todo PARA QUÉ o sea, que resultado se obtiene???
Ejemplo: 2 manzanas más 2 manzanas= 4 manzanas. 2 peras más 2 manzanas= 2peras2manzanas.
Multiplicar resolución y fps da un resultado heterogéneo (si es que sabes que quiere decir eso). En ningún caso es un resultado homogéneo o sea, no se puede juntar, no se puede porque no, dios no lo quiere así, Gokú llora cada vez que alguien dice eso, cada vez que alguien multiplica pixeles por fotogramas un gato lindo, 2 conejitos y 3 ardillitas mueren de sida.
Multiplicar FPS con resolución es la sandez más grande que he leído este año (tranquilo, que la del año pasado es insuperable).
A ver gurú, dime algo... tú qué prefieres, un juego a 8k a 2 fps o una a 720p a 60 fps?
Según tu tecnica milagrosa, la cuenta sería esta:
8k: 8192 x 4320 x 2= 70.778.880
720p: 720 x 1080 x 60= 46.656.000
Resultados:
8k = 70.778.880
720p= 46.656.000
Según esos números, 8k a 2 fps es casi el doble de mejor.. pero.. en serio tú crees eso? En serio tú piesas que basandote en ese resultado puedes determinar que es mejor?
Joder, no puedo creer que yo siendo estudioso del marketing y nuevas tecnologías tenga más conocimientos de esto que un flamante infomáticoJustin B escribió:[facepalm] x1000000000
Pero que cojones???
Dime que no es verdad lo que estoy leyendo, porque estoy sintiendo vergüenza ajena de semejante ridiculo
Estas multiplicando pixeles * fps? pero que cojones??
Y tienes los santos cojones de decir a la gente que no tiene ni zorra idea, cuando estas soltando la mayor subnormalidad que he leido en años y dejando en evidencia una ignorancia acojonante.
De verdad, tienes que estar bromeando. Por dios, dime que bromeas que esta vergüenza ajena ya me esta hasta doliendo
Pues nada, ahora que se han aclarado las dudas y ha posteado la gente que entiende (es lo que pediais no?), espero que lo leais y admitais que no sabiais de lo que hablábais erais vosotros, tanta verguenza ajena y pollas en vinagre. Así que para la próxima vez que querais rebatir algo, hacedlo validando la información. Danimonto explícaselo a tus amiguitos, no sea que la vayan liando por ahí también... xDDD
Es que era un ejemplo tan claro como lo son los km/h de los coches, es de lógica pura y aplastante... no se como tuvisteis los cojonazos de encima reiros en mi cara, jajajajaaj.
salu2
NeCLaRT escribió:No esta mal para llevar decadas jugando a 1080p
comprador escribió:No entiendo la obsesión de algunas personas (y cada vez más) por este tema. En primer lugar no hace tantos años no existía los televisores ni consolas HD y por entonces alucinábamos con muchos juegos a 640x480 a 30 fps sin saberlo tan siquiera cual era su resolución. Y en segundo lugar el 90% de las personas por no decir prácticamente el 100% no sabría diferenciar si un juego está funcionando a 720p o 1080p a 30 o 60 fps.
El gran salto fue de 480p a 720p juntoa las nuevas tecnologías como el HDMI, pantallas más nítidas y las consolas de nueva generación con capacidad para generar gráficos más detallados y fluidos. Simplemente el salto de Wii a Wii U es increíble pasando de juegos como Mario Kar Wii a Mario Kart 8.
Contestado a la pregunta inicial del tema, es preferible 720 a 60pfs por la fluidez que permite una tasa tan grande de fotogramas por segundo. Además hoy en día todas las televisiones HD con mejor o peor resultado reescalan a 1080p todos los juegos a 720p [oki]