uchi23a escribió:iTek escribió:Evil_sukoide escribió:Otra opción es dar el salto a 1440p, un monitor 2k con gsync, a mayor resolución menor uso de la cpu, aunque por contra también obtendras menos fps pero mayor calidad visual, en resumen: graficos mas nitidos y detallados.
A mayor resolucion menor uso de CPU? Hola?
Entiendo que me digas que si para jugar a 720p necesitas 1 core, para jugar a 1440p necesitas 3 cores (digamos que escala bien, no necesitas cuatriplicar la potencia como hace la resolucion), pero eso de que gaste menos cpu...
Mmmm... Como explicarlo
Las GPU,s Gtx1060/rx470 para arriba, si los títulos está bien optimizado podrán dar los 60fps sin anti alising en 1080p... Pueden llegar tan sobradas que pueden dar un extra en fps con ayuda del procesador si cuenta con un buen IPC como el 6700k... Pero si subimos la resolución va estar más ocupada la GPU y no va a exigir tanto al procesador...
Es más o menos para hacer un ejemplo
En 1080p la GPU está de uso un 70%
En cambio si subimos la resolución le pedimos chicha a la gráfica y el procesador no subirá el % del trabajo que ya hacía o solo varía un 5% a la alta o baja según el título.
Por ejemplo para los 144hz144fps se requiere de un IPC lo más bestia que se pueda para esa velocidad de fotogramas en cambio para 2k o 4k no ahy mucho salto de diferencia en fps si comparamos un 3770k, 5930k o un 7700k.... Más o menos darán los mismos en 4k con una diferencia de 10 como mucho.... Quizás el 5930k sea el más estable en fps frente a los fps extra que pueda dar el 7700k
Bueno lo suyo es compararlo uno mismo.
Dependerá el juego... A ese 5% que comentas (por decir una cifra inventada) como tenga muchos efectos de postprocesado que en su mayoría son calculados por la cpu, a mayor resolución más costoso es. Evidentemente si las sombras ya estaban en alto no va a variar, al igual que los patrones de búsqueda o las físicas, pero el postpro sí, y es costoso.
Si tiene un solo efecto igual no se nota demasiado, pero como tenga unos cuantos, pasar de calcularlos de cada frame a 1080 a hacerlo a 4k y devolverlo a tiempo para que no caiga el framerate igual sí se nota más.
No se si sabéis cómo funciona eso, básicamente en cada frame hace todo lo que tiene que hacer, y de la imagen que debería sacar no lo hace, sino que esa imagen que acaba de producir a la resolución que sea la toma y le aplica un efecto y la devuelve. Pueden ir varios que partan del anterior para hacerse, así que el tiempo de calculo va subiendo muy ricamente, y cuando acaba entonces sí, lo tira y saca por pantalla. Eso a cada frame.
Es ahí donde puede caer en picado el framerate según el equipo y resolución. Y como comento, variará en cada juego. Porque a lo mejor uno tiene alguna de esas pijadas visuales pero no tiene ni patrones de resolución ni físicas tochas, etc etc. Cada título es un mundo.