Chupa mucho pasar de 1080p a 1440p?

Hace poco abrí unos hilos para saber si cogía un monitor """2K""" o """4K""" (más formalmente: QHD o UHD). Al final cogeré alguno de 1440p.

Pero ¿y si no puedo jugar todo a 1440p (reescalado o no)? Vería entonces los juegos borrosos... :( (porque no es la resolución nativa del monitor)

Me compraré un PC nuevo, entre 2025 y 2026. Con una RTX 4080 o RTX 4090. O incluso una RTX 5080.

Pero no sé si los juegos más modernos, incluso con una RTX 4080 se resienten a 1440p nativos (o reescalados con DLSS). Y quizás compense más, incluso con una RTX 4080, jugar a 1080p, para tener más fps. Y por tanto, cogerme un monitor de 1080p bueno.

O planteado de otro modo:

Mi actual tarjeta es una GTX 1080, y puedo jugar al Cyberpunk a 1080p sin problemas (sin raytracing, con todo en alto, a 60fps, o con todo en ultra, a 30fps).

¿Si me pillase una RTX 4080, podría jugar al Cyberpunk a 1440p, con raytracing, sin problemas?

¿Cómo lo veis?

Gracias :)
Cualquier de las GPUs que has mencionado van perfectas para 1440p o incluso 4K en la mayoría de juegos.

Si compras una RTX 5080 o 5070 Ti no vas a tener problema en 1440p durante muchos años, vas a poder jugar a todo, así que no te preocupes.

Yo no compraría una RTX 40, la mejor opción calidad precio va a ser una RTX 5070 Ti para jugar en 1440p a largo plazo.
A grandes rasgos, la diferencia de carga de trabajo para la gráfica en una situación similar (mismas texturas, escenarios, etc.) es directamente proporcional a la cantidad de píxeles en pantalla. Hay ciertos matices, porque no todo es raster, hay que dar por sentado que hay RAM y ancho de banda a memoria de sobra, y algunas tareas aumentan exponencialmente, pero para una comparación rápida puede valer. Además, TODOS los desarrolladores intentan (con más o menos éxito) disminuir la carga en lo posible evitando dibujar cosas que tienen otros objetos delante, o que no están en el campo de visión del jugador, etc. por lo que hacerlo realmente exacto es complicado por no decir imposible.

Volviendo al tema, calcular el número de píxeles en pantalla es tan sencillo como multiplicar el ancho y el alto, y como salen unidades muy grandes normalmente se divide entre 10^6 (prefijo mega-), para llegar a megapíxeles, como en las cámaras digitales.
  • FullHD / 1080p tiene 2.1 Mpx (redondeando, el valor exacto es 2.073.600 píxeles)
  • 2.7K / 1440p / QHD tiene 3.7 Mpx
  • 4K / UHD tiene 8.3 Mpx

Si tomamos como referencia 1080p, vemos que 1440p es una carga aproximadamente un 75% más alta (3.7/2.1-1), y 4K es una carga aproximadamente un 300% más alta (8.3/2.1-1).

¿Hay diferencia en carga gráfica? Sí, bastante. Tanto de 1080p a 1440p como de 1440p a 4K.

Yo creo que cualquiera de las opciones que valoras debería ser suficiente para tirar unos años. Piensa que tu actual 1080 no era el chip "grande" en su día (es decir, número interno de modelo terminado en -4) así que es probable que lo que compres ahora envejezca igual o mejor. Y yo también daría prioridad a una 5070Ti sobre una 4080, a falta de ver reviews que lo confirmen, claro. Comprar una 4000 ahora salvo chollo de segunda mano de la gente ansiosa por cambiar me parece un error.

Saludos
Pollonidas escribió:A grandes rasgos, la diferencia de carga de trabajo para la gráfica en una situación similar (mismas texturas, escenarios, etc.) es directamente proporcional a la cantidad de píxeles en pantalla. Hay ciertos matices, porque no todo es raster, hay que dar por sentado que hay RAM y ancho de banda a memoria de sobra, y algunas tareas aumentan exponencialmente, pero para una comparación rápida puede valer. Además, TODOS los desarrolladores intentan (con más o menos éxito) disminuir la carga en lo posible evitando dibujar cosas que tienen otros objetos delante, o que no están en el campo de visión del jugador, etc. por lo que hacerlo realmente exacto es complicado por no decir imposible.

Volviendo al tema, calcular el número de píxeles en pantalla es tan sencillo como multiplicar el ancho y el alto, y como salen unidades muy grandes normalmente se divide entre 10^6 (prefijo mega-), para llegar a megapíxeles, como en las cámaras digitales.
  • FullHD / 1080p tiene 2.1 Mpx (redondeando, el valor exacto es 2.073.600 píxeles)
  • 2.7K / 1440p / QHD tiene 3.7 Mpx
  • 4K / UHD tiene 8.3 Mpx

Si tomamos como referencia 1080p, vemos que 1440p es una carga aproximadamente un 75% más alta (3.7/2.1-1), y 4K es una carga aproximadamente un 300% más alta (8.3/2.1-1).

¿Hay diferencia en carga gráfica? Sí, bastante. Tanto de 1080p a 1440p como de 1440p a 4K.

Yo creo que cualquiera de las opciones que valoras debería ser suficiente para tirar unos años. Piensa que tu actual 1080 no era el chip "grande" en su día (es decir, número interno de modelo terminado en -4) así que es probable que lo que compres ahora envejezca igual o mejor. Y yo también daría prioridad a una 5070Ti sobre una 4080, a falta de ver reviews que lo confirmen, claro. Comprar una 4000 ahora salvo chollo de segunda mano de la gente ansiosa por cambiar me parece un error.

Saludos


Gracias :)

Por no liar demasiado, técnicamente actualmente estoy jugando a 1920x1200p. O sea, sería un pelín menor la diferencia, con respecto 1440p.

Haciendo cálculos:

1920 x 1200 = 2.30M
2560 x 1440 = 3.68M

((3.68 / 2.30) - 1 ) * 100 = 60%

En este caso, sería menor que ese 75% (de 1080p a 1440p). Aunque tampoco es despreciable un 60%, pero ya es algo menos :)

Pero como decís, pillándome una gráfica moderna, y con el DLSS y otras tecnologías, seguro que la exprimo más tiempo que a mi GTX 1080 (que llevo con ella más de 10 años).

La finalidad del hilo, era un poco reflejar este miedo que tenía:

Que me pillase una tarjeta moderna, y al poco tiempo (2-4 años) los 1440p me lastrasen, y me viese obligado a bajar resolución, y si jugase en un monitor 1440p haría que no se viera tan definido.

Pero supongo que como decís, una RTX de la serie 4000, o mejor una RTX de la serie 5000, deberían dar bastantes años para los 1440p sin problemas (ojalá al menos 10 años, como me ha dado guerra la GTX 1080).

Eso sí, en la medida que pueda, si no hay muchas diferencias, probablemente usaría reescalado DLSS.
Que va tranquilo, con una RTX 5070 Ti tienes GPU para años en 1440p, es el mismo chip que la 5080 pero algo recortado, tienes 16 GB de VRAM y DLSS 4 completo con MFG.

Yo creo que te da para jugar 4 años a tope o casi, y estirarla si bajas calidad gráfica hasta 6-8 años. Te puede durar lo mismo que la GTX 1080. Además, el salto que vas a pegar es enorme, ya va tocando.

Con DLSS en modo calidad y encima con la mejora del modelo a transformers, hay muy poca diferencia respecto a nativo, así que eso le va a dar bastante vida a la GPU. También la generación de fotogramas múltiple.

No vas a tener que bajar resolución, en todo caso pasados 4-6 años igual en algún juego muy exigente tienes que desactivar ray tracing y listo. La resolución no la vas a tener que tocar, seguramente te baste con mantener DLSS en calidad y el MFG.
Sicopro escribió:Que va tranquilo, con una RTX 5070 Ti tienes GPU para años en 1440p, es el mismo chip que la 5080 pero algo recortado, tienes 16 GB de VRAM y DLSS 4 completo con MFG.

Yo creo que te da para jugar 4 años a tope o casi, y estirarla si bajas calidad gráfica hasta 6-8 años. Te puede durar lo mismo que la GTX 1080. Además, el salto que vas a pegar es enorme, ya va tocando.

Con DLSS en modo calidad y encima con la mejora del modelo a transformers, hay muy poca diferencia respecto a nativo, así que eso le va a dar bastante vida a la GPU. También la generación de fotogramas múltiple.


Y a las malas, bajo a 30fps jajajaj Que por suerte los aguanto bastante bien :)

Procuraré ahorrar bien, porque la tarjeta que me pille, quiero que sea para IA también, y lo que más chupa para IA es la memoria de vídeo.

La putada es que la que tiene 32GB es la 5090 :(

Pero bueno, poco a poco.

Igual sale más a cuenta una 5070 Ti o una 5080, y si a futuro veo que necesito más RAM, me pillaría alguna que tuviera más.
Yo es lo que haría, de momento me apañaría con una 5070 Ti que sale muy bien relación calidad precio, y ya con 16 GB de VRAM te defiendes salvo que vayas a meter modelos enormes.

Luego ya más adelante siempre puedes comprarte una RTX 7070/80 o 8070/80 que en 4-6 años seguramente ronden los 32 GB de VRAM.

Sale mejor no gastar tanto de golpe si vas a mantener a largo plazo, al final todo se queda obsoleto en pocos años, es mejor gastar ahora 1000 € y en 4-6 años gastar otros 1000 €, que de golpe ahora gastar 2500 € en una RTX 5090 e intentar mantener la GPU durante 8 años.

Pero todo depende de si te van a dar esos 16 GB de VRAM o si son imprescindibles los 32 GB. Por potencia para jugar como ya te dije vas a ir bien.
Pollonidas escribió:A grandes rasgos, la diferencia de carga de trabajo para la gráfica en una situación similar (mismas texturas, escenarios, etc.) es directamente proporcional a la cantidad de píxeles en pantalla. Hay ciertos matices, porque no todo es raster, hay que dar por sentado que hay RAM y ancho de banda a memoria de sobra, y algunas tareas aumentan exponencialmente, pero para una comparación rápida puede valer. Además, TODOS los desarrolladores intentan (con más o menos éxito) disminuir la carga en lo posible evitando dibujar cosas que tienen otros objetos delante, o que no están en el campo de visión del jugador, etc. por lo que hacerlo realmente exacto es complicado por no decir imposible.

Volviendo al tema, calcular el número de píxeles en pantalla es tan sencillo como multiplicar el ancho y el alto, y como salen unidades muy grandes normalmente se divide entre 10^6 (prefijo mega-), para llegar a megapíxeles, como en las cámaras digitales.
  • FullHD / 1080p tiene 2.1 Mpx (redondeando, el valor exacto es 2.073.600 píxeles)
  • 2.7K / 1440p / QHD tiene 3.7 Mpx
  • 4K / UHD tiene 8.3 Mpx

Si tomamos como referencia 1080p, vemos que 1440p es una carga aproximadamente un 75% más alta (3.7/2.1-1), y 4K es una carga aproximadamente un 300% más alta (8.3/2.1-1).

¿Hay diferencia en carga gráfica? Sí, bastante. Tanto de 1080p a 1440p como de 1440p a 4K.

Yo creo que cualquiera de las opciones que valoras debería ser suficiente para tirar unos años. Piensa que tu actual 1080 no era el chip "grande" en su día (es decir, número interno de modelo terminado en -4) así que es probable que lo que compres ahora envejezca igual o mejor. Y yo también daría prioridad a una 5070Ti sobre una 4080, a falta de ver reviews que lo confirmen, claro. Comprar una 4000 ahora salvo chollo de segunda mano de la gente ansiosa por cambiar me parece un error.

Saludos


Esto se puede complicar mucho más

que consume más a nivel gráfico 1080p a 240fps o 4k a 60fps?

O qué consume más fps o más resolución?

Y si le añadimos filtros a la ecuación?
sutalu escribió:¿Si me pillase una RTX 4080, podría jugar al Cyberpunk a 1440p, con raytracing, sin problemas?

Lo jugarias sin problemas pero ahora mismo es absurdo pensar siquiera en comprar una grafica. Espera a que salgan las nuevas.

Por otro lado lo malo de 1080p a 1440p, es que si jugases a novedades, juegos triple A, la potencia de tu grafica se quedaria corta antes y tendrias que volver a pasar por caja.

Por contra, la CPU no es tan critica dado que cuanto más aumenta la resolución, mayor el cuello de botella de la GPU y menores las diferencias entre CPUs.

Que me pillase una tarjeta moderna, y al poco tiempo (2-4 años) los 1440p me lastrasen, y me viese obligado a bajar resolución, y si jugase en un monitor 1440p haría que no se viera tan definido.

Algo inventaran o ya lo inventaron, se llama Full Raytracing, tambien conocido como Path Tracing. De hecho muchos juegos ya empiezan a meter el Raytracing obligatorio. Por eso AMD se tuvo que replantear el tema y dar por hecho que tenia que hacer GPU más potentes usando RT.

Si juegas triple A, a los 4 años, si compras estaras casi seguro como esta la gente que compro hace 4 años una 3080, pensando en comprar una GPU nueva. Solamente en 1080p con una grafica potente puedes aguantar mucho tiempo.

Eso sí, en la medida que pueda, si no hay muchas diferencias, probablemente usaría reescalado DLSS.

De esto olvidate, si juegas a triple A, usaras DLSS si o sí. Otra cosa es que uses FG o MFG si tuvieras una RTX 50. Nvidia como los demas lo mete directamente a los generadores de frames dentro del nombre DLSS pero realmente son cosas a parte, totalmente opcionales.

El DLSS es opcional pero en algunos juegos es obligatorio, de hecho es mejor usarlo porque la alternativa nunca es resolución pura, la alternativa es TAA y cuando usas el TAA, las texturas y modelos cambian de resolución en función de la necesidad de la escena, lo cual en juegos rapidos puede dar lugar a cosas raras graficas, cosas que de repente se amplian o reducen en detalle. En cambio en el DLSS eso no sucede y aplica una serie de filtros que añaden más calidad.

Asi que jugar a triple A y pensar en un modo puro sin escalados, no tiene sentido ya. En juegos indie que son los de pequeñas compañias, por ejemplo la mayoria de estrategia, cosas como el DLSS no aparecen ni opcionalmente. Esto son tecnologias de los triple A. Mayormente juegos de acción.

Respecto a que comprar. Como ya dije esperar, un mes no manca. Teniendo dinero, yo compraria una 5070Ti. Siendo más pobre si fuera barata, quizas una RX 9070XT solamente si su rendimiento tanto con RT como PT fuera tan bueno al menos como en una RTX 4070. Y solo si hubiera una diferencia de dinero grande.

No obstante con el hype, el stock de lo anterior y la jeta de las tiendas, es más que posible que todas las nuevas GPUs sean mucho más caras que las anteriores. No hay más que ver el precio actual de las RTX 40, las cuales quizas se revaloricen porque van a tener mejoras. Suponiendo que valgan para algo esas mejoras. :)
Consejo personal,de 1080p a 1440p veo mucha diferencia,de 1440p a 4k no veo apenas diferencia,te lo digo porque tengo las 3 resoluciones, salón y estudio,para mi el punto dulce es 2k,saludos.
pdriko31 escribió:Consejo personal,de 1080p a 1440p veo mucha diferencia,de 1440p a 4k no veo apenas diferencia,te lo digo porque tengo las 3 resoluciones, salón y estudio,para mi el punto dulce es 2k,saludos.


Ves mucha diferencia, en qué sentido? Más detalle?

Cuántas pulgadas tiene el monitor (al de de resolución 1440p me refiero)?
sutalu escribió:
pdriko31 escribió:Consejo personal,de 1080p a 1440p veo mucha diferencia,de 1440p a 4k no veo apenas diferencia,te lo digo porque tengo las 3 resoluciones, salón y estudio,para mi el punto dulce es 2k,saludos.


Ves mucha diferencia, en qué sentido? Más detalle?

Cuántas pulgadas tiene el monitor (al de de resolución 1440p me refiero)?

El de 1440p es de 32" con HDR y el de 4k 65" y sinceramente no veo mucha diferencia o ninguna,ahora el de 1080p si se nota como mas turbio,también dependerá de la calidad de cada pantalla,pero como digo,el punto dulce entre calidad y que no exija un pc tan tan potente es 1440p.
@pdriko31
La tv de 4k si le metes 1440p lo ves bien ?
Lo digo porque es el miedo que tengo yo de coger gráfica para 1440p y ponerlo en el oled de 55 , que se vea mal.

No puedo hacer ninguna prueba ahora mismo porque la series x aunque la ponga la salida a 1080p o 1440p la TV lo sigue mostrando en 4k aunque sea reescalado por la propia TV.
@terriblePICHON en mi tv si(Samsung q85r),pero eso dependerá del reescalado de cada tv.
gojesusga escribió:Esto se puede complicar mucho más

que consume más a nivel gráfico 1080p a 240fps o 4k a 60fps?

O qué consume más fps o más resolución?

Y si le añadimos filtros a la ecuación?

Desde luego que hacer un análisis en detalle de esto no es para nada sencillo, igualmente creo que aquí hay que hacer un matiz:

La resolución a la hora de evaluar la carga gráfica es una ENTRADA. Los FPS son un RESULTADO de esa entrada. Es decir, en mi opinión no tiene sentido hablar de consumo de recursos si fijas ambos parámetros. Con el mismo PC y el mismo juego/benchmark, si pones 1080p tendrá X fps, si pones 1440p tendrá Y fps y si pones 4K tendrá Z fps. Por supuesto X>Y>Z.

En un coche haciendo el mismo trayecto puedes hablar del consumo del motor a 80km/h, a 100km/h, y a 120km/h, y evidentemente será mayor en cada caso. No tiene sentido hablar de si el coche consume más a 80km/h con 5l a los 100km o a 120km/h con 6l/100km. Porque ya estás fijando el resultado.

Igualmente, si quieres una respuesta "como se pueda", a nivel gráfico los dos casos que propones son iguales (porque 240fps es el cuádruple de 60, igual que la carga gráfica es aproximadamente 1/4 parte a 1080p) con la salvedad de que a 240fps el procesador puede tener algo que decir (según el juego) y a 60fps muy poco.

Saludos
Pollonidas escribió:
gojesusga escribió:Esto se puede complicar mucho más

que consume más a nivel gráfico 1080p a 240fps o 4k a 60fps?

O qué consume más fps o más resolución?

Y si le añadimos filtros a la ecuación?

Desde luego que hacer un análisis en detalle de esto no es para nada sencillo, igualmente creo que aquí hay que hacer un matiz:

La resolución a la hora de evaluar la carga gráfica es una ENTRADA. Los FPS son un RESULTADO de esa entrada. Es decir, en mi opinión no tiene sentido hablar de consumo de recursos si fijas ambos parámetros. Con el mismo PC y el mismo juego/benchmark, si pones 1080p tendrá X fps, si pones 1440p tendrá Y fps y si pones 4K tendrá Z fps. Por supuesto X>Y>Z.

En un coche haciendo el mismo trayecto puedes hablar del consumo del motor a 80km/h, a 100km/h, y a 120km/h, y evidentemente será mayor en cada caso. No tiene sentido hablar de si el coche consume más a 80km/h con 5l a los 100km o a 120km/h con 6l/100km. Porque ya estás fijando el resultado.

Igualmente, si quieres una respuesta "como se pueda", a nivel gráfico los dos casos que propones son iguales (porque 240fps es el cuádruple de 60, igual que la carga gráfica es aproximadamente 1/4 parte a 1080p) con la salvedad de que a 240fps el procesador puede tener algo que decir (según el juego) y a 60fps muy poco.

Saludos


No estoy tan seguro que sea proporcional
gojesusga escribió:No estoy tan seguro que sea proporcional

Desde luego tienes toda la razón sobre que en la vida real no es exactamente proporcional, en parte por los "trucos" comentados que buscan minimizar el trabajo de la gráfica en todo momento. Pero al final en un problema relativamente complejo como este hay que hacer concesiones para simplificarlo, porque es mejor tener una aproximación, incluso si es un tanto somera, que no tener nada (que va a ser el resultado en caso de intentar estimar con precisión la carga gráfica con un modelo que valga para cualquier motor gráfico, resolución y situación).

Por la misma razón verás habitualmente g=10 (en lugar de 9.8), pi=3 (en lugar de 3.1415926535...), o suposiciones de que las vacas son esféricas como en el chiste. Pero mientras las aproximaciones sean lo bastante buenas para que los puentes no se caigan (después de aplicar un factor de seguridad, claro) casi nunca, pues bueno, me parece un mal necesario.

Saludos
@sutalu

No te aportara nada pero puedes activarlo por dsr para hacerte una idea si quieres, aunque se te vara raro emitir 2560x1440p >> sobre un panel 1080p pero te servira de referencia de cuanto te baja el rendimiento.

Imagen
17 respuestas