Jugáis en 1440p en vuestras teles 4k?

Estoy debatiendome en comprar una nueva gráfica entre una serie 4000 de NVIDIA o 7000 de AMD

La 7900xt me parece cojonuda pero antes de tomar una decisión quiero saber opinión del foro

Valoro también la 4070 ti o 4070 super y mirando de cerca 7800xt

Merece la pena apostar por gráficas en este tramo del año las series 5000 de NVIDIA y 8000 de AMD están ahí.

Mis pantallas son 4K 60Hz tanto tele y monitor me gustaría apostar por el 4k nativo pero el costo de rendimiento es mayor y temo que se quede anticuada en esa resolución en poco tiempo.

Mi idea es apostar por algo más modesto tipo 7800xt/4070 super y jugar en calidad 1440p utilizando las tecnologías de reescalo super resolución de AMD o NIS de Nvidia.

El equipo actual es AMD RYZEN 7 5700X3D con una GPU NVIDIA 3070

El debate aquí es? Jugáis en 1440p con televisores y monitores 4k 60 hz? sentís esa perdida de resolución o por el contrario o satisface el resultado?

A raíz del lanzamiento de PlayStation 5 Pro creo que esa consola nunca entregará 4k nativo y la mayoría de sus juegos serán renderizados desde una resolución 1440p reescalado a 4k.con la IA.

Si esto es así como me lo planteo que sentido podría tener apostar por una bestia parda como la 7900xt? podría apostar por algo menor 7800xt jugar a 1440p 60fps y usar super resolución de AMD.

Como dato para el debate mi perfil de jugador es de consolero pecero gamer casual que desde la compran de la Asus rog Ally X y el precio loco de ps5 pro apuesta por el PC para jugar en calidades similares a consola o superiores sin pisar configuraciónes ultra o cinemáticas muy costosas de mantener.


Por favor o pido que me revatais o deis vuestra opinión sobre la resolución 1440p en pantallas 4k

Saludos y gracias por leerme
@jouse norris

Es que no es lo mismo una TV LG G3 o una Samsung OLED que una Hisense o una TCL, sin dar ese dato no todas las TV reescalan de la misma forma. En cualquier caso con una GPU de gama alta siempre vas a poder bajar filtros si no te mantuviese los 60 fps en todos los juegos e incluso todas las tecnologias de DLSS y FSR ayudan. [beer]
lerelerele escribió:@jouse norris

Es que no es lo mismo una TV LG G3 o una Samsung OLED que una Hisense o una TCL, sin dar ese dato no todas las TV reescalan de la misma forma. En cualquier caso con una GPU de gama alta siempre vas a poder bajar filtros si no te mantuviese los 60 fps en todos los juegos e incluso todas las tecnologias de DLSS y FSR ayudan. [beer]


En parte tienes razón pero yo puse como matiz el usar super resolución de AMD Y NIS de Nvidia entonces el reescalo siempre recae en la GPU y la señal de video sería 4k 60hz a pesar de usar resolución de renderizado 1440p
Más que juzgar las marcas de la Tv, habría que ver si son las de gama entrada o gama superior, porque una Samsung serie 5 o 6 por ejemplo es patética o las LG nanocell que son un poco ploff, al igual que las tcl o hisense de gama baja

Dejando eso de lado. Que poco o nada tiene que ver, ya que el rescalado de los juegos lo hace la gráfica...

Yo tengo una tcl c845 y una 3080ti, y juego siempre que puedo en 4k, obviamente en muchos juegos tiro de Dlss (O Fsr) , ya que si no es imposible mantener 60 o 144 hz estables, algo que yo doy prioridad. En el caso de que el framerate no sea estable en esos valores, tiro de resolución 1440p dentro de la configuración del juego
en tv 4K siempre hay que usar 4K no tiene mas, si luego vienes de 1440p internos no pasa nada, para eso esta el DLSS. Jamas poner 1440p en TV 4K.


Luego ya si puedes la 7900xt si no vas a usar nunca RT, pero sino 4070ti de cabeza
Con una gráfica 3060ti y una tele 4k (tv samsung Q70) , si he notado una perdida de nitidez considerable al poner resoluciones inferiores, vamos que incluso merece la pena recortar calidad para mantener un framerate estable en 4k, en juegos menos exigentes es una gozada jugar a esta resolución, aun activando dlss.

Si tuviera que comprar ahora una gráfica para 4k probablemente sería la inno3d 4070ti super por que esta de oferta debajo de los 800€, lo ideal sería la 4080 super o equivalente en amd pero viendo lo poco que queda para la nueva remesa de gráficas, ya veo con duda gastarse mil euros en una gráfica de esta generación (incluso la 4070ti super me genera esta duda).
jouse norris escribió:Mis pantallas son 4K 60Hz tanto tele y monitor me gustaría apostar por el 4k nativo pero el costo de rendimiento es mayor y temo que se quede anticuada en esa resolución en poco tiempo.

TV 60hz? A falta de saber qué modelo es, 1º cambio recomendado: una TV "next gen". No sé qué TV tendrás pero supongo que una TV buena actual superará con bastante diferencia a tu TV. Hablamos de un mínimo de 120hz, pero no solo eso (que aunque juegues 60fps gracias al VRR podrás jugar con fps variables de forma muy fluida) sino que entiendo que tampoco tendrás HDR (o al menos un buen HDR), y eso es otra mejora importante. Y además mejora general de calidad de imagen, a nivel de colores, contraste y brillo casi seguro que mejorará.

jouse norris escribió:Mi idea es apostar por algo más modesto tipo 7800xt/4070 super y jugar en calidad 1440p utilizando las tecnologías de reescalo super resolución de AMD o NIS de Nvidia.

NIS de Nvidia? DLSS de Nvidia en todo caso, que tendrás la mejor calidad posible a nivel de escalado (a nivel general, hay excepciones donde lo hace mejor el FSR de AMD, que por cierto podrás usar también con una Nvidia).

jouse norris escribió:El debate aquí es? Jugáis en 1440p con televisores y monitores 4k 60 hz? sentís esa perdida de resolución o por el contrario o satisface el resultado?

Si te digo la verdad no es algo que haya probado porque no lo necesito (debería probarlo por curiosidad), pero sí que te puedo decir que tengo configurado Windows 11 con una escala/zoom/DPI del 150% para que no se me vea el escritorio y apps minúsculo por el 4k y en algunos juegos que he ejecutado y por error (porque están "mal" hechos) aplican ese escalado del sistema, he notado al momento una borrosidad en las letras y una falta de definición a llegar al menú del juego. En el video introductorio (renderizado la mayoría de veces) no se nota tanto porque puedo pensar que está muy comprimido o simplemente no tiene buena calidad, pero cuando ya visualizo contenido sin "comprimir" como letras o imágenes de alta calidad y/o 4k, sí que noto la falta de definición con esa borrosidad.

Pero creo que la calidad de ese escalado a nivel de windows es peor que la que vería si en el juego pongo 1440p... aunque no estoy seguro y es lo que debería probar (pero vamos, por el comentario anterior de Antuanerr me da que seguiré notando la bajada de calidad).

jouse norris escribió:A raíz del lanzamiento de PlayStation 5 Pro creo que esa consola nunca entregará 4k nativo y la mayoría de sus juegos serán renderizados desde una resolución 1440p reescalado a 4k.con la IA.

Si esto es así como me lo planteo que sentido podría tener apostar por una bestia parda como la 7900xt? podría apostar por algo menor 7800xt jugar a 1440p 60fps y usar super resolución de AMD.

Sí, claro, lo de PS5 es verdad, pero es que también es verdad para el mundo del PC. Es una tontería que vayamos a 4k nativo (aún teniendo la mejor tarjeta del momento, una 4090) en juegos exigentes donde sin RT quizás van a 60fps o así cuando al activar DLSS (a nivel calidad, no el de rendimiento o super rendimiento) la diferencia a simple vista ni la vas a notar y ganarás mas FPS o si vas sobrado podrás activar RT/PT o alguna opción gráfica mas exigente gracias a lo que ganes con el DLSS.

Es mas, comparando una imagen/video 4k con DLSS y otra 4k nativa quizás tampoco lo notas o incluso debido al antialiasing del DLSS ves mejor la del DLSS. Aquí tienes un artículo hablando de ese tema y una captura que ponen a modo resumen: https://www.techspot.com/article/2665-d ... rendering/

Imagen


jouse norris escribió:Como dato para el debate mi perfil de jugador es de consolero pecero gamer casual que desde la compran de la Asus rog Ally X y el precio loco de ps5 pro apuesta por el PC para jugar en calidades similares a consola o superiores sin pisar configuraciónes ultra o cinemáticas muy costosas de mantener.

Pues con eso me parece que para ti puede ser viable una gráfica de gama media-alta (nada de 7900XTX o de las 4080 para arriba de Nvidia) y juegues con las opciones gráficas y el escalado para ajustar al máximo con el 4k escalado.

A nivel de monitor quizás te diría que mejor un monitor 1440p, pero para una TV es que no te queda otra, deberá ser 4k para que tenga buena calidad porque la verdad no me suenan TVs 1440p, y las 1080p ya han quedado obsoletas.

Ahora, lo más complicado, qué gráfica para nivel consola (bueno, un mejor a poder ser) a 4k? Lo malo es que en los análisis suelen poner la configuración gráfica en ultra y sin escalado, así que supongo que las gráficas que a 1440p ultra muevan los juegos mas exigentes a unos 50fps como mínimo podría ser tu gráfica. Te pongo a modo referencia 2 análisis de techpowerup de 2 juegos recientes que son exigentes (por ejemplo, el God of War Ragnarok NO es exigente y funciona bien en muchas gráficas), pero lo suyo es mirar análisis de los tipos de juegos que vayas a jugar y elegir en base a eso:

@jouse norris
Tienes la 4070ti súper que rinde prácticamente igual que la 7900xt costando lo mismo y es mucho mejor en RayTracing.
Visualizar cualquier contenido a 1440p en un panel cualquiera de resolución 4K es de lo peor que se puede hacer, simple y llanamente porque el escalado entre esas dos resoluciones es 3:2 en ancho y en alto y literalmente más de la mitad de los píxeles tienen que interpolarse.

Esto no aplica evidentemente si hablamos de que el juego se renderiza a 1440p pero se está reescalando en la GPU por cualquier método un poco más "listo". A poder ser algo basado en aprendizaje profundo y no en imagen, porque lo primero tiene capacidad de rellenar lo que falta con información nueva, lo segundo son métodos que tienen 50 años.

Saludos
Llevo muchos años batallando en esa línea, soy jugador 1440p y 4K desde que juego en TVs 4K hará como 6 años y he visto de todo entre juegos de PC y consola.

1440 casi ni se nota en una TV 4K, es muy poca la bajada de definición pero se percibe como es obvio cuando juegas en nativo, pero es que no lo vas a notar casi, a 1080p ya si que es otra película muy diferente, ahí si que notarías una bajada bastante grande de definición, y a 720p te van a sangrar los ojos, una vez conecté una 360 y fue horrible [carcajad]

Mucha gente no sabe que es jugar en 4K porque no juegan en 4K, la gente de PC la mayoría viene de 1440p o 1080p, los que juegan en consola que a veces ven el 4K nativo y otras no también te dirán lo mismo, 1440p casi ni se nota, es bastante aceptable.

Yo tengo XBOX ONE X y PS4 PRO, además de PC, y te aseguro que no lo vas a notar casi, te tienes que obsesionar mucho con la resolución, no es molesto y se ve bien la definición, no me parecen bien esos mensajes catastrofistas de algunos de que jugar a 1440p en 4K es horrible, de hecho me pregunto en que tipo de monitores juegan o si han tenido esa experiencia jugando a esa resolución en un panel 2160p, me recuerda también cuando se obsesionan con decirle a la gente que si te compras una GPU es para jugar en ultra o que esa GPU es x resolución cuando con una GPU puedes jugar de todo si no tienes ultritis.

RESUMEN: Se nota pero casi nada, te acostumbras, aunque si subes la resolución te cagas un poco en todo por no poder jugar en nativo, pero pasa con todo, con un efectillo, con 4 fps más, etc... al final te acostumbras y no le das importancia, pero 1440p es muy poca bajada de resolución, 1080p ya es otra historia.

Te cagas más que nada porque te entra ultritis, pero no porque realmente sea algo molesto, porque el resultado de jugar a 1440p en una pantalla 4K es placentero, se ve bien definido el juego, la pérdida de definición es muy poca.


Aquí tienes muchas opiniones de gente que tiene TV's 4K y juega a 1440p y la mayoría son positivas https://www.reddit.com/r/pcgaming/comme ... _that_bad/
katatsumuri escribió:1440 casi ni se nota en una TV 4K, es muy poca la bajada de definición pero se percibe como es obvio cuando juegas en nativo, pero es que no lo vas a notar casi, a 1080p ya si que es otra película muy diferente, ahí si que notarías una bajada bastante grande de definición, y a 720p te van a sangrar los ojos, una vez conecté una 360 y fue horrible [carcajad]

No es así. Tanto 1080p como 720p escalan a múltiplos exactos de 4K. En el primer caso 2:1 y en el segundo 3:1. Usar cualquiera de estas resoluciones es la segunda mejor opción (siendo la primera usar la resolución nativa).

Reitero, el único caso en el que se pierde definición del contenido original (no de lo que puede dar el panel, eso es otra historia), es si se utiliza una entrada 1440p en un panel 4K, por lo dicho, es como aplicar un desenfoque gaussiano a toda la imagen, en un lienzo de más definición, eso sí. Vas a ver menos bordes de sierra pero el precio a pagar es desenfocar toda la imagen. Como digo en el post anterior, de los 8.3 millones píxeles que tiene un monitor 4K, algo más de la mitad (4.4 millones) son combinaciones lineales 2, 3 o 4 píxeles del contenido original. Eso es justamente lo que hacen la mayoría de filtros de desenfoque: cambiar el valor de los píxeles por combinaciones lineales de un entorno.

Otra cosa es que subjetivamente me digas "pues yo lo veo bien". Pues perfecto.

Saludos
Pollonidas escribió:
katatsumuri escribió:1440 casi ni se nota en una TV 4K, es muy poca la bajada de definición pero se percibe como es obvio cuando juegas en nativo, pero es que no lo vas a notar casi, a 1080p ya si que es otra película muy diferente, ahí si que notarías una bajada bastante grande de definición, y a 720p te van a sangrar los ojos, una vez conecté una 360 y fue horrible [carcajad]

No es así. Tanto 1080p como 720p escalan a múltiplos exactos de 4K. En el primer caso 2:1 y en el segundo 3:1. Usar cualquiera de estas resoluciones es la segunda mejor opción (siendo la primera usar la resolución nativa).

Reitero, el único caso en el que se pierde definición del contenido original (no de lo que puede dar el panel, eso es otra historia), es si se utiliza una entrada 1440p en un panel 4K, por lo dicho, es como aplicar un desenfoque gaussiano a toda la imagen, en un lienzo de más definición, eso sí. Vas a ver menos bordes de sierra pero el precio a pagar es desenfocar toda la imagen. Como digo en el post anterior, de los 8.3 millones píxeles que tiene un monitor 4K, algo más de la mitad (4.4 millones) son combinaciones lineales 2, 3 o 4 píxeles del contenido original. Eso es justamente lo que hacen la mayoría de filtros de desenfoque: cambiar el valor de los píxeles por combinaciones lineales de un entorno.

Otra cosa es que subjetivamente me digas "pues yo lo veo bien". Pues perfecto.

Saludos



hagan caso a este tio joer

Yo no me se la teoria tan profunda pero es tal cual dices, cyberpunk lo pongo en mi pantalla 4K a renderizarse en el juego a 1440p y se ve totalmente difuminado , muchusimo peor que un monitor 1440p, es decir que en lugar de la TV escalarlo bien, te lo destroza. Yo lo llamo efecto suavizado un antisharpness, pero es lo que dices desenfoque se pierde detalle, eso si sierras no se ven.

Es ponerlo en 4K DLSS y es otro mundo , como si fuera 4K aunque un poco menos detalle que nativo logicamente, pero ojo a veces el DLSS aplica antialiasing y puede mejorar en eso a una imagen nativa, los de DF a veces dicen que DLSS DLAA o DLSS tiene hasta sus ventajas a la hora de corregir cosas en la imagen nativa, y creo que llevan razon, estabiliza cosas
Pollonidas escribió:
katatsumuri escribió:1440 casi ni se nota en una TV 4K, es muy poca la bajada de definición pero se percibe como es obvio cuando juegas en nativo, pero es que no lo vas a notar casi, a 1080p ya si que es otra película muy diferente, ahí si que notarías una bajada bastante grande de definición, y a 720p te van a sangrar los ojos, una vez conecté una 360 y fue horrible [carcajad]

No es así. Tanto 1080p como 720p escalan a múltiplos exactos de 4K. En el primer caso 2:1 y en el segundo 3:1. Usar cualquiera de estas resoluciones es la segunda mejor opción (siendo la primera usar la resolución nativa).

Reitero, el único caso en el que se pierde definición del contenido original (no de lo que puede dar el panel, eso es otra historia), es si se utiliza una entrada 1440p en un panel 4K, por lo dicho, es como aplicar un desenfoque gaussiano a toda la imagen, en un lienzo de más definición, eso sí. Vas a ver menos bordes de sierra pero el precio a pagar es desenfocar toda la imagen. Como digo en el post anterior, de los 8.3 millones píxeles que tiene un monitor 4K, algo más de la mitad (4.4 millones) son combinaciones lineales 2, 3 o 4 píxeles del contenido original. Eso es justamente lo que hacen la mayoría de filtros de desenfoque: cambiar el valor de los píxeles por combinaciones lineales de un entorno.

Otra cosa es que subjetivamente me digas "pues yo lo veo bien". Pues perfecto.

Saludos

Claro que si, por eso existe el supersampling y por eso se matan la desarrolladoras por portear sus juegos a resoluciones cercanas a 4K en consola cuando no pueden lograr el 4K nativo...

Me he tomado hasta la molestia de hacerlo
Imagen

Imagen

Imagen

Imagen


Este es vídeo por eso hay granulado, los otros eran fotos y por eso se ven más lisos, es solo por el detalle de los símbolos como se ve que el detalle gana definición con más resolución
Imagen
Imagen
Imagen
Imagen


Está claro que jugar a 720p en una pantalla 4K es mejor experiencia que a 1440p [carcajad]
Imagen

Imagen

Imagen

Imagen
@katatsumuri

Totalmente, tengo una TV 4k (S95C) desde hace un año y una 4070ti y aunque la verdad es que casi siempre juego a 4k con DLSS (calidad o equilibrado según el juego) he probado a hacerlo a 1440p con DLSS calidad en algún juego (Alan Wake 2 por ejemplo) y cero dramas, la imagen se ve muy bien (y soy de los que sufren "grafititis" en los juegos), aunque evidentemente dependiendo de la distancia a la que juegues lo vas a notar más o menos, pero mal no se ve (mal se ven muchos juegos de PS5 en modo rendimiento en una TV 4K, eso si que es verse mal XD )

Ahora bien, hace tiempo que no tiene mucho sentido (desde que está DLSS) pasar de 4k a 1440p "nativos" en una TV 4K, en todo caso en 4k le metes DLSS equilibrado/rendimiento que renderiza incluso por debajo de 1440p y se ve mejor que los 1440p nativos.

Solo le veo sentido bajar a 1440p si con 4k con DLSS Rendimiento no te da FPS y quieres probar a 1440p con DLSS Calidad que tiene un rendimiento ligeramente superior si no recuerdo mal, en torno al 15%, pero ahí también perderías algo de calidad.

En cuanto a la gráfica te recomendaría sin dudarlo una 4070ti super de cabeza, al final DLSS (o FSR) son mandatorios hoy en día y el DLSS es muy superior, tanto que de hecho yo nunca comparo los test de rendimiento 1:1, sino que hago 4k DLSS calidad + FG en Nvidia vs raster de AMD (y claro, gana Nvidia por goleada), ¿es injusto? si claro que lo es, pero por mi experiencia personal en varios juegos probando tecnologías el FSR de AMD no lo soporto ni a nivel calidad en la mitad de los juegos mientras que con Nvidia no noto ninguno diferencia jugando a dlss calidad + FG.
@stan01 menudo lío que veo: o yo no he entendido a katatsumuri o no le has entendido tú, o no te he entendido a ti o te has liado con la explicación.

Lo que creo que dice katatsumuri es que apenas nota diferencia cuando pasa de 1440p a 4k sin usar DLSS/FSR sino con el escalado "cutre" de la gráfica/TV (según la config del driver gráfico).

En tu caso hablas siempre de DLSS, no? Aunque no entiendo muy bien esta frase:
stan01 escribió:Totalmente, tengo una TV 4k (S95C) desde hace un año y una 4070ti y aunque la verdad es que casi siempre juego a 4k con DLSS (calidad o equilibrado según el juego) he probado a hacerlo a 1440p con DLSS calidad en algún juego (Alan Wake 2 por ejemplo) y cero dramas

En la parte que marco en negrita, te referiás a hacerlo a 1440p SIN usar DLSS quizás y haciendo que lo escale "cutremente" la gráfica o TV? Si es así entonces ya entiendo tu mensaje y sí que opinas como katatsumuri.

Pero claro, luego haces hincapié de nuevo en que no tiene sentido pasar de 1440p a 4k sin escalado bueno (DLSS/FSR) y de nuevo me genera dudas con la anterior frase y con el hecho de que opines como katatsumuri.
@Rvilla87 no solo eso, hasta afirma que en un panel 4K es mucho mejor jugar a 1080p o 720p que a 1440p, que es la segunda mejor opción, algo que ha quedado demostrado en las capturas que no es cierto como es lógico y de cajón, pero bueno que yo también me puedo sacar teorías fantásticas, la realidad es tan simple que si salen más píxeles por ancho y por alto más detalle y definición se va a dibujar, no hace falta montarse historias.

De hecho mi texto lo deja claro y no habla de DLSS en ningún momento porque el Op pregunta entre 1440p y 4K si hay mucha diferencia, y la respuesta repito es que la hay, si, pero poca, se puede vivir con ello, no es una pérdida de definición y detalle grande como si lo sería 1080p y ya ni hablemos de 720p, que ni las letras se ven.

Y el escalado es el que hay y el que ha habido siempre de toda la vida, si vienes de consola sobretodo lo has vivido si o si, si tienes opción de dlss pues lo activas, yo no he hablado del dlss, pues es evidente que aplicarlo es mucho mejor que no hacerlo.
@Rvilla87

Lo que pones en negrita me refería a exactamente lo que he puesto, que incluso ejecutando un juego a 1440p con DLSS calidad en una TV 4k no es ningún drama, no se ve "mal" ni mucho menos, aunque se puede notar fácilmente la diferencia si alternas entre un modo 4k y ese modo sobretodo si estas algo cerca de la TV.

Con lo que estoy de acuerdo con lo que comenta @katatsumuri de que:

katatsumuri escribió:De hecho mi texto lo deja claro y no habla de DLSS en ningún momento porque el Op pregunta entre 1440p y 4K si hay mucha diferencia, y la respuesta repito es que la hay, si, pero poca, se puede vivir con ello, no es una pérdida de definición y detalle grande como si lo sería 1080p y ya ni hablemos de 720p, que ni las letras se ven.


No, lo del DLSS lo he añadido yo, y si, se ve mejor un 4k con DLSS en modo equilibrado/rendimiento que un 1440p nativo en una TV 4K.

Creo que no es ninguna incongruencia decir que no hay ningún drama (en cuanto a perdida de calidad) en jugar a 1440p en una TV 4k y que a la vez no tiene mucho sentido hacerlo hoy en día ya que con un 4K aplicandole DLSS rendimiento consigues prácticamente el mismo rendimiento en FPS con una calidad algo superior.

Espero haber aclarado vuestras dudas y perdón por la redacción anterior si fue algo confusa ;)
stan01 escribió:No, lo del DLSS lo he añadido yo, y si, se ve mejor un 4k con DLSS en modo equilibrado/rendimiento que un 1440p nativo en una TV 4K.

Creo que no es ninguna incongruencia decir que no hay ningún drama (en cuanto a perdida de calidad) en jugar a 1440p en una TV 4k y que a la vez no tiene mucho sentido hacerlo hoy en día ya que con un 4K aplicandole DLSS rendimiento consigues prácticamente el mismo rendimiento en FPS con una calidad algo superior.

Espero haber aclarado vuestras dudas y perdón por la redacción anterior si fue algo confusa ;)

Pero si mi texto inicial, al que me has respondido, no habla en ningún momento de DLSS... [facepalm]

Y has afirmado que 720p y que 1080p son mejor opción que 1440p por movidas de interpolación y películas varias [fiu]


Lo pongo en mayúsculas porque no quiero que espantéis al chaval
NO MAREÉIS AL CHAVAL, 1440P SE VE DE P MADRE Y PUNTO, NO HAY OTRA, QUE PREGUNTE A CUALQUIER USUARIO DE CONSOLA QUE ELLOS ESTÁN ACOSTUMBRADOS A VIVIRLO Y NO TIENEN ULTRITIS PORQUE NO PUEDEN, SE COMEN LO QUE LES TIRAN


PASAR DE 4K A 1440P TIENE PÉRDIDA DE DETALLE Y DEFINICIÓN, SI, PERO ES RESIDUAL, EL RESULTADO ES MUY AGRADABLE, NO VAS A NOTAR NINGUNA ABERRACIÓN, VAS A DISFRUTAR DE LOS JUEGOS PORQUE SE SIENTEN MUY BIEN, CON UNA DEFINICIÓN MUY BUENA.


DE HECHO UN USUARIO HA DICHO DIRECTAMENTE QUE NO PUEDES NI DEBES JUGAR A 1440P EN UN PANEL 4K.





Y repito, ahora si hablo de DLSS, si tienes opción de activar el DLSS, pues es mejor activarlo porque es un escalado inteligente que simula una resolución superior, es como estar en nativo, de hecho se han hecho comparaciones con algunos juegos como Death Stranding donde afirmaban que el DLSS era superior que la resolución nativa a la que se pretendía escalar, algo que leí hace tiempo.
@katatsumuri

Ya he dicho que se que tu no has hablado de DLSS, pero yo si, no se cual es el problema.

katatsumuri escribió:Y has afirmado que 720p y que 1080p son mejor opción que 1440p por movidas de interpolación y películas varias [fiu]


¿Perdona que? No se si te estas refiriendo a lo que he puesto de que 4k con DLSS Equilibrado o Rendimiento (que escalan de resoluciones mas bajas por AI) se ve mejor que 1440p nativo (que yo no he hablado de 720p ni de 1080p en ningún momento), si te refieres a eso si, es así. Para película la que te estas montando tu solo.
Comento mi experiencia personal, juego en un panel 4k LG de esos de gama de entrada con una 2060 super así que imaginaos la de reescalados que uso XD

Como es un panel medio grande no lo uso de cerca al momento de jugar, vamos como un monitor de pc de toda la vida. Cuando juego me alejo de el cosa de 3 a 4 metros para tener una visual de toda la pantalla sin problemas, a esa distancia por ejemplo he jugado mucho con DLSS/FRS calidad o balanceado en configuraciones medias-bajas, o configs "optimizadas" como las llaman ahora sin mucho problemas en la mayoria de casos.

Obviamente hay casos como el Alan Wake 2 que ni me dignado a pillar en la epic por que no seria una experiencia buena o el reciente Wukon se que no lo movería de forma decente, asi que los pillo cuando pueda moverlos de mejor forma, igual no soy jugador del momento, ese fomo no va conmigo, juego a lo que quiera y pueda y normalmente pillo los juegos en ofertas, es raro en mi comprar dia 1, solo le he echo con algunos indies y por que sigo a los desarrolladores.

A 1440p se nota de cerca que es mas borroso, pero como os digo al jugar me alejo para poder ver el panel completo y a esa distancia ciertamente se nota mucho menos ese detalle. Donde si se nota borroso desde lejos incluso es a 1080p, alli si es verdad que en paneles 4K no se ven bien, pero ojo un detalle importante, si seteas 4k con reescalado rendimiento (el que renderiza a 1080p para interpolar a 4K digo) la cosa mejora bastante que poner el juego a 1080p a secas. No es una maravilla pero se nota que es mejor ya que imagino aplica filtros, se ve todo mas definido y para ojos menos exigentes seguirán siendo una opción viable aunque en mi caso ya si me empieza a cantar mucho xD.

De momento en la mayoría de casos se mantienen esos 60 fotogramas de promedio y si el juego tiene el generador de frames del FSR3 bien implementado es una buena ayuda dependiendo del juego. Tengo pensado pillar una 4070 super o una 7900gre pero aun espero que bajen mas esos precios para jubilar esa 2060super que esta más que amortizada [sonrisa] (O que una futurible 5070 tenga un precio decente también).

Saludos
stan01 escribió:@katatsumuri

Ya he dicho que se que tu no has hablado de DLSS, pero yo si, no se cual es el problema.

katatsumuri escribió:Y has afirmado que 720p y que 1080p son mejor opción que 1440p por movidas de interpolación y películas varias [fiu]


¿Perdona que? No se si te estas refiriendo al o que he puesto de que 4k con DLSS Equilibrado o Rendimiento (que escalan de resolucioes mas bajas por AI) se ve mejor que 1440p nativo (que yo no he hablado de 720p ni de 1080p en ningún momento), si te refieres a eso si, es así, para película la que te estas montando tu solo.


Has dicho literalmente que jugar a 720p y 1080p es mejor opción que ha 1440p por el simple hecho de que son múltiplos de 4K... [fiu] Y que por lo tanto, por ese hecho ya son mejor opción que 1440p.

Pollonidas escribió:
katatsumuri escribió:1440 casi ni se nota en una TV 4K, es muy poca la bajada de definición pero se percibe como es obvio cuando juegas en nativo, pero es que no lo vas a notar casi, a 1080p ya si que es otra película muy diferente, ahí si que notarías una bajada bastante grande de definición, y a 720p te van a sangrar los ojos, una vez conecté una 360 y fue horrible [carcajad]

No es así. Tanto 1080p como 720p escalan a múltiplos exactos de 4K. En el primer caso 2:1 y en el segundo 3:1. Usar cualquiera de estas resoluciones es la segunda mejor opción (siendo la primera usar la resolución nativa).

Saludos



Yo siempre he hablado de resolución nativa y he puesto de ejemplo los juegos de consola, escalar con IA es prácticamente jugar en nativo.
@katatsumuri

Si no sabes a quien le estas rebatiendo la culpa no es mía

PD. Sin problema, o te estabas equivocando de usuario o mis palabras significaban algo que yo no quería/sabia, me alegra que haya sido lo primero
@stan01 pensaba que era pollonidas hablándome de que hablaba del DLSS, es que me has escrito un mensaje que parecía él rebatiendo lo de la resolución nativa cambinando el argumento, sorry

Típico de cuando te metes a separar a dos personas y acabas en medio de la pelea [carcajad]

Rvilla ha empezado como a decir que igual se refiere al DLSS y entonces yo le he dicho que en ningún momento he hablado de DLSS y justo me has respondido con algo como "yo digo que con el DLSS si se ve mejor", y yo pensaba que eras él afirmando que se refería al DLSS intentando cambiar las cosas de lugar.

sorry de nuevo
(mensaje borrado)
No es mas facil cambiar el monitor 4K por uno QHD si solo lo usas para jugar (Que lo mismo tienes un monitor 4K para tener mas cosas en pantalla y no es posible, pero como no lo se🤣)

Tendrias un monitor QHD a mas de 60Hz, disfrutaris de una buena resolucion y una buena fluidez, yo haria esto, por que comprarme algo que se que no tira del objetivo que deberia cumplir me daria bastante cosa.

Yo tiraba por la RX 7900 XT, con AFMF 2 tiene que escupir fps para parar un camion, con eso alimentas al monitor QHD durante unos pocos años.
ivan95 escribió:No es mas facil cambiar el monitor 4K por uno QHD si solo lo usas para jugar (Que lo mismo tienes un monitor 4K para tener mas cosas en pantalla y no es posible, pero como no lo se🤣)

Tendrias un monitor QHD a mas de 60Hz, disfrutaris de una buena resolucion y una buena fluidez, yo haria esto, por que comprarme algo que se que no tira del objetivo que deberia cumplir me daria bastante cosa.

Yo tiraba por la RX 7900 XT, con AFMF 2 tiene que escupir fps para parar un camion, con eso alimentas al monitor QHD durante unos pocos años.


Yo tengo un 1440p/144hz IPS que me apetece cambiar por un OLED

Ando con la duda de si 27" 1440p o 32" 4K


Solo juego singleplayer y tengo una 6700XT que cambiaré por una RX o RTX de nueva hornada.
Me encanta la cantidad de aportes y visiones del tema

Una cosa que se me ocurrió visto lo que hacemos con la Asus Rog Ally x es usar el 900p

Se me encendió la bombilla y creo que nadie habla de una resolución personalizada 1800p que desempeño puede tener esto en tarjetas pensadas para 1440p?

Se puede emular una experiencia 4k con 1800p?

Cuando monte el 5700x3d lo probaré en la 3070
Después de leeros no me ha quedado claro.

En una TV 4K es mejor jugar a 2k nativos o 4k con dlss equilibrado o rendimiento?
Que cada uno juegue como mejor lo vea y que saque sus propias conclusiones, total cada uno tiene su propia visión

Yo prefiero 4k con Dlss siempre y cuando tenga una tasa de fps 60 hacia arriba estables

Si no es el caso, pues tiro de 1440p nativo (que por cierto No no me sangran los ojos) y tengo una Tv de 85 pulgadas a unos 2 metros de distancia (algo menos) 4k nativa 144hz
SECHI escribió:Después de leeros no me ha quedado claro.

En una TV 4K es mejor jugar a 2k nativos o 4k con dlss equilibrado o rendimiento?

4K con DLSS equilibrado, aunque el DLSS en algunos momentos puede presentar alguna anomalía o no escalar bien del todo, pero por lo general si es un buen DLSS el resultado es bastante satisfactorio respecto a 1440p, pues estarías de una u otra forma jugando en 4K solo que la IA imaginaría los píxeles que faltan.

Por lo general DLSS suele estar muy bien implementado y casi no se aprecian artefactos, pero si te fijas bien los puedes percibir a medida que juegas, tienes que ser tiquismiquis para ello o que suceda algo muy raro.
katatsumuri escribió:
SECHI escribió:Después de leeros no me ha quedado claro.

En una TV 4K es mejor jugar a 2k nativos o 4k con dlss equilibrado o rendimiento?

4K con DLSS equilibrado, aunque el DLSS en algunos momentos puede presentar alguna anomalía o no escalar bien del todo, pero por lo general si es un buen DLSS el resultado es bastante satisfactorio respecto a 1440p, pues estarías de una u otra forma jugando en 4K solo que la IA imaginaría los píxeles que faltan.

Por lo general DLSS suele estar muy bien implementado y casi no se aprecian artefactos, pero si te fijas bien los puedes percibir a medida que juegas, tienes que ser tiquismiquis para ello o que suceda algo muy raro.


Ok entonces opinas igual que yo. Creia que algunos decian que era al reves. No me quedaba claro.
katatsumuri escribió:Claro que si, por eso existe el supersampling y por eso se matan la desarrolladoras por portear sus juegos a resoluciones cercanas a 4K en consola cuando no pueden lograr el 4K nativo...

Este es vídeo por eso hay granulado, los otros eran fotos y por eso se ven más lisos, es solo por el detalle de los símbolos como se ve que el detalle gana definición con más resolución

Está claro que jugar a 720p en una pantalla 4K es mejor experiencia que a 1440p [carcajad]

Estás confundiendo términos y mezclando cosas. Precisamente los desarrolladores se "matan" para sacar frames en resolución 4K con menor coste computacional que lo que requeriría hacer eso de forma nativa, porque haciendo eso se evita todo el problema del escalado.

Yo no digo ni he afirmado en ningún momento que jugar a 720p sea mejor experiencia "global" que jugar a 1440p, ya que evidentemente hay menos información (una cuarta parte para ser exactos) con reescalado o sin él. Lo que sí he afirmado y mantengo es que cualquier escalado, especialmente si es 3:2 como 1440p a 4K, altera la imagen, y es deseable utilizar múltiplos exactos incluso si es "a menos". En un panel 4K, usar una entrada a 720p es fiel a lo que sale de la gráfica y a 1440p no, eso es un hecho, no una opinión.

Yo también me voy a tomar la molestia de explicarlo, no con capturas sino con algo mucho más sencillo y mundano, a ver si con un dibujo se entiende bien.

Lo siguiente representa como encajan una entrada de resolución 1440p (en rojo punteado) en un panel con resolución 4K (en negro), en cualquiera de las 4 esquinas del monitor. Este patrón se repite a lo largo de todo el panel realmente, pero creo que en las esquinas es más sencillo de imaginar.
Imagen


...si tenemos una entrada 1440p, la única información de la que disponemos es la de los recuadros en rojo punteado, que evidentemente tienen un color y solo uno. Dime por favor @katatsumuri de qué color debería pintar los píxeles del panel marcados con un interrogante (en el resto es evidente porque solo coinciden con un píxel del contenido original, así que el color que deben tener es justamente ese):
Imagen


Esto es un problema que viene de mucho antes del desarrollo de videojuegos, y que tiene muchas posibles soluciones, pero ninguna lo solventa al 100% porque simple y llanamente no es posible (hay que "inventarse" información y hay infinitas maneras de hacerlo, cada una con sus ventajas e inconvenientes). Lo más habitual es simplemente coger el valor más próximo (NN), pero se crea cierto desplazamiento y un patrón muy característico. También se puede hacer una combinación lineal de los valores de los píxeles (lo que normalmente se llama filtro bilineal en este contexto), pero se emborrona la imagen.

Si el escalado se hace en la gráfica antes de generar la salida, con deep learning (DLSS) o con cualquier otra tecnología muchitástica para "inventarse" la información que falta, todos los píxeles tienen su valor y ya no existe ese problema. Pero no era el caso que se estaba tratando, porque en este último supuesto lo que llega a la TV/monitor ya es 4K y coincide exactamente con los píxeles del panel, independientemente de la resolución interna a la que se haya renderizado la información que se ha usado para generar ese cuadro.

Y termino con una imagen que creo que es bastante gráfica. Muestro los primeros 6x6 píxeles de un panel 4K (el patrón se repite). De izquierda a derecha, en rojo es como encaja una resolución 1440p, en verde claro como encaja una resolución 1080p, y en azul claro como encaja una resolución 720p
Imagen


En cualquiera de los dos últimos casos de la figura anterior, me puedes decir que se están infrautilizando las capacidades del panel, cosa en la que estoy de acuerdo, pero al menos no se empeora en absoluto la imagen frente a lo que se vería en un panel con la resolución nativa. En el primer caso... evidentemente sí.

Saludos
Pollonidas escribió:Yo no digo ni he afirmado en ningún momento que jugar a 720p sea mejor experiencia "global" que jugar a 1440p, ya que evidentemente hay menos información (una cuarta parte para ser exactos) con reescalado o sin él. Lo que sí he afirmado y mantengo es que cualquier escalado, especialmente si es 3:2 como 1440p a 4K, altera la imagen, y es deseable utilizar múltiplos exactos incluso si es "a menos". En un panel 4K, usar una entrada a 720p es fiel a lo que sale de la gráfica y a 1440p no, eso es un hecho, no una opinión.[/size][/b]


No me lo voy ni a leer, me vendiste la moto de que 720p y 1080p era la segunda mejor opción después de 4K nativo, por encima de 1440p, no tengo mucho más que agregar, bastante ya hice perdiendo mi tiempo sacando fotos a juegos y poniéndotelas de ejemplo real, arriba las tienes para ver la diferencia.

Saludos

Pollonidas escribió:
katatsumuri escribió:1440 casi ni se nota en una TV 4K, es muy poca la bajada de definición pero se percibe como es obvio cuando juegas en nativo, pero es que no lo vas a notar casi, a 1080p ya si que es otra película muy diferente, ahí si que notarías una bajada bastante grande de definición, y a 720p te van a sangrar los ojos, una vez conecté una 360 y fue horrible [carcajad]

No es así.Tanto 1080p como 720p escalan a múltiplos exactos de 4K. En el primer caso 2:1 y en el segundo 3:1. Usar cualquiera de estas resoluciones es la segunda mejor opción (siendo la primera usar la resolución nativa).



Dejad de confundir al chaval, jugar a 1440p en un panel 4K es mucho mejor que a 720p o 1080p, y la pérdida de calidad es ínfima, casi no se nota.

Jugar a 1440p no es un pecado divino como afirma el usuario que dice que en una TV 4K hay que jugar a 4K y no hay más, en una TV 4K puedo jugar hasta a 8K si me da la gana y tendré supersampling, y si juego a menos resolución a determinado juego porque mi GPU no puede con todo o porque prefiero x efecto que me consume haré un downsampling porque simple y llanamente puedo por preferencia o porque no queda otra, y no por eso voy a tirar a la basura el ordenador o el televisor ni me voy a comprar otro.
katatsumuri escribió:@Pollonidas no me lo voy ni a leer, me vendiste la moto de que 720p y 1080p era la segunda mejor opción después de 4K nativo, por encima de 1440p, no tengo mucho más que agregar, bastante ya hice perdiendo mi tiempo sacando fotos a juegos y poniéndotelas de ejemplo real, arriba las tienes para ver la diferencia.

Saludos

Haz lo que estimes conveniente. Yo he visto tus capturas y he me leído tu mensaje por respeto, en la cita las he omitido por mantener el tema más legible, quién las quiera ver las tiene en el post original, sinceramente no sé qué querías que viera. Si lo que querías mostrar es que a 720p hay menos información que a 1080p y que a 4K, creo qu es algo que sabemos los dos. Desconozco por qué tomas algo que es información y hechos (que no opiniones) como un ataque personal, pero en fin, allá cada cual.

Sí que te pido por favor que, aunque no te leas el post, me contestes a la pregunta en la línea que te menciono, para que aclares la duda al resto de usuarios que podrían estar interesados en saber la respuesta. Es decir, de qué color se deberían pintar los píxeles marcados con interrogante.

Saludos
@Pollonidas no soy técnico, supongo que los interpola o los duplica, por eso se pierde definición respecto al nativo, no tiene mucho secreto supongo, también los interpola desde 1080p porque no existen.
katatsumuri escribió:@Pollonidas no soy técnico, supongo que los interpola o los duplica, por eso se pierde definición respecto al nativo, no tiene mucho secreto supongo, también los interpola desde 1080p porque no existen.

Justamente esto es lo que quería aclarar, pero veo que sin éxito porque ni siquiera piensas leer el post. Lo que remarco en negrita en la cita es una idea preconcebida que mucha gente tiene y no es así.

Desde 1080p no hay nada que interpolar porque coinciden perfectamente todos y cada uno de los píxeles. Simplemente cada 4 píxeles del panel (2 a lo alto y 2 a lo ancho) representan un único píxel de la entrada.

Lo iba a hacer con colores pero creo que se ve peor, con mucho ruido, así que uso una figura similar a las anteriores. Esto es como coincide una entrada 1080p (cuadrados en rojo punteado) con un panel 4K cuadrados en negro:
Imagen


No hay ningún cuadrado "pendiente" ni ningún borde que no coincida, luego no tiene sentido interpolar nada, simplemente mostrar el contenido y listo. Que un píxel de la imagen lo formen en realidad 4 píxeles del panel no tiene efecto para bien ni para mal.

SECHI escribió:Después de leeros no me ha quedado claro.

En una TV 4K es mejor jugar a 2k nativos o 4k con dlss equilibrado o rendimiento?

Creo que esto se había quedado sin responder por mi parte. Coincido con el compañero en que es mejor 4K con cualquiera de los dos ajustes de DLSS. Mi argumento era en contra de usar 1440p nativo salvo que no haya otro remedio.

Saludos
Pollonidas escribió:Mi argumento era en contra de usar 1440p nativo salvo que no haya otro remedio.

Saludos

Habías dicho literalmente que usar resolución 720p y 1080p en un panel 4K era la segunda mejor opción por encima de 1440p después del 4K nativo, no cambies las tornas [toctoc]

Y a 1080p va a tener que interpolar pixeles también, muchos más, por eso se degrada tanto la definición y tienes las capturas de arriba que lo dejan claro.


1440p es bien en un panel 4K y punto, no hay más, no os montéis películas, el chaval solo quiere saber si la sensación de jugar a 1440p en un panel 4K es placentera, y la respuesta es simple, si lo es, mucho mejor que a 1080p o 720p y el resultado es óptimo y para nada molesto como pinta otro forero que casi parece que pronostica el apocalipsis por jugar a 1440p, que solo puedes jugar a 4K en un panel 4K, no hay otra, oye, ni aunque haya la opción y encima el resultado sea óptimo.
Estoy con @Pollonidas, se lo que dices aunque yo lo hago al contrario de la pregunta de este tema, yo tengo TV FHD y con la Super Resolucion de AMD puedo superar el 1080P en la TV, si pongo 1440P se "emborrona" la imagen precisamente por que los pixeles no coinciden, si pongo 2160P se ve todo mucho mas nitido auqnue el panel sea 1080P.

Por lo que entiendo a que te refieres, tu intentas mantener la imagen lo mas original posible, la otra opcion que dice el compañero lo mismo tiene mas nitidez, pero esta adulterada la imagen.

Por lo que en cierta manera ambos teneis razon.
Yo estoy con con ambos, me explico, pienso que ambos lleváis razón, lo que dice Pollonidas (que me parece uno de los mejores foreros y con más conocimientos del foro ojo) no me parece incorrecto per se, pero aunque siempre he leído lo de la densidad de píxeles y que 1920x1080p es múltiplo de 3840x2160p y 720p lo mismo, 1440p siempre lo he visto mejor incluso sin usar reescaladores, al menos en TV, por lo que para mí en la práctica lleva razón Katatsumuri y creo que Pollonidas al menos en lo de que es mejor opción 1080p o 720p está equivocado. Quizás se pueda dar la situación de que a similar número de píxeles (por ejemplo vamos a poner 1970x1155p por decir algo) pero impares donde la TV se tenga que inventar píxeles pues quizás salga más a cuenta 1080p nativo, pero cuando hay una diferencia enorme de píxeles como 1440p vs 1080p o ya ni digamos 1440p vs 720p, en la práctica va a ser mejor 1440p.


Lo que por mi experiencia sucede con esto de la densidad de píxeles 1:1 es lo siguiente, resumiendo mucho muchísimo:

En 4K jugando a 1080p tienes la misma experiencia que jugando en un panel nativo a 1080p.
En 4K jugando a 1440p tienes mejor calidad de imagen que a 1080p, pero peor que en un panel 1440p nativo por lo que ha explicado @Pollonidas


Lo mejor en mi opinión es usar reescalados y que la salida sea 4K ya sea con DLSS, FSR, Intel Xess o el TSR del UE5, y luego ya ahí lo ajustas a tu gusto (calidad es 1440p, balanceado creo que algo así como 1270p, rendimiento 1080p..).


El único error que le veo a la argumentación de Pollonidas como ya he comentado es que no concuerdo con que la segunda mejor opción sea usar resoluciones como 1080p o 720p si no puedes usar la resolución nativa, creo que lo ideal es nativa, luego usar reescaladores en calidad, luego una salida 1440p nativa y si tampoco puedes, DLSS en rendimiento a 1080p nativo, y si tampoco es posible (cosa imposible porque ya 3-4fps no suponen diferencia) jugar a 1080p. Es decir, para mí sería la última opción dentro de la enorme gama de resoluciones y posibilidades que hay, no la segunda (ni hablemos de 720p). En la práctica al menos en televisores estoy seguro de que no es así, ahora, cuidado en monitores porque no suelen escalar nada bien las resoluciones que no sean nativas. El caso es que de ninguna manera veo que sea mejor usar 720p que 1440p en una TV 4K, ni tampoco 1080p. Ahí lleva toda la razón @katatsumuri
katatsumuri escribió:Habías dicho literalmente que usar resolución 720p y 1080p en un panel 4K era la segunda mejor opción por encima de 1440p después del 4K nativo, no cambies las tornas [toctoc]

Yo no he cambiado nada, ahí están los mensajes originales para leer exactamente lo que he dicho. En los casos que haya ediciones (que hay algunos, mayormente por errores tipográficos o por algo que había olvidado) se puede ver que es justo después de la fecha del post. Puedo aceptar que la redacción original podría ser mejor y más clara, de acuerdo, pero no es eso lo que estás apuntando.

Sin hablar de si la experiencia es mejor o peor (reitero: nadie discute que en 1440p hay más información que en 1080p y que en 720p, incluso si se muestra "adulterado" en un panel 4K) mantengo que la segunda mejor forma de usar un panel por debajo de su resolución nativa es la mitad, y que la segunda mejor forma es 1/3, y así sucesivamente. Evidentemente llega un punto (sobre todo a 720p) que incluso sin artifacts de escalado la experiencia empieza a ser bastante peor por eso, porque no hay información en el contenido original.

katatsumuri escribió:Y a 1080p va a tener que interpolar pixeles también, muchos más, por eso se degrada tanto la definición y tienes las capturas de arriba que lo dejan claro.

Esto no es cierto por todo lo expuesto y no me voy a repetir más. Si quieres rebatirlo, no me digas que mire las capturas, señálame por favor un solo píxel que sea interpolado. Sin filtros de reducción de desenfoque de movimiento ni postprocesado, solo con escalado. Con uno me basta, no me hace falta que sean "muchos más". Evidentemente en una captura resolución 4K y en un formato sin pérdidas como PNG o TIF. En las capturas de arriba lo que vas a ver es 1) artifacts de la compresión jpeg 2) resampling de haber utilizado una resolución mayor pero muy diferente a la original (la primera captura veo que tiene tamaño 3648x2736 que no coincide con nada de lo que esperaría ver)

Cyborg_Ninja escribió:Yo estoy con con ambos, me explico, pienso que ambos lleváis razón, lo que dice Pollonidas (que me parece uno de los mejores foreros y con más conocimientos del foro ojo) no me parece incorrecto per se, pero aunque siempre he leído lo de la densidad de píxeles y que 1920x1080p es múltiplo de 3840x2160p y 720p lo mismo, 1440p siempre lo he visto mejor incluso sin usar reescaladores, al menos en TV, por lo que para mí en la práctica lleva razón Katatsumuri y creo que Pollonidas al menos en lo de que es mejor opción 1080p o 720p está equivocado. Quizás se pueda dar la situación de que a similar número de píxeles (por ejemplo vamos a poner 1970x1155p por decir algo) pero impares donde la TV se tenga que inventar píxeles pues quizás salga más a cuenta 1080p nativo, pero cuando hay una diferencia enorme de píxeles como 1440p vs 1080p o ya ni digamos 1440p vs 720p, en la práctica va a ser mejor 1440p.


Lo que por mi experiencia sucede con esto de la densidad de píxeles 1:1 es lo siguiente, resumiendo mucho muchísimo:

En 4K jugando a 1080p tienes la misma experiencia que jugando en un panel nativo a 1080p.
En 4K jugando a 1440p tienes mejor calidad de imagen que a 1080p, pero peor que en un panel 1440p nativo por lo que ha explicado @Pollonidas


Lo mejor en mi opinión es usar reescalados y que la salida sea 4K ya sea con DLSS, FSR, Intel Xess o el TSR del UE5, y luego ya ahí lo ajustas a tu gusto (calidad es 1440p, balanceado creo que algo así como 1270p, rendimiento 1080p..).


El único error que le veo a la argumentación de Pollonidas como ya he comentado es que no concuerdo con que la segunda mejor opción sea usar resoluciones como 1080p o 720p si no puedes usar la resolución nativa, creo que lo ideal es nativa, luego usar reescaladores en calidad, luego una salida 1440p nativa y si tampoco puedes, DLSS en rendimiento a 1080p nativo, y si tampoco es posible (cosa imposible porque ya 3-4fps no suponen diferencia) jugar a 1080p. Es decir, para mí sería la última opción dentro de la enorme gama de resoluciones y posibilidades que hay, no la segunda (ni hablemos de 720p). En la práctica al menos en televisores estoy seguro de que no es así, ahora, cuidado en monitores porque no suelen escalar nada bien las resoluciones que no sean nativas. El caso es que de ninguna manera veo que sea mejor usar 720p que 1440p en una TV 4K, ni tampoco 1080p. Ahí lleva toda la razón @katatsumuri

Tampoco tenemos por qué estar de acuerdo en todo ni yo creo estar ni mucho menos en posesión de la verdad absoluta. Como estoy intentado de aclarar en los últimos mensajes, la experiencia global puede ser mejor a 1440p que a 1080p a título totalmente subjetivo pero sigue siendo a costa de alterar la señal de entrada. Porque hay más información, pero se emborrona la imagen sí o sí. Como la densidad de píxeles es relativamente alta, este desenfoque puede no notarse, pero ahí está.

Pongo un ejemplo. Una imagen "tal cual" de un juego de GBA, y la misma imagen con una interpolación bilineal:
Imagen


Lo que ocurre en la segunda imagen es justamente lo que ocurre al utilizar una entrada 1440p en un monitor 4K. ¿Es mejor, peor...? Depende. Se ven menos bordes de sierra, pero el precio a pagar es que TODO es ligeramente más borroso, y yo al menos esperaría ver los bordes de Samus claramente delimitados. A mi juicio el brazo se ve mejor en la imagen con el filtro, pero tanto el suelo como la puerta están menos logrados. Es subjetivo. Yo lo que digo es que, independientemente de si a ti en particular te parece mejor o peor, eso está alterando la imagen original de una forma que impide recuperarla. Cuanto mayor es la resolución menos notorio es el desenfoque, pero se están interpolando más de la mitad de los píxeles y eso es un hecho.

A 720p la experiencia va a ser peor, porque no hay información suficiente para que se vea nítido en primer lugar. Lo de que sea la "tercera" mejor forma de utilizar un panel 4K sin duda necesita un asterisco. Esa aclaración está hecha, hasta cierto punto, en los posts siguientes. Vistas las respuestas no he hecho un buen trabajo explicándome.

Yo estoy de acuerdo en todo lo que comentas, salvo quizás en el orden de prioridad (yo personalmente creo que incluso un mal escalador basado en IA tiene más recursos para rellenar la información que falta que un escalador basado en visión artificial clásica). Para mí los reescaladores basados en imagen serían la penúltima opción, justo antes de usar directamente el escalador por hardware de la TV/monitor (que seguramente usará NN y a correr). Te lo dice alguien que lleva los últimos 10 años dedicándose a este campo. Creo que esto que comentas es un buen resumen (aunque yo quizás matizaría lo de "calidad de imagen" en el sentido de que hay más información, que es bueno, pero irremediablemente se distorsiona al mostrarla, que es malo):
Cyborg_Ninja escribió:Lo que por mi experiencia sucede con esto de la densidad de píxeles 1:1 es lo siguiente, resumiendo mucho muchísimo:

En 4K jugando a 1080p tienes la misma experiencia que jugando en un panel nativo a 1080p.
En 4K jugando a 1440p tienes mejor calidad de imagen que a 1080p, pero peor que en un panel 1440p nativo por lo que ha explicado @Pollonidas


Saludos
SECHI escribió:Después de leeros no me ha quedado claro.

En una TV 4K grande es mejor jugar a 2k nativos o 4k con dlss equilibrado o rendimiento?


Como yo decia en mi post, veo mejor 4k con reescalados ya sea calidad o equilibrado. Ten en cuenta que en DLSS calidad (creo que con FRS tambien) renderiza a 1440p y escala/filtra a 4K. Tambien hay que tener en cuenta que elementos como el HUD o interfaz serán renderizados a 4K. Se debe tener en cuenta tambien que depende de como implementen el reescalado, ya eso es cosa del desarrollador/juego.

Otro detalle que comentaba era que si juegas alejado de tu TV, cosa de 3 a 4 metros, por lo menos en mi caso no noto prácticamente si es 4k con DLSS o 1440p. Si me pongo muy ojo bionico podria decir es que se ve todo mas suavizado a 1440p. Tambien puedes hacer un poco de trampa y subirle la nitidez un poco al tv, a 3 metros tal ves ayude a definir un poco mas todo XD
Actualmente con una 7900xtx y una tv LG OLED55C24LA 55", pasando 100% de RT, puedo jugar a casi todo a 4k nativo. Los 3A más actuales ya me hacen usar FSR, que en calidad escala desde 1440p a 2160p, para poder jugar en alto y a más de 60 FPS.

Lo que vengo a decir es que si encuentras una buena oferta de una 7900xtx o 4080 no te preocupes no te va a sobrar grafica con los juegos más exigentes.

La 7800xt es básicamente una 6800xt y la 4070 se queda corta en Vram
Las 7900Gre y 7900xt precio calidad están muy bien.

Saludos [oki] [oki]
41 respuestas