¿Qué tal se ve una resolución 2K en un monitor 4K (sin emplear IA para reescalar)?

Buenas,

Abro otro hilo, un poco relacionado con otros que he abierto, pero es una duda distinta. Por eso abro otro hilo.

Como me compraré un monitor nuevo, estoy dudando entre 2K o 4K.

El 4K lo aprovecharía con la consola. Actualmente PS5 Pro.

Pero en PC, para ahorrar recursos, probablemente jugaría a 2K (y que el monitor reescale hasta 4K).

¿Qué tal se vería ese reescalado (que hace el monitor) de 2K a 4K? NOTA: el monitor sería de 27 pulgadas

¿Muy borroso por el reescalado? ¿O suficientemente nítido, porque son 2K, aunque sean reescalados?

Si uso DLSS en calidad, sé que funciona bastante bien. Pero no todos los juegos tienen DLSS.

Y por eso me gustaría saber qué tal se ve si NO uso DLSS.

Gracias! :)
El reescalados del monitor sera horrible.

Pero si tienes Nvidia o AMD puedes activar el reescalados de los drivers basado spatial upscaling que funciona en todos los juegos y será muy superior al reescalados del monitor a secas aún así no será lo más optimo en calidad de imagen.

La PS5 tampoco va 4k nativos usa reescalado PSSR en la mayoría de juegos.

Bajo mi opinión si el PC y PS5 no va ir 4k nativos, te sale más acuenta un monitor 2k, al menos que juegues con los reescalados existentes y no te moleste.
HakiGold escribió:El reescalados del monitor sera horrible.

Pero si tienes Nvidia o AMD puedes activar el reescalados de los drivers basado spatial upscaling que funciona en todos los juegos y será muy superior al reescalados del monitor a secas aún así no será lo más optimo en calidad de imagen.

La PS5 tampoco va 4k nativos usa reescalado PSSR en la mayoría de juegos.

Bajo mi opinión si el PC y PS5 no va ir 4k nativos, te sale más acuenta un monitor 2k, al menos que juegues con los reescalados existentes y no te moleste.


Gracias por la respuesta :)

Tan mal reescala un monitor? Supongo que serán los "baratos". Monitores buenos supongo que lo harán mejor, no?

Mi miedo más que nada es por si se pierde mucha nitidez. Sé que no se va a ver tan nítido como 4K, pero siendo 2K en una pantalla de 27"...

Pero si como dices, puedo hacer que en juegos, el reescalado lo haga la GPU en lugar del monitor, podría usar esa opción :)
4K es demasiada resolución para 27 pulgadas. En ese tamaño no creo que notes diferencia entre 1440p y 4K.
Para 27" lo ideal es un monitor 1440p. Te ahorras dinero y problemas (como tener que bajar la resolución porque los juegos no vayan bien o que windows se vea demasiado pequeño).
sutalu escribió:Buenas,

Abro otro hilo, un poco relacionado con otros que he abierto, pero es una duda distinta. Por eso abro otro hilo.

Como me compraré un monitor nuevo, estoy dudando entre 2K o 4K.

El 4K lo aprovecharía con la consola. Actualmente PS5 Pro.

Pero en PC, para ahorrar recursos, probablemente jugaría a 2K (y que el monitor reescale hasta 4K).

¿Qué tal se vería ese reescalado (que hace el monitor) de 2K a 4K? NOTA: el monitor sería de 27 pulgadas

¿Muy borroso por el reescalado? ¿O suficientemente nítido, porque son 2K, aunque sean reescalados?

Si uso DLSS en calidad, sé que funciona bastante bien. Pero no todos los juegos tienen DLSS.

Y por eso me gustaría saber qué tal se ve si NO uso DLSS.

Gracias! :)


Juego a 1440p en una TV de 55" (normalucha) y se ve escandalosamente bien. Según el juego, hay veces que me cuesta horrores distinguirlo con el 4k sin acercarme a medio metro. Supongo que dependera de la TV/monitor.
jorge5150 escribió:4K es demasiada resolución para 27 pulgadas. En ese tamaño no creo que notes diferencia entre 1440p y 4K.
Para 27" lo ideal es un monitor 1440p. Te ahorras dinero y problemas (como tener que bajar la resolución porque los juegos no vayan bien o que windows se vea demasiado pequeño).


Ya, para 27" las 4K quizás sea pasarse. Pero es más que nada para aprovechar las 4K que me está dando la PS5 Pro, y el futuro PC.

Mi miedo es más que nada que el 2K se vea "muy mal" en una 4K, pero si "apenas hay diferencia", con eso me vale :)

En mi caso, ahora mismo juego con un monitor 1920x1200p (es 16:10), y sí que noto la diferencia entre 2K (usualmente modo rendimiento) y 4K (usualmente modo calidad) cuando juego en PS5.

Con 2K se aprecian menos detalles que a 4K, pero no es que se vea mal (en plan como si viera algo a 720p).

Pero claro, porque tengo un monitor más pequeño que las 2K, y se hace downsampling.
@OK Computer

Efectivamente un monitor lo vas usar a menos de 1 metro, 50 o 80cm, así que si lo va notar.

@Sutalu

Si el monitor es de 27 1440p es más que suficiente en densidad de pixel en ese monitor, 4k no valdría la pena en monitor de ese tamaño y terminar usando reescalados...

4k a lo mejor comienza a ser interesante en 32 pulgadas, mi monitor es 32 1440p, y sigue teniendo una imagen nítida, no se le ven los pixel , ni nada de eso.
HakiGold escribió:@OK Computer

Efectivamente un monitor lo vas usar a menos de 1 metro, 50 o 80cm, así que si lo va notar.

@Sutalu

Si el monitor es de 27 1440p es más que suficiente en densidad de pixel en ese monitor, 4k no valdría la pena en monitor de ese tamaño y terminar usando reescalados...

4k a lo mejor comienza a ser interesante en 32 pulgadas, mi monitor es 32 1440p, y sigue teniendo una imagen nítida, no se le ven los pixel , ni nada de eso.


Pero ¿qué tal se verían los reescalados a 1440p?

Quiero decir, puede que no siempre juegue a 1440p nativos, sino reescalados con DLSS.

Y claro, si reescalo a 1440p, partiría de resoluciones muy bajas: 960p o 720p.

Cosa que si tuviera 4K, e hiciera reescalados, ya serían desde 1440p o 1080p, que ya son resoluciones más decentes.
@sutalu

Ya te lo comenté atrás, te hago resumen:

- Reescalado por monitor o GPU = Horrible ,más en resoluciónes muy bajas de la nativa.

-Reescalados por drivers NIS o RIS = decente, si no se va resoluciónes muy bajas de la nativa menos del 80%.

- DLSS o FSR implementando por juegos = bien, pero solo algunos títulos cuentan con soporte nativo.
No se trata de aprovechar o no, se trata de que poca diferencia vas a ver entre 1440p y 4k en un monitor de 27. Simplemente no merece la pena. 4k a partir de 32.

Por otro lado el reescalado de una imagen desde 1440p a 4k hecho por el mismo monitor es un asco. Precisamente para eso está DLSS, que hace literalmente eso: genera un frame a resolución menor y lo escala a la resolución que le digas.
HakiGold escribió:@OK Computer

Efectivamente un monitor lo vas usar a menos de 1 metro, 50 o 80cm, así que si lo va notar.

@Sutalu

Si el monitor es de 27 1440p es más que suficiente en densidad de pixel en ese monitor, 4k no valdría la pena en monitor de ese tamaño y terminar usando reescalados...

4k a lo mejor comienza a ser interesante en 32 pulgadas, mi monitor es 32 1440p, y sigue teniendo una imagen nítida, no se le ven los pixel , ni nada de eso.


Juego a metro y medio de la TV. No es que me coma la pantalla, es que la pantalla me come a mí [+risas]

De todas formas no me hagas mucho caso. Entre que apenas percibo diferencias entre 4k y 1440p y si la imagen está en estático (que si no, chungo), que no noto las latencias que otros sí en según que contextos, que apenas distingo (y no valoro) tasas superiores a los 60 FPS, que el RT me parece entre meh y ñeh... Desde luego que las tecnologicas, poco aprecio me tienen.
Tira a por el QHD y dejate del UHD.

La PS5 PRO no va a 4K nativos, por lo tanto estas comprando algo que no vas a usar al 100% nunca, para eso compra algo que ademas de usarlo al 100% te va a dar mejor resultado y alargara la vida de tu PC, en el momento que te metas en el 4K (Nativo, nada de reescalados) te vas a arrepentir de lo que necesitas para alimentar eso, es como todo en la vida, que chulo es comprarse un Mustang con un motor V8 de 5L, lo disfrutaras sin duda, pero cuando veas que se bebe la gasolina como si fuera sopa, ya deja de gustarte🤣
Repito a grandes rasgos lo que comenté en este tema que preparé unas imágenes para explicar justamente este problema, sin mucho éxito.

Cualquier escalado, especialmente si es 3:2 como 1440p a 4K, altera la imagen, y es deseable utilizar múltiplos exactos incluso si es "a menos". En un panel 4K, usar una entrada a 720p es fiel a lo que sale de la gráfica y a 1440p no, eso es un hecho, no una opinión.

Lo siguiente representa como encajan una entrada de resolución 1440p (en rojo punteado) en un panel con resolución 4K (en negro), en cualquiera de las 4 esquinas del monitor. Este patrón se repite a lo largo de todo el panel realmente, pero creo que en las esquinas es más sencillo de imaginar.
Imagen


...si tenemos una entrada 1440p, la única información de la que disponemos es la de los recuadros en rojo punteado, que evidentemente tienen un color y solo uno. No hay forma de saber (sin IA) de qué color pintar los píxeles del panel marcados con un interrogante (en el resto es evidente porque solo coinciden con un píxel del contenido original, así que el color que deben tener es justamente ese):
Imagen


Esto es un problema que viene de mucho antes del desarrollo de videojuegos, y que tiene muchas posibles soluciones, pero ninguna lo solventa al 100% porque simple y llanamente no es posible (hay que "inventarse" información y hay infinitas maneras de hacerlo, cada una con sus ventajas e inconvenientes). Lo más habitual es simplemente coger el valor más próximo (NN), pero se crea cierto desplazamiento y un patrón muy característico. También se puede hacer una combinación lineal de los valores de los píxeles (lo que normalmente se llama filtro bilineal en este contexto), pero se emborrona la imagen.

Si el escalado se hace en la gráfica antes de generar la salida, con deep learning (DLSS) o con cualquier otra tecnología muchitástica para "inventarse" la información que falta, todos los píxeles tienen su valor y ya no existe ese problema.

Y termino con una imagen que creo que es bastante gráfica. Muestro los primeros 6x6 píxeles de un panel 4K (el patrón se repite). De izquierda a derecha, en rojo es como encaja una resolución 1440p, en verde claro como encaja una resolución 1080p, y en azul claro como encaja una resolución 720p
Imagen


En cualquiera de los dos últimos casos de la figura anterior, me puedes decir que se están infrautilizando las capacidades del panel, cosa en la que estoy de acuerdo, pero al menos no se empeora en absoluto la imagen frente a lo que se vería en un panel con la resolución nativa. En el primer caso... evidentemente sí.

Y sin ánimo de ser pedante: 2K no existe, y da lugar a confusión. El término 4K se suele utilizar para la resolución UHDV (3840x2160) porque las líneas horizontales redondeadas son aproximadamente 4000. El término 2K por esa misma regla de tres sería la resolución FullHD (1920x1080). A lo que tú te refieres es 2.7K o, más correctamente, 1440p o QHD.

Saludos
Ya te respondo yo que tengo un 4K de 32" desde hace 5 años.

Si te compras un monitor 4K es para verlo todo super nítido. Una vez te acostumbras al tamaño y la resolución, TODO te va a a parecer una calidad terrible, 1440p y 1080p ya ni te cuento. No merece la pena ni con reescalados. Tienes que tener una gráfica para jugar a 4K, si no, no merece la pena en mi opinión.
Me estáis convenciendo por los 2K jajajjaj

Pero ahora me asalta otra duda. Supongamos que me pillo un monitor 2K.

- ¿Qué tal se ve jugar a 2K reescalados con DLSS calidad? ¿Hay mucha diferencia respecto el 2K nativo?

Lo digo más que nada porque el DLSS en calidad, para 2K, parte de 960p. Y como es una resolución "baja", quizás el reescalado no sea muy bueno.

- ¿Y si jugase a 1080p nativos (sin reescalar)? (para juegos que fueran muy demandantes). ¿Qué tal se vería?

Pasar de 1080p a 1440p, son apenas 360p de diferencia. No se tiene que inventar mucho. No es tanto como de 2K (1440p) a 4K (2160p), que son 720p de diferencia.

Yo por ejemplo con mi monitor actual de 1200p, a veces juego (en PC) con resoluciones 1050p, o incluso 900p, y si bien ya no se ve nítido, tampoco es "super borroso" (como sería jugar a 720p o menos, reescalados a pantallas HD).

****************************************************

@Pollonidas

NOTA: uso 2K por abreviar. Ya sé que lo digo mal, pero con 2K me estoy refiriendo a 2560x1440p.

Pues leyendo tu post con más atención... me entran más dudas jajajajja

Si me pillase un 4K, y en determinados momentos quisiera jugar a menos resolución (por falta de potencia), podría coger una resolución 1080p, y no vería "cosas raras".

Ahora bien. Unos matices a lo que has dicho:

Aunque el 4K sea proporcional a 1080p y 720p, tendría que aplicarse un "reescalado entero" (integer scaling) para que se viese sin imperfecciones.

O dicho al revés. Si se utilizase el reescalado "clásico" (tipo lineal, cúbico...), aunque 4K sea proporcional a 1080p, el reescalado (al no ser "entero") podría generar cierto "difuminado".

Pero es que se puede rizar más el rizo :(

Si bien reescalar de 2K a 4K (sin usar IA), como no son múltiplos, veríamos que la imagen resultante NO es nítida.

Pero... ¿sería más nítida (esa imagen 2K reescalada a una pantalla 4K), que una imagen a 1080p en un panel 1080p? (hablando siempre en pantallas del mismo tamaño).

Es decir, aunque el reescalado de 2K a 4K no sea perfecto, al final, 2K es más que 1080p, así que ¿quizás se vería mejor que la imagen a 1080p en un monitor 1080p?

Qué difícil me está siendo la elección [mamaaaaa] Más que nada por los reescalados.

Porque, reescalados perfectos, para 4K: 1080p y 720p
Y reescalados perfectos, para 2K (1440): 720p y 360p

Y claro, si a futuro juego en 2K con reescalado, va a partir de resoluciones muy bajas, donde apenas hay información para reescalar.

Cosa que si me pillo una 4K, y usase reescalados, al menos podría partir de 1080p (que ya es algo bastante decente).
sutalu escribió:Me estáis convenciendo por los 2K jajajjaj

Pero ahora me asalta otra duda. Supongamos que me pillo un monitor 2K.

- ¿Qué tal se ve jugar a 2K reescalados con DLSS calidad? ¿Hay mucha diferencia respecto el 2K nativo?

Lo digo más que nada porque el DLSS en calidad, para 2K, parte de 960p. Y como es una resolución "baja", quizás el reescalado no sea muy bueno.

- ¿Y si jugase a 1080p nativos (sin reescalar)? (para juegos que fueran muy demandantes). ¿Qué tal se vería?

Pasar de 1080p a 1440p, son apenas 360p de diferencia. No se tiene que inventar mucho. No es tanto como de 2K (1440p) a 4K (2160p), que son 720p de diferencia.

Yo por ejemplo con mi monitor actual de 1200p, a veces juego (en PC) con resoluciones 1050p, o incluso 900p, y si bien ya no se ve nítido, tampoco es "super borroso" (como sería jugar a 720p o menos, reescalados a pantallas HD).

****************************************************

@Pollonidas

NOTA: uso 2K por abreviar. Ya sé que lo digo mal, pero con 2K me estoy refiriendo a 2560x1440p.

Pues leyendo tu post con más atención... me entran más dudas jajajajja

Si me pillase un 4K, y en determinados momentos quisiera jugar a menos resolución (por falta de potencia), podría coger una resolución 1080p, y no vería "cosas raras".

Ahora bien. Unos matices a lo que has dicho:

Aunque el 4K sea proporcional a 1080p y 720p, tendría que aplicarse un "reescalado entero" (integer scaling) para que se viese sin imperfecciones.

O dicho al revés. Si se utilizase el reescalado "clásico" (tipo lineal, cúbico...), aunque 4K sea proporcional a 1080p, el reescalado (al no ser "entero") podría generar cierto "difuminado".

Pero es que se puede rizar más el rizo :(

Si bien reescalar de 2K a 4K (sin usar IA), como no son múltiplos, veríamos que la imagen resultante NO es nítida.

Pero... ¿sería más nítida (esa imagen 2K reescalada a una pantalla 4K), que una imagen a 1080p en un panel 1080p? (hablando siempre en pantallas del mismo tamaño).

Es decir, aunque el reescalado de 2K a 4K no sea perfecto, al final, 2K es más que 1080p, así que ¿quizás se vería mejor que la imagen a 1080p en un monitor 1080p?

Qué difícil me está siendo la elección [mamaaaaa] Más que nada por los reescalados.

Porque, reescalados perfectos, para 4K: 1080p y 720p
Y reescalados perfectos, para 2K (1440): 720p y 360p

Y claro, si a futuro juego en 2K con reescalado, va a partir de resoluciones muy bajas, donde apenas hay información para reescalar.

Cosa que si me pillo una 4K, y usase reescalados, al menos podría partir de 1080p (que ya es algo bastante decente).

Llamemos bien las cosas: no es 2k, es QHD o 1440p .
2k es una resolución inferior a lo que vulgarmente entendemos por 2k.

Ya te han dicho todo perfectamente.

Lo suyo e ideal ,es un monitor QHD.
El problema con eso, es que la mierda de política de Sony, nibte permite poner 1440p en PS5 pro ( ni en ninguna),por lo que te toca meter 1080p,lo cual, no tiene sentido.

También, como te han dicho, PS5 no va a 4K.
Te hace una resolución dinámica,y segundo los fps qe quieras jugar o que le vengan asignados ,te dará 4K o no.
Y casi nunca los da.
Ya del nivel de settings o de tecnologías activas ,ni hablamos.

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.

Igual que también te digo que ,27* para 4K lo veo muy absurdo iara jugar.No lo vas a distinguír de 1440p ,ni en sueños, y te vas a comer recursos del pc a lo tonto.

En un monitor 1440p, lo que si puedes hacer es usar DSR 4K.
Que no es otra cosa es escalará a 4K sacando luego la imagen a 1440p, con el resultado de mayor nitidez de imagen, peor comiendo más recursos del pc.

Yo en 32" sí noto ahí una pequeña mejora con respecto a 1440p normal.
En 27" tengo mis dudas.
hh1 escribió:
sutalu escribió:Me estáis convenciendo por los 2K jajajjaj

Pero ahora me asalta otra duda. Supongamos que me pillo un monitor 2K.

- ¿Qué tal se ve jugar a 2K reescalados con DLSS calidad? ¿Hay mucha diferencia respecto el 2K nativo?

Lo digo más que nada porque el DLSS en calidad, para 2K, parte de 960p. Y como es una resolución "baja", quizás el reescalado no sea muy bueno.

- ¿Y si jugase a 1080p nativos (sin reescalar)? (para juegos que fueran muy demandantes). ¿Qué tal se vería?

Pasar de 1080p a 1440p, son apenas 360p de diferencia. No se tiene que inventar mucho. No es tanto como de 2K (1440p) a 4K (2160p), que son 720p de diferencia.

Yo por ejemplo con mi monitor actual de 1200p, a veces juego (en PC) con resoluciones 1050p, o incluso 900p, y si bien ya no se ve nítido, tampoco es "super borroso" (como sería jugar a 720p o menos, reescalados a pantallas HD).

****************************************************

@Pollonidas

NOTA: uso 2K por abreviar. Ya sé que lo digo mal, pero con 2K me estoy refiriendo a 2560x1440p.

Pues leyendo tu post con más atención... me entran más dudas jajajajja

Si me pillase un 4K, y en determinados momentos quisiera jugar a menos resolución (por falta de potencia), podría coger una resolución 1080p, y no vería "cosas raras".

Ahora bien. Unos matices a lo que has dicho:

Aunque el 4K sea proporcional a 1080p y 720p, tendría que aplicarse un "reescalado entero" (integer scaling) para que se viese sin imperfecciones.

O dicho al revés. Si se utilizase el reescalado "clásico" (tipo lineal, cúbico...), aunque 4K sea proporcional a 1080p, el reescalado (al no ser "entero") podría generar cierto "difuminado".

Pero es que se puede rizar más el rizo :(

Si bien reescalar de 2K a 4K (sin usar IA), como no son múltiplos, veríamos que la imagen resultante NO es nítida.

Pero... ¿sería más nítida (esa imagen 2K reescalada a una pantalla 4K), que una imagen a 1080p en un panel 1080p? (hablando siempre en pantallas del mismo tamaño).

Es decir, aunque el reescalado de 2K a 4K no sea perfecto, al final, 2K es más que 1080p, así que ¿quizás se vería mejor que la imagen a 1080p en un monitor 1080p?

Qué difícil me está siendo la elección [mamaaaaa] Más que nada por los reescalados.

Porque, reescalados perfectos, para 4K: 1080p y 720p
Y reescalados perfectos, para 2K (1440): 720p y 360p

Y claro, si a futuro juego en 2K con reescalado, va a partir de resoluciones muy bajas, donde apenas hay información para reescalar.

Cosa que si me pillo una 4K, y usase reescalados, al menos podría partir de 1080p (que ya es algo bastante decente).

Llamemos bien las cosas: no es 2k, es QHD o 1440p .
2k es una resolución inferior a lo que vulgarmente entendemos por 2k.

Ya te han dicho todo perfectamente.

Lo suyo e ideal ,es un monitor QHD.
El problema con eso, es que la mierda de política de Sony, nibte permite poner 1440p en PS5 pro ( ni en ninguna),por lo que te toca meter 1080p,lo cual, no tiene sentido.

También, como te han dicho, PS5 no va a 4K.
Te hace una resolución dinámica,y segundo los fps qe quieras jugar o que le vengan asignados ,te dará 4K o no.
Y casi nunca los da.
Ya del nivel de settings o de tecnologías activas ,ni hablamos.

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.

Igual que también te digo que ,27* para 4K lo veo muy absurdo iara jugar.No lo vas a distinguír de 1440p ,ni en sueños, y te vas a comer recursos del pc a lo tonto.

En un monitor 1440p, lo que si puedes hacer es usar DSR 4K.
Que no es otra cosa es escalará a 4K sacando luego la imagen a 1440p, con el resultado de mayor nitidez de imagen, peor comiendo más recursos del pc.

Yo en 32" sí noto ahí una pequeña mejora con respecto a 1440p normal.
En 27" tengo mis dudas.


Un apunte: la PS5 Pro ya deja seleccionar en su salida: 1440p :)

En mi caso, como no llego, tengo la salida a 1080p. Pero aún así los juegos pueden ejecutarse a 4K (aunque sean con reescalado), y luego hace downsampling a 1080p. Y la verdad que queda bastante bien.

De todo lo que me comentas, me quedo con esto, que era una de mis principales dudas con un monitor 2K y DLSS:

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.


Si en algún momento tuviera que usar DLSS con 2K, con saber que es casi igual que el 2K nativo (si cojo un DLSS calidad), me vale :)

¿Probaste a poner 1080p y que lo reescale el monitor hasta 2K (sin usar DLSS)? ¿Qué tal lo hace?
sutalu escribió:
hh1 escribió:
sutalu escribió:Me estáis convenciendo por los 2K jajajjaj

Pero ahora me asalta otra duda. Supongamos que me pillo un monitor 2K.

- ¿Qué tal se ve jugar a 2K reescalados con DLSS calidad? ¿Hay mucha diferencia respecto el 2K nativo?

Lo digo más que nada porque el DLSS en calidad, para 2K, parte de 960p. Y como es una resolución "baja", quizás el reescalado no sea muy bueno.

- ¿Y si jugase a 1080p nativos (sin reescalar)? (para juegos que fueran muy demandantes). ¿Qué tal se vería?

Pasar de 1080p a 1440p, son apenas 360p de diferencia. No se tiene que inventar mucho. No es tanto como de 2K (1440p) a 4K (2160p), que son 720p de diferencia.

Yo por ejemplo con mi monitor actual de 1200p, a veces juego (en PC) con resoluciones 1050p, o incluso 900p, y si bien ya no se ve nítido, tampoco es "super borroso" (como sería jugar a 720p o menos, reescalados a pantallas HD).

****************************************************

@Pollonidas

NOTA: uso 2K por abreviar. Ya sé que lo digo mal, pero con 2K me estoy refiriendo a 2560x1440p.

Pues leyendo tu post con más atención... me entran más dudas jajajajja

Si me pillase un 4K, y en determinados momentos quisiera jugar a menos resolución (por falta de potencia), podría coger una resolución 1080p, y no vería "cosas raras".

Ahora bien. Unos matices a lo que has dicho:

Aunque el 4K sea proporcional a 1080p y 720p, tendría que aplicarse un "reescalado entero" (integer scaling) para que se viese sin imperfecciones.

O dicho al revés. Si se utilizase el reescalado "clásico" (tipo lineal, cúbico...), aunque 4K sea proporcional a 1080p, el reescalado (al no ser "entero") podría generar cierto "difuminado".

Pero es que se puede rizar más el rizo :(

Si bien reescalar de 2K a 4K (sin usar IA), como no son múltiplos, veríamos que la imagen resultante NO es nítida.

Pero... ¿sería más nítida (esa imagen 2K reescalada a una pantalla 4K), que una imagen a 1080p en un panel 1080p? (hablando siempre en pantallas del mismo tamaño).

Es decir, aunque el reescalado de 2K a 4K no sea perfecto, al final, 2K es más que 1080p, así que ¿quizás se vería mejor que la imagen a 1080p en un monitor 1080p?

Qué difícil me está siendo la elección [mamaaaaa] Más que nada por los reescalados.

Porque, reescalados perfectos, para 4K: 1080p y 720p
Y reescalados perfectos, para 2K (1440): 720p y 360p

Y claro, si a futuro juego en 2K con reescalado, va a partir de resoluciones muy bajas, donde apenas hay información para reescalar.

Cosa que si me pillo una 4K, y usase reescalados, al menos podría partir de 1080p (que ya es algo bastante decente).

Llamemos bien las cosas: no es 2k, es QHD o 1440p .
2k es una resolución inferior a lo que vulgarmente entendemos por 2k.

Ya te han dicho todo perfectamente.

Lo suyo e ideal ,es un monitor QHD.
El problema con eso, es que la mierda de política de Sony, nibte permite poner 1440p en PS5 pro ( ni en ninguna),por lo que te toca meter 1080p,lo cual, no tiene sentido.

También, como te han dicho, PS5 no va a 4K.
Te hace una resolución dinámica,y segundo los fps qe quieras jugar o que le vengan asignados ,te dará 4K o no.
Y casi nunca los da.
Ya del nivel de settings o de tecnologías activas ,ni hablamos.

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.

Igual que también te digo que ,27* para 4K lo veo muy absurdo iara jugar.No lo vas a distinguír de 1440p ,ni en sueños, y te vas a comer recursos del pc a lo tonto.

En un monitor 1440p, lo que si puedes hacer es usar DSR 4K.
Que no es otra cosa es escalará a 4K sacando luego la imagen a 1440p, con el resultado de mayor nitidez de imagen, peor comiendo más recursos del pc.

Yo en 32" sí noto ahí una pequeña mejora con respecto a 1440p normal.
En 27" tengo mis dudas.


Un apunte: la PS5 Pro ya deja seleccionar en su salida: 1440p :)

En mi caso, como no llego, tengo la salida a 1080p. Pero aún así los juegos pueden ejecutarse a 4K (aunque sean con reescalado), y luego hace downsampling a 1080p. Y la verdad que queda bastante bien.

De todo lo que me comentas, me quedo con esto, que era una de mis principales dudas con un monitor 2K y DLSS:

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.


Si en algún momento tuviera que usar DLSS con 2K, con saber que es casi igual que el 2K nativo (si cojo un DLSS calidad), me vale :)

¿Probaste a poner 1080p y que lo reescale el monitor hasta 2K (sin usar DLSS)? ¿Qué tal lo hace?

Fíjate que voy con una 4090 ya winrñe uso DLSS Calidad ,pudiendo no usarlo.
Pero ganar unos fps y verlo igual, por qué no lo voy a usar?

Por eso ,ni te preocupes.

Joder ,pues ya está bien que hayan implementado el 1440p en PS5, porque vaya tela de política llevan.
En Xbox dejaba día 1.

Pues siendo así...yo ya .e tira más un monitor 1440p.
Piensa que PS5 ,lo más probable es que aunque te saque menos resolución que marcándole 4 k, está será más estable ,seguramente ,con mejro s settings y a más fps

Qué pc tienes?
hh1 escribió:
sutalu escribió:
hh1 escribió:Llamemos bien las cosas: no es 2k, es QHD o 1440p .
2k es una resolución inferior a lo que vulgarmente entendemos por 2k.

Ya te han dicho todo perfectamente.

Lo suyo e ideal ,es un monitor QHD.
El problema con eso, es que la mierda de política de Sony, nibte permite poner 1440p en PS5 pro ( ni en ninguna),por lo que te toca meter 1080p,lo cual, no tiene sentido.

También, como te han dicho, PS5 no va a 4K.
Te hace una resolución dinámica,y segundo los fps qe quieras jugar o que le vengan asignados ,te dará 4K o no.
Y casi nunca los da.
Ya del nivel de settings o de tecnologías activas ,ni hablamos.

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.

Igual que también te digo que ,27* para 4K lo veo muy absurdo iara jugar.No lo vas a distinguír de 1440p ,ni en sueños, y te vas a comer recursos del pc a lo tonto.

En un monitor 1440p, lo que si puedes hacer es usar DSR 4K.
Que no es otra cosa es escalará a 4K sacando luego la imagen a 1440p, con el resultado de mayor nitidez de imagen, peor comiendo más recursos del pc.

Yo en 32" sí noto ahí una pequeña mejora con respecto a 1440p normal.
En 27" tengo mis dudas.


Un apunte: la PS5 Pro ya deja seleccionar en su salida: 1440p :)

En mi caso, como no llego, tengo la salida a 1080p. Pero aún así los juegos pueden ejecutarse a 4K (aunque sean con reescalado), y luego hace downsampling a 1080p. Y la verdad que queda bastante bien.

De todo lo que me comentas, me quedo con esto, que era una de mis principales dudas con un monitor 2K y DLSS:

En cuanto a DLSS en Qhd, ya te digo que no no lo diferencio de la imagen nativa.Asi de claro.
Y eso ,en 32".
En 27" te digo que menos aún.


Si en algún momento tuviera que usar DLSS con 2K, con saber que es casi igual que el 2K nativo (si cojo un DLSS calidad), me vale :)

¿Probaste a poner 1080p y que lo reescale el monitor hasta 2K (sin usar DLSS)? ¿Qué tal lo hace?

Fíjate que voy con una 4090 ya winrñe uso DLSS Calidad ,pudiendo no usarlo.
Pero ganar unos fps y verlo igual, por qué no lo voy a usar?

Por eso ,ni te preocupes.

Joder ,pues ya está bien que hayan implementado el 1440p en PS5, porque vaya tela de política llevan.
En Xbox dejaba día 1.

Pues siendo así...yo ya .e tira más un monitor 1440p.
Piensa que PS5 ,lo más probable es que aunque te saque menos resolución que marcándole 4 k, está será más estable ,seguramente ,con mejro s settings y a más fps

Qué pc tienes?


Ahora tengo un PC con una GTX 1080.

Que la verdad, aún me sorprende. Tira el Cyberpunk con todo en ultra (sin ray-tracing), a 1080p/30fps. O con todo en alto, a 1080/60fps (con sus altibajos esos sí).

Pero ya no sirve para ray-tracing, y está llegando a su límite para los juegos más actuales.

Mi idea es cambiar el monitor, cuando también cambie el PC, para así sacarle el provecho.

Ahora mismo juego más con la PS5 Pro que con el PC. Aunque también aprovecharía el nuevo monitor con la play.
sutalu escribió:NOTA: uso 2K por abreviar. Ya sé que lo digo mal, pero con 2K me estoy refiriendo a 2560x1440p.

Me parece perfecto abreviar, pero en ese caso te recomiendo usar la nomenclatura correcta, es decir, 2,7K. Porque incluso si creo que aquí la mayoría te hemos entendido perfectamente, en según qué contexto puede dar lugar a error. Si llamamos a los coches motos para abreviar (es una letra menos) pues seguramente nos entenderemos los "4 gatos" que usemos ese convenio, pero para el resto del mundo un coche seguirá siendo un coche y viceversa. Ya que el esfuerzo es similar, mejor lo que es más fiel a la realidad, ¿no? [beer]

sutalu escribió:Ahora bien. Unos matices a lo que has dicho:

Aunque el 4K sea proporcional a 1080p y 720p, tendría que aplicarse un "reescalado entero" (integer scaling) para que se viese sin imperfecciones.

O dicho al revés. Si se utilizase el reescalado "clásico" (tipo lineal, cúbico...), aunque 4K sea proporcional a 1080p, el reescalado (al no ser "entero") podría generar cierto "difuminado".

Si la salida de la tarjeta gráfica es 1080p a un panel 4K, directamente es que el rescalado no procede. Ni entero, ni en coma flotante, es que no hay ningún píxel que no esté completamente definido. Quiero decir, no sé si entiendo bien el segundo párrafo, pero en la imagen que muestra este caso:
Imagen

la salida de la GPU son los cuadrados con reborde en verde discontinuo. Cada cuadrado verde tendrá un valor de color, el que sea. Vamos a suponer por ejemplo que el primer píxel de la salida de la GPU (esquina superior izquierda) con 8 bits por color y en RGB tiene el valor (255,0,0) (es decir: color rojo "puro"). Pues los 4 píxeles del panel 4K que corresponden a ese primer cuadrado tendrán los 4 el valor (255,0,0). No hay ningún píxel cuyo valor no esté totalmente definido.

Otra cosa es que me digas: "bueno, pero es que yo quiero modificar el valor de alguno de esos 4 píxeles por el motivo que sea, para quitar bordes de sierra, etc". Eso es otra cuestión diferente, porque ahí la salida de la gráfica ya no es 1080p, es 4K (si la salida de la gráfica es 1080p es que directamente no puedes modificar esos píxeles individualmente) y lo que procede en mi opinión es ir directamente a tecnologías de escalado (con IA o con visión artificial clásica).

sutalu escribió:Pero es que se puede rizar más el rizo :(

Si bien reescalar de 2K a 4K (sin usar IA), como no son múltiplos, veríamos que la imagen resultante NO es nítida.

Pero... ¿sería más nítida (esa imagen 2K reescalada a una pantalla 4K), que una imagen a 1080p en un panel 1080p? (hablando siempre en pantallas del mismo tamaño).


Claro... es que esto es otra cuestión, y una excelente pregunta. Desde luego que cualquier escalado que no sea entero, como el de 4K a 2.7K, va a alterar la imagen siempre (y si es bilinear, a emborronarla también) PERO también es verdad que hay más información en la pantalla a igualdad de tamaño, así que... como casi todo en esta vida: depende. Depende de lo que te moleste ese pequeño desenfoque que es el precio a pagar por la resolución adicional.

Yo personalmente intentaría evitar a toda costa esa situación. En caso de no tener potencia para usar 4K nativo, usaría escalado por IA del "sabor" que sea desde 2.7K (o desde otra resolución menor si fuera necesario). Eso en principio no emborrona la imagen (aunque tiene otras pegas, lógicamente) y es el método que más información tiene (es decir, potencialmente mejor) para "inventarse" los valores que faltan. En caso de que eso no fuera posible por cualquier motivo, directamente me iría al múltiplo inferior en resolución (1080p) con las pegas que eso conlleva si estás muy cerca de la pantalla (bordes de sierra, patrones de moire, etc.)

En una discusión similar con otro usuario (la del enlace del post) creo que no nos terminamos de entender. Pero vaya, la parte técnica es la que es. Sobre el resto, para gustos, colores: hay gente que está encantada con 2.7K escalado a 4K, lo cual es perfectamente razonable. A mí me molesta más el desenfoque del escalado que la menor resolución de jugar a 1080p, pero esto sí que es totalmente subjetivo.

Saludos
Por aportar algo más de info al hilo.

He estado haciendo pruebas con mi monitor actual de 1920x1200p, para hacerme una idea de cómo serían los reescalados en un monitor 2K, porque supongo que serán unos resultados similares.

Dejo aquí unas comparativas con un slider.

Las nomenclaturas que he usado:

- FSR: reescalador FSR con modo CALIDAD (para reescalar hasta 1200p)
- NAT: captura sacada a la resolución NATIVA del monitor: 1200p
- RES: capturas sacadas a una resolución MENOR a la nativa, y REESCALADA con el monitor.

https://imgsli.com/MzM4MTk3

https://imgsli.com/MzM4MTg0

https://imgsli.com/MzM4MTg3

Como decís, al usar el reescalador del monitor, por poca que sea la diferencia de resolución (respecto de la nativa, por ejemplo de 1050p a 1200p), se pierde totalmente la nitidez.

Aunque personalmente, tampoco me parece algo "injugable" o "desastroso". Incluso aunque no sean resoluciones "múltiplos exactos" de la nativa.

Es evidente que pierde nitidez, que se ve más borroso... pero se puede leer la interfaz fácilmente (aún bajando la resolución a 800p). Vamos, que se podría jugar.

Ahora bien, usando FSR (he usado la versión 3), la cosa cambia. Aunque tampoco llega a la nitidez de la nativa, ES MÁS NÍTIDA que cualquier otro reescalado del monitor (aunque por contra, tenga más artefactos).

Con todo esto, hasta pienso que es mejor tener un 1080p [+risas] y jugarlo todo a 1080p subiendo todo a tope, o incluso jugar a 2K o 4K si puede tu equipo, y hacer downsampling a 1080p.
4kj minimo 31 pulgadas pero ya puedes pillar una grafica potente para moverlo en segun que juegos tranquilamente una 4080rtx o una 7900xtx o alguna de las nuevas generaciones
nirvana17 escribió:4kj minimo 31 pulgadas pero ya puedes pillar una grafica potente para moverlo en segun que juegos tranquilamente una 4080rtx o una 7900xtx o alguna de las nuevas generaciones


Con todo lo que me habéis dicho, seguramente me acabe pillando una QHD (2560x1440p).

Supongo que no me chupará mucho más que los 1920x1200p actuales que tengo.

Haciendo cuentas:

1920x1200 = 2,3M (millones)
2560x1440 = 3,7M

Un poquito más de 1,4M de píxeles jajajjaj

Los 4K, sí que es un salto brutal. Unos 8,3M :O

En PC, creo que iré sobrado con los 2K.
sutalu escribió:
nirvana17 escribió:4kj minimo 31 pulgadas pero ya puedes pillar una grafica potente para moverlo en segun que juegos tranquilamente una 4080rtx o una 7900xtx o alguna de las nuevas generaciones


Con todo lo que me habéis dicho, seguramente me acabe pillando una QHD (2560x1440p).

Supongo que no me chupará mucho más que los 1920x1200p actuales que tengo.

Haciendo cuentas:

1920x1200 = 2,3M (millones)
2560x1440 = 3,7M

Un poquito más de 1,4M de píxeles jajajjaj

Los 4K, sí que es un salto brutal. Unos 8,3M :O

En PC, creo que iré sobrado con los 2K.

QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]
hh1 escribió:
sutalu escribió:
nirvana17 escribió:4kj minimo 31 pulgadas pero ya puedes pillar una grafica potente para moverlo en segun que juegos tranquilamente una 4080rtx o una 7900xtx o alguna de las nuevas generaciones


Con todo lo que me habéis dicho, seguramente me acabe pillando una QHD (2560x1440p).

Supongo que no me chupará mucho más que los 1920x1200p actuales que tengo.

Haciendo cuentas:

1920x1200 = 2,3M (millones)
2560x1440 = 3,7M

Un poquito más de 1,4M de píxeles jajajjaj

Los 4K, sí que es un salto brutal. Unos 8,3M :O

En PC, creo que iré sobrado con los 2K.

QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]

Bueno,también lo que solemos decir 4K no llega a 4000 pixels horizontales...pero todos lo llamamos 4k. XD
hh1 escribió:QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]

De hecho es que se podría argumentar que 2K es exactamente FullHD (1920x1080), ya que 4K redondea el valor de líneas horizontales de la resolución habitual (3840x2160) al alza. Porcentualmente la diferencia entre 1920 y 2000 es la misma que entre 3840 y 4000 (4.16% en ambos casos, lógico porque 4000 es el doble de 2000 igual que 3840 es el doble de 1920).

Un 4% es un error razonable, incluso si es hacia arriba por márketing puro y duro. Llamando 2K a QHD se está subestimando el valor de líneas en un 28%

Es cierto que existe la resolución DCI 4K que son 4096 líneas, pero su uso es muy infrecuente, al menos en el mercado doméstico.

dicker31 escribió:Bueno,también lo que solemos decir 4K no llega a 4000 pixels horizontales...pero todos lo llamamos 4k. XD

Hemos respondido a la vez, igualmente creo que lo anterior contraargumenta bastante bien el hecho de que las cuentas no salgan exactas [beer]

También PCIe 3 usa el encoding 128b/130b por sincronización, y no creo que nadie vaya a discutir que una línea no va a 8Gbit/s sino a 7.8769Gbit/s. Pero si yo te digo que voy a decir que una línea PCIe 3 va a 7Gbit/s para abreviar creo que estamos de acuerdo que es más breve que 7.8769, pero no es correcto. Y de hecho, es mucho menos correcto que decir 8, porque está mucho más lejano del valor real.

@sutalu Creo que es un excelente aporte: básicamente probarlo. En el momento que hay interpolación se emborrona si hay escalado por hardware, es inevitable. Por supuesto eso no convierte la interfaz en ilegible ni el juego en injugable, pero el efecto está ahí. De hecho, si quieres replicar (con evidentes desventajas, aumenta la distancia al monitor para compensar) el caso de 1440p en un monitor 4K, puedes usar 720p en tu monitor 1080p. Es un ratio 3:2 en ancho y en alto, es decir, el "peor" escenario, y el mismo ratio que se da al usar 1440p en un panel 4K.

Saludos
dicker31 escribió:
hh1 escribió:
sutalu escribió:
Con todo lo que me habéis dicho, seguramente me acabe pillando una QHD (2560x1440p).

Supongo que no me chupará mucho más que los 1920x1200p actuales que tengo.

Haciendo cuentas:

1920x1200 = 2,3M (millones)
2560x1440 = 3,7M

Un poquito más de 1,4M de píxeles jajajjaj

Los 4K, sí que es un salto brutal. Unos 8,3M :O

En PC, creo que iré sobrado con los 2K.

QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]

Bueno,también lo que solemos decir 4K no llega a 4000 pixels horizontales...pero todos lo llamamos 4k. XD

Ya hostia ,pero es que 2k es básicamente full Hd .
La diferencia es notoria.
hh1 escribió:
dicker31 escribió:
hh1 escribió:QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]

Bueno,también lo que solemos decir 4K no llega a 4000 pixels horizontales...pero todos lo llamamos 4k. XD

Ya hostia ,pero es que 2k es básicamente full Hd .
La diferencia es notoria.

Ya,pero como es una resolución que está entre FHD y UHD la gente dice "bueno pues yo 1440 lo veo por el medio mas o menos...pues será 2K" XD
Claro,el mas o menor es bastante amplio XD
hh1 escribió:
sutalu escribió:
nirvana17 escribió:4kj minimo 31 pulgadas pero ya puedes pillar una grafica potente para moverlo en segun que juegos tranquilamente una 4080rtx o una 7900xtx o alguna de las nuevas generaciones


Con todo lo que me habéis dicho, seguramente me acabe pillando una QHD (2560x1440p).

Supongo que no me chupará mucho más que los 1920x1200p actuales que tengo.

Haciendo cuentas:

1920x1200 = 2,3M (millones)
2560x1440 = 3,7M

Un poquito más de 1,4M de píxeles jajajjaj

Los 4K, sí que es un salto brutal. Unos 8,3M :O

En PC, creo que iré sobrado con los 2K.

QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]


Vas con lupa jajajjajaja

¿Te saltaste el QHD que puse al principio? XD

Los 2k que puse al final, me refería al QHD inicial. Pero sí, puede ser confuso.

Si tenemos que echar la culpa a alguien, echémosela a los de marketing jajajja Porque menudo cacao con las siglas:

- HD (Ready): 1280 x 720p
- Full HD: 1920 x 1080p
- Quad HD (QHD): 2560 x 1440p -> Q significa "cuádruple". Sería 4 veces HD (Ready). Abajo pongo las cuentas
- Ultra HD (UHD): 3840 x 2160p

HD: 1280 x 720 = 0.92M pixeles
QHD: 2560 x 1440 = 3.68M pixeles (que es justo 4 veces 0.92M)

Y como veis, NO aparece en NINGÚN momento ni 2K ni 4K.... Emosio Engañaos jajajajjajaj

El 2K y 4K propiamente dichos, son OTRAS resoluciones, que se usan para CINE. En concreto:

2K (Cine): 2048 x 1080 (INFERIOR a QHD). Tiene un formato 17:9 (y NO 16:9)
4K (Cine): 4096 x 2160 píxeles (SUPERIOR a UHD). Tiene también un formato 17:9 (y NO 16:9)

Pero al final, en NUESTRO contexto "gaming", aunque esté mal dicho (por desconocimiento o por abreviar), hacemos la asociación: "2560 x 1440p a 2K y 3840 x 2160p a 4K". Aunque formalmente sea erróneo.
sutalu escribió:
hh1 escribió:
sutalu escribió:
Con todo lo que me habéis dicho, seguramente me acabe pillando una QHD (2560x1440p).

Supongo que no me chupará mucho más que los 1920x1200p actuales que tengo.

Haciendo cuentas:

1920x1200 = 2,3M (millones)
2560x1440 = 3,7M

Un poquito más de 1,4M de píxeles jajajjaj

Los 4K, sí que es un salto brutal. Unos 8,3M :O

En PC, creo que iré sobrado con los 2K.

QHD...no 2k.
No puedo con esa manía.

2k es poco más que full hd (2048 x 1080)

No entiendo de dónde enace esa manía de llamar 2k al 1440p.
Ni dios lo dice bien [beer]


Vas con lupa jajajjajaja

¿Te saltaste el QHD que puse al principio? XD

Los 2k que puse al final, me refería al QHD inicial. Pero sí, puede ser confuso.

Si tenemos que echar la culpa a alguien, echémosela a los de marketing jajajja Porque menudo cacao con las siglas:

- HD (Ready): 1280 x 720p
- Full HD: 1920 x 1080p
- Quad HD (QHD): 2560 x 1440p -> Q significa "cuádruple". Sería 4 veces HD (Ready). Abajo pongo las cuentas
- Ultra HD (UHD): 3840 x 2160p

HD: 1280 x 720 = 0.92M pixeles
QHD: 2560 x 1440 = 3.68M pixeles (que es justo 4 veces 0.92M)

Y como veis, NO aparece en NINGÚN momento ni 2K ni 4K.... Emosio Engañaos jajajajjajaj

El 2K y 4K propiamente dichos, son OTRAS resoluciones, que se usan para CINE. En concreto:

2K (Cine): 2048 x 1080 (INFERIOR a QHD). Tiene un formato 17:9 (y NO 16:9)
4K (Cine): 4096 x 2160 píxeles (SUPERIOR a UHD). Tiene también un formato 17:9 (y NO 16:9)

Pero al final, en NUESTRO contexto "gaming", aunque esté mal dicho (por desconocimiento o por abreviar), hacemos la asociación: "2560 x 1440p a 2K y 3840 x 2160p a 4K". Aunque formalmente sea erróneo.

Fijate si hay cacao con las siglas, que no es lo mismo hd que hd ready XD este ultimo no es 720p, es 768p en muchas tvs.

Aunque por lo que veo se mezcla mucho. El 768p es el hd ready que he visto sobretodo en TV de 32 pulgadas o menos, pero hay quien le llama tambien HD ready a 720p, yo siempre lo habia llamado hd a secas.
No entiendo tanto revuelo, la verdad, si muchísima gente (pero muchísima, incluso tiendas, medios especializados, etc...) a 1440p lo llama 2K y a 2160p lo llama 4K, pues tampoco es para tirarse de los pelos, creo yo...

Saludos.
javier español escribió:No entiendo tanto revuelo, la verdad, si muchísima gente (pero muchísima, incluso tiendas, medios especializados, etc...) a 1440p lo llama 2K y a 2160p lo llama 4K, pues tampoco es para tirarse de los pelos, creo yo...

Saludos.

Solo era un comentario.
Una cosa es que no sea igual por poco ,puro tecnicismo.
No vas a diferencias 4k de UHD .Ni de hola.
Peor hostia ,de 2K que es básicamente full hd a 2560x1440p es un señor trecho.
Nada que ver
hh1 escribió:
javier español escribió:No entiendo tanto revuelo, la verdad, si muchísima gente (pero muchísima, incluso tiendas, medios especializados, etc...) a 1440p lo llama 2K y a 2160p lo llama 4K, pues tampoco es para tirarse de los pelos, creo yo...

Saludos.

Solo era un comentario.
Una cosa es que no sea igual por poco ,puro tecnicismo.
No vas a diferencias 4k de UHD .Ni de hola.
Peor hostia ,de 2K que es básicamente full hd a 2560x1440p es un señor trecho.
Nada que ver

Mi comentario no iba por tí personalmente, he visto varios comentarios al respecto y creo que es lo que comenté, que si muchísima gente, medios, tiendas, etc... lo llaman así, pues no hay que ponerse tiquismiquis, si al final la mayoría sabemos a qué nos referimos... ;)

Saludos.
@javier español toda la razón, igual no debería haber dicho nada por mi parte, pero cuando lo leo me da rabia, costaría tan poco hacerlo mejor... [beer]

Y muchos medios tienen para mí menos rigor y credibilidad que más de un usuario de por aquí. No lo digo por lo de decir 2K en vez de 2.7K que es una tontería, sino por un cúmulo de cosas normalmente más graves.

Y aunque me voy por las ramas, creo que una razón para ser puntilloso (sin pasarse, como todo en la vida) es la teoría de las ventanas rotas. A grandes rasgos viene a decir que, cuando algo se ve medianamente cuidado, hasta cierto punto se respeta. Pero cuando algo se ve dejado, incluso si es un coche en un barrio bien en cuestión de horas termina igual que en los barrios conflictivos. Si somos dejados en los detalles, es fácil con el tiempo terminar siendo dejados en lo demás.

...y ya dejo la filosofía por hoy :-|

Saludos
33 respuestas