Sobre la obsesión por el número de los pixeles, y los jugadores "no-hardcore"

Un debate sobre esta manía (irracional a mi modo de ver) por sacar tarjetas gráficas cada vez mas potentes, que ocupan 2 slots (cosa rarísima hace pocos años), necesitan 2 o 3 ventiladores, y encima consumen energía como un put* frigorífico!!!!

Está claro que no vamos a retrotraernos a los tiempos de la VGA y sus 640x480, pero también está demostrado que a partir de cierto límite, las mejoras se aprecian cada vez menos, y por contra, requieren de hardware mas potente, mas caro, y que encima consume mas energía (que al precio que está, y al que se va a poner...).

Esta mierda al final nos lleva a lo que está pasando: Tanto nVidia como AMD ya casi solo hacen tarjetas gráficas que consumen mas que un frigorífico, y algunas requieren una fuente de alimentación especial incluso.

A ver, un juego en "FullHD" tendrá mejores fps y apenas notarás la diferencia con respecto a un 4K (y menos aún si tu monitor o TV no es 4K, claro, pero es que aunque lo sea, la diferencia si el panel del monitor/TV no es de alta calidad es casi inapreciable).

Espero que Intel con sus parece que inminentes nuevas tarjetas gráficas se acuerde del "segmento medio", los que nos sobra con jugar en FullHD (1080) pero a buenos fps, y no necesitamos un tarjeta con 8 ventiladores y que nos sangre el recibo de la luz ni queremos cambiar la fuente de alimentación de nuestro PC.

Edito para añadir un link que precisamente incide en lo que decía: Que a partir de cierto punto, incrementar la "calidad" gráfica tienen un menor efecto "real" en nuestra percepción visual y en cambio, necesita hardware mucho mas potente (en términos "económicos" diríamos que no es "eficiente" en cuanto al "coste-beneficio"): Es la LEY DE LOS RENDIMIENTOS DECRECIENTES:
https://www.vidaextra.com/ps5/que-salto ... nomia-1770

Imagen
Mi 8800 gt de hace mas de 15 años ya ocuba dos slots...

La resolución es importante en función del tamaño de la pantalla y la distancia de la misma. En 32" y a una distancia normal del monitor la diferencia entre 1080 y 1440 es mas que notable, no solo para jugar, sino en cualquier escenario. En 24", la diferencia es inapreciable a no ser que te pongas a un palmo del monitor.

Para jugar a 1080p a 60fps te vale casi cualquier gpu, y el consumo y temperatura de la gpu depende tambien de su carga. Por ello, a esa resolucion y tasa de refresco, una gtx970 consume bastante más que una rtx3060, incluso subiendo el nivel de detalle o fps en la segunda.

Vamos, que a dia de hoy (y dado que acabamos de empezar gen de consolas, de aqui a unos años) la gente que quiere jugar a 1080@60hz lo puede hacer sin ningun problema con cualquier gpu existente sin necesidad de cambiar fuente ni aumentar el consumo de su pc.
Lo que está claro es que es un sin sentido hacer gráficas que cada vez consuman más. Solo queda que tú PC consuma las que el horno de la cocina.

Eso sí, resto va en contra del marketing del pc, el cual te meten por los ojos que para ganar 20 fps (p.ej de 120 a 144) te cambia todo el equipo dejándote un pastizal. Para mí no merece la pena, para mucha gente de este foro (con ultritis) es una necesidad justificadas.

Quitando que cada uno con su dinero hace lo que quiere, la idea en hardware de pc es comprar con cabeza, pensando en amortizar tu equipo al menos en un periodo de 5 años

Creo que el camino que deberían seguir es tratar de mejora la eficiencia energética, tratando de dar mejor rendimiento. Es como el overclock, llegará un momento que por el aumento de rendimiento es casi nulo

Sobre la resolución a las hora de jugar, seguro que 4k 144hz es la pera, pero lo que te cuesta en dinero jugar así, es para 4 frikis entusiastas. Creo que lo ideal es 1080p 144hz para un monitor de hasta 27, la mayoría jugamos en un escritorio y a esa distancia para que quieres más? Salvo que tengas un monitor mayor de 27 y no quieres apreciar los pixeles, te vas a 1440p, que tampoco sé nota tanto
jberto escribió:Espero que Intel con sus parece que inminentes nuevas tarjetas gráficas se acuerde del "segmento medio", los que nos sobra con jugar en FullHD (1080) pero a buenos fps, y no necesitamos un tarjeta con 8 ventiladores y que nos sangre el recibo de la luz ni queremos cambiar la fuente de alimentación de nuestro PC.

Realmente tanto Nvidia como AMD tambien se acordaron lo que no quiere decir que las vayan a vender baratas. [sonrisa]

franpaki escribió:es para 4 frikis entusiastas.

Me da que son más de 4 y estan todos en este foro. [sonrisa]

1080p y 27" mejor no que los pixels son muy gordos y se ven peor.

Para puntualizar lo dicho por Wookiee, minimo una GTX 1070 o 1660 para jugar en 1080p a tope de detalle y 60hz e incluso 144hz, tampoco hace falta llegar a 144fps y la mayoria de monitores gaming de esa resolución son freesync/gsync compatible como minimo.

En fin, que sí, a 1080p a 50cm del monitor, se juega estupendamente. Si quiero ver pixeles más canijos activo el DLDSR y juego como si fuera a 1440p en mi monitor de 1080p/144hz.
@jberto

Yo juego en tv fullhd y estoy anclado en 1080p 60 fps...no necesito mas y lo considero actualmente lo mínimo de calidad para tener una experiencia buena

Pero entiendo que la rueda no para de moverse y haya gente que prefiera 4k y a mas fps

Lo bueno de todo esto es tener un abanico amplio y que cada uno compre/invierta en lo que crea conveniente ;)
Aquí otro anclado con una televisión Full HD y 60 Hz.
De momento mi TV funciona muy bien y el material en 4K aunque se va volviendo más común, aún no se transmite todo en 4K por lo que no he tenido prisa en cambiar un aparato que funciona perfectamente por otro al que aún no voy a explotar por completo.
Daré el salto más adelante.
He editado mi post original para añadir un link que explicaba mejor lo que quería decir, y que se basa en lo que se llama LEY DE LOS RENDIMIENTOS DECRECIENTES

Básicamente consistiría (mas o menos) en que a partir de cierto punto, incrementar la "calidad" gráfica tienen un menor efecto "real" en nuestra percepción visual y en cambio, necesita hardware mucho mas potente (en términos "económicos" diríamos que no es "eficiente" en cuanto al "coste-beneficio")

Pero lo explican mucho mejor y con mas detalle e incluso con gráficos aquí:
https://www.vidaextra.com/ps5/que-salto ... nomia-1770

Imagen

Por otro lado, me alegro ver que no soy el único que lo piensa, jajaja.

Yo también juego con una GTX 1650 con 4GB de GDDR5, que consume poquísimo (75W), (importante hoy en día con el precio de la luz, jajajaja... que además va a seguir subiendo) y puedo jugar a 1080 sin problemas... y dudo mucho que me divirtiese mas si jugase a 4K.
@Gnoblis

Yo de momento es que en tv tampoco pienso dar el salto a 4k, así que eso que me ahorro en pc XD XD

@jberto

No hombre, no eres el único, y tampoco creo que jugar a 4k cambie la diversión del juego, mas allá de que puedas o no disfrutar de una imagen de mas calidad
Yo no conozco a nadie que una vez prueba el 1440 quiera volver al 1080, por algo sera. Es muy facil hablar sin haber probado bien algo nuevo.
Tengo un monitor 34” 1440p/144hz para ciertos juegos, un monitor 32” 4k/60hz para ofimatic y algunos juegos y una tv oled de 48” 4k/120hz para otros juegos y no vuelvo al 1080p mientras pueda. Es mas, cuando empiecen a salir monitores 4k con mas hercios jubilo mi 1440.
colado escribió:Yo no conozco a nadie que una vez prueba el 1440 quiera volver al 1080, por algo sera. Es muy facil hablar sin haber probado bien algo nuevo.
Tengo un monitor 34” 1440p/144hz para ciertos juegos, un monitor 32” 4k/60hz para ofimatic y algunos juegos y una tv oled de 48” 4k/120hz para otros juegos y no vuelvo al 1080p mientras pueda. Es mas, cuando empiecen a salir monitores 4k con mas hercios jubilo mi 1440.


"Efecto placebo" se llama XD
O mejor dicho, "efecto auto-justificación de compra". Está muy estudiado en Marketing: Cuando hacemos un gasto nuestro cerebro busca auto-justificar que no hemos tirado nuestro dinero.
Otro ejemplo: Es relativamente habitual cuando compramos un coche que muchos compradores, después de haberlo comprado, busquen comentarios positivos sobre el mismo por internet. Es una inversión importante y eso nos hace sentir mejor.

Evidentemente, quien ha probado es porque ya se ha gastado una pasta en el equipo, y claro, una vez que lo tienes no vas a volver pudiendo jugar a 4K por ejemplo, jajajaja

Ahora bien, el jugar al doble de resolución significa que veas los gráficos "el doble de chulos"?
Ni de coña.

Y lo importante: Significa que lo vas a disfrutar el doble?
Pues menos aún.

Es mas, una vez tu vista se ha acostumbrado a ese "cambio", tras los 10 primeros minutos de "efecto wow!", ni lo aprecias, y tu "sensación" es la misma que cuando jugabas a 1080. Eso también está estudiado.
jberto escribió:
colado escribió:Yo no conozco a nadie que una vez prueba el 1440 quiera volver al 1080, por algo sera. Es muy facil hablar sin haber probado bien algo nuevo.
Tengo un monitor 34” 1440p/144hz para ciertos juegos, un monitor 32” 4k/60hz para ofimatic y algunos juegos y una tv oled de 48” 4k/120hz para otros juegos y no vuelvo al 1080p mientras pueda. Es mas, cuando empiecen a salir monitores 4k con mas hercios jubilo mi 1440.


"Efecto placebo" se llama XD
O mejor dicho, "efecto auto-justificación de compra". Está muy estudiado en Marketing: Cuando hacemos un gasto nuestro cerebro busca auto-justificar que no hemos tirado nuestro dinero.
Otro ejemplo: Es relativamente habitual cuando compramos un coche que muchos compradores, después de haberlo comprado, busquen comentarios positivos sobre el mismo por internet. Es una inversión importante y eso nos hace sentir mejor.

Evidentemente, quien ha probado es porque ya se ha gastado una pasta en el equipo, y claro, una vez que lo tienes no vas a volver pudiendo jugar a 4K por ejemplo, jajajaja

Ahora bien, el jugar al doble de resolución significa que veas los gráficos "el doble de chulos"?
Ni de coña.

Y lo importante: Significa que lo vas a disfrutar el doble?
Pues menos aún.

Es mas, una vez tu vista se ha acostumbrado a ese "cambio", tras los 10 primeros minutos de "efecto wow!", ni lo aprecias, y tu "sensación" es la misma que cuando jugabas a 1080. Eso también está estudiado.


Como digo, si hablamos sin probar las cosas… es como si yo te quiero explicar los dolores de un parto.

Yo no necesito autojustificar nada, he probado multitud de pantallas, de hecho, tengo todavia una 1080p 165hz en el trastero. Hay una cosa que se llama desestimiento de compra, y que puedes devolver lo comprado sin motivo, por lo que no entiendo quien necesita autojustificar algo. Tu hablas de tecnicas de marketing, de estudios… yo hablo de experiencia personal. Quien mira comentarios de algo despues de comprarlo? Lo logico es hacerlo antes, no despues, para saber opiniones de otras personas.
Yo creo que el que intenta autojustificarse eres tu, que intenta convencerse de que no merece la pena el gasto. Es mas, creo que ni sabes lo que consume un frigorifico y lo recalcas varias veces. Para tu informacion, graficas de dos slots existen desde hace muchisimo, ahora pueden ocupar 3 slots o incluso mas. Fuentes especiales??? Primera noticia.
No juego ultra ni 60hz fijo,ni 1440 ni nada,pero entiendo que el cambio sera similar de 720 a 1080z
Jugar a 720 como que ya no jaja.
Y aunque la grafica chupe poco,tengo entendido que el pc consume lo que la fuente de alimentacion.
Si es 650,unque luego te sobren 100w por componentes,chupa esos 650w,no?
yo tengo una 750ti y la 1650 me llama la atencion por el consumo,pero al final si mi pc chupa si o si todo de la fuente,pues oye...una mas potente si lo aguanta,mejor jaja
otra cosa ya es el % que pierde la fuente (gold,silver,etc).
Es posible que este equivocado,asi que si es asi,no me mordáis mucho,por favor,jeje.
Pero totalmente de acuerdo que cada vez consumen mas.
colado escribió:Yo no conozco a nadie que una vez prueba el 1440 quiera volver al 1080, por algo sera. Es muy facil hablar sin haber probado bien algo nuevo.
Tengo un monitor 34” 1440p/144hz para ciertos juegos, un monitor 32” 4k/60hz para ofimatic y algunos juegos y una tv oled de 48” 4k/120hz para otros juegos y no vuelvo al 1080p mientras pueda. Es mas, cuando empiecen a salir monitores 4k con mas hercios jubilo mi 1440.



Yo tampoco conozco a nadie k tenga 3 monitores para según lo k juegues....soy de los prefieren jugar a 60 fps. Yo casi no noto la resolución a la distancia que tengo la tv, pero si los fps caen por debajo de 60 se notan un huevo... Incluso en las consolas prefiero siempre los fps a la resolución.
v5grip escribió:No juego ultra ni 60hz fijo,ni 1440 ni nada,pero entiendo que el cambio sera similar de 720 a 1080z
Jugar a 720 como que ya no jaja.
Y aunque la grafica chupe poco,tengo entendido que el pc consume lo que la fuente de alimentacion.
Si es 650,unque luego te sobren 100w por componentes,chupa esos 650w,no?
yo tengo una 750ti y la 1650 me llama la atencion por el consumo,pero al final si mi pc chupa si o si todo de la fuente,pues oye...una mas potente si lo aguanta,mejor jaja
otra cosa ya es el % que pierde la fuente (gold,silver,etc).
Es posible que este equivocado,asi que si es asi,no me mordáis mucho,por favor,jeje.
Pero totalmente de acuerdo que cada vez consumen mas.

No es correcto, sería totalmente absurdo desperdiciar tanta energía (así que hablar de eficiencia no tendría sentido, con el PC en reposo se estaría tirando prácticamente todo lo que da la fuente en forma de calor).

Un PC consume lo que piden los componentes, más las pérdidas por eficiencia de la fuente a ese nivel determinado de carga. Por supuesto que una fuente con mayor certificado de eficiencia SUELE ser más eficiente (en ejemplos muy extremos podría ser que no), y una cosa que también se suele buscar es que la fuente esté al 50-70% de carga con el PC a plena carga, porque es cuando más eficiencia da cualquier fuente (y donde más exigentes son los certificados de eficiencia 80plus)

En el ejemplo que pones, con 100W de consumo y una fuente con esta gráfica de eficiencia:
Imagen
Sería 100/(eficiencia sobre 1 a 100W de carga)=100/0.86=116W

Saludos
Yo no creo que el paso de 1080 a 1440 sea un efecto placebo y cuando de el paso no creo que vaya a querer volver atrás, especialmente porque soy de los que tardan en dar esos pasos y cuando lo de lo voy a dar bien dado, meditado y amortizado.

En mi experiencia se nota más el paso atrás que el paso adelante. Cuando mejoras puedes pensar pues si, está bien pero no es para tanto... Hasta que vuelves a probar dar el paso atrás y entonces si que se siente el bajón.
Gnoblis escribió:Yo no creo que el paso de 1080 a 1440 sea un efecto placebo y cuando de el paso no creo que vaya a querer volver atrás, especialmente porque soy de los que tardan en dar esos pasos y cuando lo de lo voy a dar bien dado, meditado y amortizado.

En mi experiencia se nota más el paso atrás que el paso adelante. Cuando mejoras puedes pensar pues si, está bien pero no es para tanto... Hasta que vuelves a probar dar el paso atrás y entonces si que se siente el bajón.


Totalmente de acuerdo. Hace poco desempolve mi ps3 y la volvi a enchufar. Ahi realmente se aprecia las diferencias.
Decir que no se nota el salto de 1080p a 4k/2k implica que o tienes cataratas o que juegas lejos del monitor/con un monitor muy pequeño.

Ahora mismo estoy jugando al shadow of war en consola en una TV de 40", que va a 1080p con caídas a menos resolución creo recordar. Y se ve de maravilla por qué juego a una distancia elevada en una TV no muy grande y no es un juego exigente.

Ahora bien, en un monitor de 27" a una distancia cercana ves unos buenos pixelacos a 1080p cosa que a 1440p no se notan casi y a 4k son inexistentes.
También gran parte del tema de que se note más la resolución la han provocado los monitores más grandes, en la era VGA no era raro no llegar a las 20", en la Full HD tener 20" o 22" era más habitual, a 1440p o 4K dudo que mucha gente se compre paneles de menos de 27".

Tengo ahora mismo en mi estudio 3 1080p de varios refrescos de 24", un 1440p de 32" a 165Hz , un 4K de 32" a 60Hz y el portátil con una pantalla de 15" pero 360Hz. El efecto placebo no es para nada, otra cosa es que tu puedas sentirte agusto manteniéndote en Full HD porque no necesites más ya sea por economía o calidad de imagen.

Por todo lo demás, ya se sabía que los saltos en polígonos, texturas e incluso efectos de iluminación como Ray Tracing, si no se acompañan de una optimización y un diseño bueno muchas veces no resultan en un resultado final mejor, solo aumentan la carga a la GPU o la VRAM necesaria. Eso hace que en muchos juegos las diferencias entre Ultra, Muy Alto o Alto sean nulas en muchos efectos, y en algún caso más exagerado hay medios y bajos.
Los puristas se van a infartar pero llevo años jugando a la PC en pantallas mas que nada por el gran tamaño, en una de 65" pasar de 1080p a 1440p es pasar de la noche al dia, de 1440p a 4k por supuesto tambien se nota, mi perfil es jugar juegos no competitivos por lo que los 60fps son suficientes para mi y por supuesto no todo es la resolucion, es una gran experiencia aderezar esto con HDR, raytracing, sonido dolby atmos, luces hue , creo que los pixeles es solo una parte de todo el conjunto.
colado escribió:Yo no conozco a nadie que una vez prueba el 1440 quiera volver al 1080, por algo sera. Es muy facil hablar sin haber probado bien algo nuevo.
Tengo un monitor 34” 1440p/144hz para ciertos juegos, un monitor 32” 4k/60hz para ofimatic y algunos juegos y una tv oled de 48” 4k/120hz para otros juegos y no vuelvo al 1080p mientras pueda. Es mas, cuando empiecen a salir monitores 4k con mas hercios jubilo mi 1440.


No lo dudo compi, es mas cuando doy el salto nunca miro atrás XD XD

En mi caso es que juego en tv full hd y aun no pienso pillar una tv 4k, así que asunto resuelto ;)

Me ahorro mucha pasta, y lo mismo cuando se extienda el uso a 8k, pego el salto a 4k

Ahora mismo 1080p cubre mis necesidades, pero entiendo que todo el mundo no tiene las mismas
Las mejoras técnicas molan, negarlo también es un poco de autoengaño.
La ultritis es una gilipollez que padecemos muchos del foro, negarlo es un poco de autoengaño.

Lo cierto es que el principal parámetro para determinar la diversión y placer que te da jugar, las da el propio juego. Está claro que el Zelda a 540p y 30 fps rascando me gustó mucho más que el Mafia 3 que lo jugué a 4k y 60fps rocosos, por poner dos mundos abiertos. También está claro que cuando pasé de mi 780Ti a una Titán de la serie 10 y volví a poner el Fallout 4 con todo a tope de gas en 4k... en fin, la gocé. Cuando puse el Rocket League a 170Hz 2K la puto gocé, y si lo comparas con su versión de Switch quieres un cubo para potar.

Lo más importante es el juego, prefiero elegir yo a qué jugar comprometido a que sea 720p y 30fps a que me den un equipo de estos de youtubers que montan lo más loco que exista en el ordenador más caro del mundo pero solo pueda jugar a los últimos juegos que se usan para benchs y techos técnicos.

La creatividad y la originalidad no consumen W pero son la auténtica genialidad de ésto. Por eso estamos en una época del boom de los indies, porque hacer otro Assasins, Farcry, COD, Fifa o Battlefield lo hace "cualquiera". Todo tiene su hueco por supuesto. Y ahí está la gracia.

Lo cojonudo es poder participar de todo ello con una 1050 o con una 3090Ti.
@jberto Al final lo importante es el poder adquisitivo que tengas, y si tienes más poder adquisitivo jugarás a 4K con todo a tope y "nosecuantos" hz y si eres un pelao como yo (sin ningún ánimo de ofender), pues te conformas con lo que tienes, en mi caso al igual que tú, 1080p y 60fps.

Es inevitable que con el paso del tiempo se vayan superando resoluciones, refrescos de pantalla y demás. Cuando empecé a jugar a mis juegos favoritos a 320x240 y pasé a mi primer monitor HD, tuve la opción de jugar a 720p y desde entonces no quería volver atrás. Luego llegó el 1080p y cuando jugué a 1080p, no quise volver al 720p, excepto cuando por limitaciones de mi hardware no me quedaba más remedio que jugarlo decentemente a 720p o a petardazos a 1080p. Es perfectamente normal.

Lo único cierto es que he podido jugar a 1440p y 4K en varias ocasiones y si yo tuviera la opción de poder jugar así decentemente, no volvía al 1080p ni loco. Pero como mi bolsillo no me lo permite ... pues juego a lo mio a lo que me da, 1080p y 60fps. Y contento, claro que sí. Disfruto muchísimo. Pero lo dicho, que si mi bolsillo me diera para más pues ni me lo pensaba.

En resumen, opino como @colado , que una vez probado lo bueno nadie quiere volver.
Cierto, yo desde que probé una Savage 3D de 8 MB y jugar al Dark Forces 2 o Half Life con aceleración por hardware, no volví jamás a plantearme comprar una Vision Trio de 1 MB para jugar con aceleración por software. [qmparto]
jberto escribió:O mejor dicho, "efecto auto-justificación de compra"..


Lo que haces tú es auto-convencerte, pero te guste o no, de 1080p a 1440p hay una buena diferencia y ya ni hablemos 4K. Yo cuando pillé el PC lo hice con un buen monitor a 1080p y ufff... no sabes lo que me arrepiento luego de haber visto un 1440p en acción
El año pasado pasé del fullHD al 1440p y quien no vea la diferencia, que se lo haga mirar.

Otra cosa es conformarse y convencerse de que el 1080 y 60fps es suficiente y tal, cada uno tendrá sus motivos, pero para mi el cambio es significativo.
Yo pasé de 1080p a 1440p y no me convenció para nada. La densidad de pixeles parecida y se me hacía molesto un monitor tan grande. Me quedo con 1080p de largo. De hecho, devolví el monitor de 1440p por lo incómodo.
Lucas11 escribió:Yo pasé de 1080p a 1440p y no me convenció para nada. La densidad de pixeles parecida y se me hacía molesto un monitor tan grande. Me quedo con 1080p de largo. De hecho, devolví el monitor de 1440p por lo incómodo.

Según lo que cuentas la resolución 1440p no tiene ninguna culpa de tu incomodidad si no las pulgadas del monitor.
26 respuestas