Rtx 4070 para jugar en 1080p

Buenas, disculpad la molestia, era para explicaros mi caso.
Tengo una 4070 con un 13400f y voy a cambiar de monitor de 1440 a 1080 que tenia anteriormente y le daré el 1440 a mi hijo, el motivo es porque juego bastante Shooters como Valorant, CS… y la verdad que jugar en 1080 era mucho mejor y bajar a esa resolución en el monitor 1440 se ve borroso… además también juego juegos SP de echo espero con ganas lies Of p y The Lords Of The fallen. La pregunta es si la gráfica va bien también para esa resolución o no merece la pena? Imagino que si, más fps dará para juegos más demandantes no? Alguien que tenga ese tipo de gráficas y utilice monitor 1080p?

Gracias de antemano
Noliko escribió:Buenas, disculpad la molestia, era para explicaros mi caso.
Tengo una 4070 con un 13400f y voy a cambiar de monitor de 1440 a 1080 que tenia anteriormente y le daré el 1440 a mi hijo, el motivo es porque juego bastante Shooters como Valorant, CS… y la verdad que jugar en 1080 era mucho mejor y bajar a esa resolución en el monitor 1440 se ve borroso… además también juego juegos SP de echo espero con ganas lies Of p y The Lords Of The fallen. La pregunta es si la gráfica va bien también para esa resolución o no merece la pena? Imagino que si, más fps dará para juegos más demandantes no? Alguien que tenga ese tipo de gráficas y utilice monitor 1080p?

Gracias de antemano

Yo uso un monitor de 1080p y 144hz con una RX 6800. El unico problema que tendras, es que deberas limitar los fps de un modo u otro o sino incluso su 13400 se pondra como una moto racing en muchos juegos.

Ahora vendra más gente a decir que es tirar el dinero. Yo no estoy de acuerdo. Vas a comprar una grafica que te va a permitir a todo detalle, incluso con Raytracing a 100fps de media y si compras una 4060 o 3060, vas a tener algo con menos memoria grafica que sera como 20 o 30 fps peor. Cualquiera puede hechar cuentas y acertar con cual te va a durar más tiempo dando guerra.

Lo unico que tendras que mirar que fuente de alimentación tienes porque para una RTX 4070 necesitaras una fuente de 550W de calidad, aunque yo pondria una de 600/650W de calidad.
@Nomada_Firefox

Gracias por contestar crack, pero en mi caso ya lo tengo todo, es solo cambiar el monitor.
Siempre puedes hacer que el rendimiento vaya como en tu monitor 1440p si renderizas a mayor resolución con DSR.
Pues si, como dice el compañero, asegúrate de limitar los FPS (VSync ON) para no malgastar recursos ni electricidad.

Puedes usar software como MSI Afterburner para monitorizar el uso de CPU/GPU y ver que efectivamente lo limitas.
@mrmanson16v

Pero vamos, que no es ninguna locura lo que voy a hacer no? Gracias a todos
Noliko escribió:@mrmanson16v

Pero vamos, que no es ninguna locura lo que voy a hacer no? Gracias a todos

Si dices que ya tenías la RTX 4070 porque anteriormente tenías un monitor de 1440p, ¿dónde está la locura?

Yo limitaría los fps y ya está, que más adelante vuelves a usar un monitor de más resolución, o si dentro de un tiempo los juegos piden más gráfica, o si quieres usar Ray Tracing, todo en Ultra, etc... pues lo puedes ajustar también según el juego que se trate.

Saludos.
@javier español

El limitar fps hablamos de activar Vsync? Porque no lo suelo hacer por el imput lag, mas bien desde opciones del juego pongo fps máximos 144.
@Noliko pues es que eso depende del juego que se trate, es cuestión de prueba y error. Habrán juegos donde hayan caídas bruscas, donde interesa más activar V-Sync, FreeSync o G-Sync, según el monitor que tengas, y otros juegos donde irás sobrado de fps, en cuyo caso es mejor limitar los fps máximos a los Hz que tenga tu monitor para no hacer trabajar de más a la gráfica innecesariamente.

Saludos.
Noliko escribió:@javier español

El limitar fps hablamos de activar Vsync? Porque no lo suelo hacer por el imput lag, mas bien desde opciones del juego pongo fps máximos 144.

Si no te molesta el tearing (cortes horizontales) ocasional que puedas tener, el efecto en el consumo es el mismo si limitas los FPS desde el propio juego que si activas Vsync en un equipo con recursos de sobra (que mantiene los 144fps constantemente vaya), así que está bien.

Saludos
Noliko escribió:@mrmanson16v

Pero vamos, que no es ninguna locura lo que voy a hacer no? Gracias a todos

No para nada, Es hasta mejor idea si quieres que la grafica te dure más en el tiempo.

Usar el vsync no funciona igual, ni parecido a limitar el consumo porque añade un efecto que puede ser incomodo dependiendo del juego. A mi no me gusta en shooters. De hecho por ejemplo en el 1080p 60hz usarlo es horrible con la RTX 3060 que tengo. En la RX 6800 uso un monitor de 144fps pero con freesync premiun y va muy bien. Solo en algunos juegos hay que limitar, no en todos, los más viejos se disparan innecesariamente. Y si usas el Raytacing ya limitas de por si.

Y no es por tanto por limitar el consumo, es que la CPU en algunos juegos no tan nuevos se va a poner como una moto y a mi me resulta molesto por muchos fps que escupa si bien acabara crear cuello de botella.

Siendo Nvidia lo que nos ocupa, yo usaria el limite de fps solo esos juegos donde disparase. Es la unica opción, Nvidia no tiene nada como el chill para poner un minimo y un maximo, al menos que yo sepa. Tampoco tiene opciones de limitar consumos directamente. Cuando no usaste una RX, piensas que el panel es muy completo, luego ves el Adrenaline y ves que se queda corto. Claro que a mucha gente le gusta más Nvidia porque es más sencillo.
@Nomada_Firefox

Mil gracias por vuestras respuestas.

Lo que he notado por ejemplo en ratchet todo a full con rt que el procesador ahora en lugar de estar en un 30/40%. ha pasado a 60/70%, es lo normal no? Y la gráfica se mueve entre 75/80%

Sin embargo en forza horizon 5, la gráfica todo a full sí que le trabaja entre el 95/99%.

Imagino que según el juego no? Pero a lo que voy, es lo normal?
Noliko escribió:@Nomada_Firefox

Mil gracias por vuestras respuestas.

Lo que he notado por ejemplo en ratchet todo a full con rt que el procesador ahora en lugar de estar en un 30/40%. ha pasado a 60/70%, es lo normal no? Y la gráfica se mueve entre 75/80%

Sin embargo en forza horizon 5, la gráfica todo a full sí que le trabaja entre el 95/99%.

Imagino que según el juego no? Pero a lo que voy, es lo normal?

Es lo normal. Lo que notas de que la gráfica está por debajo del 100% en juegos que antes lo estaba es (si no tienes Vsync) el tan temido cuello de botella que es... totalmente esperable cuando usas una gráfica relativamente potente a una resolución relativamente baja.

En motores gráficos que no permitan más de X fps o si los limitas tú es lo normal, con o sin cuello de botella. No tienes más uso de GPU porque no es necesario.

No hay ningún problema por eso, salvo que podrías jugar igual con una gráfica algo más barata.

Saludos
Noliko escribió:Buenas, disculpad la molestia, era para explicaros mi caso.
Tengo una 4070 con un 13400f y voy a cambiar de monitor de 1440 a 1080 que tenia anteriormente y le daré el 1440 a mi hijo, el motivo es porque juego bastante Shooters como Valorant, CS… y la verdad que jugar en 1080 era mucho mejor y bajar a esa resolución en el monitor 1440 se ve borroso… además también juego juegos SP de echo espero con ganas lies Of p y The Lords Of The fallen. La pregunta es si la gráfica va bien también para esa resolución o no merece la pena? Imagino que si, más fps dará para juegos más demandantes no? Alguien que tenga ese tipo de gráficas y utilice monitor 1080p?

Gracias de antemano
No va "bien" a secas para 1080p, va sobradisima para esa resolución.
Noliko escribió:@Nomada_Firefox

Mil gracias por vuestras respuestas.

Lo que he notado por ejemplo en ratchet todo a full con rt que el procesador ahora en lugar de estar en un 30/40%. ha pasado a 60/70%, es lo normal no? Y la gráfica se mueve entre 75/80%

Sin embargo en forza horizon 5, la gráfica todo a full sí que le trabaja entre el 95/99%.

Imagino que según el juego no? Pero a lo que voy, es lo normal?

Cada juego es una historia. En muchos juegos que son ports de consola, se aprecia que los usos de CPU son malos. Alguien dira que eso es tener cuello de botella, pero mientras el juego no lo mejoren, me temo que es lo que vas a ver. Los primeros que salieron a PC viniendo de las nuevas consolas, eran hasta peor, no usaban ni un nucleo entero.
Nomada_Firefox escribió:
Noliko escribió:Buenas, disculpad la molestia, era para explicaros mi caso.
Tengo una 4070 con un 13400f y voy a cambiar de monitor de 1440 a 1080 que tenia anteriormente y le daré el 1440 a mi hijo, el motivo es porque juego bastante Shooters como Valorant, CS… y la verdad que jugar en 1080 era mucho mejor y bajar a esa resolución en el monitor 1440 se ve borroso… además también juego juegos SP de echo espero con ganas lies Of p y The Lords Of The fallen. La pregunta es si la gráfica va bien también para esa resolución o no merece la pena? Imagino que si, más fps dará para juegos más demandantes no? Alguien que tenga ese tipo de gráficas y utilice monitor 1080p?

Gracias de antemano

Yo uso un monitor de 1080p y 144hz con una RX 6800. El unico problema que tendras, es que deberas limitar los fps de un modo u otro o sino incluso su 13400 se pondra como una moto racing en muchos juegos.

Ahora vendra más gente a decir que es tirar el dinero. Yo no estoy de acuerdo. Vas a comprar una grafica que te va a permitir a todo detalle, incluso con Raytracing a 100fps de media y si compras una 4060 o 3060, vas a tener algo con menos memoria grafica que sera como 20 o 30 fps peor. Cualquiera puede hechar cuentas y acertar con cual te va a durar más tiempo dando guerra.

Lo unico que tendras que mirar que fuente de alimentación tienes porque para una RTX 4070 necesitaras una fuente de 550W de calidad, aunque yo pondria una de 600/650W de calidad.

A ver.. El render de 1080 a 4k es un mundo, ya no solo la resolución en sí, sino como el motor gráfico renderiza el juego.

Yo en vuestro caso jugaría con DSR a WQHD por lo menos, probaría a 4K a ver, porque va a mejorar muchísimo la calidad de los renders vaya..

Aún así.. yo me miraría un monitor WQHD, se nota demasiado la resolución con respecto a 1080 y las gráficas a dia de hoy tiran muy bien para esa resolución. Un monitor te va a durar muchos mas años que una gráfica, y si tienes un monitor decente lo vas a agradecer.
Kanijo1 escribió:Aún así.. yo me miraría un monitor WQHD, se nota demasiado la resolución con respecto a 1080 y las gráficas a dia de hoy tiran muy bien para esa resolución. Un monitor te va a durar muchos mas años que una gráfica, y si tienes un monitor decente lo vas a agradecer.

Bueno yo discrepo un poco. Ver se vera mejor pero le quitas años de buen uso a la grafica. Si eres pobre como yo. No es una maravillosa idea. Aunque yo si lo he valorado alguna vez, salvo cuando miro los precios y pienso........si antes jugaba a 110fps a algo, en 1440p va a ser mucho menos. Asi que me quedo con lo que tengo. XD

Aunque si uso a veces la super resolución que es como el DLDSR, si bien el DLDSR consume menos recursos.

En resumen. Si quieres que tengas que cambiar de tarjeta grafica pronto jugando en calidad ultra. Compra un monitor de la mayor resolución que tu bolsillo permita.
Nomada_Firefox escribió:
Kanijo1 escribió:Aún así.. yo me miraría un monitor WQHD, se nota demasiado la resolución con respecto a 1080 y las gráficas a dia de hoy tiran muy bien para esa resolución. Un monitor te va a durar muchos mas años que una gráfica, y si tienes un monitor decente lo vas a agradecer.

Bueno yo discrepo un poco. Ver se vera mejor pero le quitas años de buen uso a la grafica. Si eres pobre como yo. No es una maravillosa idea. Aunque yo si lo he valorado alguna vez, salvo cuando miro los precios y pienso........si antes jugaba a 110fps a algo, en 1440p va a ser mucho menos. Asi que me quedo con lo que tengo. XD

Aunque si uso a veces la super resolución que es como el DLDSR, si bien el DLDSR consume menos recursos.

En resumen. Si quieres que tengas que cambiar de tarjeta grafica pronto jugando en calidad ultra. Compra un monitor de la mayor resolución que tu bolsillo permita.

hombre, a dia de hoy, una 3080 a wqhd te mueve todo a una tasa de frames muy buena, si encima tienes una 4000 y juegas a juegos con dlss..

Yo actualmente, con la 4080, uso el DSR a 4k y, por ejemplo, el hogwards legacy me va a 140 fps aprox con todo al max (dlss activado con generador de frames), en WQHD todos los juegos se plantan en 200 fps o más, a no ser que sea un juego muy viejo (Por ejemplo el kingdom come deliverance me va bastante mal :/ )
Kanijo1 escribió:en WQHD todos los juegos se plantan en 200 fps

Mucho me parece..........sera sin RT y con DLSS3 ¿no?

Y por cierto que yo en mi caso, tengo una pega. No tengo sitio donde poner un monitor ni de 27". Me entra el 24,5" de milagro. Y no voy a comprar una RTX 4080, ni una grafica de Nvidia porque ahora mismo seria como pegarme un tiro en el pie. :)

Pero bueno, el usuario del tema que solo jugaba a shooters tipo CS, jugar a 1080p, no era nada mala idea porque en esos juegos rular a un ciento de fps es positivo. No tenia pensado usarlo para nada actual. Muy parecido a mi uso jugon. :)
Yo estoy en la misma tesitura, tengo pensado comprarme una 7900XTX para 1080p. Algunos se tirarán de los pelos y se llevarán las manos a la cabeza, pero yo lo veo de esta forma.

La gráfica a 1080p@144Hz (o ni eso, por encima de los 90 ya me cuesta un poco distinguirlos, cosas de hacerse viejo) va a estar tocándose los cojones durante casi toda su vida útil, con un consumo y temperaturas de risa. ¿Que el procesador hará cuello de botella? Pues me da igual, siempre que pueda sacar entre 80-120 fps me sirve.

Con eso ganas varias cosas. El consumo tope de los procesadores es más comedido que los de las gráficas, y aunque se caliente, le metes mejor refrigeración por 4 duros. No vas a necesitar una fuente de chorrocientos euros calidad ununquadium porque el consumo total del equipo va a ser menor, y si en algún momento quieres mejorar el monitor, no vas a tener casi pérdida de frames, simplemente la gráfica va a tener que trabajar un poco más.

Yo la verdad es que entiendo a aquellos que se compran un equipo supertop y equilibradísimo para mantener el cuello de botella al mínimo. Pero hay situaciones, donde el cuello de botella es totalmente asumible, y repercute en menores consumos en uno de los componentes más chupones a día de hoy.
Mr.Gray Fox escribió:Yo estoy en la misma tesitura, tengo pensado comprarme una 7900XTX para 1080p. Algunos se tirarán de los pelos y se llevarán las manos a la cabeza, pero yo lo veo de esta forma.

La gráfica a 1080p@144Hz (o ni eso, por encima de los 90 ya me cuesta un poco distinguirlos, cosas de hacerse viejo) va a estar tocándose los cojones durante casi toda su vida útil, con un consumo y temperaturas de risa. ¿Que el procesador hará cuello de botella? Pues me da igual, siempre que pueda sacar entre 80-120 fps me sirve.

Con eso ganas varias cosas. El consumo tope de los procesadores es más comedido que los de las gráficas, y aunque se caliente, le metes mejor refrigeración por 4 duros. No vas a necesitar una fuente de chorrocientos euros calidad ununquadium porque el consumo total del equipo va a ser menor, y si en algún momento quieres mejorar el monitor, no vas a tener casi pérdida de frames, simplemente la gráfica va a tener que trabajar un poco más.

Yo la verdad es que entiendo a aquellos que se compran un equipo supertop y equilibradísimo para mantener el cuello de botella al mínimo. Pero hay situaciones, donde el cuello de botella es totalmente asumible, y repercute en menores consumos en uno de los componentes más chupones a día de hoy.

Bueno... sí y no. Estoy de acuerdo en varios puntos, pero en lo que dices hay cosas que son objetivamente incorrectas.

Por ejemplo, hay gráficas (por ejemplo la 4070 del autor del post) que son más eficientes que otras a prácticamente cualquier nivel de carga. Esto decir que una 4070 de stock va a consumir menos watios por frame que una 7900XTX (y por ende menos watios en total) incluso si limitas el frame rate (bien utilizando un procesador que "no da más" o bien directamente en el motor del juego o con Vsync, me es indiferente). Cuando nos alejamos del 100% de carga TODAS las gráficas pierden eficiencia, más cuánto más nos alejamos. Lo ideal es que ronde el 100% de carga con el power limit más bajo posible, si nos ponemos exquisitos, para que el voltaje y frecuencia de la GPU sea el menor posible.

Lógicamente va a llegar un punto en el que la 7900XTX va a poder dar más (en raster) y la 4070 no, y eso es un plus que hay que tener en cuenta, por mucho que ahora ambas vayan sobradas a estas resoluciones, no sabes si vas a cambiar en el futuro o si los juegos más pesados con Path tracing y chorromil efectos incluso a 1080p pedirán más "chicha"

Ver por ejemplo: https://www.techpowerup.com/review/asus ... uf/40.html o un vídeo muy interesante de der8auer bajando el power target al modelo Ti: https://www.youtube.com/watch?v=BtF77eqywAw

Saludos
Mr.Gray Fox escribió:Yo estoy en la misma tesitura, tengo pensado comprarme una 7900XTX para 1080p. Algunos se tirarán de los pelos y se llevarán las manos a la cabeza, pero yo lo veo de esta forma.

La gráfica a 1080p@144Hz (o ni eso, por encima de los 90 ya me cuesta un poco distinguirlos, cosas de hacerse viejo) va a estar tocándose los cojones durante casi toda su vida útil, con un consumo y temperaturas de risa. ¿Que el procesador hará cuello de botella? Pues me da igual, siempre que pueda sacar entre 80-120 fps me sirve.

Con eso ganas varias cosas. El consumo tope de los procesadores es más comedido que los de las gráficas, y aunque se caliente, le metes mejor refrigeración por 4 duros. No vas a necesitar una fuente de chorrocientos euros calidad ununquadium porque el consumo total del equipo va a ser menor, y si en algún momento quieres mejorar el monitor, no vas a tener casi pérdida de frames, simplemente la gráfica va a tener que trabajar un poco más.

Yo la verdad es que entiendo a aquellos que se compran un equipo supertop y equilibradísimo para mantener el cuello de botella al mínimo. Pero hay situaciones, donde el cuello de botella es totalmente asumible, y repercute en menores consumos en uno de los componentes más chupones a día de hoy.


Es tu idea y es respetable, pero no es la mejor idea ni de broma....

500 y poco euros, tienes una RX 6800 XT nueva enviada a tu casa.

Casi 500€ menos de gasto y para 1080P 100 fps te sobra, esos € que no te gastaste, te los guaras para el futuro o me los envias por Bizum si es que no los quieres.

Tendras el mismo resultado y la cartera mas llena.

Tu idea no es mala como tal, pero con graficas como la que te dije, que es superior a lo que necesitas, pero no una locura, por ponerte un simil para ir por el campo te sirve tanto un coche 4X4 ( RX 6800 XT) como un tanque (RX 7900 XTX) sabes perfectamente que nunca te comprarias el tanque, no lo hagas solo por que sea una grafica🤣
@Pollonidas Cierto, lo había pasado por alto. He tenido un momento de derrame cerebral absoluto, cosas de postear mientras se trabaja XD. Estaba pensando en una situación ideal en el que el consumo escalase de forma lineal en toda la generación, pero no me acordé de las mil variables que existen a mayores (modelo del chip, cantidad de ram, etc).

No obstante, como dices, meter algo ajustado a una resolución en concreto puede ser pillarse los dedos en una temporada en pos de la eficiencia, cuando con algo ligeramente no tan eficiente (100% vs 99%) te puede llegar a durar bastante más tiempo por ser simplemente más potente.

Es cosa de balancear pros y contras, pero el resumen que quería hacer es básicamente que si se puede permitir uno una gráfica tocha y eficiente, que vaya a por ella. No existen las gráficas para 1080p, 1440p o 4k. Meter una 4090 para un equipo con una pantalla de 1080 es un poco overkill, pero desde luego nada que pueda resultar extraño, o que su usuario tenga que ir a hoguera por semejante blasfemia.

Cada uno tiene sus necesidades, y a mí personalmente me gusta tener la gráfica con un uso muuuuuy bajo, ya que suelo alargar las generaciones todo lo posible, hasta que ya no pueda con los juegos actuales en mi resolución en medio por encima de los 50 fps. Ahí es cuando me planteo el cambio, o vuelvo a rescatar viejas glorias en las que mi gráfica vuelve a estar en su salsa :P

@ivan95 Esos 500€ se me van a electricidad para refrigerar el despacho si meto una gráfica que tenga que ir al 100% XD. Si ya con mi equipo (1080) y el de mi novia (970) los dos zumbando no hay quien pare, imagina si monto una gráfica que no pueda bajar de vueltas hasta lo máximo que pueda. Sí que hay gráficas que pueden ir muy bien ajustadas conforme a los requisitos, obviamente no le pondría una 4090 a alguien que juega al Monkey Island, porque hay otras soluciones. Pero yo tengo unos estándares mínimos de calidad en un juego actual, y si puedo llegar a ellos con un consumo muy bajo, lo prefiero, antes que tener el equipo escupiendo +200fps
Nomada_Firefox escribió:
Kanijo1 escribió:en WQHD todos los juegos se plantan en 200 fps

Mucho me parece..........sera sin RT y con DLSS3 ¿no?

Y por cierto que yo en mi caso, tengo una pega. No tengo sitio donde poner un monitor ni de 27". Me entra el 24,5" de milagro. Y no voy a comprar una RTX 4080, ni una grafica de Nvidia porque ahora mismo seria como pegarme un tiro en el pie. :)

Pero bueno, el usuario del tema que solo jugaba a shooters tipo CS, jugar a 1080p, no era nada mala idea porque en esos juegos rular a un ciento de fps es positivo. No tenia pensado usarlo para nada actual. Muy parecido a mi uso jugon. :)

Obvio es sin RT y con o sin DLSS depende del juego, por ejemplo el hogwarts me va a 280 y pico frames con DLSS y generador de frames va entre 280 y 250 fps, sin DLSS entre los 140 y 150 fps.

Te pongo el hogwarts porque es el unico "triple A" actual que tengo, y seguramente el que mas consume de los que tengo
Bueno, esta claro que el DLSS hace maravillas, pero no todos los juegos del top 20 se van a mover asi.
...
Editado por metalgear. Razón: troll
Mr.Gray Fox escribió:@Pollonidas Cierto, lo había pasado por alto. He tenido un momento de derrame cerebral absoluto, cosas de postear mientras se trabaja XD. Estaba pensando en una situación ideal en el que el consumo escalase de forma lineal en toda la generación, pero no me acordé de las mil variables que existen a mayores (modelo del chip, cantidad de ram, etc).

No obstante, como dices, meter algo ajustado a una resolución en concreto puede ser pillarse los dedos en una temporada en pos de la eficiencia, cuando con algo ligeramente no tan eficiente (100% vs 99%) te puede llegar a durar bastante más tiempo por ser simplemente más potente.

Es cosa de balancear pros y contras, pero el resumen que quería hacer es básicamente que si se puede permitir uno una gráfica tocha y eficiente, que vaya a por ella. No existen las gráficas para 1080p, 1440p o 4k. Meter una 4090 para un equipo con una pantalla de 1080 es un poco overkill, pero desde luego nada que pueda resultar extraño, o que su usuario tenga que ir a hoguera por semejante blasfemia.

Cada uno tiene sus necesidades, y a mí personalmente me gusta tener la gráfica con un uso muuuuuy bajo, ya que suelo alargar las generaciones todo lo posible, hasta que ya no pueda con los juegos actuales en mi resolución en medio por encima de los 50 fps. Ahí es cuando me planteo el cambio, o vuelvo a rescatar viejas glorias en las que mi gráfica vuelve a estar en su salsa :P

@ivan95 Esos 500€ se me van a electricidad para refrigerar el despacho si meto una gráfica que tenga que ir al 100% XD. Si ya con mi equipo (1080) y el de mi novia (970) los dos zumbando no hay quien pare, imagina si monto una gráfica que no pueda bajar de vueltas hasta lo máximo que pueda. Sí que hay gráficas que pueden ir muy bien ajustadas conforme a los requisitos, obviamente no le pondría una 4090 a alguien que juega al Monkey Island, porque hay otras soluciones. Pero yo tengo unos estándares mínimos de calidad en un juego actual, y si puedo llegar a ellos con un consumo muy bajo, lo prefiero, antes que tener el equipo escupiendo +200fps

La cuestión es comprar con lógica ,nada más.

Una 4090 para 1080p,no suele tener lógica .Poder se puede ,pero creo yo, que hay opciones casi tan buenas pero más interesantes por precio, que meter una 4090 para 1080p,por ejemplo.
Necrofero escribió:
Kanijo1 escribió:Obvio es sin RT y con o sin DLSS depende del juego, por ejemplo el hogwarts me va a 280 y pico frames con DLSS y generador de frames va entre 280 y 250 fps, sin DLSS entre los 140 y 150 fps.

Te pongo el hogwarts porque es el unico "triple A" actual que tengo, y seguramente el que mas consume de los que tengo


No es lo mismo 150 frames per second que 250 fakes per second, hay una notoria diferencia.


Imagen

Imagen

Imagen

Imagen

Imagen

Imagen

Imagen

Imagen



Lávate la boca con jabón antes de juzgarme, listillo. El juego suele rondar entre los 200 y pico y 280 en mi pc a 144p. las screens te las acabo de hacer ahora mismo, en la pantalla de carga, interior, y exterior aunque yo en su dia lo jugué a 4k, y rondaba los 100 - 150 fps aprox.

Ten en cuenta que tiene el generador de fotogramas activado, y por eso va así de sobrado.

Pero lo dicho.. Antes de juzgar, ten pruebas de lo que dices.
hh1 escribió:Una 4090 para 1080p,no suele tener lógica .Poder se puede ,pero creo yo, que hay opciones casi tan buenas pero más interesantes por precio, que meter una 4090 para 1080p,por ejemplo.

Bueno......lo unico ilogico, seria por el precio quizas, por lo demas, igual no te la acababas nunca. La RTX 4070 que Noliko dijo que ya la tenia comprada por el precio solo es logico si ronda los 600€, si cuesta 900€ es muy cara, 800 tambien.

@Kanijo1 mejor ignoremos a los trolls. Aunque si es verdad que usar DLSS y generador de frames no es lo mismo que no usar nada. Yo en 1080p con la RX 6800 suelo usar RT en todo lo que juego de verdad que tampoco es mucho porque pruebo mucho, juego poco, pero no acostumbro a usar el FSR, como mucho pongo el monitor a 2k con la resolución virtual y se ve muy bien. Más que el tamaño de los pixeles y la resolución, yo valoro los colores, como tengo el otro PC con un 1080p 60hz, que no es ni un monitor gaming, cuando juego a lo mismo entre uno y el 144hz, lo noto una barbaridad en el tema de colores.

Tambien tengo que decir que a 70cm un 1080p se ve muy bien. Es un 24.5 pulgadas, un 27 es apenas nada, hasta el tamaño de panel es similar.

Ah y sonara de risa pero estaba pensando en comprar otro monitor para el PC secundario o reciclar el que uso aqui en el pero en vez de un 1440p, pensaba en un 1080p, quizas un AOC 24G2 (tiene muchas variantes) porque a 1080p una grafica potente te dura mucho más, no necesitas opciones de escalado, ni de fps y como ya digo tampoco desmerece tanto.

Lo logico es siempre comprar lo que mejor te funcione de acuerdo a tus posibilidades. Para comprar algo y luego estar acordandome del dia que lo hice porque no puedo pagar una grafica mejor, francamente, mejor no. He visto mucha gente diciendo eso de "mejor estaba yo haciendo otra cosa el dia que cambie el monitor". [sonrisa]
Nomada_Firefox escribió:@Kanijo1 mejor ignoremos a los trolls. Aunque si es verdad que usar DLSS y generador de frames no es lo mismo que no usar nada. Yo en 1080p con la RX 6800 suelo usar RT en todo lo que juego de verdad que tampoco es mucho porque pruebo mucho, juego poco, pero no acostumbro a usar el FSR, como mucho pongo el monitor a 2k con la resolución virtual y se ve muy bien. Más que el tamaño de los pixeles y la resolución, yo valoro los colores, como tengo el otro PC con un 1080p 60hz, que no es ni un monitor gaming, cuando juego a lo mismo entre uno y el 144hz, lo noto una barbaridad en el tema de colores.

Tambien tengo que decir que a 70cm un 1080p se ve muy bien. Es un 24.5 pulgadas, un 27 es apenas nada, hasta el tamaño de panel es similar.

Yo llevo ya mucho con el monitor wqhd y jugando a 144hz que ya no puedo volver atrás, noto demasiado los pixeles en 1080p, lo veo todo emborronado, con muchos dientes de sierra.. Ya cuando te acostumbras..

Las capturas de antes son a WQHD con DLSS, a 1080p tiene que ser un overkill de cojones (No lo he probado, si alguien está interesada lo pruebo) pero ya te digo, la diferencia en la calidad de render entre 4k y wqhd es bastante notoria, entre 4k y 1080p... es demasiada diferencia, pierde muchísima calidad el juego renderizando a 1080p (Peor calidad en iluminación, sombras y sobretodo texturas. Hace un tiempo subí unas imágenes con algunas diferencias del hogwarts jugando a 4k y wqhd, y la diferencia de los modelos de los personajes y los escenarios es bastante grande.
Kanijo1 escribió:Yo llevo ya mucho con el monitor wqhd y jugando a 144hz que ya no puedo volver atrás, noto demasiado los pixeles en 1080p, lo veo todo emborronado, con muchos dientes de sierra.. Ya cuando te acostumbras..

No pongo en duda que eso sucede. De hecho es por lo ultimo que puse antes e igual no leiste porque estaba editando (logico).

No pongo en duda que una captura de 4k y 1080p se ve diferente. Son más pixeles. Pero tened cuidado con lo que veais en videos por el mundo porque todo lo que no sean resoluciones genericas en un monitor, siempre se ven peor y por poner un ejemplo, yo tengo un monitor de 1080p pero grabo videos en 4k pero no es lo mismo que 4k generico.

la diferencia en la calidad de render entre 4k y wqhd es bastante notoria, entre 4k y 1080p... es demasiada diferencia, pierde muchísima calidad el juego renderizando a 1080p (Peor calidad en iluminación, sombras y sobretodo texturas.

Pues en este video yo no veo perdida alguna......... :-?

Seguro que entre estas imagenes no sabes cual es la 1080p y cual es la 4k.
Imagen
Imagen
Claro son de hace 6 meses, de ese video, igual ahora el juego esta mejor. Yo no lo voy a jugar en un millon de años. :)

Tambien me pregunto si lo que comentas de perdida de calidad, era 1080p usando el DLSS porque incluso en calidad tiende a perder mucho. Pero en 1080p sin el, puedes usar el RT sin problemas.
Nomada_Firefox escribió:
Kanijo1 escribió:Yo llevo ya mucho con el monitor wqhd y jugando a 144hz que ya no puedo volver atrás, noto demasiado los pixeles en 1080p, lo veo todo emborronado, con muchos dientes de sierra.. Ya cuando te acostumbras..

No pongo en duda que eso sucede. De hecho es por lo ultimo que puse antes e igual no leiste porque estaba editando (logico).

No pongo en duda que una captura de 4k y 1080p se ve diferente. Son más pixeles. Pero tened cuidado con lo que veais en videos por el mundo porque todo lo que no sean resoluciones genericas en un monitor, siempre se ven peor y por poner un ejemplo, yo tengo un monitor de 1080p pero grabo videos en 4k pero no es lo mismo que 4k generico.

la diferencia en la calidad de render entre 4k y wqhd es bastante notoria, entre 4k y 1080p... es demasiada diferencia, pierde muchísima calidad el juego renderizando a 1080p (Peor calidad en iluminación, sombras y sobretodo texturas.

Pues en este video yo no veo perdida alguna......... :-?

Seguro que entre estas imagenes no sabes cual es la 1080p y cual es la 4k.
Imagen
Imagen
Claro son de hace 6 meses, de ese video, igual ahora el juego esta mejor. Yo no lo voy a jugar en un millon de años. :)


Si nunca has probado nada superior a 1080p no entiendo porque no paras de hablar en todos los hilos de las bondades de esa resolucion y autoconvenciendote de que es lo mejor.
Te animo a que compres un monitor de 1440p o 2160p IPS por amazon, para que lo devuelvas facilmente despues y lo pruebes de una vez.
Pero claro, si no notas diferencia en las imagenes entre 1080p y 4k es que igual deberias de ir a un oculista.
...
Editado por metalgear. Razón: falta de respeto
Nomada_Firefox escribió:
Kanijo1 escribió:Yo llevo ya mucho con el monitor wqhd y jugando a 144hz que ya no puedo volver atrás, noto demasiado los pixeles en 1080p, lo veo todo emborronado, con muchos dientes de sierra.. Ya cuando te acostumbras..

No pongo en duda que eso sucede. De hecho es por lo ultimo que puse antes e igual no leiste porque estaba editando (logico).

No pongo en duda que una captura de 4k y 1080p se ve diferente. Son más pixeles. Pero tened cuidado con lo que veais en videos por el mundo porque todo lo que no sean resoluciones genericas en un monitor, siempre se ven peor y por poner un ejemplo, yo tengo un monitor de 1080p pero grabo videos en 4k pero no es lo mismo que 4k generico.

la diferencia en la calidad de render entre 4k y wqhd es bastante notoria, entre 4k y 1080p... es demasiada diferencia, pierde muchísima calidad el juego renderizando a 1080p (Peor calidad en iluminación, sombras y sobretodo texturas.

Pues en este video yo no veo perdida alguna......... :-?

Seguro que entre estas imagenes no sabes cual es la 1080p y cual es la 4k.
Imagen
Imagen
Claro son de hace 6 meses, de ese video, igual ahora el juego esta mejor. Yo no lo voy a jugar en un millon de años. :)

Tambien me pregunto si lo que comentas de perdida de calidad, era 1080p usando el DLSS porque incluso en calidad tiende a perder mucho. Pero en 1080p sin el, puedes usar el RT sin problemas.


Te voy primero primero las imágenes en 1080p y luego las de 4K (Aún así, en un monitor 1080p y en uno 4k se notan muchísimo más la diferencia) (amplia las imágenes):

Imagen

Imagen

Mira la cara, los poros, el logo de hufflepuff, la extura del suelo, los detalles..

Imagen

Imagen

Imagen

Imagen

Esta la he sacado para que veas la diferencia en los poros de la piel


Por ahí tenía unas imágenes donde salian unas personas sentadas con una luz y se notaba muchísimo las sombras y la iluminación como cambiaban de una resolución a otra, pero no sé donde están esas imágenes ya, estas las he sacado a lo rápido, ya que desde este juego no puedo cambiar la resolución manualmente estando a pantalla completa, tengo que salirme del juego y poner la resolución desde el panel de control de nvidia, y es un coñazo.

Pero vaya.. que te lo digo, la diferencia, sobretodo en el monitor (Que no es lo mismo sacar una captura de pantalla que jugar en un monitor y otro) es abismal, pruebas el wqhd o el 4k, y no vuelves atrás ni loco. tampoco te guies de videos de youtube, porque están comprimidos, lo mejor es que lo pruebes y ya está, o si quieres, puedes hacer lo que ha dicho el compañero, te pillas un buen monitor por amazon y lo devuelves si solo quieres probarlo (Aunque mejor que lo pruebes en otro lado, hay mediamarks con ordenadores con pantallas 4k/wqhd en los que puedes probar cosas..

Por cierto, las imágenes las he sacado sin DLSS

EDIT:

...
Editado por metalgear. Razón: falta de respeto
Nomada_Firefox escribió:
hh1 escribió:Una 4090 para 1080p,no suele tener lógica .Poder se puede ,pero creo yo, que hay opciones casi tan buenas pero más interesantes por precio, que meter una 4090 para 1080p,por ejemplo.

Bueno......lo unico ilogico, seria por el precio quizas, por lo demas, igual no te la acababas nunca. La RTX 4070 que Noliko dijo que ya la tenia comprada por el precio solo es logico si ronda los 600€, si cuesta 900€ es muy cara, 800 tambien.

@Kanijo1 mejor ignoremos a los trolls. Aunque si es verdad que usar DLSS y generador de frames no es lo mismo que no usar nada. Yo en 1080p con la RX 6800 suelo usar RT en todo lo que juego de verdad que tampoco es mucho porque pruebo mucho, juego poco, pero no acostumbro a usar el FSR, como mucho pongo el monitor a 2k con la resolución virtual y se ve muy bien. Más que el tamaño de los pixeles y la resolución, yo valoro los colores, como tengo el otro PC con un 1080p 60hz, que no es ni un monitor gaming, cuando juego a lo mismo entre uno y el 144hz, lo noto una barbaridad en el tema de colores.

Tambien tengo que decir que a 70cm un 1080p se ve muy bien. Es un 24.5 pulgadas, un 27 es apenas nada, hasta el tamaño de panel es similar.

Ah y sonara de risa pero estaba pensando en comprar otro monitor para el PC secundario o reciclar el que uso aqui en el pero en vez de un 1440p, pensaba en un 1080p, quizas un AOC 24G2 (tiene muchas variantes) porque a 1080p una grafica potente te dura mucho más, no necesitas opciones de escalado, ni de fps y como ya digo tampoco desmerece tanto.

Lo logico es siempre comprar lo que mejor te funcione de acuerdo a tus posibilidades. Para comprar algo y luego estar acordandome del dia que lo hice porque no puedo pagar una grafica mejor, francamente, mejor no. He visto mucha gente diciendo eso de "mejor estaba yo haciendo otra cosa el dia que cambie el monitor". [sonrisa]

Pero es que ,para casi cualquier contexto, no la tiene.
Que más da jugar a 300fps que a 240 que a 144 fps en el 90% de los juegos?
Salvo que te dediques a algo vometitivo a saco y sean tan diferenciales los GPS,,es absurdol,cuando por la mitad de lo que vale la 4090 o incluso el triple menos ,vas a jugar igual de bien a 1080p.

Por eso digo, que todo esto es más bien tema de lógica.
hh1 escribió:vas a jugar igual de bien a 1080p.

Por eso digo, que todo esto es más bien tema de lógica.


Hombre.. la calidad que hay entre 1080p y wqhd es un cacho bien grande visualmente hablando, es mucho mas agradable, vas a ver muchísimos mas detalles, etc. De hecho, yo es que no me compraría una 4070 para 1080, es overkill pero.. a saco. Me compraría una 4060 y así ahorras pasta, que te va a durar muchísimo tiempo una 4060 para 1080p, ya has visto con mis capturas lo sobrado que va una 4080 para wqhd (Sobretodo con juegos con DLSS), y 1080p es muchísimo mas facil de mover.

Y si me das a elegir, prefiero una 4060 y un monitor wqhd, y ya en un futuro actualizar la gráfica (Que lo acabarás haciendo) que una 4070 y un monitor HD, pero por muchísimo vamos.. Es que ya te digo, me he acostumbrado a jugar sin dientes de sierra, en wqhd aún hay, pero poco (Dejan de haber si renderizas a 4k), pero es que a 1080 hay sierras por todos lados. Y ya eso, ver videos, pelis, navegar por el simple explorador que se ven los pixeles hasta en la hora a simple vista a 1080.. es que no hay color.
hh1 escribió:Pero es que ,para casi cualquier contexto, no la tiene.
Que más da jugar a 300fps que a 240 que a 144 fps en el 90% de los juegos?
Salvo que te dediques a algo vometitivo a saco y sean tan diferenciales los GPS,,es absurdol,cuando por la mitad de lo que vale la 4090 o incluso el triple menos ,vas a jugar igual de bien a 1080p.

Por eso digo, que todo esto es más bien tema de lógica.

La verdad es que en la mayoria de shooters entre 100 fps y 144 se nota, aunque no diria que en positivo. Depende del juego pero si que se nota la velocidad.

La gracia es que tu montas un pc con una 4090 ahora y vas a jugar sin DLSS, con RT, a 1080p, durante bastante tiempo. Hay gente que cambia de grafica como "tu" ;) cada poco, otros estamos con ella durante mucho tiempo.

@Kanijo1 en esas imagenes veo diferencias de luz y la luz hace la tira. Tambien como ya te dije, no puedes compara resoluciones de un mismo monitor que no son la generica del monitor porque no se ve igual de bien. Hasta seguramente baje los hz entre una y otra..........en el video que puse no se nota nada, hasta imagenes con menos luz a 4k se ven peor que imagenes con más luz, es lo que digo, la iluminación que tengas o que haya en el juego en ese momento, hace que una textura luzca muchisimo mejor. Hasta yo en los mods que hago lo uso.
Comparas este video

Con este otro y la diferencia se nota mucho.

Y a lo que queria ir, es cuando cambias de resolución, a parte que una resolución no generica se vera peor, seguramente toque el brillo, gamma etc....

Pero bueno yo no digo que entre 1080p y resoluciones mayoria no hay diferencia de calidad. Lo que si digo es que me parece raro eso de que un juego se vea mucho peor porque no este hecho para ello.

Solo puedo imaginar lo que he comentado, resoluciones no genericas, DLSS a 1080p, cosas de esas.
Nomada_Firefox escribió:
hh1 escribió:Pero es que ,para casi cualquier contexto, no la tiene.
Que más da jugar a 300fps que a 240 que a 144 fps en el 90% de los juegos?
Salvo que te dediques a algo vometitivo a saco y sean tan diferenciales los GPS,,es absurdol,cuando por la mitad de lo que vale la 4090 o incluso el triple menos ,vas a jugar igual de bien a 1080p.

Por eso digo, que todo esto es más bien tema de lógica.

La verdad es que en la mayoria de shooters entre 100 fps y 144 se nota, aunque no diria que en positivo. Depende del juego pero si que se nota la velocidad.

La gracia es que tu montas un pc con una 4090 ahora y vas a jugar sin DLSS, con RT, a 1080p, durante bastante tiempo. Hay gente que cambia de grafica como "tu" ;) cada poco, otros estamos con ella durante mucho tiempo.

Pero es lo que te digo.. Una 4070 para wqhd está muy sobrada a dia de hoy.. y es lo que te digo, que prefiero bajar gráficos, poner las sombras un poco baja, calidad del agua un poco bajo, etc a jugar a 1080p.. La cuestión es que un monitor te dura mas tiempo que una gráfica, y te va a aportar mas calidad. A dia de hoy, la barrera de jugar en wqhd está superada, más si el juego en sí tiene DLSS.

Yo con mi equipo juego a todo a 4K (reescalado, no tengo un monitor 4K por ahora) (Si que es verdad que, como dije, no juego a muchos juegos triple A y más que nada uso el PC para trabajar).

No te digo que compres un monitor 4K, porque ahí si que vas a tener que cambiar cada poco de gráfica, pero WQHD se nota muchísimo con respecto a 1080p, actualmente hay monitores decentes a un precio decente, y las gráficas actuales mueven muy bien esa resolución.

Lo ideal es buscar un equilibrio, no te vas a comprar un PC de 4000 euros si lo único que vas a hacer es jugar al cs go (por ponerte un ejemplo), pues este caso es lo mismo, para qué comprar una 4070 (Sobretodo nueva).. Si lo que tienes es falta de economía, yo incluso me iba a una serie 2000 o 3000 de segunda mano, que vas a gastar muchísimo menos dinero, y el resultado al fin y al cabo va a ser prácticamente el mismo para jugar a 1080p..

De hecho, casi todas las gráficas que he tenido han sido de 2a mano (menos una 970 que tuve y esta 4080)
Kanijo1 escribió:Pero es lo que te digo.. Una 4070 para wqhd está muy sobrada a dia de hoy.. y es lo que te digo, que prefiero bajar gráficos, poner las sombras un poco baja, calidad del agua un poco bajo, etc a jugar a 1080p.. La cuestión es que un monitor te dura mas tiempo que una gráfica, y te va a aportar mas calidad. A dia de hoy, la barrera de jugar en wqhd está superada, más si el juego en sí tiene DLSS.

El DLSS es muchas cosas pero no da la misma calidad que sin el.

Y si un monitor te dura más que la grafica, el problema es que la grafica te dura menos dependiendo del monitor que tengas. [sonrisa]
Nomada_Firefox escribió:
Kanijo1 escribió:Pero es lo que te digo.. Una 4070 para wqhd está muy sobrada a dia de hoy.. y es lo que te digo, que prefiero bajar gráficos, poner las sombras un poco baja, calidad del agua un poco bajo, etc a jugar a 1080p.. La cuestión es que un monitor te dura mas tiempo que una gráfica, y te va a aportar mas calidad. A dia de hoy, la barrera de jugar en wqhd está superada, más si el juego en sí tiene DLSS.

El DLSS es muchas cosas pero no da la misma calidad que sin el.

Y si un monitor te dura más que la grafica, el problema es que la grafica te dura menos dependiendo del monitor que tengas. [sonrisa]

La diferencia es mínima con el DLSS que hay actualmente en los juegos. ya te digo yo que te saco 20 capturas, y si dices cual es la del DLSS es porque has tenido suerte seleccionándolo XD

En 1080p puede que se note el DLSS, en 4k no lo notas. Alomejor hace algo extraño en un momento super específico, pero vaya.. ganar 2x mas de fps, por algún detalle super aislado y apenas perceptible..
Kanijo1 escribió:
hh1 escribió:vas a jugar igual de bien a 1080p.

Por eso digo, que todo esto es más bien tema de lógica.


Hombre.. la calidad que hay entre 1080p y wqhd es un cacho bien grande visualmente hablando, es mucho mas agradable, vas a ver muchísimos mas detalles, etc. De hecho, yo es que no me compraría una 4070 para 1080, es overkill pero.. a saco. Me compraría una 4060 y así ahorras pasta, que te va a durar muchísimo tiempo una 4060 para 1080p, ya has visto con mis capturas lo sobrado que va una 4080 para wqhd (Sobretodo con juegos con DLSS), y 1080p es muchísimo mas facil de mover.

Y si me das a elegir, prefiero una 4060 y un monitor wqhd, y ya en un futuro actualizar la gráfica (Que lo acabarás haciendo) que una 4070 y un monitor HD, pero por muchísimo vamos.. Es que ya te digo, me he acostumbrado a jugar sin dientes de sierra, en wqhd aún hay, pero poco (Dejan de haber si renderizas a 4k), pero es que a 1080 hay sierras por todos lados. Y ya eso, ver videos, pelis, navegar por el simple explorador que se ven los pixeles hasta en la hora a simple vista a 1080.. es que no hay color.

No ,si yo de la resolución no digo nada...
Claro que se nota .
Digo que una 4090 para 1080p,es difícilmente justificable hoy día.

Una 4070 sí puede tener su tarjeta a 1080p en ciertas circunstancias.

@Nomada_Firefox
Hay ejemplos de mejora visual con DLSS.
No siempre es así, pero los hay.
Yo soy absolutamente incapaz de diferenciar en ningún juego, si se ve mejor con o sin DLSS
Es más ,ponemos dos capturas de todos los juegos que tengo ,co y sin, y no acertamos ni la mitad.
hh1 escribió:
Kanijo1 escribió:
hh1 escribió:vas a jugar igual de bien a 1080p.

Por eso digo, que todo esto es más bien tema de lógica.


Hombre.. la calidad que hay entre 1080p y wqhd es un cacho bien grande visualmente hablando, es mucho mas agradable, vas a ver muchísimos mas detalles, etc. De hecho, yo es que no me compraría una 4070 para 1080, es overkill pero.. a saco. Me compraría una 4060 y así ahorras pasta, que te va a durar muchísimo tiempo una 4060 para 1080p, ya has visto con mis capturas lo sobrado que va una 4080 para wqhd (Sobretodo con juegos con DLSS), y 1080p es muchísimo mas facil de mover.

Y si me das a elegir, prefiero una 4060 y un monitor wqhd, y ya en un futuro actualizar la gráfica (Que lo acabarás haciendo) que una 4070 y un monitor HD, pero por muchísimo vamos.. Es que ya te digo, me he acostumbrado a jugar sin dientes de sierra, en wqhd aún hay, pero poco (Dejan de haber si renderizas a 4k), pero es que a 1080 hay sierras por todos lados. Y ya eso, ver videos, pelis, navegar por el simple explorador que se ven los pixeles hasta en la hora a simple vista a 1080.. es que no hay color.

No ,si yo de la resolución no digo nada...
Claro que se nota .
Digo que una 4089 para 1080p,es difícilmente justificable hoy día.

@Nomada_Firefox
Hay ejemplos de mejora visual con DLSS.
No siempre es así, pero los hay.
Yo soy absolutamente incapaz de diferenciar en ningún juego, si se ve mejor con o sin DLSS
Es más ,ponemos dos capturas de todos los juegos que tengo ,co y sin, y no acertamos ni la mitad.

Es que no se nota la diferencia con o sin, solo algunos momentos muy específico en algunos detalles, pero vaya.. que esos "fallos no se notan, son en muy contadas ocasiones, y suelen ser detalles muy pequeños.. Sobretodo en dlss 3, que es casi perfecto vaya..

En mis capturas hay diferencia entre la de dlss y la que no, pero eso es porque yo le tengo aplicado enfoque en el reescalado del dlss para aumentar la nitidez, pero sin ese filtro se ve prácticamente igual (Hace tiempo dejé un post con capturas, y las diferencias que habia con y sin DLSS en la pantalla de inicio), por otro lado, con DLSS Swapper puedes actualizar el DLSS en los juegos que ya tienen DLSS, por lo que así te aseguras de tener el mejor rendimiento.

Con respecto a lo de jugar a 1080p con una 4090.. Yo no compraría más de una 4060 para jugar a 1080, sinceramente.. De hecho, compraría alguna de 2a mano si así me ahorro bastante pasta, pero bueh..
Kanijo1 escribió:
hh1 escribió:
Kanijo1 escribió:
Hombre.. la calidad que hay entre 1080p y wqhd es un cacho bien grande visualmente hablando, es mucho mas agradable, vas a ver muchísimos mas detalles, etc. De hecho, yo es que no me compraría una 4070 para 1080, es overkill pero.. a saco. Me compraría una 4060 y así ahorras pasta, que te va a durar muchísimo tiempo una 4060 para 1080p, ya has visto con mis capturas lo sobrado que va una 4080 para wqhd (Sobretodo con juegos con DLSS), y 1080p es muchísimo mas facil de mover.

Y si me das a elegir, prefiero una 4060 y un monitor wqhd, y ya en un futuro actualizar la gráfica (Que lo acabarás haciendo) que una 4070 y un monitor HD, pero por muchísimo vamos.. Es que ya te digo, me he acostumbrado a jugar sin dientes de sierra, en wqhd aún hay, pero poco (Dejan de haber si renderizas a 4k), pero es que a 1080 hay sierras por todos lados. Y ya eso, ver videos, pelis, navegar por el simple explorador que se ven los pixeles hasta en la hora a simple vista a 1080.. es que no hay color.

No ,si yo de la resolución no digo nada...
Claro que se nota .
Digo que una 4089 para 1080p,es difícilmente justificable hoy día.

@Nomada_Firefox
Hay ejemplos de mejora visual con DLSS.
No siempre es así, pero los hay.
Yo soy absolutamente incapaz de diferenciar en ningún juego, si se ve mejor con o sin DLSS
Es más ,ponemos dos capturas de todos los juegos que tengo ,co y sin, y no acertamos ni la mitad.

Es que no se nota la diferencia con o sin, solo algunos momentos muy específico en algunos detalles, pero vaya.. que esos "fallos no se notan, son en muy contadas ocasiones, y suelen ser detalles muy pequeños.. Sobretodo en dlss 3, que es casi perfecto vaya..

En mis capturas hay diferencia entre la de dlss y la que no, pero eso es porque yo le tengo aplicado enfoque en el reescalado del dlss para aumentar la nitidez, pero sin ese filtro se ve prácticamente igual (Hace tiempo dejé un post con capturas, y las diferencias que habia con y sin DLSS en la pantalla de inicio)

Yo es que he hecho pruebas en varios juegos capturando imágenes ,poniendo una allí lado de otra con y sin DLSS 2 ...y chico...que no se las veo.
Y mira que lo he hecho en muchos juegos.

Yo no veo diferencias ,y si las hay ,son tan sumamente mínimas que son básicamente imperceptibles ,y menos aún ,in Game.

Y con FG o DLSS 3 solo he podido en dos juegos ,porque no ha habido ni uno más de los que he jugador que lo llevase : A Plague Tale Requiem y Remnant 2.
Y tampoco be notado nada distinto ni rato en ninguno.Eso sí, no hice capturas para comparar.Fue in Game todo.
Es una vendida de humo del FG a mi parecer.Lo llevan "4 juegos ".
Y con una 4090 ,a 1440p ,hasta ahora ,es que ni teni3ndolo lo uso porque con DLSS 2 ya va sobrada
hh1 escribió:Yo es que he hecho pruebas en varios juegos capturando imágenes ,poniendo una allí lado de otra con y sin DLSS 2 ...y chico...que no se las veo.
Y mira que lo he hecho en muchos juegos.

Yo no veo diferencias ,y si las hay ,son tan sumamente mínimas que son básicamente imperceptibles ,y menos aún ,in Game.

Y con FG o DLSS 3 solo he podido en dos juegos ,porque no ha habido ni uno más de los que he jugador que lo llevase : A Plague Tale Requiem y Remnant 2.
Y tampoco be notado nada distinto ni rato en ninguno.Eso sí, no hice capturas para comparar.Fue in Game todo.
Es una vendida de humo del FG a mi parecer.Lo llevan "4 juegos ".
Y con una 4090 ,a 1440p ,hasta ahora ,es que ni teni3ndolo lo uso porque con DLSS 2 ya va sobrada


A 4K

Sin DLSS:

Imagen


Con DLSS:

Imagen


Sin DLSS, hay un poco mas de definición en los objetos de la estantería, el logo de hufflepuff está más definido sin DLSS, pero personalmente creo que se mejor con DLSS, pero ya te digo, es taaaan minima la diferencia que incluso puede ser hasta por el pequeño cabeceo de la cámara (En otras pruebas que hice las sombras de la cara se veian algo distintas, ralladas sin DLSS, y mas difuminadas con él, pero ahora mismo parecen muy similares, quizás por una update. También el pelo se ve algo mas nítido sin DLSS. todo esto se soluciona añadiéndole un poco de definición a la imagen desde los ajustes del juego, pero lo he desactivado por completo para que se vean bien las diferencias.

PD Veo que hay aberración cromática en las velas, jugaría que lo tenía desactivado..
Nomada_Firefox escribió:
Kanijo1 escribió:Pero es lo que te digo.. Una 4070 para wqhd está muy sobrada a dia de hoy.. y es lo que te digo, que prefiero bajar gráficos, poner las sombras un poco baja, calidad del agua un poco bajo, etc a jugar a 1080p.. La cuestión es que un monitor te dura mas tiempo que una gráfica, y te va a aportar mas calidad. A dia de hoy, la barrera de jugar en wqhd está superada, más si el juego en sí tiene DLSS.

El DLSS es muchas cosas pero no da la misma calidad que sin el.

Y si un monitor te dura más que la grafica, el problema es que la grafica te dura menos dependiendo del monitor que tengas. [sonrisa]


Del 4k con DLSS calidad a nativo ni tu ni nadie lo diferencia
ditifet escribió:
Nomada_Firefox escribió:
Kanijo1 escribió:Pero es lo que te digo.. Una 4070 para wqhd está muy sobrada a dia de hoy.. y es lo que te digo, que prefiero bajar gráficos, poner las sombras un poco baja, calidad del agua un poco bajo, etc a jugar a 1080p.. La cuestión es que un monitor te dura mas tiempo que una gráfica, y te va a aportar mas calidad. A dia de hoy, la barrera de jugar en wqhd está superada, más si el juego en sí tiene DLSS.

El DLSS es muchas cosas pero no da la misma calidad que sin el.

Y si un monitor te dura más que la grafica, el problema es que la grafica te dura menos dependiendo del monitor que tengas. [sonrisa]


Del 4k con DLSS calidad a nativo ni tu ni nadie lo diferencia

A lo mejor éste nota la diferencia, yo no, desde luego.

Imagen
Yo entiendo que jugando no se note apenas, pero desde luego si revisas capturas sí. Ahora saltareis que si tal y cual, y precisamente eso es lo que hace DF para comparar y decir que DLSS es mejor que FSR 2.0 por ejemplo.

Esto es algo parecido al High vs Ultra.
Kavezacomeback escribió:Yo entiendo que jugando no se note apenas, pero desde luego si revisas capturas sí. Ahora saltareis que si tal y cual, y precisamente eso es lo que hace DF para comparar y decir que DLSS es mejor que FSR 2.0 por ejemplo.

Esto es algo parecido al High vs Ultra.

A 4K, hasta revisando capturas es complicado ver las diferencias eh? y las diferencias, como ves, son mínimas.

Donde más se nota es en resoluciones mas bajas.
@Kanijo1 aunque has elegido bien el juego y es cierto que a mayor resolución menos se nota si mantienes calidad claro, se nota en capturas.

Aunque te entiendo, jugando se nota menos o tienes que saber donde fijarte. Lo que ocurre es que cuando juegas de verdad y estas inmerso en el juego pues no te fijas en detalles tontos.
hh1 escribió:Yo soy absolutamente incapaz de diferenciar en ningún juego, si se ve mejor con o sin DLSS.

Por supuesto, no todos tenemos los mismos ojos. Ademas lo que se saca en una captura, no suele ser lo que se ve en la pantalla. Es algo que he pasado de decirlo antes pero es verdad, a parte de que suelen hacerse en formatos comprimidos y eso ya resta calidad.

En fin capturas........megda, incluso en condiciones muy buenas.

Yo solo se que 4k vs 1080p en un juego no tienes más detalle que la diferencia de pixeles. Si usas DLSS en 4k de hecho esta cogiendo la imagen inferior que puede ser la de 1080p y ampliandola a 4k (sin tecnicismos que siempre sale un listo). Si juegas sin DLSS estas usando el detalle de 1080p.

Asi que todo esto del detalle..........no se y en el howards viendo el video que puse arriba, se ve peor en escenas 4k que en 1080p. Si es de risa. [sonrisa]
69 respuestas
1, 2