¿Merece la pena cambiar la rtx 2070 super?

Hola compañeros, actualmente tengo una 2070 super fe, antes tenia un monitor de 1080p pero ahora como me he puesto también la xbox series x en el escritorio, pues di un salto a un monitor de 27" 1440p 144hz y claro, no me rinde como me rendía con el otro monitor...

El caso es que viendo los precios de las graficas, como esta volviendo a su normalidad pues no se si merece la pena dar el salto a una rtx 3070 o rx 6700 xt (o valgame dios una intel arc 770 xD) o mejor esperar a ver como salen las nuevas graficas...¿vosotros que opinais?
si necesitaras una grrafica o bien una 3070 o la 6750 xt para ir bien en 2k
Los precios no están volviendo a su normalidad.Los precios vuelven a ser los precios que debieron ser hace 2 años.
A día de hoy deberían costarmenos.
Y aún hay precios infladetes.

Todo depende de tu presupuesto ,pero yo para jugar a lo que quieres ,si juegas todo tipo de precios ,iría a algo más.
No porque esas gráficas que propones (Intel ni loco) no pueda ir bien a 1440p,sino porque pensando en el futuro ,si buscas eso 144fps ,no vas a ir nada sobrado.
De hecho hoy ,hay bastantes juegos en los que ya no dan esos 144fps.

Te lo digo yo que tengo una 3080Ti ,y casi todo lo juego por encima.de esos 144fps ,pero ya hay juegos que ni de coña.
Ac: Valhalla, A Plague Tale Requiem,Forza Horizon 5...
Ojo ,con todo ultra ,claro.
Imagina con las que propones.Que ojo, no es por cómo van a día de hoy, sino por mirar a dentro de uno o dos años y que te dure.

Si el presupuesto te limita tanto, yo miraría alguna de segunda mano pero de confianza.
Se ven 3080 a precios comedidos y 3080Ti también.
Y una 6800XT nueva tampoco está nada mal de precio ahora.

Yo me la de esos ,para lo que quieres a ,no montaba si quieres que te dure algo de tiempo.

Las nuevas que salgan van a ser más caras ,obviamente.

Otra opción es esperar a ver si Nvidia abre los ojos y baja precios de las gráficas 4000, y por ende, de las 3000.Pero no parecen estar por la labor.

Si la quieres ya ya y no puedes estirarte algo más ,la 3070 no es mala opción.
javigil86 escribió:Hola compañeros, actualmente tengo una 2070 super fe, antes tenia un monitor de 1080p pero ahora como me he puesto también la xbox series x en el escritorio, pues di un salto a un monitor de 27" 1440p 144hz y claro, no me rinde como me rendía con el otro monitor...

El caso es que viendo los precios de las graficas, como esta volviendo a su normalidad pues no se si merece la pena dar el salto a una rtx 3070 o rx 6700 xt (o valgame dios una intel arc 770 xD) o mejor esperar a ver como salen las nuevas graficas...¿vosotros que opinais?


Yo creo que merece la pena que te esperes. También estaría bien saber qué procesador tienes para saber como te rendiría a 144hz, pero vamos, salvo que lo notes MUCHO, yo que tú bloquearía a 60-75Hz y a 1440p y fuera lios.

144hz son muchos frames los que le tienes que dar de comer y para eso siempre va a hacer falta un equipo de gama alta, no solo en GPU, también en CPU, y tienes que "mantenerlo". Y yo personalmente pienso que como de 60fps para arriba se nota relativamente poco (yo noto de 60 a 75hz, de 75hz a 120hz ligerisimamente, y de 120hz a 144hz directamente NADA).

Si estás aconstumbrado a Series X que en su mayoría serán 60fps, algunos con modo a 120hz y empezará incluso a haber juegos a 30fps conforme aumenten sus requisitos, yo haría lo mismo con el PC. Framerate similar y arreando, de verdad. Encima tienes el DLSS. Yo no buscaría los 144hz, al menos salvo que estés dispuesto a irte a algo realmente de gama alta, 3090, 6900XT, 4080, 4090, etc.
Perdón que no he dicho el equipo, ahora mismo llevo un ryzen 5 3600 con 16gb de RAM en una placa b550 y de camino un nvme gen.4

Tenía entendido que el procesador a estás resoluciones no afectaba tanto y viendo algunas comparativas pues no me salía tan rentable cambiar a un ryzen 5 5600...¿No? Vamos que visto lo visto me espero alguna generación más de procesador [qmparto]
javigil86 escribió:Perdón que no he dicho el equipo, ahora mismo llevo un ryzen 5 3600 con 16gb de RAM en una placa b550 y de camino un nvme gen.4

Tenía entendido que el procesador a estás resoluciones no afectaba tanto y viendo algunas comparativas pues no me salía tan rentable cambiar a un ryzen 5 5600...¿No? Vamos que visto lo visto me espero alguna generación más de procesador [qmparto]


El tema de las resoluciones y los procesadores realmente es por el framerate, la resolución directamente no tiene nada que ver, lo que pasa es que contra más bajas sean las resoluciones, pues más frames ofrece la gráfica, y a su vez la cpu. Por eso los benchmark se usan para resoluciones bajas. Si buscas 144hz ya te digo que con un Ryzen 3600 en juegos actuales tienes un problema (no tú, digo el procesador), porque ya hay juegos que lo ponen a 40fps por momentos, como el A Plague Tale Requiem, y hay otros juegos que rondan los 60-70fps (Cyberpunk, Spiderman, etc).

Te pongo un ejemplo radical para que se me entienda. Imagina que te montas una 4090 y juegas a un juego actual y te va a 144fps clavados y a 1440p, pero en una zona resulta que el framerate cae a 100 + o -. La culpa sería de la cpu, la GPU estaría usándose al 40% (por decir algo), ahora lo pones a 4K... y sigue yendo a 100fps, sigue sin llegar a los 144, la cpu está haciendo cuello, pero el uso de la GPU habría aumentado a 70-80% y se habría reducido, pero sigues estancado en el mismo framerate. Da igual que bajes o subas la resolución, solo cambiará el uso de la gráfica, pero el framerate lo va a imponer el procesador.

Ahora vas con tu RTX 2070S y ese mismo juego te va a esos 100fps más o menos a 1440p con la GPU al máximo. No habría cuello de botella, la CPU no estaría reduciendo lo que puede hacer la gráfica. Ahora coges ese juego y te lo pones a 720p... seguiría a 100fps, pero la gráfica estaría usándose mucho menos, por lo que la cpu ahí sí, le estaría provocando cuello.

A una le harías cuello a 720p con la cpu, a la otra le harías cuello con casi cualquier resolución porque te estaría escupiendo frames como una condenada. Pero ahora te pones a renderizar a 8K y le metes el AA más gordo, el Ray Tracing a tope, desactivas el DLSS y dejas a la 4090 a 80fps (es un suponer)... pues ahí no estaría haciéndole cuello el procesador y la gráfica la estarías usando a tope. La cosa no va de resoluciones, va de frames. Se trata de que la CPU a X frames se atraganta, y de ahí no pasa, y si la gráfica (cual sea a la resolución que sea) intenta "pasar" de ahí, no va a poder. No sé si me estoy explicando.
@Cyborg_Ninja tal cuál

@javigil86 capa a 72fps para juegos exigentes y a 144 para juegos online. También podrías probar con la que tienes a 48fps. Los bloqueos de fps lo ideal que sea dividiendo por 2 o por 3 los hz del monitor. Cómo hace las consolas con el modo calidad y los 120hz que bloquea a 40fps
Sinceramente no creo que el 3600 le haga cuello de botella a una 3070 o 3080 a 1440p, por lo que no sería necesario cambiar el procesador.

Si quisiera cambiarlo el 5600 es una buena opción y si aumentas un poco más el presupuesto un 5800x3D es el ideal de cara a futuro.

En cuanto a la gráfica yo esperaría a ver precios de las AMD 7000
@Cloud13 gracias! Aunque no termino de entender el por qué es lo ideal dividir entre 2 o 3 ? Gracias a todos por comentar! Me parece que estaré quietecito hasta esperar las siguientes gráficas como salen....
Teniendo una 3060ti para 2k 144
Te diría que menos que una 3080 no pillaría
Se queda cortísima
Tanto que tengo que limitar a 60 fps
Por qué sino empiezan los bailes de fps
@javigil86
Es para evitar cortes de imagen (imagen sesgada). Como los refrescos más comunes han sido 60, 120 Hz pues divididos por 2 o por 3 te salen números enteros, osea, imágenes completas. Pero depende de tu refresco, un monitor de 144Hz, son 2, 3, 4 y uno de 75Hz, 3 y 5(aunque 5, serían 15 y se descarta).
Pero todo esto es si pretendes clavar estos fps constantemente, si tienes framerate variable, entonces da un poco igual y tiene que encargarse la sincro vertical, freesync, gsync, lo que uses.
@Herionz sí bueno más bien de eso se encarga la sincronización vertical, el usar múltiplos de los hz es evitar el judder al no coincidir hz y fps a intervalos regulares. Dividiendo por 2 los 144hz la pantalla dibuja 2 veces el mismo fotograma. Pero cómo dices si usa freesync daría igual si no lo usa pues dividir por 2 o por 3 y activar vsync se evita el tearing (desgarro) y el judder
@Cloud13
Disculpa, lo de judder no lo había visto. Pero según lo he entendido, es un efecto de reproducir videos grabados a 24 fotogramas/s y luego al mostrarlos en TV con mayores frecuencias se estira la imagen durante un tiempo.
El tema es que con juegos/renderizado a tiempo real, no se si judder puede ocurrir como tal? Porque si estás por debajo, las imágenes se recrean de forma parcial, y por encima, los fotogramas extras son ignorados. Es realidad, vsync hace eso, decirle a la gráfica que se espere y por eso introduce una latencia, supongo eso podría ser como judder?
Si que veo posible tener judder al reproducir videos o cinemáticas, ya que el contenido de ellos es fijo y salvo interpolar, solo puedes estirar la imagen hasta coincidir con el refresco.
Pero ni idea si estoy equivocado o no. Nunca he tenido problemas de judder, o si he tenido, ni me he dado cuenta.
@Herionz si viene siendo lo mismo. El monitor es de 144hz y el juego va a 75 pues se crea un desfase entre el refresco de la pantalla y los fotogramas del juego. Una TV de 60hz tiene problema con el contenido a 24 fotogramas por lo mismo no es múltiplo. Con una de 120hz no hay este problema. Si la tele cambia a 24hz tampoco habría problema claro
Bueno, ha sido muy curioso todo lo que me habeis dicho, asi que nada por ahora me quedar igual, ahora abrire la grafica para hacerle un poco de mantenimiento y cambiarle la pasta termica....de los thermal pads no me mojo por que no encuentro el tamaño que tienen...sabeis de algun sitio que pueda ver esa informacion?
@javigil86 la verdad que nunca los he cambiado pero he visto que se venden como una tira y tienes que contarlos a la medida que necesitas.

¿Has probado ya a limitar los fps con el riva a ver qué tal te va?
@Cloud13 todavía no la verdad, el poco tiempo que me queda entre el trabajo, los estudios y los niños lo guardaba para pasarme el plague tale requiem en la sx o dormir [jaja] lo probare y te contaré. Tengo que verlo que fíjate cómo estaré que pensaba que mi monitor era de 144hz y es de 165, ya ni sé donde tengo la cabeza
@javigil86 pues difícil entonces jaja.

Si es de 165hz entonces limita a 55 a ver, ya el siguiente sería 33fps pero como que no. Los monitores con hz impares están más limitados en eso. De todas maneras si te va bien freesync pues no tienes problema simplemente limita a unos fps que la gráfica vaya cómodo y si hay alguna variación con freesync sigues sin tearing y es menos acusada la caída
@Cloud13 efectivamente mi monitor es freesync pero tengo una rtx2070 super, he notado (por ahora solo en un juego) en el warzone2.0 ciertos parpadeos a veces, no se si achacarlo al vrr o a que el monitor no esta cerficiado para el gsync compatible en el panel de control o simplemente....a que el juego esta muy mal optimizado
@javigil86 hay monitores que tiene flickering al activar el gsync si no te va bien pues nada limita a 55 y vsync para el tearing
javigil86 escribió:@Cloud13 efectivamente mi monitor es freesync pero tengo una rtx2070 super, he notado (por ahora solo en un juego) en el warzone2.0 ciertos parpadeos a veces, no se si achacarlo al vrr o a que el monitor no esta cerficiado para el gsync compatible en el panel de control o simplemente....a que el juego esta muy mal optimizado

Tengo también una 2070 Super y un monitor Freesync 2k 144, y lo que dices del Warzone2 también me pasa a mí. Es del propio juego que ha salido bastante roto.
Busca una oferta deberian de seguir bajando el precio de las graficas.

No compres nada inferior a una RTX 3080/RX 6800 XT para jugar 2K@144Hz
21 respuestas