[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Inmortal Joe escribió:Tengo una Corsair RM850E 850W 80+ Gold montada ahora mismo con un i9 13900k con RL Corsair..

¿Es suficiente para una 4090 o como mucho puedo meter una 4080?

Juego a 1440p / 165 frames.

Sí, es suficiente para una RTX 4090.

Saludos.
_anVic_ está baneado por "clon de usuario baneado"
Inmortal Joe escribió:Tengo una Corsair RM850E 850W 80+ Gold montada ahora mismo con un i9 13900k con RL Corsair..

¿Es suficiente para una 4090 o como mucho puedo meter una 4080?

Juego a 1440p / 165 frames.


Yo creo que sí debería bastar, aunque es cierto que el 13900k es muy tragón, dudo que jugando a 1440p vayas a pasar en general los 100/150w y con la 4090 a stock andarás entre 350 y 450 w, dependiendo del juego y parámetros gráficos.


Si algún día te da por llevar al máximo cpu y gpu quizá toques techo y sean necesarios 1000w. Pero por lo general si vas a jugar a stock dudo que tengas contratiempos.

Prueba a ver antes de cambiar psu y nos cuentas.
Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
@RC9 siempre te puedes comprar otra caja...
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.


Hoy tiene coolmod una 4090 por 1.650€, son casi 200€ menos que la FE:

https://www.coolmod.com/palit-geforce-rtx-4090-gamerock-24gb-gddr6x-dlss3/
metalero24 escribió:
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.


Hoy tiene coolmod una 4090 por 1.650€, son casi 200€ menos que la FE:

https://www.coolmod.com/palit-geforce-rtx-4090-gamerock-24gb-gddr6x-dlss3/


Ufff, súper tentador, encima me cabe en la caja, justita irá pero cabe.
metalero24 escribió:
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.


Hoy tiene coolmod una 4090 por 1.650€, son casi 200€ menos que la FE:

https://www.coolmod.com/palit-geforce-rtx-4090-gamerock-24gb-gddr6x-dlss3/


ufffff vaya tela y yo cuando pague 1800 por mi PNY 4090 ya me pareció un buen negocio...

Si estuviese detras de una, yo ni me lo pensaría. Ofertaza.
@RC9 hazlo en cuanto puedas, vas a ganar en todo y las temperaturas y consumos se vuelven de risa literalmente. Y te olvidas unos bueeeenos años ya de actualizar.
_anVic_ está baneado por "clon de usuario baneado"
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.


No se que problema le ves a la FE se merienda a la palit en cuanto a pcb, se sitúa la 5º de la lista:


Imagen

Por ese precio veo bien pillar la Palit pero tiene un pcb bastante mediocre tirando a malete.
_anVic_ escribió:
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.


No se que problema le ves a la FE se merienda a la palit en cuanto a pcb, se sitúa la 5º de la lista:


Imagen

Por ese precio veo bien pillar la Palit pero tiene un pcb bastante mediocre tirando a malete.


No lo decía como pega, lo decía porque físicamente es la que me cabe sin problemas. La Palit de longitud me queda más justa y de anchura quizá también pero sigue cabiendo, de hecho, me voy a comprar la Palit ya que ese precio es muy tentador, ya os contaré cuando me llegue!
_anVic_ está baneado por "clon de usuario baneado"
RC9 escribió:
_anVic_ escribió:
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.


No se que problema le ves a la FE se merienda a la palit en cuanto a pcb, se sitúa la 5º de la lista:


Imagen

Por ese precio veo bien pillar la Palit pero tiene un pcb bastante mediocre tirando a malete.


No lo decía como pega, lo decía porque físicamente es la que me cabe sin problemas. La Palit de longitud me queda más justa y de anchura quizá también pero sigue cabiendo, de hecho, me voy a comprar la Palit ya que ese precio es muy tentador, ya os contaré cuando me llegue!


Yo he pillado otra para ver que tal vs la Suprim X, además te regalan un juego.

Entrega estimada: 22/04/2023 a 25/04/2023

Pues ya probaremos las Plait a ver que tal se portan. A ver si son dignas o no cuando se les pide chicha [+risas]

Veo que va capada por bios a 450W asi que habrá que afinarla bien.
Yo de primeras le haré undervolt hasta que pille la fuente de 1000W a fin de mes [+risas]
_anVic_ está baneado por "clon de usuario baneado"
RC9 escribió:Yo de primeras le haré undervolt hasta que pille la fuente de 1000W a fin de mes [+risas]


Si además con solo 450W de manga ancha no quedará mas cojones, va muy limitadita. [+risas] Pero bueno si sale un chip decente se podría poner a 3ghz a voltajes de casa o algo menos. La suprim X que tengo por aquí me aguanta 3090mhz a voltajes de stock .
De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
Chaquetero está baneado por "troll"
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.


Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.

Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.

Yo...viendo todo...tebdría dudas de pillarla.
Esperaría un poco, o como te dicen, iría a una AMD.

Por otro lado ,dejar una gráfica de stock, es un sacrilegio,a mí parecer.
Con lo sencillo que es mejorarla mínimamete en todos los sentidos (rendimiento, temperaturas ,consumo)...yo no concibo en que alguien se deje 400-500-600€ que es una pasta gansa , y no digamos +1000€ ,y las dejen como vienen.

Qué menos ,que después del pastizal gastado, aprovecharla al máximo y cuidarla el máximo posible
Chaquetero escribió:
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.


Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.

Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.


A ver, tampoco nos pasemos [carcajad] Una 4070 / ti para jugar a indies porque todos los AAA potentes van a petardear con 12 GB VRAM... Creo que se nos está yendo un poco la pinza con la VRAM. Yo vengo de una 3070 y a 4k/1440 + DLSS no he tenido ningún problema. Si lo he tenido, he pasado las texturas de Ultra a Alto y el juego seguía funcionando a 60 fps. El único juego con el que he tenido más problemas ha sido The Last of Us Parte I, que tuve que echarle un rato más a los ajustes y esperar un par de parches. Más allá de eso, 60 fps clavados (y sí, con los 3 ajustes principales de texturas en Alto).

12 GB son 4 GB más de VRAM que el escenario que describo anteriormente, así que dudo que se vayan a quedar cortos pronto para la potencia que ofrecen estas tarjetas con las que no se va a jugar a 4k nativo en muchos juegos.

Por cierto, que nadie se líe a poner vídeos de comparativas que me los he visto todo. Respeto mucho a Hardware Unboxed pero su vídeo de la VRAM es basura. Bajando cuatro ajustes en los juegos que testaron y utilizando DLSS (Balanceado como mínimo y a 1440 como mínimo) esos petardeos que tenían desaparecían. Y lo sé porque me he pasado o he jugado un buen puñado de esos juegos en mi 3070.

Y esto no lo digo ni para defender a Nvidia ni para criticar a AMD ni mierdas de patio de colegio de esas. Lo digo porque es así, porque lo he experimentado y sé de lo que hablo. No puedo precedir el futuro, eso sí, y puedo equivocarme. No sé si los 12 GB van a aguantar en condiciones óptimas (calidades Altas y 1440/4k con DLSS Calidad-Equilibrado) durante 4 años, pero sí puedo decirte que PS5 tiene disponibles 12 GB de VRAM para los juegos. Y que en PC existe además la RAM y, generalmente, más potencia de CPU. No tiene el chip kraken, pero aprovechando la RAM y la CPU se puede paliar esta carencia, y conforme se empiecen a incorporar mejores algoritmos de compresión y descompresión en GPU, habrá todavía más paridad entre consolas y PC. Ahí tendremos los 12 GB de VRAM de las consolas más otros 16 GB de RAM.

Y por último, sobre la paranoia que se está instaurando en el hilo de que si les faltan tornillos a las tarjetas o que si que si llevan un disipador de goma o que si la abuela fuma. También creo que se nos está yendo la pelota. Igual yo me cuelo, pero ¿qué hay? un vídeo de Youtube y cuatro comentarios en Reddit sobre el tema? Me he visto decenas de reviews y no se le ha sacado problemas importantes a ninguna. Aquí en seguida cunde el pánico. Menos paranoia y más disfrutar.

Son tarjetas normales, con ensambles que van desde lo elemental (Palit, Zotac Twin Edge) hasta lo gordo (MSI Gaming X Trio), como ha pasado toda la vida. Son tarjetas que consumen poco y no tienen partes mecánicas salvo los ventiladores. No se van a caer a cachos ni van a salir ardiendo.
Chaquetero está baneado por "troll"
Toda la razón.

200w es poquísimo consumo para una gráfica, mira si tienes experiencia y lo has probado tu todo que hace 5 años eso no lo consumía ni la gama alta, pero gama alta de verdad, y llevaba un PCB que costaba como 5 veces más que el de la 4070 a MENOR pvp.

Para zanjar el tema de los tornillos y que no se sigan metiendo con nuestras novias rtx, el problema está en la poca presión del mecanismo de fijación del disipador, no en la chorrada de que "abaratan en tornillos". En lo que han abaratado muchísimo es en un proceso de fabricación con tolerancias lamentables propias de la peor y más zarrapastrosa y pérdida fábrica de Guangzhou, esto hace que el disipador no se asiente con la suficiente presión y regularidad, y da problemas graves de temperatura en hotspots y VRAM. Las temperaturas altísimas en los PCB vienen dadas por otra cosa mucho más sencilla, han abaratado tanto que la circuitería se pone a 120° simple y llanamente porque hasta ahora estos PCB se utilizaban para GT 1030/gt1050, es decir, gráficas pasivas o casi, o que no necesitaban ni cable pcie (75w Max).

Pero una vez más toda la razón, hay que preocuparse mucho menos y confiar en las compañías. Hay que aprender de ellas y reírse y ser felices, ellos estafando y meándose en la boca de los clientes, y los clientes contentísimos pensando que llueve. Te quiero rtx, esta noche toca bencheo del bueno. Que no os engañen con pruebas que el amor es ciego.
Chaquetero escribió:Toda la razón.

200w es poquísimo consumo para una gráfica, mira si tienes experiencia y lo has probado tu todo que hace 5 años eso no lo consumía ni la gama alta, pero gama alta de verdad, y llevaba un PCB que costaba como 5 veces más que el de la 4070 a MENOR pvp.

Para zanjar el tema de los tornillos y que no se sigan metiendo con nuestras novias rtx, el problema está en la poca presión del mecanismo de fijación del disipador, no en la chorrada de que "abaratan en tornillos". En lo que han abaratado muchísimo es en un proceso de fabricación con tolerancias lamentables propias de la peor y más zarrapastrosa y pérdida fábrica de Guangzhou, esto hace que el disipador no se asiente con la suficiente presión y regularidad, y da problemas graves de temperatura en hotspots y VRAM. Las temperaturas altísimas en los PCB vienen dadas por otra cosa mucho más sencilla, han abaratado tanto que la circuitería se pone a 120° simple y llanamente porque hasta ahora estos PCB se utilizaban para GT 1030/gt1050, es decir, gráficas pasivas o casi, o que no necesitaban ni cable pcie (75w Max).

Pero una vez más toda la razón, hay que preocuparse mucho menos y confiar en las compañías. Hay que aprender de ellas y reírse y ser felices, ellos estafando y meándose en la boca de los clientes, y los clientes contentísimos pensando que llueve. Te quiero rtx, esta noche toca bencheo del bueno. Que no os engañen con pruebas que el amor es ciego.


Creo que no hace falta ponerse sarcástico ni irónico. Ni llevar las cosas a los extremos. Porque lo que ha empezado conmigo respondiéndote a un asunto de la VRAM y comentando otra cosa a nivel general (no para ti en exclusiva) ahora ya se ha convertido en un debate sobre lo mal construidas que están las Nvidia. Y así nos podemos tirar hablando de una cosa a otra hasta el infinito.

Estas gráficas consumen poco para lo que es esta generación y en general con los años los diseños se han vuelto más eficientes, tanto por hardware como por software. El hardware antiguo no tenía un control dinámico de frecuencia como el que tenemos ahora y los consumos y temperaturas en reposo tampoco eran los que tenemos ahora. Una 1080ti de hace 6 años ya consumía 250w. Una 780ti, 250w. Una R9 Fury X, 275w. Y una GTX 590, 365w. Y ya estamos en el 2011. No me cuentes que 200w no los consumía ni la gama alta porque se han llegado a ver barbaridades de consumo en el pasado.

¿Que han abaratado costes? No te lo niego, no lo sé, no lo he investigado en profundidad. Pero sí que sé que ya han entrado varios usuarios asustados con miedo a comprar una 4070 por si vienen con problemas. Pura paranoia ahora mismo que no se han reportado errores masivos de temperatura o de otro tipo de cuestiones. Y aquí tengo una Zotac básica con overclock + undervolt exprimiendo al máximo su límite de potencia sin nada raro en hotspot, ni en las temperaturas de la memoria, ni en nada de nada.

Un cosa es que esta gráfica (y todas las gráficas en general) se venda a un precio que no le corresponde. Otra cosa es que los materiales utilizados no sean los mejores en algunos modelos (que habrá que ver caso a caso en lugar de generalizar). Y otra muy diferente es que tengamos que trasladarle una preocupación absurda a día de hoy al futuro comprador. Si no la compra que sea porque no quiere votar con su dinero esta situación, no porque cuatro medios han dicho que Nvidia obligó a los AIB's a bajar el precio de las gráficas, que unos pocos usuarios hayan tenido algún problema de temperaturas con sus unidades y ya de ahí se concluya que todas estas gráficas están malditas.

Sentido común.

Y voy más allá, creo que deberías relajarte, compañero. Te he visto acusando a gente de ser comerciales de Nvidia y echar pestes de la 4070ti con rabia además. Y luego decir que la 4090 es la mejor tarjeta de la historia. No te jode, a 2000 pavos ya lo podía ser. No me queda claro si te molesta que haya gente que prefiera una Nvidia, si te molesta que la gente compre lo que a ti no te gusta o no sé. Entiendo que seas crítico, y me gusta ver eso, pero una cosa es crítico con argumentos y otra es sacar un lanzallamas y quemar todo lo que no te gusta.
Chaquetero escribió:
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.


Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.

Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.

Jajajaja yo no sé cómo no te banean
iNFeRNuS360 escribió:
Chaquetero escribió:
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.


Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.

Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.

Jajajaja yo no sé cómo no te banean

De cada 4 respuetas, 3,75 son hechas con lanzallamas, no cuenta nada real. Y no es que me moleste porque no lo sigo pero hay incautos que no lo conocen y piensan que esta contando alguna verdad.
_anVic_ está baneado por "clon de usuario baneado"
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.

Por lo general, si juegas a 1440p dudo que tengas problemas con 12gb deberías ir servido.

Otra cosa es que le vayas a dar uso en 4k y tengas el síndrome de la ultritis, en tal caso se te podría atragantar algún que otro título.

Pero vamos nada que no se pueda arreglar bajando un par de parámetros de ultra a alto.
Btw, mucho cuello de botella tendré con mi i5-13600KF en 3440x1440 con la 4090?
_anVic_ escribió:
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?

Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.

Por lo general, si juegas a 1440p dudo que tengas problemas con 12gb deberías ir servido.

Otra cosa es que le vayas a dar uso en 4k y tengas el síndrome de la ultritis, en tal caso se te podría atragantar algún que otro título.

Pero vamos nada que no se pueda arreglar bajando un par de parámetros de ultra a alto.


No me refiero a la potencia de la gráfica, me refiero a los recortes que han echo con tornillos, pasta térmica y demas cosas que se han comentado en el hilo.
_anVic_ está baneado por "clon de usuario baneado"
RC9 escribió:Btw, mucho cuello de botella tendré con mi i5-13600KF en 3440x1440 con la 4090?


Te irá de lujo ese 13600kf , no veo ningún probelma.

@Elwendo ah ok no lo había pillado por ese lado [+risas]

Hay unos cuantos modelos donde no se ha escatimado hasta tal punto. Sería pillarte unos de esos y te quitas las posibles comeduras de tarro que puedas tener a posteriori.
_anVic_ escribió:
RC9 escribió:Btw, mucho cuello de botella tendré con mi i5-13600KF en 3440x1440 con la 4090?


Te irá de lujo ese 13600kf , no veo ningún probelma.

@Elwendo ah ok no lo había pillado por ese lado [+risas]

Hay unos cuantos modelos donde no se ha escatimado hasta tal punto. Sería pillarte unos de esos y te quitas las posibles comeduras de tarro que puedas tener a posteriori.


Pero, ¿sabemos ya cuáles son esos modelos? Quiero decir, modelos que de verdad den problemas de manera generalizada. Yo por mi parte la Zotac Twin Edge 4070 tiene los valores que tiene que tener para lo que consume y para la caja donde la tengo metida. Temperaturas proporcionalmente menores a mi 3070, teniendo en cuenta que esta tenía un sistema de disipación algo mejor. Y a nivel de power limit y demás, nada que no me haya encontrado en la 3070 (también Zotac) o en la EVGA 2070 Super que tuve. No sé si alguien más ha comprado este modelo y puede dar su opinión.

Y que no lo digo por sacar punta, sino porque la gente esté tranquila. En más de 10 reviews que he visto no he encontrado nada flagrante. Simplemente diferencias que a igualdad de precio me harían irme a por una o a por otra tarjeta.
una duda de novato con la serie 4000.

¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.
_anVic_ está baneado por "clon de usuario baneado"
Daicon escribió:una duda de novato con la serie 4000.

¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.


Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
Inmortal Joe escribió:Tengo una Corsair RM850E 850W 80+ Gold montada ahora mismo con un i9 13900k con RL Corsair..

¿Es suficiente para una 4090 o como mucho puedo meter una 4080?

Juego a 1440p / 165 frames.


Para esa resolución/framerate no es mejor una 4080? La 4090 los alcanza en todos los juegos?
_anVic_ escribió:
Daicon escribió:una duda de novato con la serie 4000.

¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.


Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.



MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?
Daicon escribió:
_anVic_ escribió:
Daicon escribió:una duda de novato con la serie 4000.

¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.


Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.



MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Bfff buen cajón has abierto. Yo estuve pegándome con esto la semana pasada.

No puedes capar con Rivatuner para los juegos en los que actives Frame Gen. Bueno, puedes pero va a ocurrir lo que te está pasando. Tienes que limitar en el Panel de Control de Nvidia que ya entra donde tiene que entrar para evitar conflictos con el Frame Gen. Consejos:

- Si no quieres tearing, activa el vsync también desde el panel. La opción está muy cerca de la del limitador de FPS's.
- Al activar Vsync vas a tener un input lag del copón por cómo funciona el vsync+frame gen. Para evitar esto debes capar a unos 2-4 fps menos de lo que lo harías (por ejemplo, 58 en lugar de 60). Si tu monitor tiene VRR (freesync/gsync) con esta config vas a ir de puta madre. Si no, verás ciertos microsaltos en la imagen cada X segundos. Te tocará decidir si prefieres esto o el tearing.
zero2006xl escribió:
Daicon escribió:
_anVic_ escribió:
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.



MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Bfff buen cajón has abierto. Yo estuve pegándome con esto la semana pasada.

No puedes capar con Rivatuner para los juegos en los que actives Frame Gen. Bueno, puedes pero va a ocurrir lo que te está pasando. Tienes que limitar en el Panel de Control de Nvidia que ya entra donde tiene que entrar para evitar conflictos con el Frame Gen. Consejos:

- Si no quieres tearing, activa el vsync también desde el panel. La opción está muy cerca de la del limitador de FPS's.
- Al activar Vsync vas a tener un input lag del copón por cómo funciona el vsync+frame gen. Para evitar esto debes capar a unos 2-4 fps menos de lo que lo harías (por ejemplo, 58 en lugar de 60). Si tu monitor tiene VRR (freesync/gsync) con esta config vas a ir de puta madre. Si no, verás ciertos microsaltos en la imagen cada X segundos. Te tocará decidir si prefieres esto o el tearing.


Si, tengo monitor vsync.
Entonces si por ejemplo quiero limitar a 60 fps en cyberpunk con FG.
En panel de control de nvidia: Avtivo vsync y limito a 58.
Activo FG + Dlss dentro del juego.

Y asi deberia de ir bien?


edito:
Estoy probando y el frametime no me va estable.

edito2:

Esto que comentas tambien es necesario para monitores gsync?
@Daicon pensaba que ese software no se usaba ya... yo lo estuve usando con el evga precision pero cuando sacaron la nueva version lo quite pq me hacia cosas raras... supongo que ahora para limitar el frame rate se puede hacer bien sin necesidad de ese software pero no te se decir al 100%, yo desde luego no voy a instalarlo. Cn MSI afterburn o algo similar puedes bloquear el frame rate tb...
Daicon escribió:
zero2006xl escribió:
Daicon escribió:

MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Bfff buen cajón has abierto. Yo estuve pegándome con esto la semana pasada.

No puedes capar con Rivatuner para los juegos en los que actives Frame Gen. Bueno, puedes pero va a ocurrir lo que te está pasando. Tienes que limitar en el Panel de Control de Nvidia que ya entra donde tiene que entrar para evitar conflictos con el Frame Gen. Consejos:

- Si no quieres tearing, activa el vsync también desde el panel. La opción está muy cerca de la del limitador de FPS's.
- Al activar Vsync vas a tener un input lag del copón por cómo funciona el vsync+frame gen. Para evitar esto debes capar a unos 2-4 fps menos de lo que lo harías (por ejemplo, 58 en lugar de 60). Si tu monitor tiene VRR (freesync/gsync) con esta config vas a ir de puta madre. Si no, verás ciertos microsaltos en la imagen cada X segundos. Te tocará decidir si prefieres esto o el tearing.


Si, tengo monitor vsync.

Entonces si por ejemplo quiero limitar a 60 fps en cyberpunk con FG.
En panel de control de nvidia: Avtivo vsync y limito a 58.
Activo FG + Dlss dentro del juego.

Y asi deberia de ir bien?


edito:
Estoy probando y el frametime no me va estable.

edito2:

Esto que comentas tambien es necesario para monitores gsync?


Vuelve a echarle un ojo a mi mensaje, a la última parte. Hablo de los monitores con G-Sync sí. Sí tu monitor no tiene gsync pasará lo que comento.

La config que tienes en es correcta. Asegúrate de no tener ningún otro frame limiter activo, ni si quiera el del propio juego. Y cierra MSI Afterburner/RTSS por si acaso.
PLK1 escribió:@Daicon pensaba que ese software no se usaba ya... yo lo estuve usando con el evga precision pero cuando sacaron la nueva version lo quite pq me hacia cosas raras... supongo que ahora para limitar el frame rate se puede hacer bien sin necesidad de ese software pero no te se decir al 100%, yo desde luego no voy a instalarlo. Cn MSI afterburn o algo similar puedes bloquear el frame rate tb...

pues yo llevo usandolo años y me iba muy bien, pero no se si se estara quedando obsoleto...

El msi afterburner podria limitar por si solo?
De todas formas el rivatuner lo usaba principalmente para superponer datos que quisiera dentro del juego.
eso es el uso principal en realidad.
@Daicon yo lo quite pq dependiendo del juego la capa que metia para monitorizar valores me jodia algo del juego... salia una franja vertical en un extremo de la pantalla, al final los softwares de las propias grraficas hacian lo mismo sin depender de Rivaturner. Yo he usado bastante tiempo EVGA Precision X y hacia lo mismo. Supongo que el de MSI hara igual pero no se decirte.
Daicon escribió:
_anVic_ escribió:
Daicon escribió:una duda de novato con la serie 4000.

¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.


Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.



MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.

Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.
Baktor escribió:
Daicon escribió:
_anVic_ escribió:
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.



MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.

Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.


En teoría no haria falta lo de capar a 2 fps menos por lo que comentas del reflex, correcto. Pero aun así debería irle bien. Aunque no me queda claro si el monitor que tiene es gsync o no.

Si es así prueba a quitar el cap del panel de nvidia y mantener los ajustes como los tienes. Asegurate de que el nvidia reflex esta activado aunque deberia de activarse solo al usar FG... Asi ha sdo en todos los juegos q he probado.
Baktor escribió:
Daicon escribió:
_anVic_ escribió:
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.

@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo

Pero como hay tanta gente con paranoias pues que quieres que les diga...

Ante la duda que se pillen otro modelo y a correr .

Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.



MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.

Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.



pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?
_anVic_ está baneado por "clon de usuario baneado"
Daicon escribió:
Baktor escribió:
Daicon escribió:

MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???

se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.

es posible entonces o no?


Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.

Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.



pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?


Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.

Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.

Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.

De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.

Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.
_anVic_ escribió:
Daicon escribió:
Baktor escribió:
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.

Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.



pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?


Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.

Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.

Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.

De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.

Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.


El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.

La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.

Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.

Minuto 27:00

https://youtu.be/92ZqYaPXxas
_anVic_ está baneado por "clon de usuario baneado"
zero2006xl escribió:
_anVic_ escribió:
Daicon escribió:

pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?


Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.

Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.

Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.

De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.

Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.


El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.

La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.

Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.

Minuto 27:00

https://youtu.be/92ZqYaPXxas


110ms no tengo yo ni por asomo, medido del mismo modo que el. Ando entre 40 y 50ms en el Cyberpunk tanto con g-sync más v-sync, FG, reflex y dlss, como con sólo v-sync sin g-sync más FG y reflex más dlss

Mañana mismo te puedo hacer un vídeo demostrativo enseñando latencia media del PC en la renderización del pipeline sin rascadas, ni tearing, ni frame pacing. De las dos maneras incluyendo en la ecuación dlss



Un ejemplo en el TW3, sin parches juego de salida, cuando se actualizó con FG y RT.

Latencia media del PC bastante por debajo de esos 110ms. Estaba forzado v-sync con g-sync, FG con reflex más dlss .

En el Cyberpunk aún tengo mejores latencias.

Ah y dlss estaba en calidad ni siquiera en rendimiento. Además con rt a tope.

Si desactivas RT y pones dlss rendimiento aún bajan más las latencias mejorando lo presentado en el vídeo.

Otro ejemplo, spiderman remastered capado a 120hz y 120fps como una roca ultra fluido. Usando FG, v-sync con VRR g-sync, reflex y dlss. Aquí se me olvidó mostrar la latencia media del PC, que dicho sea de paso era mejor que el TW3.


Que problema le ves tu a cualquiera de los dos testeos?
_anVic_ escribió:
zero2006xl escribió:
_anVic_ escribió:
Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.

Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.

Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.

De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.

Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.


El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.

La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.

Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.

Minuto 27:00

https://youtu.be/92ZqYaPXxas


110ms no tengo yo ni por asomo, medido del mismo modo que el. Ando entre 40 y 50ms en el Cyberpunk tanto con g-sync más v-sync, FG, reflex y dlss, como con sólo v-sync sin g-sync más FG y reflex más dlss

Mañana mismo te puedo hacer un vídeo demostrativo enseñando latencia media del PC en la renderización del pipeline sin rascadas, ni tearing, ni frame pacing. De las dos maneras incluyendo en la ecuación dlss



Un ejemplo en el TW3, sin parches juego de salida, cuando se actualizó con FG y RT.

Latencia media del PC bastante por debajo de esos 110ms. Estaba forzado v-sync con g-sync, FG con reflex más dlss .

En el Cyberpunk aún tengo mejores latencias.

Ah y dlss estaba en calidad ni siquiera en rendimiento. Además con rt a tope.

Si desactivas RT y pones dlss rendimiento aún bajan más las latencias mejorando lo presentado en el vídeo.


Lo que yo te he comentado no es una opinión. Es que cuando entra Vsync la gráfica tiene un momento de espera que se acentúa por la generación de frames. Esta docu está no sólo en Digital Foundry si no en más sitios. Ahora mismo no tengo tiempo de liarme a buscar pero de verdad que sucede. Y lo he podido comprobar yo mismo con varios juegos. Es una limitación técnica real.

Y sobre la captura de vídeo, yo lo que veo es un framerate desbloqueado.

Este debate por mi parte va a ser estéril. Que cada uno pruebe y si está contento para adelante. Yo me remito a mis pruebas y a las limitaciones técnicas documentadas de DLSS3. Ojalá funcionase genial sin G-Sync pero no es así.

Para más info, ver debates anteriores:

https://www.reddit.com/r/nvidia/comment ... nd_dlss_3/
_anVic_ escribió:
Daicon escribió:
Baktor escribió:
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.

Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.



pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?


Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.

Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.

Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.

De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.

Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.

Estoy probando.
Pero cuando creo una configuracion con una frecuencia cualquiera, se me queda la pantalla en negro. pshhh un poco raro.

en cualquier caso?
No puedo dejar el monitor siempre a 100 hz... y luego jugar con el FG a 75 por ejemplo? no puedo hacerlo de ninguna forma que no sea seteando antes los hz del monitor a 75 en el escritorio?

O me estoy perdiendo? (HABLo con monitor GSYNC)

Pienso que podria dejarlo a 100hz, como hasta ahora.
Y luego si quiero jugar a un juego a 75 con el FG, desde el pandel de control de nvidia, pongo los fps para ese juego a 75 y activo el vsync.

y ya dentro del juego activo FG, DLSS y lo que quiera, no? (entiendo que el nvidia reflex siempre se activa al poner el FG)
Daicon escribió:
_anVic_ escribió:
Daicon escribió:

pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?


Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.

Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.

Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.

De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.

Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.

Estoy probando.
Pero cuando creo una configuracion con una frecuencia cualquiera, se me queda la pantalla en negro. pshhh un poco raro.

en cualquier caso?
No puedo dejar el monitor siempre a 100 hz... y luego jugar con el FG a 75 por ejemplo? no puedo hacerlo de ninguna forma que no sea seteando antes los hz del monitor a 75 en el escritorio?

O me estoy perdiendo? (HABLo con monitor GSYNC)

Pienso que podria dejarlo a 100hz, como hasta ahora.
Y luego si quiero jugar a un juego a 75 con el FG, desde el pandel de control de nvidia, pongo los fps para ese juego a 75 y activo el vsync.

y ya dentro del juego activo FG, DLSS y lo que quiera, no? (entiendo que el nvidia reflex siempre se activa al poner el FG)


Si tienes gsync, que era lo que no me quedaba claro, puedes capar los frames donde quieras siempre que esté dentro del rango, que posiblemente sea desde los 40 o 45 hasta la frecuencia máxima del monitor o tele.

Sí quieres capar por debajo de los hercios puedes hacer lo que te ha comentado el compi o directamente en el panel de control de Nvidia, capar ahí. Ten activado el Vsync en el panel para evitar el tearing por completo.

En el juego lo normal es que al activar Frame Generation se te active Reflex y desactive Vsync dentro del juego.

Y con esto debería tirarte todo bien. Si no, se me escapa qué puede estar pasando pero seguro que hay algo que no está bien configurado.

@_anVic_ el problema de las capturas es:

- En la primera el framerate está desbloqueado. Sí tú jugando no veías tearing es que el gsync esta funcionando. Por lo que este es un caso de uso feliz, no es lo que yo planteo.

- En la segunda el framerate está bloqueado pero a 120fps. No se cómo está operando por debajo Reflex dado que tienes Gsync activado. Pero en el peor de los casos, y suponiendo que la gráfica se quede esperando a completar el refresco a causa del Vsync, la latencia la notarias mucho menos porque partes de 60 fps.

Lo que comentan en el vídeo de Digital Foundry es real. Y sólo se resuelve bloqueando justo por debajo del límite del monitor para que el Vsync no introduzca esa latencia extra poniendo en espera a la gráfica. Esto provoca juddering porque hay que mostrar, por ejemplo, 58 FPS en 60 hz de refresco si el monitor no tiene gsync. Sí tiene gsync, no habrá juddering y se verá tan bien como a 60.
_anVic_ está baneado por "clon de usuario baneado"
zero2006xl escribió:
_anVic_ escribió:
zero2006xl escribió:
El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.

La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.

Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.

Minuto 27:00

https://youtu.be/92ZqYaPXxas


110ms no tengo yo ni por asomo, medido del mismo modo que el. Ando entre 40 y 50ms en el Cyberpunk tanto con g-sync más v-sync, FG, reflex y dlss, como con sólo v-sync sin g-sync más FG y reflex más dlss

Mañana mismo te puedo hacer un vídeo demostrativo enseñando latencia media del PC en la renderización del pipeline sin rascadas, ni tearing, ni frame pacing. De las dos maneras incluyendo en la ecuación dlss



Un ejemplo en el TW3, sin parches juego de salida, cuando se actualizó con FG y RT.

Latencia media del PC bastante por debajo de esos 110ms. Estaba forzado v-sync con g-sync, FG con reflex más dlss .

En el Cyberpunk aún tengo mejores latencias.

Ah y dlss estaba en calidad ni siquiera en rendimiento. Además con rt a tope.

Si desactivas RT y pones dlss rendimiento aún bajan más las latencias mejorando lo presentado en el vídeo.


Lo que yo te he comentado no es una opinión. Es que cuando entra Vsync la gráfica tiene un momento de espera que se acentúa por la generación de frames. Esta docu está no sólo en Digital Foundry si no en más sitios. Ahora mismo no tengo tiempo de liarme a buscar pero de verdad que sucede. Y lo he podido comprobar yo mismo con varios juegos. Es una limitación técnica real.

Y sobre la captura de vídeo, yo lo que veo es un framerate desbloqueado.

Este debate por mi parte va a ser estéril. Que cada uno pruebe y si está contento para adelante. Yo me remito a mis pruebas y a las limitaciones técnicas documentadas de DLSS3. Ojalá funcionase genial sin G-Sync pero no es así.

Para más info, ver debates anteriores:

https://www.reddit.com/r/nvidia/comment ... nd_dlss_3/

No es un framerate desbloqueado tenía gsync activado y también v-sync. No hace falta capar el juego a 120 pues si ya tienes ambos activos no vas a pasar nunca de esos 120hz / fps de mi C1.

Como es el caso del spiderman remastered ahí si hay cap a 120 porque toca techo constantemente y así se queda mantenido por tener forzado v-sync. En el TW3 es que no llegaba a esos fps por eso está por debajo.

Además mañana haré las pruebas con Cyberpunk para mostrarte que ni por asomo se dan más allá de 60ms de media. Es la herramienta que uso él. Que incorpora el geforce experience donde se refleja en tiempo real la latencia media del PC.
Ya me explicarás como consigo eso pues. Porque te aseguro que no hago magia.
@zero2006xl debes de ser el único en el foro que pone tantas pegas y nota un excesivo lag usando FG. Y en general, entre la comunidad gamer, el alto grado de satisfaccion con FG es practicamente unanime.
parh escribió:@zero2006xl debes de ser el único en el foro que pone tantas pegas y nota un excesivo lag usando FG. Y en general, entre la comunidad gamer, el alto grado de satisfaccion con FG es practicamente unanime.


Mírate el vídeo de Digital Foundry y date una vuelta por Reddit. DLSS3 requiere de unas características y si las tienes, no notarás sus defectos. Sí no las tienes, los notarás. Usar DLSS3 para lograr 60 FPS en una pantalla sin G-Sync es una mala idea. Y da la casualidad de que esta es la configuración más habitual y, en concreto, la mía.

El tonito de 'debes ser el único del foro que pone tantas pegas' me parece genial. Pero eso no va a hacer que lo que digo sea mentira o que el sistema tenga las limitaciones que tiene.

Y dejo aquí el asunto porque no voy a darme contra una pared. Quién esté satisfecho que lo disfrute. Yo lo podré disfrutar en mi monitor gsync pero no en mi tele. Y ningún comentario de este foro diciendo que DLSS3 es la hostia va a cambiar eso.

@_anVic_ entonces si lo tenías activado (supongo que a 120) y el framerate está oscilando entre 80,90 y no tienes gsync activado, la imagen no puede verse fluida. Gsync y el VRR en general se basan en eso, que dentro del rango la frecuencia del monitor se adapta al framerate para sincronizar las imágenes de manera perfecta. En este caso al no llegar a los 120 no vas a tener el problema de latencia que he explicado, sería el equivalente a bloquear por debajo de la tasa de frames del monitor. Y eso lo explican en el vídeo y en el enlace que he pasado. Que puedes bloquear por debajo o darle la suficiente carga a la tarjeta para que nunca llegue a la tasa máxima y se añada esta latencia extra.

Pero claro, no tienes problema de latencia pero tampoco una imagen fluida en absoluto. Y si lo veías fluido una de dos, o sí tenías el gsync activado, o te da igual jugar con Vsync y los FPS fluctuando continuamente.
zero2006xl escribió:
parh escribió:@zero2006xl debes de ser el único en el foro que pone tantas pegas y nota un excesivo lag usando FG. Y en general, entre la comunidad gamer, el alto grado de satisfaccion con FG es practicamente unanime.


Mírate el vídeo de Digital Foundry y date una vuelta por Reddit. DLSS3 requiere de unas características y si las tienes, no notarás sus defectos. Sí no las tienes, los notarás. Usar DLSS3 para lograr 60 FPS en una pantalla sin G-Sync es una mala idea. Y da la casualidad de que esta es la configuración más habitual y, en concreto, la mía.

El tonito de 'debes ser el único del foro que pone tantas pegas' me parece genial. Pero eso no va a hacer que lo que digo sea mentira o que el sistema tenga las limitaciones que tiene.

Y dejo aquí el asunto porque no voy a darme contra una pared. Quién esté satisfecho que lo disfrute. Yo lo podré disfrutar en mi monitor gsync pero no en mi tele. Y ningún comentario de este foro diciendo que DLSS3 es la hostia va a cambiar eso.


pero si @_anVic_ ya te esta poniendo datos y pruebas de que en con los juegos mas exigentes del momento como witcher 3 (con parche RT ULTRA) y cp2077 el lag esta en torno a los 50-60 ms de media que es un valor razonable para los 60 fps con los que toda la vida hemos jugado en PC sin problemas.

y yo mismo experimenté los 60fps con FG, en una LG OLED sin GSYNC y jugué perfectamente a Hogwarts Legacy con RT ultra, sin notar nada raro. Ahora juego en una samsung S95B que tiene GSYNC y sí es verdad que juego con mas fluidez al poder moverme por encima de los 60fps pero no es como el dia y la noche con respecto a mi experiencia sin gsync como tu estas planteando que aquello es injugable con FG sin GSYNC
14371 respuestas