Inmortal Joe escribió:Tengo una Corsair RM850E 850W 80+ Gold montada ahora mismo con un i9 13900k con RL Corsair..
¿Es suficiente para una 4090 o como mucho puedo meter una 4080?
Juego a 1440p / 165 frames.
Inmortal Joe escribió:Tengo una Corsair RM850E 850W 80+ Gold montada ahora mismo con un i9 13900k con RL Corsair..
¿Es suficiente para una 4090 o como mucho puedo meter una 4080?
Juego a 1440p / 165 frames.
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
https://www.coolmod.com/palit-geforce-rtx-4090-gamerock-24gb-gddr6x-dlss3/
metalero24 escribió:RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
Hoy tiene coolmod una 4090 por 1.650€, son casi 200€ menos que la FE:https://www.coolmod.com/palit-geforce-rtx-4090-gamerock-24gb-gddr6x-dlss3/
metalero24 escribió:RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
Hoy tiene coolmod una 4090 por 1.650€, son casi 200€ menos que la FE:https://www.coolmod.com/palit-geforce-rtx-4090-gamerock-24gb-gddr6x-dlss3/
RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
_anVic_ escribió:RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
No se que problema le ves a la FE se merienda a la palit en cuanto a pcb, se sitúa la 5º de la lista:
Por ese precio veo bien pillar la Palit pero tiene un pcb bastante mediocre tirando a malete.
RC9 escribió:_anVic_ escribió:RC9 escribió:Yo cada vez estoy más convencido de cambiar mi 4080 por la 4090, única pega que tiene que ser la FE que es la única que me cabe en la caja. Pero en cuanto me entre un poco de cash, vendo la 4080 y compro fuente + 4090.
No se que problema le ves a la FE se merienda a la palit en cuanto a pcb, se sitúa la 5º de la lista:
Por ese precio veo bien pillar la Palit pero tiene un pcb bastante mediocre tirando a malete.
No lo decía como pega, lo decía porque físicamente es la que me cabe sin problemas. La Palit de longitud me queda más justa y de anchura quizá también pero sigue cabiendo, de hecho, me voy a comprar la Palit ya que ese precio es muy tentador, ya os contaré cuando me llegue!
RC9 escribió:Yo de primeras le haré undervolt hasta que pille la fuente de 1000W a fin de mes
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
Chaquetero escribió:ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.
Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.
Chaquetero escribió:Toda la razón.
200w es poquísimo consumo para una gráfica, mira si tienes experiencia y lo has probado tu todo que hace 5 años eso no lo consumía ni la gama alta, pero gama alta de verdad, y llevaba un PCB que costaba como 5 veces más que el de la 4070 a MENOR pvp.
Para zanjar el tema de los tornillos y que no se sigan metiendo con nuestras novias rtx, el problema está en la poca presión del mecanismo de fijación del disipador, no en la chorrada de que "abaratan en tornillos". En lo que han abaratado muchísimo es en un proceso de fabricación con tolerancias lamentables propias de la peor y más zarrapastrosa y pérdida fábrica de Guangzhou, esto hace que el disipador no se asiente con la suficiente presión y regularidad, y da problemas graves de temperatura en hotspots y VRAM. Las temperaturas altísimas en los PCB vienen dadas por otra cosa mucho más sencilla, han abaratado tanto que la circuitería se pone a 120° simple y llanamente porque hasta ahora estos PCB se utilizaban para GT 1030/gt1050, es decir, gráficas pasivas o casi, o que no necesitaban ni cable pcie (75w Max).
Pero una vez más toda la razón, hay que preocuparse mucho menos y confiar en las compañías. Hay que aprender de ellas y reírse y ser felices, ellos estafando y meándose en la boca de los clientes, y los clientes contentísimos pensando que llueve. Te quiero rtx, esta noche toca bencheo del bueno. Que no os engañen con pruebas que el amor es ciego.
Chaquetero escribió:ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.
Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.
iNFeRNuS360 escribió:Chaquetero escribió:ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
Exactamente igual de limitada que la 4070ti, son gráficas que cuando se les exige se ahogan por la poca potencia bruta y el bus de gama baja que tienen. Pero para jugar a indies de 5 euros del gamepass poco exigentes irán muy bien durante muchos años, porque con todos los AAA potentes a partir de ahora petardearán con los 12 GB de VRAM.
Esperate que no las está comprando nadie y parece que van a bajar de precio, o eso o pilla mejor una Rx 6800 más barata.
Jajajaja yo no sé cómo no te banean
ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
_anVic_ escribió:ELwendo escribió:De cara al futuro, como veis los recortes que le han echo a la 4070? Daran problema en 4 o 5 años?
Estoy pensando en pillar una y me ha surgido esa duda.
En mi caso, va todo de stock, no tocare nada.
Por lo general, si juegas a 1440p dudo que tengas problemas con 12gb deberías ir servido.
Otra cosa es que le vayas a dar uso en 4k y tengas el síndrome de la ultritis, en tal caso se te podría atragantar algún que otro título.
Pero vamos nada que no se pueda arreglar bajando un par de parámetros de ultra a alto.
RC9 escribió:Btw, mucho cuello de botella tendré con mi i5-13600KF en 3440x1440 con la 4090?
_anVic_ escribió:RC9 escribió:Btw, mucho cuello de botella tendré con mi i5-13600KF en 3440x1440 con la 4090?
Te irá de lujo ese 13600kf , no veo ningún probelma.
@Elwendo ah ok no lo había pillado por ese lado
Hay unos cuantos modelos donde no se ha escatimado hasta tal punto. Sería pillarte unos de esos y te quitas las posibles comeduras de tarro que puedas tener a posteriori.
Daicon escribió:una duda de novato con la serie 4000.
¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.
Inmortal Joe escribió:Tengo una Corsair RM850E 850W 80+ Gold montada ahora mismo con un i9 13900k con RL Corsair..
¿Es suficiente para una 4090 o como mucho puedo meter una 4080?
Juego a 1440p / 165 frames.
_anVic_ escribió:Daicon escribió:una duda de novato con la serie 4000.
¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.
@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo
Pero como hay tanta gente con paranoias pues que quieres que les diga...
Ante la duda que se pillen otro modelo y a correr .
Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
Daicon escribió:_anVic_ escribió:Daicon escribió:una duda de novato con la serie 4000.
¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.
@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo
Pero como hay tanta gente con paranoias pues que quieres que les diga...
Ante la duda que se pillen otro modelo y a correr .
Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
zero2006xl escribió:Daicon escribió:_anVic_ escribió:
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.
@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo
Pero como hay tanta gente con paranoias pues que quieres que les diga...
Ante la duda que se pillen otro modelo y a correr .
Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
Bfff buen cajón has abierto. Yo estuve pegándome con esto la semana pasada.
No puedes capar con Rivatuner para los juegos en los que actives Frame Gen. Bueno, puedes pero va a ocurrir lo que te está pasando. Tienes que limitar en el Panel de Control de Nvidia que ya entra donde tiene que entrar para evitar conflictos con el Frame Gen. Consejos:
- Si no quieres tearing, activa el vsync también desde el panel. La opción está muy cerca de la del limitador de FPS's.
- Al activar Vsync vas a tener un input lag del copón por cómo funciona el vsync+frame gen. Para evitar esto debes capar a unos 2-4 fps menos de lo que lo harías (por ejemplo, 58 en lugar de 60). Si tu monitor tiene VRR (freesync/gsync) con esta config vas a ir de puta madre. Si no, verás ciertos microsaltos en la imagen cada X segundos. Te tocará decidir si prefieres esto o el tearing.
Daicon escribió:zero2006xl escribió:Daicon escribió:
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
Bfff buen cajón has abierto. Yo estuve pegándome con esto la semana pasada.
No puedes capar con Rivatuner para los juegos en los que actives Frame Gen. Bueno, puedes pero va a ocurrir lo que te está pasando. Tienes que limitar en el Panel de Control de Nvidia que ya entra donde tiene que entrar para evitar conflictos con el Frame Gen. Consejos:
- Si no quieres tearing, activa el vsync también desde el panel. La opción está muy cerca de la del limitador de FPS's.
- Al activar Vsync vas a tener un input lag del copón por cómo funciona el vsync+frame gen. Para evitar esto debes capar a unos 2-4 fps menos de lo que lo harías (por ejemplo, 58 en lugar de 60). Si tu monitor tiene VRR (freesync/gsync) con esta config vas a ir de puta madre. Si no, verás ciertos microsaltos en la imagen cada X segundos. Te tocará decidir si prefieres esto o el tearing.
Si, tengo monitor vsync.
Entonces si por ejemplo quiero limitar a 60 fps en cyberpunk con FG.
En panel de control de nvidia: Avtivo vsync y limito a 58.
Activo FG + Dlss dentro del juego.
Y asi deberia de ir bien?
edito:
Estoy probando y el frametime no me va estable.
edito2:
Esto que comentas tambien es necesario para monitores gsync?
PLK1 escribió:@Daicon pensaba que ese software no se usaba ya... yo lo estuve usando con el evga precision pero cuando sacaron la nueva version lo quite pq me hacia cosas raras... supongo que ahora para limitar el frame rate se puede hacer bien sin necesidad de ese software pero no te se decir al 100%, yo desde luego no voy a instalarlo. Cn MSI afterburn o algo similar puedes bloquear el frame rate tb...
Daicon escribió:_anVic_ escribió:Daicon escribió:una duda de novato con la serie 4000.
¿No se puede bloquear los fps con el Fake Generator???
Me hace cosas raras al limitarlo con Rivatuner.
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.
@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo
Pero como hay tanta gente con paranoias pues que quieres que les diga...
Ante la duda que se pillen otro modelo y a correr .
Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
Baktor escribió:Daicon escribió:_anVic_ escribió:
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.
@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo
Pero como hay tanta gente con paranoias pues que quieres que les diga...
Ante la duda que se pillen otro modelo y a correr .
Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.
Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.
Baktor escribió:Daicon escribió:_anVic_ escribió:
Fuerzas V-sync desde el panel de control de nvidia dejándolo activado. Dentro del propio juego te saldrá inoperativo ya que al activar frame generation se desactiva V-sync. Pero funcionará sin problema. Luego quitas el cap del riva tuner y listo.
@zero2006xl Yo tampoco he visto ninguna review donde aparezca algún modelo con los problemas derivados que se citan en éste hilo
Pero como hay tanta gente con paranoias pues que quieres que les diga...
Ante la duda que se pillen otro modelo y a correr .
Personalmente no he probado ninguna 4070 y no puedo aportar datos objetivos al respecto.
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.
Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.
Daicon escribió:Baktor escribió:Daicon escribió:
MMmmm
Peero, quito el cap de rivatuner??
justo pregunto por eso....¿Es que no es posible jugar con los fps capados en rivatuner al tener el Fg activado???
se me disparan los fps por encima de mi frecuencia max de monitor... y prefiero limitarlo.
es posible entonces o no?
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.
Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.
pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?
_anVic_ escribió:Daicon escribió:Baktor escribió:
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.
Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.
pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?
Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.
Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.
Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.
De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.
Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.
zero2006xl escribió:_anVic_ escribió:Daicon escribió:
pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?
Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.
Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.
Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.
De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.
Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.
El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.
La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.
Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.
Minuto 27:00
https://youtu.be/92ZqYaPXxas
_anVic_ escribió:zero2006xl escribió:_anVic_ escribió:
Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.
Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.
Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.
De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.
Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.
El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.
La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.
Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.
Minuto 27:00
https://youtu.be/92ZqYaPXxas
110ms no tengo yo ni por asomo, medido del mismo modo que el. Ando entre 40 y 50ms en el Cyberpunk tanto con g-sync más v-sync, FG, reflex y dlss, como con sólo v-sync sin g-sync más FG y reflex más dlss
Mañana mismo te puedo hacer un vídeo demostrativo enseñando latencia media del PC en la renderización del pipeline sin rascadas, ni tearing, ni frame pacing. De las dos maneras incluyendo en la ecuación dlss
Un ejemplo en el TW3, sin parches juego de salida, cuando se actualizó con FG y RT.
Latencia media del PC bastante por debajo de esos 110ms. Estaba forzado v-sync con g-sync, FG con reflex más dlss .
En el Cyberpunk aún tengo mejores latencias.
Ah y dlss estaba en calidad ni siquiera en rendimiento. Además con rt a tope.
Si desactivas RT y pones dlss rendimiento aún bajan más las latencias mejorando lo presentado en el vídeo.
_anVic_ escribió:Daicon escribió:Baktor escribió:
Ya se ha comentado varias veces, para limitar los FPS usando el DLSS3 FG has de activar el VSYNC en el panel de nvidia, luego ingame desactivas el VSYNC y activas el Nvidia Reflex. El propio Reflex te capará los fps a los Hz de tu monitor.
Puede ser que esta config solo funcione con monitores GSYNC? Yo es la que uso porque es la que recomienda Nvidia y me va de lujo, probado tanto en Forza Horizon 5 como en el Spider-Man Remastered y el Miles Morales y me ha funcionado perfecto, eso sí, con monitor GSYNC.
pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?
Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.
Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.
Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.
De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.
Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.
Daicon escribió:_anVic_ escribió:Daicon escribió:
pero no me cuadra una cosa sobre eso que te pongo en negrita:
Si tengo el monitor a 100hz, pero quiero capar a 80??
Entonces como lo hago?
Puedes usar el cap del propio panel de nvidia al final de las opciones 3d o bien crear una resolución y frecuencias de refresco personalizadas también desde del propio panel de nvidia.
Si no te sale opción de ponerlo a 80hz lo creas tú mismo.
Una vez pongas el escritorio a 80hz y actives v-sync en el panel de nvidia, cuando estés dentro del juego se te caparan los fps a esa tasa de refresco.
Es indiferente que tengas o no g-sync, es decir funciona en ambos casos. En uno con g-sync+ v-sync te capará el framerate unos fps por debajo de esa tasa de refresco y sin g-sync pero con v-sync te lo limitará justo a la tasa de refresco.
De las dos maneras debería ir fluido. Lo importante es que mantengas esos 80fps lo más rocoso posible. Y quites posibles caps del riva tuner o cualquier otro que tengas habilitado.
El v-sync forzado ( en activado ) es el que se va a encargar de hacer ese trabajo en cualquier aplicación 3d que lances.
Si te ves con apuros tranqui hacemos un discord mañana y te lo afino todo.
Estoy probando.
Pero cuando creo una configuracion con una frecuencia cualquiera, se me queda la pantalla en negro. pshhh un poco raro.
en cualquier caso?
No puedo dejar el monitor siempre a 100 hz... y luego jugar con el FG a 75 por ejemplo? no puedo hacerlo de ninguna forma que no sea seteando antes los hz del monitor a 75 en el escritorio?
O me estoy perdiendo? (HABLo con monitor GSYNC)
Pienso que podria dejarlo a 100hz, como hasta ahora.
Y luego si quiero jugar a un juego a 75 con el FG, desde el pandel de control de nvidia, pongo los fps para ese juego a 75 y activo el vsync.
y ya dentro del juego activo FG, DLSS y lo que quiera, no? (entiendo que el nvidia reflex siempre se activa al poner el FG)
zero2006xl escribió:_anVic_ escribió:zero2006xl escribió:
El tema es que no va a ir fluido sin G-Sync. O altísima latencia, o tearing o mal frame pacing. Esto no lo digo yo, es la naturaleza del DLSS3. Otra cosa es la tolerancia de cada uno a estos problemas.
La única manera de ver (y sentir) fluido DLSS3 es mediante gsync.
Probé con Cyberpunk y parecía ir bien, pero era una quimera. Me estaba comiendo un input lag terrible. La única manera de evitar esto con Vsync activado es capar por debajo de los Hz del monitor. Y esto, sin G-Sync, es muy molesto.
Minuto 27:00
https://youtu.be/92ZqYaPXxas
110ms no tengo yo ni por asomo, medido del mismo modo que el. Ando entre 40 y 50ms en el Cyberpunk tanto con g-sync más v-sync, FG, reflex y dlss, como con sólo v-sync sin g-sync más FG y reflex más dlss
Mañana mismo te puedo hacer un vídeo demostrativo enseñando latencia media del PC en la renderización del pipeline sin rascadas, ni tearing, ni frame pacing. De las dos maneras incluyendo en la ecuación dlss
Un ejemplo en el TW3, sin parches juego de salida, cuando se actualizó con FG y RT.
Latencia media del PC bastante por debajo de esos 110ms. Estaba forzado v-sync con g-sync, FG con reflex más dlss .
En el Cyberpunk aún tengo mejores latencias.
Ah y dlss estaba en calidad ni siquiera en rendimiento. Además con rt a tope.
Si desactivas RT y pones dlss rendimiento aún bajan más las latencias mejorando lo presentado en el vídeo.
Lo que yo te he comentado no es una opinión. Es que cuando entra Vsync la gráfica tiene un momento de espera que se acentúa por la generación de frames. Esta docu está no sólo en Digital Foundry si no en más sitios. Ahora mismo no tengo tiempo de liarme a buscar pero de verdad que sucede. Y lo he podido comprobar yo mismo con varios juegos. Es una limitación técnica real.
Y sobre la captura de vídeo, yo lo que veo es un framerate desbloqueado.
Este debate por mi parte va a ser estéril. Que cada uno pruebe y si está contento para adelante. Yo me remito a mis pruebas y a las limitaciones técnicas documentadas de DLSS3. Ojalá funcionase genial sin G-Sync pero no es así.
Para más info, ver debates anteriores:
https://www.reddit.com/r/nvidia/comment ... nd_dlss_3/
parh escribió:@zero2006xl debes de ser el único en el foro que pone tantas pegas y nota un excesivo lag usando FG. Y en general, entre la comunidad gamer, el alto grado de satisfaccion con FG es practicamente unanime.
zero2006xl escribió:parh escribió:@zero2006xl debes de ser el único en el foro que pone tantas pegas y nota un excesivo lag usando FG. Y en general, entre la comunidad gamer, el alto grado de satisfaccion con FG es practicamente unanime.
Mírate el vídeo de Digital Foundry y date una vuelta por Reddit. DLSS3 requiere de unas características y si las tienes, no notarás sus defectos. Sí no las tienes, los notarás. Usar DLSS3 para lograr 60 FPS en una pantalla sin G-Sync es una mala idea. Y da la casualidad de que esta es la configuración más habitual y, en concreto, la mía.
El tonito de 'debes ser el único del foro que pone tantas pegas' me parece genial. Pero eso no va a hacer que lo que digo sea mentira o que el sistema tenga las limitaciones que tiene.
Y dejo aquí el asunto porque no voy a darme contra una pared. Quién esté satisfecho que lo disfrute. Yo lo podré disfrutar en mi monitor gsync pero no en mi tele. Y ningún comentario de este foro diciendo que DLSS3 es la hostia va a cambiar eso.