DaNi_0389 escribió:Ahora que ya tengo la grafica configurada con su undervolt para 24/7 cuelgo algunos resultados.
tiene el boost que hace de stock, 2790Mhz pero con el voltaje a 0,975v, y las memorias a stock.
Horizon Zero Down
Esto es lo que sacaba la 6800XT en las mismas condiciones
Tomb Raider
Red Dead Redemption
Metro Exodus
Y un par de pruebas con OC
Port Royal
Superposition
Xcala666 escribió:@elcapoprods Yo creo que a 1000€ se va a comer parte del mercado que iría a por las 7000 de AMD ya que va a rendir más en RT y algo menos en raster pero la marca Nvidia tiene mayor peso en el mercado, que ojo ojalá se las comieran y bajaran los precios algo que nos beneficiaría a todos pero me temo que no.
silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti
A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.
stan01 escribió:silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti
A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.
Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...
Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas
stan01 escribió:@hh1
En que te basas para decir que no interesa?
Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.
torrente10000 escribió:ak4ever escribió:Para los que tuvieran o tengan dudas de si un 9900k es suficiente para una 4080, he cambiado el mio por un 13700k con ddr5 para así poner el i9 y sus ram en el segundo pc que llevava un i3 que se quedaba corto y ese i3 en el pc de la oficina que me venia muy bien también, y probando dos juegos que tiran bastante de cpu como son el battlefield 2042 y el Warhammer Darktide, he notado una mejora de fps hasta un 10% aproximadamente sin ver diferencias sigfificativas en el uso de la gpu (90-90 y largos% igual que antes), que al fin y al cabo es la mejora esperada segun las reviews que habia visto, en 3440x1440p.
En mi caso todavia tendria un pase ya que era sobretodo porque me venia muy bien aprovechar mis otras dos cpus, pero para el que se plantee el upgrade de un 9900k o superior para jugar con una 4080 lo desaconsejo totalmente, la mejora de rendimiento no compensa el desembolso ni de lejos, ya que teniendo en cuenta que aun quedandose con ddr4 hay que gastarse lo que te gastarias de más por ir a por una 4090+fuente, y con esto último se ganarian muchos más fps aunque hubiese cuello de botella.
Sin embargo, yo he cambiado un 9700K por un 13700K y he notado una mejoria impresionante. Si bien es cierto que en juegos es poca la mejora, el rendimiento del PC es otro mundo. Antes no podía miniminar New World para abrir Discord o Team Speak ya que se realentizaba todo el PC y le costaba media hora entrar en conversación, sin embargo, ahora minimizo y como si nada, parece que no tenga abierno ningún juego. Va fluido y sin esperas.
También lo he notado para ver streamings mientras juego. Siempre tengo algún stream mientras juego y antes el stream lo tenía que poner a baja resolución o en automático para que me medio fuera mientras jugaba a juegos que requieres mucha cpu (Ejemplo de New World o Rainbow Six Siege). Ahora lo pongo a Full HD y no se corta ni una sola vez ni realentiza el funcionamiento del ordenador.
En conclusión, esto es como todo:
1. Si solo lo vas a usar para jugar sin hacer nada más (nada de tareas en segundo plano, aunque sean tan simples como ver un stream o vídeo en el segundo monitor), pues sí, no renta en upgrade.
2. Si a parte de jugar te gusta tener tus mierdas en el segundo monitor y que el equipo vaya fluido el 100% del tiempo, el cambio te va a parecer la mejor decisión de tu vida.
Espero que le sirva a la gente mi experiencia con este cambio, y así, aportar otro punto de vista.
hh1 escribió:stan01 escribió:@hh1
En que te basas para decir que no interesa?
Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.
Pues hombre ..me he leídonlas páginas de aquí y de otros foros.
A la mayoría de gente que compra una 4000 gama alta ,es que ya no es que no le interese el DLSS 3, es que ni el DLSS a bastantes.
Prefieren nativa.
El DLSS3 a parte de verse peor ,tiene su lag.
El que compra estas gráficas ,no las compra por el DLSS3.
Que alguno lo habrá ,pero son minioría por lo leído aquí.
Van sobradas sin mecesidad de DLSS 3.
Que oye ,lo lleva.Otra opción más.
Pero dudo que se gasten +1300€ por el DLSS3.
ak4ever escribió:Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.
ak4ever escribió:torrente10000 escribió:ak4ever escribió:Para los que tuvieran o tengan dudas de si un 9900k es suficiente para una 4080, he cambiado el mio por un 13700k con ddr5 para así poner el i9 y sus ram en el segundo pc que llevava un i3 que se quedaba corto y ese i3 en el pc de la oficina que me venia muy bien también, y probando dos juegos que tiran bastante de cpu como son el battlefield 2042 y el Warhammer Darktide, he notado una mejora de fps hasta un 10% aproximadamente sin ver diferencias sigfificativas en el uso de la gpu (90-90 y largos% igual que antes), que al fin y al cabo es la mejora esperada segun las reviews que habia visto, en 3440x1440p.
En mi caso todavia tendria un pase ya que era sobretodo porque me venia muy bien aprovechar mis otras dos cpus, pero para el que se plantee el upgrade de un 9900k o superior para jugar con una 4080 lo desaconsejo totalmente, la mejora de rendimiento no compensa el desembolso ni de lejos, ya que teniendo en cuenta que aun quedandose con ddr4 hay que gastarse lo que te gastarias de más por ir a por una 4090+fuente, y con esto último se ganarian muchos más fps aunque hubiese cuello de botella.
Sin embargo, yo he cambiado un 9700K por un 13700K y he notado una mejoria impresionante. Si bien es cierto que en juegos es poca la mejora, el rendimiento del PC es otro mundo. Antes no podía miniminar New World para abrir Discord o Team Speak ya que se realentizaba todo el PC y le costaba media hora entrar en conversación, sin embargo, ahora minimizo y como si nada, parece que no tenga abierno ningún juego. Va fluido y sin esperas.
También lo he notado para ver streamings mientras juego. Siempre tengo algún stream mientras juego y antes el stream lo tenía que poner a baja resolución o en automático para que me medio fuera mientras jugaba a juegos que requieres mucha cpu (Ejemplo de New World o Rainbow Six Siege). Ahora lo pongo a Full HD y no se corta ni una sola vez ni realentiza el funcionamiento del ordenador.
En conclusión, esto es como todo:
1. Si solo lo vas a usar para jugar sin hacer nada más (nada de tareas en segundo plano, aunque sean tan simples como ver un stream o vídeo en el segundo monitor), pues sí, no renta en upgrade.
2. Si a parte de jugar te gusta tener tus mierdas en el segundo monitor y que el equipo vaya fluido el 100% del tiempo, el cambio te va a parecer la mejor decisión de tu vida.
Espero que le sirva a la gente mi experiencia con este cambio, y así, aportar otro punto de vista.
En todo momento hablo de juegos y para acompañar a una 4080, para todo lo demás cualquier mejora de procesador va bien y un salto de 4 generaciones obviamente se va a notar, tu estas hablando de multitarea donde precisamente si se notan los nucleos lógicos y no solo los físicos como en el 99% de los juegos, y has pasado de no tener ninguno a tener 8, además de otros 8 núcleos físicos aunque de menor rendimiento (que tampoco los aprovechan los juegos), claro que lo habrás notado, también habrias notado pasar del 9700k al 9900k en multitarea.
Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.
hh1 escribió:stan01 escribió:silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti
A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.
Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...
Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas
Se las están comiendo ya...
El DLSS 3 tampoco le interesa a mucha gente
stan01 escribió:hh1 escribió:stan01 escribió:@hh1
En que te basas para decir que no interesa?
Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.
Pues hombre ..me he leídonlas páginas de aquí y de otros foros.
A la mayoría de gente que compra una 4000 gama alta ,es que ya no es que no le interese el DLSS 3, es que ni el DLSS a bastantes.
Prefieren nativa.
El DLSS3 a parte de verse peor ,tiene su lag.
El que compra estas gráficas ,no las compra por el DLSS3.
Que alguno lo habrá ,pero son minioría por lo leído aquí.
Van sobradas sin mecesidad de DLSS 3.
Que oye ,lo lleva.Otra opción más.
Pero dudo que se gasten +1300€ por el DLSS3.
Una cosa es que todo el mundo prefiera jugar a la resolución nativa sin artificios y otra que no interese una tecnología que te duplica los fotogramas, aunque sea a costa de aumentar la latencia y una supuesta merma de la calidad gráfica (que variará dependiendo del juego, yo juego con DLSS en calidad y te puedo asegurar que no noto la diferencia en el 90% de los juegos y soy un fanboy de los gráficos).
Una cosa es que la gente no compre las gráficas específicamente por esa tecnología y otra que no interese como tu afirmas.
Me da que le pasa un poco como al Raytracing, que nadie lo quiere ni le importa, sobretodo cuando no puede activarlo o jugar por encima de 30 fps con él puesto, pero luego te dicen lo bien que se ve, como cambia el juego con él y como ya no podrían jugar sin tenerlo activado cuando si pueden hacer uso de él.
El DLSS3 nadie lo quiere ni le importa... porque no pueden usarlo (pero si saliera un parche para usarlo en la serie 3000 se estarían partiendo la cara por bajarlo, incluso la gente con una 3090)
Rvilla87 escribió:ak4ever escribió:Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.
Lo mismo digo, yo aquí con un "triste" 6700K y no sé qué problemas son esos que decía. Tengo varios programas abiertos a la vez (y cientos de pestañas en los navegadores, que algo trabajan por detrás de vez en cuando) y nunca he tenido problemas al tener un juego ejecutado e irme a abrir el discord de turno, a abrir un navegador para buscar lo que sea o cosas similares.
Una de 2, o el New World consume una cosa bárbara y reviente la CPU dejando el PC casi inservible (cosa que no sé pero lo dudo) o su PC tiene un problema.
De hecho @torrente10000 por casualidad con el cambio de CPU (¿y de placa y PC casi completo?) de paso le hiciste una reinstalación de Windows y/o ampliación de RAM, cambio disco, etc.? Entiendo que no fue solo cambio de CPU y nada más. Porque ese mal rendimiento que dices con un 9700k no le veo ningún sentido, y te lo dice alguien con un 6700k.
ak4ever escribió:torrente10000 escribió:ak4ever escribió:Para los que tuvieran o tengan dudas de si un 9900k es suficiente para una 4080, he cambiado el mio por un 13700k con ddr5 para así poner el i9 y sus ram en el segundo pc que llevava un i3 que se quedaba corto y ese i3 en el pc de la oficina que me venia muy bien también, y probando dos juegos que tiran bastante de cpu como son el battlefield 2042 y el Warhammer Darktide, he notado una mejora de fps hasta un 10% aproximadamente sin ver diferencias sigfificativas en el uso de la gpu (90-90 y largos% igual que antes), que al fin y al cabo es la mejora esperada segun las reviews que habia visto, en 3440x1440p.
En mi caso todavia tendria un pase ya que era sobretodo porque me venia muy bien aprovechar mis otras dos cpus, pero para el que se plantee el upgrade de un 9900k o superior para jugar con una 4080 lo desaconsejo totalmente, la mejora de rendimiento no compensa el desembolso ni de lejos, ya que teniendo en cuenta que aun quedandose con ddr4 hay que gastarse lo que te gastarias de más por ir a por una 4090+fuente, y con esto último se ganarian muchos más fps aunque hubiese cuello de botella.
Sin embargo, yo he cambiado un 9700K por un 13700K y he notado una mejoria impresionante. Si bien es cierto que en juegos es poca la mejora, el rendimiento del PC es otro mundo. Antes no podía miniminar New World para abrir Discord o Team Speak ya que se realentizaba todo el PC y le costaba media hora entrar en conversación, sin embargo, ahora minimizo y como si nada, parece que no tenga abierno ningún juego. Va fluido y sin esperas.
También lo he notado para ver streamings mientras juego. Siempre tengo algún stream mientras juego y antes el stream lo tenía que poner a baja resolución o en automático para que me medio fuera mientras jugaba a juegos que requieres mucha cpu (Ejemplo de New World o Rainbow Six Siege). Ahora lo pongo a Full HD y no se corta ni una sola vez ni realentiza el funcionamiento del ordenador.
En conclusión, esto es como todo:
1. Si solo lo vas a usar para jugar sin hacer nada más (nada de tareas en segundo plano, aunque sean tan simples como ver un stream o vídeo en el segundo monitor), pues sí, no renta en upgrade.
2. Si a parte de jugar te gusta tener tus mierdas en el segundo monitor y que el equipo vaya fluido el 100% del tiempo, el cambio te va a parecer la mejor decisión de tu vida.
Espero que le sirva a la gente mi experiencia con este cambio, y así, aportar otro punto de vista.
En todo momento hablo de juegos y para acompañar a una 4080, para todo lo demás cualquier mejora de procesador va bien y un salto de 4 generaciones obviamente se va a notar, tu estas hablando de multitarea donde precisamente si se notan los nucleos lógicos y no solo los físicos como en el 99% de los juegos, y has pasado de no tener ninguno a tener 8, además de otros 8 núcleos físicos aunque de menor rendimiento (que tampoco los aprovechan los juegos), claro que lo habrás notado, también habrias notado pasar del 9700k al 9900k en multitarea.
Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.
DaNi_0389 escribió:Pues yo lo he probado en Witcher 3 y no me termina de convencer, noto el juego más suelto sin los fake frames.
gojesusga escribió:@DaNi_0389 veo que también cambiaste de CPU porque ese 5800x y no el 3D?
Pacorrr escribió:DaNi_0389 escribió:Pues yo lo he probado en Witcher 3 y no me termina de convencer, noto el juego más suelto sin los fake frames.
Además hay errores gráficos muy evidentes, cuando vas corriendo por la hierba por ejemplo, las sombras hacen cosas raras. En el Portal pasaba igual, se notaba cuando girabas la cámara rápido. A mí tampoco me convencen los frames inventados.
paconan escribió:Ya veremos el año que viene, si el fsr 3 "no tiene letra pequeña" con las 7000, nvidia lo liberará para todas las rtx, o eso espero, porque con el plan que lleva últimamente...
ionesteraX escribió:El DLSS3 nadie lo quiere ni le importa... hasta que que lo pruebas y ves que duplicas frames sin perdida notable de calidad y flipas en colores xD
Anda que no firmariamos con sangre para que lo soportaran todos los juegos, la warrada por parte de nvidia es que solo la serie 4000 lo "pueda" mover, pero el invento en si funciona... joder que si funciona.
calloudiano escribió:Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
Strait escribió:calloudiano escribió:Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
La latencia del DLSS 3 es algo mejor que en nativo, especialmente nativo sin reflex (casi el doble de mejor)
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB Joder NVIDIA, quien te a visto y quien te ve.
Strait escribió:VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB Joder NVIDIA, quien te a visto y quien te ve.
Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.
VanSouls escribió:Strait escribió:VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB Joder NVIDIA, quien te a visto y quien te ve.
Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.
Tienes razón en eso. Esta generación hay tantas cosas que no entendemos. No se que camino pretender hacer NVIDIA.
VanSouls escribió:Strait escribió:VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB Joder NVIDIA, quien te a visto y quien te ve.
Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.
Tienes razón en eso. Esta generación hay tantas cosas que no entendemos. No se que camino pretender hacer NVIDIA.
leonxx escribió:Es que los que hablan de input lag notorio no se si es que no tienen una serie 4000 y hablan por videos o que tienen mayor sensibilidad a detectar esas cosas, que tambien puede ser
Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
Para poder bajar la calidad grafica antes que activar el DLSS3 lo primero es que hay que tener una grafica NVIDIA de la serie 4000 que tu no tienes.calloudiano escribió:prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB Joder NVIDIA, quien te a visto y quien te ve.
Ingalius escribió:leonxx escribió:Es que los que hablan de input lag notorio no se si es que no tienen una serie 4000 y hablan por videos o que tienen mayor sensibilidad a detectar esas cosas, que tambien puede ser
No tienen una 4000 y repiten lo que escuchan.
Es lo de siempre, las tipicas verduleras de la plaza, o el portero del portal, criticando lo que no tienen ¿por que? Vaya usted a saber... es gente que disfrutan criticando a los demas. No tiene otra explicacion. Es una vida muy triste, pero hay mucha gente asi.
Por ejemplo, este tipo de declaraciones:Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
No tienen ningun tipo de sentido. Se ve la ignorancia en cada frase. Que ser un ignorante no esta mal, no pasa nada. Siempre y cuando no te las quieras dar de listo, claro. Si te las quieres dar de listo, demostrando tu ignorancia a los cuatro vientos es cuando "esta mal".
Mas, cuando demostrable es que yo (y otras chorrocientas personas como yo) con DLSS3 activado en mi 4090 tengo/tenemos una capacidad de reaccion superior a la mayoria de cantamañanas que dicen la memez que ha dicho el chico este.Para poder bajar la calidad grafica antes que activar el DLSS3 lo primero es que hay que tener una grafica NVIDIA de la serie 4000 que tu no tienes.calloudiano escribió:prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
Si la tuvieses, sabrias perfectamente que, por ejemplo, Marvel Spiderman, con una 4090 jugando a 4K, con todos los filtros al maximo, en un monitor de 120 o 144hz es mucho mas disfrutable a 100-120 fps que a 65-70fps. Solo con probarlo durante 2 minutos te das cuenta. Pero si es como en mi caso, que pase a mitad de juego de una 3090 a una 4090 con DLSS3 activado pues ya el cambio es abrumador.
Pero como digo, para poder decir estas cosas hay que poder probarlas y comparar.
eric_14 escribió:El DLSS 3 tampoco es que se invente nada, no? Lo que hace es meter input lag para tener tiempo para calcular las imagenes entre medio de varios frames. Y evidentemente son las primeras versiones, lo tendrán que gestionar aún, yo imagino que en un par de meses meterán algún ajuste tipo como el DLSS reescalado (calidad, balanceado, rendimiento...), que no dará tantos frames y pero tampoco meterá tanto input lag.
Lo de nvidia reflex tampoco lo entiendo mucho, se supone que ayudaría para el DLSS 3, pero si no tienes monitor con soporte para reflex, hace algo? El ratón que tengo sí tendría pero creo que tienes que conectarlo directamente al monitor por lo que no hará nada.
Solo he probado el the witcher y sin DLSS 3 vas más justo, es verdad que el juego tiene problemas de rendimiento que deberían solventar, pero si lo activo me va mucho mejor y a penas noto retardo. Quizás en 4k se note más el input lag o dependa del juego, o que ya no tengo un monitor top y por eso no se nota, pero en su día costaba como la 4080 , malo todavía no tiene que ser.
eric_14 escribió:El DLSS 3 tampoco es que se invente nada, no? Lo que hace es meter input lag para tener tiempo para calcular las imagenes entre medio de varios frames.
hh1 escribió:A ver si ahora es explícitamente necesario tener una 4000 para opinar sobre DLSS 3 3 cuando hay mil vídeo y mil análisis.
Kavezacomeback escribió:@Ingalius ¿En qué juego mejora las texturas?
Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...