[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Basicamente 1000€ aqui, otra que se van a comer.
@elcapoprods Yo creo que a 1000€ se va a comer parte del mercado que iría a por las 7000 de AMD ya que va a rendir más en RT y algo menos en raster pero la marca Nvidia tiene mayor peso en el mercado, que ojo ojalá se las comieran y bajaran los precios algo que nos beneficiaría a todos pero me temo que no.
Ahora que ya tengo la grafica configurada con su undervolt para 24/7 cuelgo algunos resultados.

tiene el boost que hace de stock, 2790Mhz pero con el voltaje a 0,975v, y las memorias a stock.

Horizon Zero Down
Imagen


Esto es lo que sacaba la 6800XT en las mismas condiciones
Imagen


Tomb Raider
Imagen


Red Dead Redemption
Imagen


Metro Exodus
Imagen


Y un par de pruebas con OC

Port Royal
Imagen


Superposition
Imagen
DaNi_0389 escribió:Ahora que ya tengo la grafica configurada con su undervolt para 24/7 cuelgo algunos resultados.

tiene el boost que hace de stock, 2790Mhz pero con el voltaje a 0,975v, y las memorias a stock.

Horizon Zero Down
Imagen


Esto es lo que sacaba la 6800XT en las mismas condiciones
Imagen


Tomb Raider
Imagen


Red Dead Redemption
Imagen


Metro Exodus
Imagen


Y un par de pruebas con OC

Port Royal
Imagen


Superposition
Imagen

Has mirado en la curva de afterburner el clock que te da a 1.05V y 1.1V? Por lo visto así se mira la calidad del silicio. A mí me da esto en la FE, bastante regulera por lo visto [+risas]


Imagen
Imagen
@Pacorrr

Pues no te creas que mucho mas, 2790 a 1,05v y 2865 a 1,10v.
Xcala666 escribió:@elcapoprods Yo creo que a 1000€ se va a comer parte del mercado que iría a por las 7000 de AMD ya que va a rendir más en RT y algo menos en raster pero la marca Nvidia tiene mayor peso en el mercado, que ojo ojalá se las comieran y bajaran los precios algo que nos beneficiaría a todos pero me temo que no.

Otra que se van a zampar.
Tienen sobreprecio de 300€ esas y de 500€ las 4080 excepto la KFA2 que son unos 300€ de más.

Hasta que no se bajen de la burra van a seguir comiéndoseelas ,y merecido se lo tienen.

Se creen que vamos a tragar con todo lo que saquen y el precio que quieran.

Una 4070Ti no creo que rinda mucho más que una 3080Ti -3090,las cuales ,si son listos ,bajarán de precio.
Si no ,otras que se comen.

Y claro, bajarlas de precio significa matar a la 4070Ti.
silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti

A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.


Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...

Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas
stan01 escribió:
silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti

A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.


Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...

Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas

Se las están comiendo ya...
El DLSS 3 tampoco le interesa a mucha gente
@DaNi_0389 veo que también cambiaste de CPU porque ese 5800x y no el 3D?
@hh1

En que te basas para decir que no interesa?

Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.
stan01 escribió:@hh1

En que te basas para decir que no interesa?

Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.

Pues hombre ..me he leído las páginas de aquí y de otros foros.
A la mayoría de gente que compra una 4000 gama alta ,es que ya no es que no le interese el DLSS 3, es que ni el DLSS a bastantes.
Prefieren nativa.
El DLSS3 a parte de verse peor ,tiene su lag.

El que compra estas gráficas ,no las compra por el DLSS3.
Que alguno lo habrá ,pero son minioría por lo leído aquí.
Van sobradas sin mecesidad de DLSS 3.

Que oye ,lo lleva.Otra opción más.
Pero dudo que se gasten +1300€ por el DLSS3.
torrente10000 escribió:
ak4ever escribió:Para los que tuvieran o tengan dudas de si un 9900k es suficiente para una 4080, he cambiado el mio por un 13700k con ddr5 para así poner el i9 y sus ram en el segundo pc que llevava un i3 que se quedaba corto y ese i3 en el pc de la oficina que me venia muy bien también, y probando dos juegos que tiran bastante de cpu como son el battlefield 2042 y el Warhammer Darktide, he notado una mejora de fps hasta un 10% aproximadamente sin ver diferencias sigfificativas en el uso de la gpu (90-90 y largos% igual que antes), que al fin y al cabo es la mejora esperada segun las reviews que habia visto, en 3440x1440p.

En mi caso todavia tendria un pase ya que era sobretodo porque me venia muy bien aprovechar mis otras dos cpus, pero para el que se plantee el upgrade de un 9900k o superior para jugar con una 4080 lo desaconsejo totalmente, la mejora de rendimiento no compensa el desembolso ni de lejos, ya que teniendo en cuenta que aun quedandose con ddr4 hay que gastarse lo que te gastarias de más por ir a por una 4090+fuente, y con esto último se ganarian muchos más fps aunque hubiese cuello de botella.


Sin embargo, yo he cambiado un 9700K por un 13700K y he notado una mejoria impresionante. Si bien es cierto que en juegos es poca la mejora, el rendimiento del PC es otro mundo. Antes no podía miniminar New World para abrir Discord o Team Speak ya que se realentizaba todo el PC y le costaba media hora entrar en conversación, sin embargo, ahora minimizo y como si nada, parece que no tenga abierno ningún juego. Va fluido y sin esperas.
También lo he notado para ver streamings mientras juego. Siempre tengo algún stream mientras juego y antes el stream lo tenía que poner a baja resolución o en automático para que me medio fuera mientras jugaba a juegos que requieres mucha cpu (Ejemplo de New World o Rainbow Six Siege). Ahora lo pongo a Full HD y no se corta ni una sola vez ni realentiza el funcionamiento del ordenador.
En conclusión, esto es como todo:
1. Si solo lo vas a usar para jugar sin hacer nada más (nada de tareas en segundo plano, aunque sean tan simples como ver un stream o vídeo en el segundo monitor), pues sí, no renta en upgrade.
2. Si a parte de jugar te gusta tener tus mierdas en el segundo monitor y que el equipo vaya fluido el 100% del tiempo, el cambio te va a parecer la mejor decisión de tu vida.

Espero que le sirva a la gente mi experiencia con este cambio, y así, aportar otro punto de vista.

En todo momento hablo de juegos y para acompañar a una 4080, para todo lo demás cualquier mejora de procesador va bien y un salto de 4 generaciones obviamente se va a notar, tu estas hablando de multitarea donde precisamente si se notan los nucleos lógicos y no solo los físicos como en el 99% de los juegos, y has pasado de no tener ninguno a tener 8, además de otros 8 núcleos físicos aunque de menor rendimiento (que tampoco los aprovechan los juegos), claro que lo habrás notado, también habrias notado pasar del 9700k al 9900k en multitarea.

Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.
hh1 escribió:
stan01 escribió:@hh1

En que te basas para decir que no interesa?

Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.

Pues hombre ..me he leídonlas páginas de aquí y de otros foros.
A la mayoría de gente que compra una 4000 gama alta ,es que ya no es que no le interese el DLSS 3, es que ni el DLSS a bastantes.
Prefieren nativa.
El DLSS3 a parte de verse peor ,tiene su lag.

El que compra estas gráficas ,no las compra por el DLSS3.
Que alguno lo habrá ,pero son minioría por lo leído aquí.
Van sobradas sin mecesidad de DLSS 3.

Que oye ,lo lleva.Otra opción más.
Pero dudo que se gasten +1300€ por el DLSS3.


Una cosa es que todo el mundo prefiera jugar a la resolución nativa sin artificios y otra que no interese una tecnología que te duplica los fotogramas, aunque sea a costa de aumentar la latencia y una supuesta merma de la calidad gráfica (que variará dependiendo del juego, yo juego con DLSS en calidad y te puedo asegurar que no noto la diferencia en el 90% de los juegos y soy un fanboy de los gráficos).
Una cosa es que la gente no compre las gráficas específicamente por esa tecnología y otra que no interese como tu afirmas.

Me da que le pasa un poco como al Raytracing, que nadie lo quiere ni le importa, sobretodo cuando no puede activarlo o jugar por encima de 30 fps con él puesto, pero luego te dicen lo bien que se ve, como cambia el juego con él y como ya no podrían jugar sin tenerlo activado cuando si pueden hacer uso de él.

El DLSS3 nadie lo quiere ni le importa... porque no pueden usarlo (pero si saliera un parche para usarlo en la serie 3000 se estarían partiendo la cara por bajarlo, incluso la gente con una 3090)
ak4ever escribió:Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.

Lo mismo digo, yo aquí con un "triste" 6700K y no sé qué problemas son esos que decía. Tengo varios programas abiertos a la vez (y cientos de pestañas en los navegadores, que algo trabajan por detrás de vez en cuando) y nunca he tenido problemas al tener un juego ejecutado e irme a abrir el discord de turno, a abrir un navegador para buscar lo que sea o cosas similares.

Una de 2, o el New World consume una cosa bárbara y reviente la CPU dejando el PC casi inservible (cosa que no sé pero lo dudo) o su PC tiene un problema.

De hecho @torrente10000 por casualidad con el cambio de CPU (¿y de placa y PC casi completo?) de paso le hiciste una reinstalación de Windows y/o ampliación de RAM, cambio disco, etc.? Entiendo que no fue solo cambio de CPU y nada más. Porque ese mal rendimiento que dices con un 9700k no le veo ningún sentido, y te lo dice alguien con un 6700k.
ak4ever escribió:
torrente10000 escribió:
ak4ever escribió:Para los que tuvieran o tengan dudas de si un 9900k es suficiente para una 4080, he cambiado el mio por un 13700k con ddr5 para así poner el i9 y sus ram en el segundo pc que llevava un i3 que se quedaba corto y ese i3 en el pc de la oficina que me venia muy bien también, y probando dos juegos que tiran bastante de cpu como son el battlefield 2042 y el Warhammer Darktide, he notado una mejora de fps hasta un 10% aproximadamente sin ver diferencias sigfificativas en el uso de la gpu (90-90 y largos% igual que antes), que al fin y al cabo es la mejora esperada segun las reviews que habia visto, en 3440x1440p.

En mi caso todavia tendria un pase ya que era sobretodo porque me venia muy bien aprovechar mis otras dos cpus, pero para el que se plantee el upgrade de un 9900k o superior para jugar con una 4080 lo desaconsejo totalmente, la mejora de rendimiento no compensa el desembolso ni de lejos, ya que teniendo en cuenta que aun quedandose con ddr4 hay que gastarse lo que te gastarias de más por ir a por una 4090+fuente, y con esto último se ganarian muchos más fps aunque hubiese cuello de botella.


Sin embargo, yo he cambiado un 9700K por un 13700K y he notado una mejoria impresionante. Si bien es cierto que en juegos es poca la mejora, el rendimiento del PC es otro mundo. Antes no podía miniminar New World para abrir Discord o Team Speak ya que se realentizaba todo el PC y le costaba media hora entrar en conversación, sin embargo, ahora minimizo y como si nada, parece que no tenga abierno ningún juego. Va fluido y sin esperas.
También lo he notado para ver streamings mientras juego. Siempre tengo algún stream mientras juego y antes el stream lo tenía que poner a baja resolución o en automático para que me medio fuera mientras jugaba a juegos que requieres mucha cpu (Ejemplo de New World o Rainbow Six Siege). Ahora lo pongo a Full HD y no se corta ni una sola vez ni realentiza el funcionamiento del ordenador.
En conclusión, esto es como todo:
1. Si solo lo vas a usar para jugar sin hacer nada más (nada de tareas en segundo plano, aunque sean tan simples como ver un stream o vídeo en el segundo monitor), pues sí, no renta en upgrade.
2. Si a parte de jugar te gusta tener tus mierdas en el segundo monitor y que el equipo vaya fluido el 100% del tiempo, el cambio te va a parecer la mejor decisión de tu vida.

Espero que le sirva a la gente mi experiencia con este cambio, y así, aportar otro punto de vista.

En todo momento hablo de juegos y para acompañar a una 4080, para todo lo demás cualquier mejora de procesador va bien y un salto de 4 generaciones obviamente se va a notar, tu estas hablando de multitarea donde precisamente si se notan los nucleos lógicos y no solo los físicos como en el 99% de los juegos, y has pasado de no tener ninguno a tener 8, además de otros 8 núcleos físicos aunque de menor rendimiento (que tampoco los aprovechan los juegos), claro que lo habrás notado, también habrias notado pasar del 9700k al 9900k en multitarea.

Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.

Es que esos problemas que comenta, no los tengo yo con mi paupérrimo 10400f, y eso que yo suelo tener 2 o 3 streams abiertos mientras juego, a parte del discord ;p
hh1 escribió:
stan01 escribió:
silenius escribió:NVIDIA Settles On $799 MSRP For The GeForce NVIDIA RTX 4070 Ti

A few weeks ago, I wrote that NVIDIA is mulling pricing the NVIDIA RTX 4070 Ti at an MSRP of $899 and had informed AICs that this would be the launch price tentatively. Multiple sources have informed us that they have received a last minute update from big green with what appears to be a pre-launch price drop and the current tentative MSRP of the NVIDIA RTX 4070 Ti: $799.


Si fueran 799€ en tienda hasta me pillaba una haciendo un esfuerzo, pero es que seguimos en 1000€ reales, por mucho que quiera probar el DLSS 3 ya pueden seguir bajandolas...

Si AMD hubiera sacado ya el FSR 3 compatible con todas las tarjetas, incluida la serie 3000, Nvidia se iba a comer estas 4000 con sobrecoste a manos llenas

Se las están comiendo ya...
El DLSS 3 tampoco le interesa a mucha gente


Interesa bastante. Yo he pasado de jugar al Spiderman con rascadas a 50fps con la 3080ti a jugarlo a 90-100fps con la 4080. Y el The witcher de jugarlo con rascadas a 30-40fps en novigrado a jugarlo a 60-70. Soluciona muchos problemas de rendimiento que no tenían solución hasta ahora.
stan01 escribió:
hh1 escribió:
stan01 escribió:@hh1

En que te basas para decir que no interesa?

Lo digo por curiosidad, porque yo no tengo más datos que mi opinión para justificar que me interesa, pero veo que tu la afirmas más allá de la tuya. Me gustaría sabe si hay algún tipo de encuesta o similar en el que te basas para afirmar tal cosa con esa vehemencia.

Pues hombre ..me he leídonlas páginas de aquí y de otros foros.
A la mayoría de gente que compra una 4000 gama alta ,es que ya no es que no le interese el DLSS 3, es que ni el DLSS a bastantes.
Prefieren nativa.
El DLSS3 a parte de verse peor ,tiene su lag.

El que compra estas gráficas ,no las compra por el DLSS3.
Que alguno lo habrá ,pero son minioría por lo leído aquí.
Van sobradas sin mecesidad de DLSS 3.

Que oye ,lo lleva.Otra opción más.
Pero dudo que se gasten +1300€ por el DLSS3.


Una cosa es que todo el mundo prefiera jugar a la resolución nativa sin artificios y otra que no interese una tecnología que te duplica los fotogramas, aunque sea a costa de aumentar la latencia y una supuesta merma de la calidad gráfica (que variará dependiendo del juego, yo juego con DLSS en calidad y te puedo asegurar que no noto la diferencia en el 90% de los juegos y soy un fanboy de los gráficos).
Una cosa es que la gente no compre las gráficas específicamente por esa tecnología y otra que no interese como tu afirmas.

Me da que le pasa un poco como al Raytracing, que nadie lo quiere ni le importa, sobretodo cuando no puede activarlo o jugar por encima de 30 fps con él puesto, pero luego te dicen lo bien que se ve, como cambia el juego con él y como ya no podrían jugar sin tenerlo activado cuando si pueden hacer uso de él.

El DLSS3 nadie lo quiere ni le importa... porque no pueden usarlo (pero si saliera un parche para usarlo en la serie 3000 se estarían partiendo la cara por bajarlo, incluso la gente con una 3090)


Pues yo no he leído eso por aquí precisamente.
Que lo lleva?
Guay.
Pero no es precisamente la razón de compra de las 4000 por lo que leo.

@elcapoprods
Coño,es que pasas a una gráfica con un 25% más de rendimiento.
Sin DLSS 3 también hubieses notado mejora y mejorarías la experiencia de juego.
Rvilla87 escribió:
ak4ever escribió:Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.

Lo mismo digo, yo aquí con un "triste" 6700K y no sé qué problemas son esos que decía. Tengo varios programas abiertos a la vez (y cientos de pestañas en los navegadores, que algo trabajan por detrás de vez en cuando) y nunca he tenido problemas al tener un juego ejecutado e irme a abrir el discord de turno, a abrir un navegador para buscar lo que sea o cosas similares.

Una de 2, o el New World consume una cosa bárbara y reviente la CPU dejando el PC casi inservible (cosa que no sé pero lo dudo) o su PC tiene un problema.

De hecho @torrente10000 por casualidad con el cambio de CPU (¿y de placa y PC casi completo?) de paso le hiciste una reinstalación de Windows y/o ampliación de RAM, cambio disco, etc.? Entiendo que no fue solo cambio de CPU y nada más. Porque ese mal rendimiento que dices con un 9700k no le veo ningún sentido, y te lo dice alguien con un 6700k.


ak4ever escribió:
torrente10000 escribió:
ak4ever escribió:Para los que tuvieran o tengan dudas de si un 9900k es suficiente para una 4080, he cambiado el mio por un 13700k con ddr5 para así poner el i9 y sus ram en el segundo pc que llevava un i3 que se quedaba corto y ese i3 en el pc de la oficina que me venia muy bien también, y probando dos juegos que tiran bastante de cpu como son el battlefield 2042 y el Warhammer Darktide, he notado una mejora de fps hasta un 10% aproximadamente sin ver diferencias sigfificativas en el uso de la gpu (90-90 y largos% igual que antes), que al fin y al cabo es la mejora esperada segun las reviews que habia visto, en 3440x1440p.

En mi caso todavia tendria un pase ya que era sobretodo porque me venia muy bien aprovechar mis otras dos cpus, pero para el que se plantee el upgrade de un 9900k o superior para jugar con una 4080 lo desaconsejo totalmente, la mejora de rendimiento no compensa el desembolso ni de lejos, ya que teniendo en cuenta que aun quedandose con ddr4 hay que gastarse lo que te gastarias de más por ir a por una 4090+fuente, y con esto último se ganarian muchos más fps aunque hubiese cuello de botella.


Sin embargo, yo he cambiado un 9700K por un 13700K y he notado una mejoria impresionante. Si bien es cierto que en juegos es poca la mejora, el rendimiento del PC es otro mundo. Antes no podía miniminar New World para abrir Discord o Team Speak ya que se realentizaba todo el PC y le costaba media hora entrar en conversación, sin embargo, ahora minimizo y como si nada, parece que no tenga abierno ningún juego. Va fluido y sin esperas.
También lo he notado para ver streamings mientras juego. Siempre tengo algún stream mientras juego y antes el stream lo tenía que poner a baja resolución o en automático para que me medio fuera mientras jugaba a juegos que requieres mucha cpu (Ejemplo de New World o Rainbow Six Siege). Ahora lo pongo a Full HD y no se corta ni una sola vez ni realentiza el funcionamiento del ordenador.
En conclusión, esto es como todo:
1. Si solo lo vas a usar para jugar sin hacer nada más (nada de tareas en segundo plano, aunque sean tan simples como ver un stream o vídeo en el segundo monitor), pues sí, no renta en upgrade.
2. Si a parte de jugar te gusta tener tus mierdas en el segundo monitor y que el equipo vaya fluido el 100% del tiempo, el cambio te va a parecer la mejor decisión de tu vida.

Espero que le sirva a la gente mi experiencia con este cambio, y así, aportar otro punto de vista.

En todo momento hablo de juegos y para acompañar a una 4080, para todo lo demás cualquier mejora de procesador va bien y un salto de 4 generaciones obviamente se va a notar, tu estas hablando de multitarea donde precisamente si se notan los nucleos lógicos y no solo los físicos como en el 99% de los juegos, y has pasado de no tener ninguno a tener 8, además de otros 8 núcleos físicos aunque de menor rendimiento (que tampoco los aprovechan los juegos), claro que lo habrás notado, también habrias notado pasar del 9700k al 9900k en multitarea.

Aun así me resultan un tanto exagerados esos problemas de rendimiento que dices que tenias con el 9700k, deberias poder hacer todo eso sin problemas con él, desde luego con mi 9900k siempre he podido hacer eso y más sin problemas.


Pues no sé, es raro. Hice el cambio sin formatear ni nada. Puse el mismo M2 con el Windows 11 que tenía ya instalado con el 9700k, me daba pereza absoluta reinstalar todo y dije: si me va bien lo dejo así. Y así fue, me iba genial y sin errores. Si que es verdad que a la semana me saltó una update de Windows y el equipo me empezó a ir fatal, pero fue desactivar el modo juego de Windows y todo genial de nuevo. En mi caso si he notado mejoría extrema, también digo, lo uso para jugar y ver streams a la vez, muchas veces tengo hasta varios juegos abiertos a la vez.
Entiendo que no a todo el mundo le haga falta una CPU top, sobretodo si solo es para gaming.

Edit: Pensandolo bien, el problema era casi seguro que la CPU no daba de sí ya que yo juego a 165hz y a esa tasa, para un juego CPU dependiente como es el New World, la cosa no daba de sí. Más de una vez miré el uso y estaba al 100%, haciendo que el equipo se realentizara. Y el hecho que el 9700k fuera una CPU con solo 8 núcleos (es decir, sin hilos), estoy seguro que lo empeoraba. En casi cualquier otro juego esto no pasaba, el PC iba bien y la CPU no llegaba a tal punto. Con la nueva CPU el NW + un stream y programas en segundo plano, no pasa de 80% de uso medio.

Como dije en mi primer mensaje, todo depende del uso y la persona. A mi me gusta jugar a una alta tasa de refresco, dónde la CPU cobra mayor importancia.
El DLSS3 nadie lo quiere ni le importa... hasta que que lo pruebas y ves que duplicas frames sin perdida notable de calidad y flipas en colores xD

Anda que no firmariamos con sangre para que lo soportaran todos los juegos, la warrada por parte de nvidia es que solo la serie 4000 lo "pueda" mover, pero el invento en si funciona... joder que si funciona.
Pues yo lo he probado en Witcher 3 y no me termina de convencer, noto el juego más suelto sin los fake frames.
DaNi_0389 escribió:Pues yo lo he probado en Witcher 3 y no me termina de convencer, noto el juego más suelto sin los fake frames.


Además hay errores gráficos muy evidentes, cuando vas corriendo por la hierba por ejemplo, las sombras hacen cosas raras. En el Portal pasaba igual, se notaba cuando girabas la cámara rápido. A mí tampoco me convencen los frames inventados.
gojesusga escribió:@DaNi_0389 veo que también cambiaste de CPU porque ese 5800x y no el 3D?



Lo pillé en una oferta de AliExpress por 200 y pico, y de hecho creo que el 3d aún no había salido, pero no lo recuerdo bien.

Pacorrr escribió:
DaNi_0389 escribió:Pues yo lo he probado en Witcher 3 y no me termina de convencer, noto el juego más suelto sin los fake frames.


Además hay errores gráficos muy evidentes, cuando vas corriendo por la hierba por ejemplo, las sombras hacen cosas raras. En el Portal pasaba igual, se notaba cuando girabas la cámara rápido. A mí tampoco me convencen los frames inventados.


Si, somos unos cuantos por aquí que no nos termina de cuadrar, a ver si en un futuro van puliendo el tema y no canta tanto activarlo.
Ya veremos el año que viene, si el fsr 3 "no tiene letra pequeña" con las 7000, nvidia lo liberará para todas las rtx, o eso espero, porque con el plan que lleva últimamente...
paconan escribió:Ya veremos el año que viene, si el fsr 3 "no tiene letra pequeña" con las 7000, nvidia lo liberará para todas las rtx, o eso espero, porque con el plan que lleva últimamente...

Ostia...
Es eur si el FSR 3 es bueno y se libera para la RTX ,AMD se líquida pero bien a las 4000 de Nvidia.

A las 3000 les daría vida ,pero a las 4000 las fulmina,quitando la 4090 que es otro rollo.
Yo creo que le dais excesiva bola al DLSS3, con el input lag que mete es como jugar en streaming por muchos fps que consigas, y el problema es que como no consigua muchos fps tienes un input lag mucho mayor.

Yo solo le veo el sentido a juegos que limitan en cpu y que tengan un ritmo lento que no importe el input lag, como puede ser los simuladores rollo flight simulator etc.
ionesteraX escribió:El DLSS3 nadie lo quiere ni le importa... hasta que que lo pruebas y ves que duplicas frames sin perdida notable de calidad y flipas en colores xD

Anda que no firmariamos con sangre para que lo soportaran todos los juegos, la warrada por parte de nvidia es que solo la serie 4000 lo "pueda" mover, pero el invento en si funciona... joder que si funciona.

¿Quien dice que nadie lo quiera?

Yo en las reviews que he visto todas coinciden que apenas se nota y el aumento de FPSs es grandisimo, ademas de que aun la estan afinando. Yo al menos no noto nada raro aunque tambien es cierto que por ahora no creo que lo vaya a usar mucho ya que la GPU va sobrada para los 60 FPS

Lo del input lag es algo que nunca he notado mucho la verdad, quizas por el tipo de juegos que juego
Yo lo que me pregunto si nvidia esta generación sacará una gráfica de tamaño normal, para la gente que tenemos cajas itx y tal...
Porque todas las gráficas de ensamblador son gigantes, de 33cm para arriba.
Una pena, porque yo de caja sí que tengo claro que no cambio.
Increíble la eficiencia de la 4080. Jugando a OW 2 con todo a tope y 2k 165hz consume solo 90-100w con 30-35º. Con la 3080Ti se me ponía en 72º y 250w haciendo lo mismo.
Yo pienso que si se paga caviar se quiere caviar y para tener más no lo mezclas con huevas saladas por buenas que sean.

A mi me vienen bien el DLSS, en general si me ofrecen soporte para el 3 mejor, pero claro yo no he comprado caviar.
Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
calloudiano escribió:Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego


La latencia del DLSS 3 es algo mejor que en nativo, especialmente nativo sin reflex (casi el doble de mejor)

Imagen
Strait escribió:
calloudiano escribió:Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego


La latencia del DLSS 3 es algo mejor que en nativo, especialmente nativo sin reflex (casi el doble de mejor)

Imagen

Es que los que hablan de input lag notorio no se si es que no tienen una serie 4000 y hablan por videos o que tienen mayor sensibilidad a detectar esas cosas, que tambien puede ser

Afortunado me hayo de no tener esa sensibilidad a detectar ese input lag tan insufrible que se dice que tiene el dlss
Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB [carcajad] [carcajad] [carcajad] [carcajad] Joder NVIDIA, quien te a visto y quien te ve.
Imagen
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB [carcajad] [carcajad] [carcajad] [carcajad] Joder NVIDIA, quien te a visto y quien te ve.
Imagen


Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.
Strait escribió:
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB [carcajad] [carcajad] [carcajad] [carcajad] Joder NVIDIA, quien te a visto y quien te ve.
Imagen


Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.

Tienes razón en eso. Esta generación hay tantas cosas que no entendemos. No se que camino pretender hacer NVIDIA.
VanSouls escribió:
Strait escribió:
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB [carcajad] [carcajad] [carcajad] [carcajad] Joder NVIDIA, quien te a visto y quien te ve.
Imagen


Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.

Tienes razón en eso. Esta generación hay tantas cosas que no entendemos. No se que camino pretender hacer NVIDIA.


A ver, no tiene sentido, pero lo hacen forzados porque no estaba planificado así.
Y la que fueran a sacar como 4070 Ti en su plan inicial, al no estar cerca de producción, es más sencillo cambiar nombre o no sacarla. Esta en cambio estaría toda la maquinaria ya en marcha, y cancelarla no era una opción. Cambiarle el nombre era una opción regular, pero al menos evitaban muchas de las críticas negativas que ya tendrían. Así que la renombran, le bajan un poco el precio... Y a ver si vende y si no es muy mal recibida.
Si no vende... Pues ya se verá si vuelven a bajar el precio o simplemente fabrican menos.
VanSouls escribió:
Strait escribió:
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB [carcajad] [carcajad] [carcajad] [carcajad] Joder NVIDIA, quien te a visto y quien te ve.
Imagen


Eso ya se sabía. Lo que no tiene ningún sentido es que salga la 4070Ti antes que la 4070 porque historicamente siempre las Ti han salido 1 año después de las base.

Tienes razón en eso. Esta generación hay tantas cosas que no entendemos. No se que camino pretender hacer NVIDIA.


Vaya si tiene sentido... si a esta gráfica la hubieran que tenido que llamar 4070, tendrían que haberla puesto con otro precio más bajo... Nvidia viene en esta gen en ese plan, las serie 4000 solo por ser 4000 son un producto de super tecnología y tienes que pagarlo, esa es su filosofia.
leonxx escribió:Es que los que hablan de input lag notorio no se si es que no tienen una serie 4000 y hablan por videos o que tienen mayor sensibilidad a detectar esas cosas, que tambien puede ser

No tienen una 4000 y repiten lo que escuchan.
Es lo de siempre, las tipicas verduleras de la plaza, o el portero del portal, criticando lo que no tienen ¿por que? Vaya usted a saber... es gente que disfrutan criticando a los demas. No tiene otra explicacion. Es una vida muy triste, pero hay mucha gente asi.
Por ejemplo, este tipo de declaraciones:

Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego


No tienen ningun tipo de sentido. Se ve la ignorancia en cada frase. Que ser un ignorante no esta mal, no pasa nada. Siempre y cuando no te las quieras dar de listo, claro. Si te las quieres dar de listo, demostrando tu ignorancia a los cuatro vientos es cuando "esta mal".
Mas, cuando demostrable es que yo (y otras chorrocientas personas como yo) con DLSS3 activado en mi 4090 tengo/tenemos una capacidad de reaccion superior a la mayoria de cantamañanas que dicen la memez que ha dicho el chico este.

calloudiano escribió:prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
Para poder bajar la calidad grafica antes que activar el DLSS3 lo primero es que hay que tener una grafica NVIDIA de la serie 4000 que tu no tienes.
Si la tuvieses, sabrias perfectamente que, por ejemplo, Marvel Spiderman, con una 4090 jugando a 4K, con todos los filtros al maximo, en un monitor de 120 o 144hz es mucho mas disfrutable a 100-120 fps que a 65-70fps. Solo con probarlo durante 2 minutos te das cuenta. Pero si es como en mi caso, que pase a mitad de juego de una 3090 a una 4090 con DLSS3 activado pues ya el cambio es abrumador.

Pero como digo, para poder decir estas cosas hay que poder probarlas y comparar.
VanSouls escribió:Pues nada, se confirma que la RTX 4070 Ti es la cancelada RTX 4080 12GB [carcajad] [carcajad] [carcajad] [carcajad] Joder NVIDIA, quien te a visto y quien te ve.
Imagen

Se dabía desde el primer momento en el que la cancelaron.
La única duda era si saldrís 4070 o si sería la TI.
Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...
@Ingalius @leonxx supongo que no seguís el hilo.

Los únicos que han afirmado que les molesta son usuarios que tienen la 4090 y 4080. Todo esto al margen de análisis donde según juego va mejor o peor todo esto, además de que se sufre pérdida de calidad sí o sí VS la nativa lo diga quien lo diga y no gusta este escenario a todos.
Supongo que los que dice que va mejor con DLSS 3 que nativo serán los mismos que calificaban DLSS como brujería o magia negra.
Ingalius escribió:
leonxx escribió:Es que los que hablan de input lag notorio no se si es que no tienen una serie 4000 y hablan por videos o que tienen mayor sensibilidad a detectar esas cosas, que tambien puede ser

No tienen una 4000 y repiten lo que escuchan.
Es lo de siempre, las tipicas verduleras de la plaza, o el portero del portal, criticando lo que no tienen ¿por que? Vaya usted a saber... es gente que disfrutan criticando a los demas. No tiene otra explicacion. Es una vida muy triste, pero hay mucha gente asi.
Por ejemplo, este tipo de declaraciones:

Opino que el dlss es una tecnologia pensada para viejales que ya cenan cafe con pan y a la cama, donde este un cerebro normal y buenos ojos notas un input lag que te cagas, el juego se vuelve super pesado, como estar jugando por streaming con conexiones del 2006, prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego


No tienen ningun tipo de sentido. Se ve la ignorancia en cada frase. Que ser un ignorante no esta mal, no pasa nada. Siempre y cuando no te las quieras dar de listo, claro. Si te las quieres dar de listo, demostrando tu ignorancia a los cuatro vientos es cuando "esta mal".
Mas, cuando demostrable es que yo (y otras chorrocientas personas como yo) con DLSS3 activado en mi 4090 tengo/tenemos una capacidad de reaccion superior a la mayoria de cantamañanas que dicen la memez que ha dicho el chico este.

calloudiano escribió:prefiero bajar calidad grafica que activar el dlss 3 y de esa manera se disfruta MUCHO mas el juego
Para poder bajar la calidad grafica antes que activar el DLSS3 lo primero es que hay que tener una grafica NVIDIA de la serie 4000 que tu no tienes.
Si la tuvieses, sabrias perfectamente que, por ejemplo, Marvel Spiderman, con una 4090 jugando a 4K, con todos los filtros al maximo, en un monitor de 120 o 144hz es mucho mas disfrutable a 100-120 fps que a 65-70fps. Solo con probarlo durante 2 minutos te das cuenta. Pero si es como en mi caso, que pase a mitad de juego de una 3090 a una 4090 con DLSS3 activado pues ya el cambio es abrumador.

Pero como digo, para poder decir estas cosas hay que poder probarlas y comparar.

A ver si ahora es explícitamente necesario tener una 4000 para opinar sobre DLSS 3 3 cuando hay mil vídeo y mil análisis.

Otra cosa es que los extremos no son buenos, y generalizar ,tampoco.
Esa tecnología hoy tiene sus contras como cosas raras en imágenes o imput lag, y cosa buenas como la que comenntas del Spiderman.

Qué haría yo si tuviera una 4000?Pues con una 4090 seguramente no usarlo jamás salvo caso extremo y notorio, como el Spiderman que comentas.
Pero...¿en cuántos juegos de verdad necesitas eso?
Para el resto, va sobrada esa gráfica.Con un DLSS 2 ya ería más que suficiente, y en muchos casos, ni eso.
Con una 4090, pues depende del juego en cuestión, pero también debería ira sobrada en la mayoría de juegos.
Pero aquí sí que me puedes decir, que como no tengo una 4000, no lo puedo saber.Y es así.
Yo es por lo que veo ,oleo y se comenta por aquí.

Para mí ,y creo que para casi nadie, el DLSS3 es el motivo de compra de una 4000.
Que ojo, si mejoran esos rarezas gráficas, y el imput lag, que puede ser, pero ser la repolla con cebolla sin duda alguna.
El DLSS 3 tampoco es que se invente nada, no? Lo que hace es meter input lag para tener tiempo para calcular las imagenes entre medio de varios frames. Y evidentemente son las primeras versiones, lo tendrán que gestionar aún, yo imagino que en un par de meses meterán algún ajuste tipo como el DLSS reescalado (calidad, balanceado, rendimiento...), que no dará tantos frames y pero tampoco meterá tanto input lag.

Lo de nvidia reflex tampoco lo entiendo mucho, se supone que ayudaría para el DLSS 3, pero si no tienes monitor con soporte para reflex, hace algo? El ratón que tengo sí tendría pero creo que tienes que conectarlo directamente al monitor por lo que no hará nada.

Solo he probado el the witcher y sin DLSS 3 vas más justo, es verdad que el juego tiene problemas de rendimiento que deberían solventar, pero si lo activo me va mucho mejor y a penas noto retardo. Quizás en 4k se note más el input lag o dependa del juego, o que ya no tengo un monitor top y por eso no se nota, pero en su día costaba como la 4080 [carcajad], malo todavía no tiene que ser.
Yo creo que podríamos llegar a un punto de acuerdo, viendo que hay gente que lo ha probado y que esta a favor y otros que no, que pasará lo mismo que con el DLSS 2, mucha gente lo usará en casi todos los juegos (me incluyo) y habrá gente que no, no pasa nada, yo quito siempre la aberración cromática de los juegos y tampoco crucifico a los que les gusta ponerla.

Todo esto viene a raíz de un comentario de alguien indicado que el DLSS3 no le importaba a mucha gente, y visto lo visto parece que le interesa a más gente de lo que algunos pensaban. Otra cosa sería que el usarlo o no parece que algunos lo quieren hacer ver como una cuestión meramente de gustos o preferencias y creo que más bien será una cuestión de necesidad por desgracia en la mayoría de los casos.
eric_14 escribió:El DLSS 3 tampoco es que se invente nada, no? Lo que hace es meter input lag para tener tiempo para calcular las imagenes entre medio de varios frames. Y evidentemente son las primeras versiones, lo tendrán que gestionar aún, yo imagino que en un par de meses meterán algún ajuste tipo como el DLSS reescalado (calidad, balanceado, rendimiento...), que no dará tantos frames y pero tampoco meterá tanto input lag.

Lo de nvidia reflex tampoco lo entiendo mucho, se supone que ayudaría para el DLSS 3, pero si no tienes monitor con soporte para reflex, hace algo? El ratón que tengo sí tendría pero creo que tienes que conectarlo directamente al monitor por lo que no hará nada.

Solo he probado el the witcher y sin DLSS 3 vas más justo, es verdad que el juego tiene problemas de rendimiento que deberían solventar, pero si lo activo me va mucho mejor y a penas noto retardo. Quizás en 4k se note más el input lag o dependa del juego, o que ya no tengo un monitor top y por eso no se nota, pero en su día costaba como la 4080 [carcajad], malo todavía no tiene que ser.

Si se inventa frames, los intermedios. Esos frames que introduce DLSS 3 no son frames reales, no están renderizados por la gpu ni el motor del juego. Por eso se les llama fake frames. Y en cuanto al input lag, pues eso es ya muy subjetivo, habrá quién lo note más o menos, pero notarse se nota, hasta en el monitor con menos input lag del mercado se notará (el mío es bastante bueno en ese aspecto).
eric_14 escribió:El DLSS 3 tampoco es que se invente nada, no? Lo que hace es meter input lag para tener tiempo para calcular las imagenes entre medio de varios frames.


DLSS2 da mejor resultado visual, en muchos casos, que resolucion nativa. La IA mejora texturas en muchos casos.
DLSS2 mejora el input lag respecto de resolucion nativa.

De ahi que se puedan activar a la vez DLSS2 y DLSS3.

Si de manera nativa tienes un input lag de 60, con DLSS2 lo bajas a 40 y con DLSS3 lo subes a 80 , quiero ver yo al listo que me diga a mi, delante de una pantalla, con DLSS3 activado y desactivado que la diferencia es como jugar en streaming. Eso es directamente una payasada propia de quien no ha probado la tecnologia y repite de oidas.
Es mas, no es que quiero ver yo al que me lo diga, es que quiero comparar tiempo de raccion con quien me lo diga, con DLSS3 activado y desactivado. Para tener una opinion con criterio basicamente. Porque una cosa es leer cosas por twitter y el chapuzasinformativo y ver cuatro videos de youtube y opinar y otra muy diferente es tener un PC alao del otro, uno con una 3090 y otro con una 4090 para poder comparar, mismo juego, mismo PC, misma pantalla, mismo raton, mismo teclado. Poder probar con la 3090 natico, DLSS2, poder probar con la 4090 nativo, DLSS2, DLSS2+3...


hh1 escribió:A ver si ahora es explícitamente necesario tener una 4000 para opinar sobre DLSS 3 3 cuando hay mil vídeo y mil análisis.

Si, como los analisis y opiniones que habia hace 20 años que decian que el ojo humano no ve mas de 30fps, porque claro, era a la frecuencia que jugaban la mayoria de personas, en consolas. Y habia un consenso importante, porque las opiniones y analisis coincidian en su mayoria.
Lo mismo que paso en la epoca del 720p, que apenas se notaba el cambio a 1080p. Idem de lo mismo de 1080p a 4K

La conclusion a la que llegue durante todos estos años y diversas discusiones fue siempre la misma. La mayor parte de personas que opinaba asi era/es porque no habia tenido oportunidad de probar lo suficiente aquello que criticaban y otros alababamos. Siempre la misma conclusion.
Por eso, cuando es sobre temas de frames, calidad visual, tiempo de respuesta, frecuencia, etc, siempre intento opinar sobre lo que yo he podido probar lo suficiente.

Opinar, claro que se puede opinar sobre lo que quieras. Otro tema es que la opinion sea con criterio o sin criterio. Obviamente, si estas opinando sobre algo que no has podido ni probar ni ver en vivo, estas opinando con un criterio muy limitado. Ademas, la opinion sera una opinion sesgada. Sesgada porque a quien estas viendo y escuchando tu opinar ya ha metido su propio sesgo que tu vas a recoger. Y probablemente ampliar. Toda opinion tiene sesgo. Sobre una opinion sesgada, sale otra opnion aun mas sesgada.

Sobre los videos de youtube. Bueno. Es como las TV's OLED 4K que se anuncian en televisores LED 1080p. ¡¡Mira que negro tan puro!! ¡¡Mira que definicion!! ¿WTF?
@Ingalius ¿En qué juego mejora las texturas?
Kavezacomeback escribió:@Ingalius ¿En qué juego mejora las texturas?


El DLSS en calidad mejora a la resolución nativa en muchos juegos. Especialmente el antialiasing que mete que hace la imagen muy definida y nítida. Para muestra una imagen. Fíjate en los árboles o en la nitidez de las rocas que están a lo lejos:

Imagen
Pacorrr escribió:Aquí somos algunos que también lo hemos probado, y sí hay más input lag, desde que pulsas el botón hasta que reacciona el muñeco, tarda más con DLSS 3 activado que sin él, esto puede ser más o menos molesto según a quién preguntes, y errores gráficos también hay, en según qué juego se nota más o menos, en the witcher 3 por ejemplo las sombras en las hierbas aparecen y desaparecen o se ven raras en función de si tu ojo ve el frame inventado o no lo ve, los huds y subtítulos se ven horribles cuando pilas un frame inventado...

Te lo comento a ti pero sois varios los que os quejáis del tema input lag, si me quiere responder cualquier otro perfecto.

El caso es que veo la info de hardware unboxed (que se ha puesto muchas veces, la última vez esta) donde, si no lo interpreto mal, no veo un mayor input lag usando DLSS 3, y en cambio me choca mucho vuestras afirmaciones diciendo que se nota el mayor input lag.

Necesito algo mas, que digáis que esa información es incorrecta, que está incompleta (quizás sin Reflex y con DLSS añade mucho input lag?), que sin Reflex no se puede (y es que acaso no es fácil activar Reflex?), etc.

Yendo a otra fuente, DF (min 30), indican que añade 10 ms del DLSS 2 al 3. En serio 10 ms es el problemón que comentáis? :-? (cuidado con el límite de v-sync lo explican unos segundos atrás).

O quizás es que tenéis una capacidad sensitiva fuera de lo normal y en este test no subís de los 30 ms: https://www.arealme.com/reaction-test/es/
14371 respuestas