[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

garbaje_de_potanzos escribió:@Nomada_Firefox El resutlado del Requiem canta un poco sí, de hecho si te fijas en este bench (a la derecha del todo) la 3080 da una media similar a la que ofrece Nvidia con 38fps, pero la 4090 suelta un resultado mas creible de 70fps, no mas de 100 como dice Nvidia
Imagen

Y aquí un vídeo en movimiento en Ultra 4K con la 4090, se ve que ronda los 60fps en nativa y no los +100
https://youtu.be/Bcox75SVPJo


El grafico de Nvidia es con un 12900K, y ese video con un 9900K.
Es mucha diferencia, pero la CPU tambien cuenta.
Nomada_Firefox escribió:Pues yo viendo esas graficas, entiendo que en rendimiento bruto no impresionan y lo unico bueno es el DLSS.

Como comentas, parece que quitando "trucos", en la 4080 versión Hacendado, que es la que me podía atraer, no veo nada que justifique su compra. Hace dos días subisteis la oferta de la EVGA FTW 3090Ti por 1200€, que cuesta lo mismo que esa 4080 pero tiene el doble de VRAM, y la 4080 no la alcanza en ninguno de los tests que habeis puesto.

Personalmente noto mucha perdida de calidad al activar el DLSS (por supuesto sin haber visto el DLSS3) y jamás lo uso, con lo que no es algo que valore en una GPU.
garbaje_de_potanzos escribió:Imagen

Si, ese ya tiene mejor pinta. ¿No os da la impresión tambien que muchos juegos por no decir todos no estan pensados para estas resoluciones y fps? yo lo llamaria el efecto consola, los juegos estan diseñados para mantener tasas de 30/60 fps y al pasarlos a PC solo los desbloquean pero siguen teniendo un alto grado de bloqueo.

@jacklolita les quitas el DLSS y sobretodo el 3 y no es para tanto. Ademas no olvidemos lo comentado, usar DLSS no es mejor en calidad que no usarlo. Aunque no niego que el ultimo ha mejorado mucho. Asi que en las RTX 40 pagas el software y el hardware no es para tanto, me recuerda a Creative y sus tarjetas de sonido.

@LynX La 4060 por regla de 3, es una grafica de 1080p. A esa resolución, la gracia es no usar DLSS para mantener el maximo de calidad grafica. Como casi seguro sea como una 3060Ti o 3070, pues practicamente podemos saber que sucedera. Eso sí, no niego que puede interesar el usar el DLSS 3 a 1440p.

@Valhan muy bueno eso de la versión hacendado [sonrisa] [sonrisa] ¿A que resolución juegas?

Con tu comentario de la vram, pienso que les quitas el software de Nvidia y por hardware estas graficas son pauperrimas si las comparas con una Intel A770 con 16gb de memoria. Ironicamente Intel no tiene software bueno.

@beatle ¿Tantos fps hay entre esas dos CPUs? ese juego tenia unos requisitos gordisimos, debe ser el rey de la trampa grafica.
garbaje_de_potanzos escribió:@Nomada_Firefox El resutlado del Requiem canta un poco sí, de hecho si te fijas en este bench (a la derecha del todo) la 3080 da una media similar a la que ofrece Nvidia con 38fps, pero la 4090 suelta un resultado mas creible de 70fps, no mas de 100 como dice Nvidia
Imagen

Y aquí un vídeo en movimiento en Ultra 4K con la 4090, se ve que ronda los 60fps en nativa y no los +100
https://youtu.be/Bcox75SVPJo


esas cifras no son validas, en el video usan una cpu bastante antigua y hace cuello
jacklolita escribió:Los de los mantras de la 4090 sin dlss no impresiona por favor que se tapen .que dan verguencilla ajena
Es El mayor salto de la historia de una generacion a otra ... No me joder
Son putas bestias las 4090 .punto

Que es el mayor salto, puede ser.
Pero creo que hay que valorar tanbién a qué precio es ese salto.
Yo por lo que veo en rasterizado,siendo una jodida bestia ,por 2000€ mínimo, no llo veo para tanto.
Si hablamos de DLSS ,3, pues claro.Peeo vamos a ver cómo se ve eso y en cuántos juegos lo tenemos.

Pero si miramos el precio, no es para tanto .Y la 4080 16gb, tampoco.
La de 12 GB pinta a que se queda en rasterizado como una 3080Ti-3090.
jacklolita escribió:Los de los mantras de la 4090 sin dlss no impresiona por favor que se tapen .que dan verguencilla ajena
Es El mayor salto de la historia de una generacion a otra ... No me joder
Son putas bestias las 4090 .punto


Eso estaba pensando yo, no rucuerdo un salto como este.

Sin dlss dobla en muchas ocasiones a la 3090. A mi 2080 ti le saca en ocasiones 100 frames... A 4k en los análisis que estoy viendo


Las gráficas donde salgan ahora mismo las 4080 habría que ponerlas en curentena hasta que oficialmente se levante el embargo como ha pasado como con las 4090
@beatle @yeye2 En el video que he adjuntado cuando activa el DLSS 2 Quality sobre el minuto 1:45 el juego escupe los +95fps en vez de los 60fps en nativa, así que en el caso de Requiem no hay cuello de botella, o al menos no uno que impida que suelte mas de 70fps con un i9 9900k.

Sobre los otros juegos de esa gráfica pues seguramente haya alguno que lastre, pero del que hablamos parece que no.
Nomada_Firefox escribió:¿A que resolución juegas?

Siempre intento 4K dentro de lo que me permite la 3070.

Las veces que no aguanta el tipo he acabado bajando a 1876p o 1620p obteniendo mejor IQ que con el propio DLSS. No puedo con el efecto "bordes sucios" que provoca.
Valhan escribió:
Nomada_Firefox escribió:¿A que resolución juegas?

Siempre intento 4K dentro de lo que me permite la 3070.

Las veces que no aguanta el tipo he acabado bajando a 1876p o 1620p obteniendo mejor IQ que con el propio DLSS. No puedo con el efecto "bordes sucios" que provoca.

Totalmente razonable. Lo unico ahora, es si el DLSS 3 ofrece mejor calidad.
Nomada_Firefox escribió:
Valhan escribió:
Nomada_Firefox escribió:¿A que resolución juegas?

Siempre intento 4K dentro de lo que me permite la 3070.

Las veces que no aguanta el tipo he acabado bajando a 1876p o 1620p obteniendo mejor IQ que con el propio DLSS. No puedo con el efecto "bordes sucios" que provoca.

Totalmente razonable. Lo unico ahora, es si el DLSS 3 ofrece mejor calidad.

Lo dudo bastante.

Auqnue yo he de decir ,que los juegos que he jugado con DLSS, lo quito y lo pongo para ver diferencias y en su mayoría los veo iguales.
No tengo buen ojo para notarlo
Igual cuando toco modo calidad ,equilibrado o rendimiento.Es que no veo las diferencias gráficas.
hh1 escribió:
Nomada_Firefox escribió:
Valhan escribió:Siempre intento 4K dentro de lo que me permite la 3070.

Las veces que no aguanta el tipo he acabado bajando a 1876p o 1620p obteniendo mejor IQ que con el propio DLSS. No puedo con el efecto "bordes sucios" que provoca.

Totalmente razonable. Lo unico ahora, es si el DLSS 3 ofrece mejor calidad.

Lo dudo bastante.

Auqnue yo he de decir ,que los juegos que he jugado con DLSS, lo quito y lo pongo para ver diferencias y en su mayoría los veo iguales.
No tengo buen ojo para notarlo
Igual cuando toco modo calidad ,equilibrado o rendimiento.Es que no veo las diferencias gráficas.


Que suerte pisha, yo no se si es por que juego muy cerca en un oled de 55, o es que tengo una vista envidiosa que a mi personalmente me da asco.

Pero en el ciberpunk noto entre dlss calidad y nativo lo mas grande y conforme bajo de calidad ya ni te cuento…

Me ahorraria mucha pasta si no notara diferencia porque ya con la 3080ti que tenia y el dlss poco mas hace falta.


Pero de verdad que lo noto lo mas grande, en rdr2 noto como el pelo se
Emborrona al moverse, y si giras brusco el paisaje…

No es para llevarse las manos a la cabeza pero lo noto
Nomada_Firefox escribió:
Valhan escribió:
Nomada_Firefox escribió:¿A que resolución juegas?

Siempre intento 4K dentro de lo que me permite la 3070.

Las veces que no aguanta el tipo he acabado bajando a 1876p o 1620p obteniendo mejor IQ que con el propio DLSS. No puedo con el efecto "bordes sucios" que provoca.

Totalmente razonable. Lo unico ahora, es si el DLSS 3 ofrece mejor calidad.


El DLSS 3 ofrece la misma calidad que el DLSS 2 segun he visto en videos pero con el doble de rendimiento.
A 4K hasta el DLSS 2 performance cuesta distinguirlo de 4K nativo si no te fijas al milimetro.
beatle escribió:El DLSS 3 ofrece la misma calidad que el DLSS 2 segun he visto en videos pero con el doble de rendimiento.
A 4K hasta el DLSS 2 performance cuesta distinguirlo de 4K nativo si no te fijas al milimetro.

Pues entonces ya sabemos que no es perfecto porque el DLSS 2 no lo es. Tambien estoy seguro que depende del juego.
@jacklolita Nope. Eso lo dicen los que solo han estado usando gráficas los últimos años...
De la Ati 4870 a la 5870 sí hubo un cambio enorme, un 100% de mejora de rendimiento. Y a $400. Por mucho que quieras usar la inflación (que para tecnología no funciona así, mira lo que costaba una Xbox 360 o una PS3 y lo que cuestan las actuales), $400 de 2009 no son $1600 de 2022.
O sea que la 4090 no impresiona y tiene un hardware paupérrimo [qmparto] Como no dicho por el mismo flames de siempre.

Metiendo en la ecuación el precio, que es clave por supuesto, es cierto que deja un sabor agridulce pero como GPU es una bestia ,y eso no se puede discutir.

No sé qué juegos con DLSS 2 habies probado pero hay en muchos donde la implementación es buenísima y que estoy seguro que a 4k modo calidad en una prueba a ciegas no sois capaces de ver la diferencia. Lo que sí que se nota rápidamente es la ganancia de FPS.
Por supuesto hay en otros donde no está tan bien implementado como RDR 2.

Con el DLSS 3 la reviews que he visto no han profundizado mucho por qué van a hacer análisis a parte pero las primeras sensaciones son muy buenas y sorprendentes. Ya veremos .

valrond escribió:@jacklolita Nope. Eso lo dicen los que solo han estado usando gráficas los últimos años...
De la Ati 4870 a la 5870 sí hubo un cambio enorme, un 100% de mejora de rendimiento. Y a $400. Por mucho que quieras usar la inflación (que para tecnología no funciona así, mira lo que costaba una Xbox 360 o una PS3 y lo que cuestan las actuales), $400 de 2009 no son $1600 de 2022.


Que te hayas tenido que ir a 2009 para ver un salto mayor confirma el gran salto que ha dado Nvidia con la 4090.

Y si, en precio también [qmparto]
Valhan escribió:Personalmente noto mucha perdida de calidad al activar el DLSS (por supuesto sin haber visto el DLSS3) y jamás lo uso, con lo que no es algo que valore en una GPU.

654321 escribió:
Valhan escribió:Personalmente noto mucha perdida de calidad al activar el DLSS (por supuesto sin haber visto el DLSS3) y jamás lo uso, con lo que no es algo que valore en una GPU.



Este fallo se dio, inmediatamente después de cambiar la vista delantera por la trasera... por lo que normal que se hiciera la "picha un lio"...

Yo creo que para ese tipo de juegos de movimiento rápido, y para competitivo, dlss3 no vale...
neox3 escribió:
654321 escribió:
Valhan escribió:Personalmente noto mucha perdida de calidad al activar el DLSS (por supuesto sin haber visto el DLSS3) y jamás lo uso, con lo que no es algo que valore en una GPU.



Este fallo se dio, inmediatamente después de cambiar la vista delantera por la trasera... por lo que normal que se hiciera la "picha un lio"...

Yo creo que para ese tipo de juegos de movimiento rápido, y para competitivo, dlss3 no vale...


tambien te voy a decir que en una imagen de 120 imagenes por segundo te metan una de esa.... no lo he probado pero nose si nos daremos cuenta sin parar el frame

Diferente es que patine cada 2 x 3 y si que la liaria
El DLSS 3 como ya se ha dicho varias veces hay que verlo en movimiento, poner capturas del frame generado es injusto. Más que nada por qué como dijo digital foundry ese frame está 8ms en pantalla y pasa desapercibido.

A mí me encantaría probarlo para ver qué sensación da, como no va a ser posible me conformaré con los próximos análisis que van a salir .

neox3 escribió:Este fallo se dio, inmediatamente después de cambiar la vista delantera por la trasera... por lo que normal que se hiciera la "picha un lio"...

Yo creo que para ese tipo de juegos de movimiento rápido, y para competitivo, dlss3 no vale...


Eso es lo que iba a poner, aclara de dónde sale ese frame.
También dice que DLSS 1 era un desastre y que el DLSS 3 es usable. Ya veremos.
@s.goncio El típico ofendidito de turno. No me molesta, estaba en plan broma... Por lo que veo no hay stock o aún no lo han soltado?
@JaviGabber Me he ido al más grande que recuerdo. No hace falta irse tan lejos para ver saltos mayores. La GTX 1080 era CASI el doble de potente que la GTX 980 (si me dices de la 980Ti, comparala con la 1080Ti).
https://www.techpowerup.com/review/msi- ... -x/24.html

De nuevo, "expertos" de pacotilla que no tiene ni idea de la historia de la gráficas. Los saltos de más del 50% de una generación a otra han sido la norma, no la excepción. Pero la gente no tiene memoria, se cree que todo fue como pasar de las GTX 1000 a las RTX 2000.
garbaje_de_potanzos escribió:@beatle @yeye2 En el video que he adjuntado cuando activa el DLSS 2 Quality sobre el minuto 1:45 el juego escupe los +95fps en vez de los 60fps en nativa, así que en el caso de Requiem no hay cuello de botella, o al menos no uno que impida que suelte mas de 70fps con un i9 9900k.

Sobre los otros juegos de esa gráfica pues seguramente haya alguno que lastre, pero del que hablamos parece que no.



el dlss no tiene limitacion de cpu, por eso suelta mas fps, en nativa esta totalmente limitado.

una de las ventajas del dlss es que descarga totalmente la cpu de trabajo...
jacklolita escribió:Los de los mantras de la 4090 sin dlss no impresiona por favor que se tapen .que dan verguencilla ajena
Es El mayor salto de la historia de una generacion a otra ... No me joder
Son putas bestias las 4090 .punto


Tal cual. Y están baratitas comparando el precio de las previas y la diferencia que mete la 4090.
DarkMessiah escribió:
jacklolita escribió:Los de los mantras de la 4090 sin dlss no impresiona por favor que se tapen .que dan verguencilla ajena
Es El mayor salto de la historia de una generacion a otra ... No me joder
Son putas bestias las 4090 .punto


Tal cual. Y están baratitas comparando el precio de las previas y la diferencia que mete la 4090.



no , no estan baratitas.


la 3090ti la tienes a 1290€ y la 4090 a 2000€

osea, el ratio € por fps lo estas perdiendo, estas comprando una gpu igual o PEOR


si doblas el rendimiento pero triplicas el precio es una compra nefasta.
@654321 Lo de los artefactos cuando estamos hablando de "inventar" frames es normal/aceptable. Quiero creer que el caso que has puesto es tan cantoso porque menciona que ha sido durante un cambio de cámara, con lo que entiendo que ha tenido que "inventar" un frame intermedio entre dos escenas diferentes, aunque eso lleva sin duda a nuevas preguntas.

Aparte del PC, en su día también pasé por PS3 y PS4 porque me encanta la saga Uncharted, y tuve la suerte de que mi TV tenia la interpolación de imágenes, porque sin ella no los habria jugado.

La interpolación le metia mucha borrosidad y bastantes artefactos, pero me permitia jugar juegos de 30fps con fluidez (la sensación, a pesar de la perdida de calidad, era superior a los 60fps), y es algo que valoré con creces ya que la mejora era brutal y todo con de una consola de 300/400 euros y una opción que ya venia con la TV. Que me lo metan con la serie 4000 me parece sin duda una noticia estupenda (llevo años pensando que las GPUs debian implementar lo de la interpolación), pero que lo usen para venderme las GPUs nuevas...

Solo valoro los frames en bruto con respecto al PVP a la hora de plantearme cambio, el resto son añadidos (y admito que no me disgusta la idea de esta serie), con lo que, es cierto que la 4090 es un bicho (no la 4080 rancia que es de la que estoy hablando) pero también cuesta 2000€ y consume un huevo, con lo que para mi, pierde todo el valor.
@yeye2 hablo del DLSS 2, no del 3
Nomada_Firefox escribió:
beatle escribió:El DLSS 3 ofrece la misma calidad que el DLSS 2 segun he visto en videos pero con el doble de rendimiento.
A 4K hasta el DLSS 2 performance cuesta distinguirlo de 4K nativo si no te fijas al milimetro.

Pues entonces ya sabemos que no es perfecto porque el DLSS 2 no lo es. Tambien estoy seguro que depende del juego.

El DLSS 3 a nivel de calidad no es peor que el DLSS 2? No lo tengo claro, pero lo que se ha ido diciendo (no hablo de Nvidia) me daba la impresión que así era. Lo que me falta ver comparativas buenas, porque lo que de momento se ha puesto aquí solo recuerdo la del analistadebits que compara el 2 y el 3 pero en fotogramas diferentes (no un test de estos preparados) con lo cual así es muy díficil comparar si no se nota mucho la diferencia (y más si depende del juego, que tiene toda la pinta).


Por cierto, tanto rollo con el tema consumo eléctrico y temperaturas y no me ha parecido leer nada en este hilo. En profesionalreview han analizado lo siguiente para la 4090:

Consumo 543W (a modo referencia: la 3090 440W y la 3090 Ti 590W):
Imagen


Temperatura max 76º (a modo referencia: la 3090 67º y la 3090 Ti 68º):
Imagen


Vamos, me parece un aumento considerable en ambos puntos, así normal que sea un portento.

¿Dónde ha quedado eso de que el tamaño del disipador era mas grande por el menor tamaño del chip?
valrond escribió:@JaviGabber Me he ido al más grande que recuerdo. No hace falta irse tan lejos para ver saltos mayores. La GTX 1080 era CASI el doble de potente que la GTX 980 (si me dices de la 980Ti, comparala con la 1080Ti).
https://www.techpowerup.com/review/msi- ... -x/24.html

De nuevo, "expertos" de pacotilla que no tiene ni idea de la historia de la gráficas. Los saltos de más del 50% de una generación a otra han sido la norma, no la excepción. Pero la gente no tiene memoria, se cree que todo fue como pasar de las GTX 1000 a las RTX 2000.


Hombre, no se que decirte:

59%

Imagen

61%

Imagen

Es casi lo mismo.
valrond escribió:@JaviGabber Me he ido al más grande que recuerdo. No hace falta irse tan lejos para ver saltos mayores. La GTX 1080 era CASI el doble de potente que la GTX 980 (si me dices de la 980Ti, comparala con la 1080Ti).
https://www.techpowerup.com/review/msi- ... -x/24.html

De nuevo, "expertos" de pacotilla que no tiene ni idea de la historia de la gráficas. Los saltos de más del 50% de una generación a otra han sido la norma, no la excepción. Pero la gente no tiene memoria, se cree que todo fue como pasar de las GTX 1000 a las RTX 2000.


Es uno de los saltos más grandes de los últimos años como bien dice TPU en su conclusión. Según a la review que te vayas puede llegar a superar incluso el +70% vs 3090. Que hayan había saltos más grandes no le quita mérito a este salto.

La comparación que haces hay que hacerla a las 15:00, cuando salgan las custom. Ahora se puede hacer este y efectivamente fue un salto grande, prácticamente como el de ahora

Imagen

Pero vamos que no tiene ningún interés ver cuándo se dio un salto mayor más allá de llevarle la contraria al compañero.
@chrispro yo ya encontré mi solución y es pillar la torre corsair cosmos, lo que comentas de ponerla en vertical tampoco me valdría pk se quedarían los ventiladores pegados al cristal , es una putada pero es lo que hay ñ, así que yo no me complicó vendo la que tengo y pillo las cosmos que con esa no tengo problemas y me ha molado mogollón.
De todos modos vaya genios estos ensambladores ya podían poner el conector en el lateral como hizo evga con su ti, menudos ingenieros están hechos.
Yo juego en VR, y los frames inventados existen desde hace varios años, de hecho ya van por la tercera generación de algoritmos. Y no me gusta nada, en casi todos los juegos que lo pruebo, le veo algun handicap, y al final lo acabo desactivando.

Los sibaritas que se gastan 2000 pavos en una 4090, no creo que les vaya gustar mucho esto de frames interpolados. Para los que se pillen una 4050 igual tiene sentido.

Hace poco Facebook sacó AppSW, que es algo parecido pero para sus visores Standalone, mucho humo al prinicipio, y ahora los desarrolladores no lo están usando pq no les gusta el resultado.

chrispro escribió:tambien te voy a decir que en una imagen de 120 imagenes por segundo te metan una de esa.... no lo he probado pero nose si nos daremos cuenta sin parar el frame

Si no te das cuenta de eso, igual tampoco notas la diferencia entre jugar a 60FPS y 120FPS.
yeye2 escribió:
DarkMessiah escribió:
jacklolita escribió:Los de los mantras de la 4090 sin dlss no impresiona por favor que se tapen .que dan verguencilla ajena
Es El mayor salto de la historia de una generacion a otra ... No me joder
Son putas bestias las 4090 .punto


Tal cual. Y están baratitas comparando el precio de las previas y la diferencia que mete la 4090.



no , no estan baratitas.


la 3090ti la tienes a 1290€ y la 4090 a 2000€

osea, el ratio € por fps lo estas perdiendo, estas comprando una gpu igual o PEOR


si doblas el rendimiento pero triplicas el precio es una compra nefasta.


Por qué precio salió la 3090Ti de salida?. Bueno pues coge la 3090Ti salvo que la tengas ya.
Vamos a ver qué están caras pk el euro está en la mierda, si no la 4090 fe la tendríamos por 1600 euros.
beatle escribió:Hombre, no se que decirte:

59%

Imagen


61%

Imagen


Es casi lo mismo.

59% respecto a la 1080

61% respecto a la 4090

quiere decir que de cada 100 frames generados por la 1080/4090 las otras generan 59/61
Edit: ahora si hacemos la inversa que seria que el 100% fuese la 980 o la 3090 (100x100)/59 o /61 viene a ser un 70 y un 64% respectivamente que seria el salto.
ahora si hacemos la inversa que seria que el 100% fuese la 980 o la 3090 (100x100)/59 o /61 viene a ser un 70 y un 74% respectivamente que seria el salto.
DarkMessiah escribió:
yeye2 escribió:
DarkMessiah escribió:
Tal cual. Y están baratitas comparando el precio de las previas y la diferencia que mete la 4090.



no , no estan baratitas.


la 3090ti la tienes a 1290€ y la 4090 a 2000€

osea, el ratio € por fps lo estas perdiendo, estas comprando una gpu igual o PEOR


si doblas el rendimiento pero triplicas el precio es una compra nefasta.


Por qué precio salió la 3090Ti de salida?. Bueno pues coge la 3090Ti salvo que la tengas ya.


el precio de salida no tiene ninguna importancia... se comparan € y fps, no precios de salida

obviamente , como en casi todos los reviewers serios del mundo, la opcion a elegir a dia de hoy es la 3080 por -700€ , que ya las puedes encontrar nueva
yosu888 escribió:Vamos a ver qué están caras pk el euro está en la mierda, si no la 4090 fe la tendríamos por 1600 euros.


Y los impuestos no?

Nos crujen con el iva
@sadistics

Un +64% de la 4090 con respecto a la 3090
Un +70% de la 1080 con respecto a la 980.

Y nos estamos quedando con el raster, cuando el RT entra en juego...

Imagen
Imagen
Imagen
Imagen

¿+100%?

El DLSS 3 vamos a dejarlo a parte hasta ver los análisis....
yeye2 escribió:
DarkMessiah escribió:
yeye2 escribió:

no , no estan baratitas.


la 3090ti la tienes a 1290€ y la 4090 a 2000€

osea, el ratio € por fps lo estas perdiendo, estas comprando una gpu igual o PEOR


si doblas el rendimiento pero triplicas el precio es una compra nefasta.


Por qué precio salió la 3090Ti de salida?. Bueno pues coge la 3090Ti salvo que la tengas ya.


el precio de salida no tiene ninguna importancia... se comparan € y fps, no precios de salida

obviamente , como en casi todos los reviewers serios del mundo, la opcion a elegir a dia de hoy es la 3080 por -700€ , que ya las puedes encontrar nueva


Comparar eur y FPS es como comparar eur y KMS Que te haces con un Dacia o un Lamborghini. Allá cada cual con sus excusas.
chrispro escribió:
yosu888 escribió:Vamos a ver qué están caras pk el euro está en la mierda, si no la 4090 fe la tendríamos por 1600 euros.


Y los impuestos no?

Nos crujen con el iva


No me hables de impuestos, dejame pasar el festivo tranquilo anda. [+risas] [+risas]
@JaviGabber cierto corrijo, me han bailado los numeros era 164 y 170 no 170 y 174 [qmparto]
sadistics escribió:@JaviGabber cierto corrijo, me han bailado los numeros era 164 y 170 no 170 y 174 [qmparto]


Me lo imaginaba :p
d2akl escribió:
chrispro escribió:
yosu888 escribió:Vamos a ver qué están caras pk el euro está en la mierda, si no la 4090 fe la tendríamos por 1600 euros.


Y los impuestos no?

Nos crujen con el iva


No me hables de impuestos, dejame pasar el festivo tranquilo anda. [+risas] [+risas]



Dia de la hispanidad pisha!! jajajaja

venga que ya queda poco!!! en menos de 3 horas se supone que hay risas y llantos!

Lo mismo hay stock para 10 minutos y los ansias nos da tiempo pillarla xD [angelito]
@chrispro ojalá!!! Crucemos los dedos! A ver si realmente se cumple lo de que esta vez no va a haber problema con stock.
y esta ensambladora que tal es?

Inno3D
mls3197 escribió:y esta ensambladora que tal es?

Inno3D


Pues como zotac, las más normalitas...
Me da acceso denegado la web de nvidia

Access Denied
You don't have permission to access "http://shop.nvidia.com/es-es/geforce/store/?" on this server.
Reference #18.b4d91102.1665573291.1d8cf032
@mls3197 Suele pasar ya que está todo el mundo incluido bots pendiente.
Todavía aparentemente no está.
lo raro es que con otro navegador funciona bien...
@RVNLOFT Al final va interesar comprar una porque seguramente se agoten y la gente es capaz de pagar más y todo XD
14352 respuestas