[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

HaGeK escribió:Yo hasta que no se ponga a tiro la 4080 por 1100 no la pillo, y se pondra, ya lo vereis.

Llamarme pesado pero es que no le encuentro sentido pillar una 4070ti por mucho DLSS3 que lleve o la ultima generacion de RT.

Los que compramos hardware no queremos algo de 1000k que nos dure 2 años a tope, queremos mas. Que bajen precios si quieren que compremos, no hay mas. Y si hacemos todos piña, mejor que mejor.

Si esque la 4070ti por muchas mejoras que lleve en algunos aspectos, cojea de otros, y vale casi 1000e, anda y que les den.

Yo le veo más sentido a una 4070Ti que ya las ves por 900€ que a una 4080 que valen 1400€.

Tanbién creo que la 4080 va a caer de precio.
Es que no se vende
Lo que intenta Nvidia es que no caiga ,porque si cae ,cae también el de la 4070Ti.

PD: qué tal los nuevos drivers para el Atomic?
Me da pánico ,ya que sin ellos ,me va de lujo el juego.

@Chaquetero
Hombre...decir que no hay juegos buenos y potentes ,cuando hace nada salió A Plague Tale Requiem que tiraba bastante ...Ahora el Howarts...
Tienes el Atomic Heart que se ve de escándalo y está tremendamente optimizado...
Día 3 el Wo Long...
Ahí tienes Dead Space Remake.

No sé...juegos hay.
Yo estoy flipando por tener que capar la gráfica a 240fps en un juego actual sin ponerle el DLSS a 1440p como pasa en Atomic Heart.Encina con graficazos.
Y puede que el dís 21 salga el RT para este juego.Va a ser brutal
@hh1 si la cosa es esa... yo tambien flipo cuando los juegos estan medianamente bien programados (plague of tale) y no me bajan de 120fps con todo a tope en 2k.

Pero que estamos mezclando potencia grafica con la perreria y dejadez de los programadores, y eso es algo que como gamers no deberiamos de dejar pasar.

Ver el Howargts legacy rular a 45 fps sin el micro ni la grafica al 100% es lamentable, y eso que yo me gasto una generacion anterior.

Creo que debemos de ser mas criticos con los programadores antes de sacar la cartera y decir lo tipico de "poco me parece". Que se lo curren.
No hay que comprar de salida salvo que sea uno de esos que te come el alma si no lo haces.

Yo el de Harry Peich o el Atomic como si los juego dentro de un año. El TLOU lo tengo reservado porque me apetece probarlo desde hace 10 años y nunca he tenido play

Ahora estoy empezando el Spiderman después de mi epic fail con el Elder Ring. No tengo prisa.

Por cierto la 4090 menuda ida de olla. Me da hasta cosa poner todo a tope y olvidarme. El spiderman lo juego capado a 120 porque más no lo percibo. Con la grafica al 70% de power limit y el proce capado a 65W. Mi ordenador cree que está abriendo un word. Apagué el DLSS y el frame generator porque a 1440p no me hacen falta.

La verdad es que estoy muy impresionado.
Cuando se espera la 4090 Ti?

A mi me flipa que se tenga una cruzada contra el mercado actual y se tenga la gráfica más cara del mercado, que por mucha potencia que tenga, es carísima. Al final contribuyendo y por aquí diciéndole a la gente lo tonta que es por comprar 4070ti/4080.
HaGeK escribió:@hh1 si la cosa es esa... yo tambien flipo cuando los juegos estan medianamente bien programados (plague of tale) y no me bajan de 120fps con todo a tope en 2k.

Pero que estamos mezclando potencia grafica con la perreria y dejadez de los programadores, y eso es algo que como gamers no deberiamos de dejar pasar.

Ver el Howargts legacy rular a 45 fps sin el micro ni la grafica al 100% es lamentable, y eso que yo me gasto una generacion anterior.

Creo que debemos de ser mas criticos con los programadores antes de sacar la cartera y decir lo tipico de "poco me parece". Que se lo curren.

Yo es algo que valoro siempre y le doy mucha importancia.
Lo dije de juegos como Doom Eternal.Que ya no solo es el juegazo que es...es lo bien que mueve todo
Es brutal
Y eso ,para mí, forma parte también de ser un buen juego.

Por eso Atomic Heart, con sus cosas ,me tiene alucinado.

@Fleishmann
El Atomic lo tienes en GP y por lo menos viene ya bien optimizado de salida.

@KindapearHD
Bueno...cada uno tiene sus circunstancias.
Yo no pagaría de 0 una 40i80 o una 4090.Así de golpe es un pastizal

Por eso ,no pillaría ninguna.Y si a a caso, una 4080 a 1000-1100€ empieza a ser medio cohetente a mi parecer,siendo cara ,obviamente.

Pero si es un cambio que no te lleva mucho dinero ,no lo veo tanto desembolso

Ahora.Si yo no tengo pc y toca apoquinar desde 0,yo no compro más de una 4070Ti,por la sencilla razón de que una 4080 no vale 1400€ y la 4090 ,siendo la repolla ,se va de mafre en precio.

Cada uno lo ve de una manera.
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.
@hh1

Oh no lo sabía, soy un abuelo. Mañana lo pruebo.
AeolusFx escribió:
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.


Ufff es una burrada, ni minando...
AeolusFx escribió:
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.


Curioso, en mi caso no es así, con una 4090 pasa de 20w en reposo sin eso activo a unos 25-34w con ello, edito. ahora que caigo seguro que era por tener la aceleración por hardware quitada en el navegador.
AeolusFx escribió:
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.


A mi también me andaba consumiendo a full y encima el resultado es malo, se nota como un filtro vaselina encima horrible. Esto es como el DLSS 1, ni es optimo ni se ve bien. A la espera de su segunda versión
Nadie ha dicho que las 4070ti en adelante sean malas, son una basura en cuanto a su precio, la 4070ti es una porqueria en cuanto a precio porque es una gama media subida a alta y la 4080 una gama alta subida a muy alta, la 4060 que es gama media/baja la suben a media y la proxima 4050 que es gama baja entrante la suben a media-baja.

Un sinsentido.

En resumen, por el precio que tienen, son una porqueria.
Y mezclar el precio de la pandemia con el MSRP es otro sin sentido, porque quienes ponian estos precios eran las tiendas y el MSRP de envidia era otro, yo compré mi 3070 a 550€ de salida.
AeolusFx escribió:
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.


En mi caso con la 4080 se pone en 140-160w pero hay 0 diferencias entre los vídeos 1080p y 4k con esta tecnología. Incluso si coges un vídeo 4k y lo pones a 720p hace muy buen trabajo y mejora mucho la calidad de imagen. No creo que puedan optimizar mucho más porque hasta ahora este es el resultado que daban programas que mejoraban la calidad de vídeos mediante IA después de horas procesando los vídeos. No entiendo cómo han conseguido hacerlo en tiempo real.
Y esos drivers...en Atomic Heart bien?
El adaptador del pulpo para las RTX 4000 lo hay en blanco tambien? Para cambiar el mío de la 4070 Ti.
Que pereza.
Tengo que gestionar la garantía de mi 4070Ti porque el RGB se pone tonto cuando llevas un rato con el ordenador encendido.

¿ Vosotros los haríais ?
Se que es una frivolidad, pero con lo que ha costado me toca las narices que falle ya.
@anderpr depende de la importancia q le des. En mi caso no sé ni cómo se ilumina, desde q la pinché le metí la chapa opaca y viré la torre a la pared. Pero es algo q viene con la gráfica, forma parte de ella, como el sistema de audio de un coche. De cara a venderla de 2ª mano puede ser un "argumento" para q les bajes el precio.
Strait escribió:
AeolusFx escribió:
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.


En mi caso con la 4080 se pone en 140-160w pero hay 0 diferencias entre los vídeos 1080p y 4k con esta tecnología. Incluso si coges un vídeo 4k y lo pones a 720p hace muy buen trabajo y mejora mucho la calidad de imagen. No creo que puedan optimizar mucho más porque hasta ahora este es el resultado que daban programas que mejoraban la calidad de vídeos mediante IA después de horas procesando los vídeos. No entiendo cómo han conseguido hacerlo en tiempo real.


El consumo debería cambiar según el nivel que escojas, siendo 1 el que menos debería tener y 4 el de mayor consumo. Esta tarde lo probaré mejor, porque por la mañana lo probé rápido con un vídeo 1080p de Youtube en un televisor 4K y me costaba ver diferencias. No sé si sería por la distancia a la televisión, quizás en un monitor al estar más cerca se pueda notar más.
anderpr escribió:Que pereza.
Tengo que gestionar la garantía de mi 4070Ti porque el RGB se pone tonto cuando llevas un rato con el ordenador encendido.

¿ Vosotros los haríais ?
Se que es una frivolidad, pero con lo que ha costado me toca las narices que falle ya.

Sí tienes otra cosa con la que jugar,sí lo haría.
Sí no ...puf.No sé.
No es algo que me moleste y que afecte al rendimiento

Quë marca es?

Es cierto que para una futura venta ,eso te puede bajar el precio de la venta ,e incluso ,ahuyentar a compradores.Y por esto, puede que sí me animase a mandarla.

Sí te la vas a quedar seguro muuuuchos años ,no lo haría.
Sí la reventa es clave para dar el salto futuro a otra ...la mandaría.
HaGeK escribió:@parh pues no, la 4090 por lo que ofrece y a dia de hoy teniendo ofertas en marcas como KFA2 por 1750 con lo que arrea me parece hasta barata. Tampoco creo que me flipe tanto, cuando la serie 3000 esta condenada a desaparecer, tarde o temprano.

De todas maneras no he nombrado la 4090 en mi comentario.

Estamos en una crisis mundial, con una inflacion brutal, y por mucha propaganda que nos vendan, los que jugamos bien con nuestro equipo no nos vamos a cambiar hasta que una tarjeta no sea realmente atractiva calidad precio. Y si los juegos van mal que los optimicen, no es culpa de nuestro PC.

Esto es algo que no entienden las 2 grandes, por lo que se ve.

Y hay datos que leo a diario que dicen que la venta de tarjetas ha caido un 50% o mas. No es una invencion mia.

Hay que comer y que vestirse y vivir antes que jugar.

Y si, creo que la 4090 se podra comprar por 1500. Riete lo que quieras.


a nadie le pilla por sorpresa, y muchisimo menos a nvidia, una caida pronunciada de las ventas debido al descalabro de las criptomonedas. Los precios de lanzamiento ya tenian en cuenta este retroceso y, aunque nos parezca una locura, 1800 euros por un tanque como la 4090 es un precio competitivo (otra cosa es 2100-2200), comparalo tu mismo con le precio de lanzamiento de las 3090 o 3090 ti.

La 4090 ya ha hecho suelo
anderpr escribió:Que pereza.
Tengo que gestionar la garantía de mi 4070Ti porque el RGB se pone tonto cuando llevas un rato con el ordenador encendido.

¿ Vosotros los haríais ?
Se que es una frivolidad, pero con lo que ha costado me toca las narices que falle ya.

Quizas tenga algun razonamiento ¿acaso la grafica no tiene programa para controlarlo? o podria ser que otro programa este afectandole.
AeolusFx escribió:
Strait escribió:Han salido los drivers nuevos con el Nvidia Super Resolution para mejorar la calidad de los vídeos en el Chrome y Edge. Probadlo porque parece que mejora bastante la calidad de todos los vídeos.

https://www.nvidia.com/en-us/geforce/news/atomic-heart-dlss-3-the-finals-closed-beta-game-ready-driver/


Probado y desactivado. Viendo twitch se fuma 350W constantemente en la 3080. Con la opción desactivada 50W. Tienen que afinarlo, porque no compensa.

Hostia, vaya consumo te da para lo que aporta (a mi personalmente entre poco y nada, ya el contenido que veo está en alta calidad). Veo en reddit que depende mucho del nivel de mejora que se ponga y la gráfica (y el undervolt aplicado a la misma) cambia mucho los datos de consumo: https://www.reddit.com/r/nvidia/comment ... ution_faq/

Ahí uno de los comentarios mas valorados hablan de un mod del MPC-HC (un reproductor de video) para usar esa tecnología en videos en local. A nivel de consumo, un tal cordelle1 con su 3080 un video a 1080p le gasta 90W en calidad 1 y 250W en calidad 3. Luego un tal rW0HgFyxoJhYka dice 140W con calidad 4 con la 4090 para un video 1080p.


@ionesteraX un consumo extra de solo 5-14W me parece poquísimo, seguro que lo tienes activado? O lo tienes en calidad 1 y para videos origen de 1080p a 1440p? Porque parece que no está trabajando casi nada. Hay muchos casos de gente que dicen que no le funciona.
Teniendo en cuenta que tanto AMD como Nvidia han ido selectivamente limitando el stock y precio de ciertos modelos para fomentar las ventas del exceso de GPUs de la generación anterior... parece hasta lógico desde el punto de vista del empresario incrementar los márgenes del producto nuevo y "top" que suele acabar en el 10-20% de sus consumidores, ya tendrán tiempo de recuperarse los fabricantes con las gamas más bajas donde recortan tres de las cuatro esquinas del chip, memorias, bus y hasta de las fases de potencia del PCB si es necesario para obtener suculentos beneficios.

Por otro lado, en cuanto al RTX video enhancement, resulta muy llamativo ver como una 4080 consume menos de la mitad de vatios comparando con una 3080 escalando, restaurando y optimizando un stream de Twitch de 1080p 60fps a 4k 60fps, se ve que ya no es un solo la eficiencia de Lovelace sino también la potencia de los nuevos tensor cores, la verdad es que se nota bastante la diferencia de calidad de la imagen utilizando la calidad máxima (4). Sobre todo en animes clásicos a 720p upscaled a 4k parece que han pasado por un granja de servers durante unas cuantas horas y cuesta creer que lo está haciendo una GPU "de juegos" en tiempo real.

Desconozco si esta tecnología se puede patentar, pero desde luego en un futuro a medida que se optimiza el consumo con mejor software y hardware serviría para optimizar el ancho de banda necesario y rebajar los requisitos de CPU / GPU en servidores utilizados para la transmisión masiva y bajo demanda de vídeo digital de alta calidad (plataformas tipo Netflix, HBO Max, Amazon Prime, Disney+...) a 4k, 8k y demás. Esta no es más que la primera piedra.

Por cierto, para tarjetas por debajo de una 3070 las opciones de calidad "3" y "4" no funcionan, aunque se pueden elegir en el panel de control la realidad es que el máximo que pueden procesar es nivel "2". Aquí entrarían por ahora la 3060 Ti, 3060 y 3050.
Pues oye cuando se pueda poner el upscaling este a tus videos domésticos digitalizados desde cinta y convertir permanentemente el archivo, tiene su chiste eso ¿eh?

Todo dios va a querer sus bodas y pachangas de futbol sala en 4k, igual hasta se genera un mercado alrededor.
Bueno pues después de darle muchas vueltas he puesto mi 3080 a la venta en el foro y si se vende voy a pillar una 4080 lo mas seguro o 4090, aunque creo que con la 4080 ya estaría mas que bien, que al final la compras para que te dure mas años y siempre acabo cambiando antes...
anderpr escribió:Que pereza.
Tengo que gestionar la garantía de mi 4070Ti porque el RGB se pone tonto cuando llevas un rato con el ordenador encendido.

¿ Vosotros los haríais ?
Se que es una frivolidad, pero con lo que ha costado me toca las narices que falle ya.



Yo tuve problemas con el RGB de una 2080 y al final se acabó fundiendo. Lo que hice al abrirla cuando le hice el mantenimiento (tras ya no tener garantía), es quitar la tira led y listo. No le tramité la garantía. Era una versión EKWB, con lo que era pasada por agua. La cuestión es que al ponerla a la venta, detallé que no tenía rgb porque su tira, se había fundido. Y me la compraron igual.
En mi 4070Ti, no se ni como se cambia el color del RGB, lo bueno es que solo se enciende la palabra "Aero" y en blanco, así que ni me molesté en cambiarlo.
Fleishmann escribió:Pues oye cuando se pueda poner el upscaling este a tus videos domésticos digitalizados desde cinta y convertir permanentemente el archivo, tiene su chiste eso ¿eh?

Todo dios va a querer sus bodas y pachangas de futbol sala en 4k, igual hasta se genera un mercado alrededor.


Ya hay vídeos que hacen eso basándose en inteligencia artificial como por ejemplo este: https://www.topazlabs.com/topaz-video-ai

El problema es que donde no hay detalle no se puede sacar mucho. Estas mejoras están pensadas para eliminar ruido, mejorar nitidez y quitar artefactos.
Esto del VSR podría ser la resurrección de los viejos DivX de 700MB. XD
Hay más de un 30% de rendimiento de una 3070 a una 4070?
JRaider2 escribió:Hay más de un 30% de rendimiento de una 3070 a una 4070?



En las reviews de techpowerup, de una 3070ti a una 4070ti en un juego como RDR2 a resolución 2k, tienes una diferencia de 84fps vs 123fps , por lo que si estableces como 100% 84, 123 sería un 146%

luego en otro como por ejemplo elden ring, tienes 87 vs 120, un 138%
JRaider2 escribió:Hay más de un 30% de rendimiento de una 3070 a una 4070?


Mas bien un 50%

Imagen
Lince_SPAIN escribió:Por cierto, para tarjetas por debajo de una 3070 las opciones de calidad "3" y "4" no funcionan, aunque se pueden elegir en el panel de control la realidad es que el máximo que pueden procesar es nivel "2". Aquí entrarían por ahora la 3060 Ti, 3060 y 3050.

Una lástima lo del nivel 2 en la 3060 porque tal vez podría animarme a montar un HTPC. ¿Habrá mucha diferencia del nivel 2 al 4?
Chaquetero está baneado por "troll"
600 euros por una 3080 de referencia y sin garantía... Vaya tela.

No si esque está muy claro, todo el mercado de hardware en pc está destrozado, sobretodo el de 2° mano, y la culpa es de los usuarios. Que la 4070ti haya venido lo que ha vendido y haya una panda de feligreses pseudocomerciales de Nvidia que intentan que los demás compartan con ellos la estafa en este mismo hilo es claro ejemplo. Hace una semana creo que vi también un 12400f usado por 170 euros [facepalm]

Para vosotros jugadores, luego con vuestro hardware nuevo hiperburbujeado a pasar cinebenchs y 3d Mark ultrafatality extreme y jugar al viva piñata "porque tiene rtx"...

Que triste todo y que buena es Nvidia después de todo, porque podría descojonarse y estafar el triple y no lo hace.
BladeRunner escribió:
Lince_SPAIN escribió:Por cierto, para tarjetas por debajo de una 3070 las opciones de calidad "3" y "4" no funcionan, aunque se pueden elegir en el panel de control la realidad es que el máximo que pueden procesar es nivel "2". Aquí entrarían por ahora la 3060 Ti, 3060 y 3050.

Una lástima lo del nivel 2 en la 3060 porque tal vez podría animarme a montar un HTPC. ¿Habrá mucha diferencia del nivel 2 al 4?


del 2 al 4 se nota sobre todo en gameplay de videojuegos y cine de animación, en IRL del 2 al 4 parece un filtro de foto "selfie" glorificado, a mí personalmente me parece que resalta bien los rasgos en la mayoría de casos, aunque no siempre, es la primera versión de todos modos.
Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(

Hipercars y nada del otro mundo.
Yo no le veo problema a esa CPU.

Tampoco dices lo más importante : la resolución a la que juegas.
Pero valerte ese 5800x,te vale.
hh1 escribió:
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(

Hipercafos y nada del otro mundo.
Yo no le veo problema a esa CPU.

Tampoco dices lo más importante : la resolución a la que juegas.
Pero valerte ese 5800x,te vale.


Ahora mismo 2560x1440p a 144hz, en breves cambiare a un 34*UW a 3440*1440p, y la idea es conservarlo y no pasarme a 4k hasta dentro de 4 o 5 años...
neox3 escribió:
JRaider2 escribió:Hay más de un 30% de rendimiento de una 3070 a una 4070?



luego en otro como por ejemplo elden ring, tienes 87 vs 120, un 138%


Elden ring no está capado a 60fps?

Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(


No, podrás usarla perfectamente.
Si la idea era pillar el 7800X3D para jugar, mejor quedate en AM4.
Dasten escribió:
hh1 escribió:
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(

Hipercafos y nada del otro mundo.
Yo no le veo problema a esa CPU.

Tampoco dices lo más importante : la resolución a la que juegas.
Pero valerte ese 5800x,te vale.


Ahora mismo 2560x1440p a 144hz, en breves cambiare a un 34*UW a 3440*1440p, y la idea es conservarlo y no pasarme a 4k hasta dentro de 4 o 5 años...

Yo no cambiaba cpu.
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(

No
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(


depende de a que resolucion y tasas de fps quieres jugar.

Mi caso, por ejemplo, mas extremo que el tuyo, he emparejado mi 4090 con un Ryzen 3600 y como mi target es 60 FPS (con RT a tope) pues no hace casi cuello de botella.
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(


Por experiencia propia para 2k sí que hace cuello de botella. Es casi imposible ver la gráfica al 100% a 2k. Pero a 2k hasta mi 3080Ti hacía cuello de botella con el 5800x.
Strait escribió:
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(


Por experiencia propia para 2k sí que hace cuello de botella. Es casi imposible ver la gráfica al 100% a 2k. Pero a 2k hasta mi 3080Ti hacía cuello de botella con el 5800x.


Pues ya no sé qué hacer...

Parto de un 3600 (actualmente apenas juego nada) y la idea era cambiar gráfica y plataforma. Esperaba por el 7800x3d pero viendo los casi 500€ que cuesta, más placa y DDR5... Descartado totalmente, me quedo en AM4 y reaprovecho placa y RAM. Partiendo de ahí, la opción es un 5800x o 5800x3d, el problema? Que uno cuesta 220€ y el otro 330...

Realmente compensa pagar esos 100€ de más por el x3d? Tanto se notara montando una 4070Ti/4080?

El objetivo es 3440x1440p a 100-120FPS (mi ojo humano no distingue de 100 para arriba... Por lo que con monitor 144hz mi objetivo es mover los juegos a una media de 100-120fps).

No pillo serie 3000 porque la 3080/80Ti/90 están caras para llevar casi 3 años en el mercado, por otro lado están los consumos y temperatura y a mayores, quiero DLSS 3.0 ya que veo bastante mejora en esto respecto a las 3000.

Quería una 4070Ti en 700€ pero viendo que es imposible y que me niego a pagar 1400€ por una 4080...

Vamos que el mercado a día de hoy es una mierda y está loco, no tengo nidea que hacer :(
Yo tenía 3900X y 3080 12GB

Me salió una oportunidad muy buena de 4090 y pa alante, tenía toda la intención de seguir con el 3900X el tiempo que fuese necesario. Si cambié fue por una oferta irrechazable.

Y espero que el 13900kf me dure al menos 5 o 6 añitos.
Dasten escribió:
Strait escribió:
Dasten escribió:Una pregunta chicos! Creéis que una 4080 se le atragantara a un 5800x normal y corriente? Sin ser el x3d digo...

La idea era pillar un 7800X3D pero han salido hiiipercaros :(


Por experiencia propia para 2k sí que hace cuello de botella. Es casi imposible ver la gráfica al 100% a 2k. Pero a 2k hasta mi 3080Ti hacía cuello de botella con el 5800x.


Pues ya no sé qué hacer...

Parto de un 3600 (actualmente apenas juego nada) y la idea era cambiar gráfica y plataforma. Esperaba por el 7800x3d pero viendo los casi 500€ que cuesta, más placa y DDR5... Descartado totalmente, me quedo en AM4 y reaprovecho placa y RAM. Partiendo de ahí, la opción es un 5800x o 5800x3d, el problema? Que uno cuesta 220€ y el otro 330...

Realmente compensa pagar esos 100€ de más por el x3d? Tanto se notara montando una 4070Ti/4080?

El objetivo es 3440x1440p a 100-120FPS (mi ojo humano no distingue de 100 para arriba... Por lo que con monitor 144hz mi objetivo es mover los juegos a una media de 100-120fps).

No pillo serie 3000 porque la 3080/80Ti/90 están caras para llevar casi 3 años en el mercado, por otro lado están los consumos y temperatura y a mayores, quiero DLSS 3.0 ya que veo bastante mejora en esto respecto a las 3000.

Quería una 4070Ti en 700€ pero viendo que es imposible y que me niego a pagar 1400€ por una 4080...

Vamos que el mercado a día de hoy es una mierda y está loco, no tengo nidea que hacer :(


Pues mira, para mi, ni una cosa ni la otra XD.

Estaba en tu misma situación, pero con un 2600, y he pillado por 140 un 5600 que rinde prácticamente igual en juegos a 2K, y dinero que me ahorro para cuando realmente justifique un cambio de plataforma. El 3d es carísimo y encima muy calentorro.

Y respecto a la 4070ti vs 4080, pues te puedes dar el capricho pero vamos, igual que antes, creo que lo mejor es gastarse lo menos posible y la pequeña te irá de lujo a 3440X1440.
buen analisis de hardware unboxed. Nvidia cumple y mejora cada vez más el DLSS 3. Personalmente, me parece una tecnologia con resultados casi milagrosos que justifican en sí mismo la inversion en una serie 4000

parh escribió:buen analisis de hardware unboxed. Nvidia cumple y mejora cada vez más el DLSS 3. Personalmente, me parece una tecnologia con resultados casi milagrosos que justifican en sí mismo la inversion en una serie 4000



La verdad es que es una de las cosas por las que no me planteo una serie 3000, eso y porque me parece surrealista que sigan alrededor del si MSRP dos años después de salir al mercado

La verdad es que entre los precios y el conector de 12 pines el panorama da más que asco...
@Dasten un 5800X según hardware unboxed, con la media de 10 juegos a 1440p, da de mínimo unos 127fps, y eso es menos que los 144hz de tu pantalla, con lo cual sí podría limitar: https://youtu.be/ghZaQ3T0CRg?t=850

Ahora, eso es de una 4090, la 4080 no va a rendir tanto pero en algún juego con menos carga gráfica podría ser que te limite, cambiarás a un monitor con un poco mas de resolución (con lo cual menos cuello de botella en la CPU) y encima dices que no te importa mucho que sobre pase los 100fps... yo no cambiaría el procesador.

Por ejemplo, Cyberpunk a 1440p calidad media tiene unos fps mínimos de 119fps (con la 4090) y el 5800X, pero con la 4080 en alta calidad (y un mejor procesador que el 5800X) da 110fps de mínimo, con lo cual a la que bajes la calidad a medio o incluso uses DLSS tendrás fácilmente mas de 119fps mínimos y ya verías cuello de botella por la 5800X.

Este es solo un ejemplo, es posible que haya otros casos en los que el juego sea mas CPU dependiente y en lugar de hablar de 119 fps de limitación quizás baja mas, eso ya es un tema de ver concretamente qué juego te importaría mas o menos y ver el resultado de tu CPU.

Vamos, en resumen, el 5800X seguro que limita con la 4080 a 1440p en algún juego, otra cosa es que en tu casuística concreta no te limite (o muy poco) y/o no te importe en algún juego puntual tener unos 100fps o algo menos.
Una pregunta y seamos honestos

Alguien de aquí distingue a ojo 120 fps vs cualquier cifra superior? Soy ciego?

A mi me pones 120 fps y 80000 fps y son lo mismo.

Hay algún estudio fiable y con significación estadística? Es fácil de hacer.
Fleishmann escribió:Una pregunta y seamos honestos

Alguien de aquí distingue a ojo 120 fps vs cualquier cifra superior? Soy ciego?

A mi me pones 120 fps y 80000 fps y son lo mismo.

Hay algún estudio fiable y con significación estadística? Es fácil de hacer.

Yo tampoco, la verdad.

Saludos.
Rvilla87 escribió:@Dasten un 5800X según hardware unboxed, con la media de 10 juegos a 1440p, da de mínimo unos 127fps, y eso es menos que los 144hz de tu pantalla, con lo cual sí podría limitar: https://youtu.be/ghZaQ3T0CRg?t=850

Ahora, eso es de una 4090, la 4080 no va a rendir tanto pero en algún juego con menos carga gráfica podría ser que te limite, cambiarás a un monitor con un poco mas de resolución (con lo cual menos cuello de botella en la CPU) y encima dices que no te importa mucho que sobre pase los 100fps... yo no cambiaría el procesador.

Por ejemplo, Cyberpunk a 1440p calidad media tiene unos fps mínimos de 119fps (con la 4090) y el 5800X, pero con la 4080 en alta calidad (y un mejor procesador que el 5800X) da 110fps de mínimo, con lo cual a la que bajes la calidad a medio o incluso uses DLSS tendrás fácilmente mas de 119fps mínimos y ya verías cuello de botella por la 5800X.

Este es solo un ejemplo, es posible que haya otros casos en los que el juego sea mas CPU dependiente y en lugar de hablar de 119 fps de limitación quizás baja mas, eso ya es un tema de ver concretamente qué juego te importaría mas o menos y ver el resultado de tu CPU.

Vamos, en resumen, el 5800X seguro que limita con la 4080 a 1440p en algún juego, otra cosa es que en tu casuística concreta no te limite (o muy poco) y/o no te importe en algún juego puntual tener unos 100fps o algo menos.



Justo esto estaba buscando, la verdad es que me has confirmado justo lo que pensaba y lo que llevaba buscando un par de días, te estoy súper agradecido ❤️

En mi caso no voy a pasar de un 3440*1440p a 144hz en muchísimo tiempo, y como digo mi ojo no distingue más de 100-120hz por lo que incluso limitaría los juegos para ahorrar consumo y temps.

No sé la diferencia real que habría con el 5800x3d pero aún siendo de 20 o 30FPS, ya estaría llegando a los 110-120 que quiero con el 5800x a secas por lo que en mi caso, para el 90% del uso que le voy a dar voy sobrado.

Me quedo con el 5800x, prefiero pagar esos 170€ de segunda mano por él, que no pagar 280-300€ por un x3d de segunda mano (y ya no digamos los 350-360€ que piden por uno nuevo). Veo muchísimo más sensato invertir esos 100-120€ en gráfica.

Por cierto @Fleishmann yo soy como tú, por encima de 100hz no veo diferencia alguna (o por lo menos no la suficiente como para compensar el gasto para llegar a los 144 constantes/casiconstantes)

Un saludo y gracias de nuevo!
14371 respuestas