5090 vs 4090 vs 5080(TI?) para 3D

Hola a todos! A ver si me podéis ayudar con una duda sobre las nuevas gráficas.

Actualmente tengo una 3080 de 10GB y la uso para render en Blender y proyectos de tiempo real en Unreal. Como los 10GB y los 8900 Cuda cores ya se me quedan algo cortos. Las nuevas gráficas están a la vuelta de la esquina, estoy planteando las siguientes opciones:

A) Me vuelvo loco y me compro una 5090: Aceleraría los renders muchísimo, el tiempo real creo que iría volando pero los 2400€ creo que se pasan bastante de mi presupuesto para hacer algo por lo que no percibo retribución económica.

De ahí viene la duda:

B) Me compro una 4090 de segunda mano, por unos 1400€. Es mucho mas potente que mi 3080, más vRam y 16000 núcleos cuda.

C) Espero a la salida de la 5080TI: He visto que entre la 3080/TI y la 4080/TI hay unos 3500 núcleos más, por lo que por unos 1400€( lo calculo a ojo) tendría una gráfica nueva, potente, acceso a la implementación de los nuevos DLSS y más rendimiento.


La 5080 normal no me parece tan interesante, al menos sobre el papel, ya que tiene 10k de Cuda, pese a que vaya mucho más rápido que sus predecesoras, croe que me gustaría apuntar a algo que tenga 13K o así.

¿Alguien puede arrojar luz sobre este asunto?
La opción B es bastante mejor porque las novedades de la serie 50 son más de software que claramente en Blender no vas a usar.
El tema de la 5080 ti es que aunque es probable, puede ser en un año, sabe dios el precio, y además puede no salir.

Por otro lado yo no pagaría 1400 por una 4090 de segunda mano...para eso tirate a lo bestia a por una 5090 nueva.

Has pensado en una 3090? Son más baratas de segunda mano, y tienen 24GB igual
Aunque francamente no se cómo se compara para ese uso específico, pero si la memoria y el ancho de banda es lo más importante en eso es muy cercana a la 4090.
Si es en computación ya no tanto.
Nomada_Firefox escribió:La opción B es bastante mejor porque las novedades de la serie 50 son más de software que claramente en Blender no vas a usar.

Justamente eso pensaba, que al tener mas potencia bruta iba a rendir mejor pero al parecer la velocidad del reloj afecta mucho:
Imagen

una 4070 siendo un 10% más rápida que una 3090 en Blender
Mucha gente se centra en cosas que en mi humilde opinión son absolutamente irrelevantes.

Si vas a mirar métricas teóricas, incluso si no es una medida muy fiable porque no tiene en cuenta algunos criterios importantes, no mires cantidad de cuda cores, mira FLOPS. Que no es más que (cantidad de cores) x (frecuencia) x (operaciones/ciclo)

Es decir, que es de esperar que en blender en particular una 5080 sea superior a tu 3080 por un factor de 2-2.5 a pesar de tener un número similar de cores. A falta de reviews que lo confirmen claro.

La 4090 eso sí me parece una opción estupenda. Pero si puedes aguantar hasta que salgan las gamas medias de la serie 5000 te recomiendo hacerlo, porque a estas alturas de la película pagar 1400 cocos por una 4090 me parece un absoluto derroche. Pienso que en cuestión de meses bajarán de los 1000, y no digo una cantidad más baja porque para casos como el tuyo tanto por VRAM como por “músculo” van a seguir siendo superiores a gran parte de la serie 5000.

Saludos
marlou escribió:
Nomada_Firefox escribió:La opción B es bastante mejor porque las novedades de la serie 50 son más de software que claramente en Blender no vas a usar.

Justamente eso pensaba, que al tener mas potencia bruta iba a rendir mejor pero al parecer la velocidad del reloj afecta mucho:
Imagen

una 4070 siendo un 10% más rápida que una 3090 en Blender

Hombre, pues siendo así 4090 mejor, salvo que necesites más memoria...so de hecho la 5090 baja un pelín incluso
Pollonidas escribió:Mucha gente se centra en cosas que en mi humilde opinión son absolutamente irrelevantes.

Si vas a mirar métricas teóricas, incluso si no es una medida muy fiable porque no tiene en cuenta algunos criterios importantes, no mires cantidad de cuda cores, mira FLOPS. Que no es más que (cantidad de cores) x (frecuencia) x (operaciones/ciclo)

Es decir, que es de esperar que en blender en particular una 5080 sea superior a tu 3080 por un factor de 2-2.5 a pesar de tener un número similar de cores. A falta de reviews que lo confirmen claro.

La 4090 eso sí me parece una opción estupenda. Pero si puedes aguantar hasta que salgan las gamas medias de la serie 5000 te recomiendo hacerlo, porque a estas alturas de la película pagar 1400 cocos por una 4090 me parece un absoluto derroche. Pienso que en cuestión de meses bajarán de los 1000, y no digo una cantidad más baja porque para casos como el tuyo tanto por VRAM como por “músculo” van a seguir siendo superiores a gran parte de la serie 5000.

Saludos

Muchísimas gracias, no tenía ni idea de los FLOPS, me fijaba solo en los Cuda y las frecuencias. Voy a esperar también a ver test reales sobre Blender y Unreal para tener una idea del impacto de una 5080 sobre la 4090.
Pollonidas escribió:Mucha gente se centra en cosas que en mi humilde opinión son absolutamente irrelevantes.

Si vas a mirar métricas teóricas, incluso si no es una medida muy fiable porque no tiene en cuenta algunos criterios importantes, no mires cantidad de cuda cores, mira FLOPS. Que no es más que (cantidad de cores) x (frecuencia) x (operaciones/ciclo)

Es decir, que es de esperar que en blender en particular una 5080 sea superior a tu 3080 por un factor de 2-2.5 a pesar de tener un número similar de cores. A falta de reviews que lo confirmen claro.

La 4090 eso sí me parece una opción estupenda. Pero si puedes aguantar hasta que salgan las gamas medias de la serie 5000 te recomiendo hacerlo, porque a estas alturas de la película pagar 1400 cocos por una 4090 me parece un absoluto derroche. Pienso que en cuestión de meses bajarán de los 1000, y no digo una cantidad más baja porque para casos como el tuyo tanto por VRAM como por “músculo” van a seguir siendo superiores a gran parte de la serie 5000.

Saludos

Yo tengo mis dudas de que una 4090 en meses ,baje de 1400€ de segunda mano..
Va a depender muy mucho de la calidad de ese FGx4 de las 5000.

Sin saber el resultado Real con nuevos drivers ,,hoy por hoy, no veo motivo para que baje más.

Eso no quita ,que haya algún desesperado que la deje más barata para ir a por una 5090.
hh1 escribió:Yo tengo mis dudas de que una 4090 en meses ,baje de 1400€ de segunda mano..
Va a depender muy mucho de la calidad de ese FGx4 de las 5000.

Sin saber el resultado Real con nuevos drivers ,,hoy por hoy, no veo motivo para que baje más.

Eso no quita ,que haya algún desesperado que la deje más barata para ir a por una 5090.

Puedo equivocarme, por supuesto, pero mira cuánto valía una 3090 al poco de salir las 4000, y eso que veníamos de un mercado infladísimo de precio por las crypo/covid que incluso hoy sigue notándose en gamas medias (ver precio de una 3060 usada mismamente).

Lo comenté en el hilo de las 5000 y muchos me saltaron al cuello: me extrañaría mucho que, en raster puro y duro y sin trucos, una 5080 no rinda significativamente más que una 4090. Sería la primera generación que eso no ocurre y no tendría ningún sentido desde el punto de vista del marketing.

Por supuesto me puedo equivocar en la apreciación (tengo la misma información que el resto) y los FLOPS indican lo contrario porque según la base de datos de TPU la 4090 tiene como un 20% de ventaja. Pero no sé hasta qué punto el boost aportado por la propia nvidia para las 5000 es conservador o no, eso podría cambiarlo todo. En las reviews se verá.

Saludos
Es muy sencillo, espera tres semanas y ya vas a tener todos los tests en Blender, luego simplemente evalúas el presupuesto que tienes y si te sale a cuento el euro invertido y el porcentaje de rendimiento obtenido. No hay más.
Pollonidas escribió:
hh1 escribió:Yo tengo mis dudas de que una 4090 en meses ,baje de 1400€ de segunda mano..
Va a depender muy mucho de la calidad de ese FGx4 de las 5000.

Sin saber el resultado Real con nuevos drivers ,,hoy por hoy, no veo motivo para que baje más.

Eso no quita ,que haya algún desesperado que la deje más barata para ir a por una 5090.

Puedo equivocarme, por supuesto, pero mira cuánto valía una 3090 al poco de salir las 4000, y eso que veníamos de un mercado infladísimo de precio por las crypo/covid que incluso hoy sigue notándose en gamas medias (ver precio de una 3060 usada mismamente).

Lo comenté en el hilo de las 5000 y muchos me saltaron al cuello: me extrañaría mucho que, en raster puro y duro y sin trucos, una 5080 no rinda significativamente más que una 4090. Sería la primera generación que eso no ocurre y no tendría ningún sentido desde el punto de vista del marketing.

Por supuesto me puedo equivocar en la apreciación (tengo la misma información que el resto) y los FLOPS indican lo contrario porque según la base de datos de TPU la 4090 tiene como un 20% de ventaja. Pero no sé hasta qué punto el boost aportado por la propia nvidia para las 5000 es conservador o no, eso podría cambiarlo todo. En las reviews se verá.

Saludos

Si pro no tienes en cuenta que al final, que se devaleúe ,depende del rendimiento de las nuevas y sus precios

Si una 5080 en 1200€ no supera a una 4090 y necesita usar FGx4 cuando haya dlss4 ,ya de momento, no la suelta siempre..
Y cuando lo hace es ,con matices ,y seguramente, a costa de palmar calidad de imagen.

No es lo mismo que ,que saque una por 1200€ ,y en igualdad de condiciones ,esta sea mejor.

A la 3090 la superó la 4080

Por eso te digo, que va a depender mucho del resultado del x4 de DLSS 4 + FG.
Y eso ,sin tener en cuenta ,cuando no haya DLSS 4.
@hh1 Yo ya digo que sería la primera vez en la historia de la compañía que la -80 rinde menos que la -90 de la generación anterior (salvando casos especiales como series en los que la -90 era una dual) por supuesto sin contar "trucos" como DLSS/FG en la revisión que sea. De hecho la 4080 tenía todas las papeletas para rendir menos que la 3090 (chip terminado en -3 en la 4080, es decir, gama media/alta, cuando la 3080/3090/3090Ti sí que llevaban el chip grande todas ellas) y la diferencia a mejor es de hecho notoria.

Otra cuestión a tener en cuenta es que, incluso si rindiera a un nivel similar, si el consumo es significativamente menor en la nueva entre eso y, ahora sí, las tecnologías nuevas de escalado, puede ser totalmente determinante para mandar el precio del anterior buque insignia al inframundo. Y eso a pesar de que cosas como la VRAM adicional van a tirar hacia arriba del precio de segunda mano para casos de uso como IA y minado.

Al menos eso quiero pensar como consumidor, por el bien de todos. Si después de 2 años el mismo "tier" de rendimiento no baja un "tier" de precio, apaga y vámonos.

Lo dicho por @Sicopro , en cuestión de semanas saldremos de dudas [beer]. Por mi parte si no hay sorpresas y me consigo hacer con una 5000 venderé mi actual 4090 a un buen amigo por bastante menos que eso (sabiendo que está por debajo del precio de mercado, pero bueno, tampoco vamos a salir de pobres)

Saludos
Si vemos los gráficos de rendimiento sin digamos trucos.

Far Cry 6 es alrededor de un 25 % más solamente con RT, sin contar DLSS.

La RTX 5080 dependiendo del juego se debería quedar entre un 5-10 % por encima de la RTX 4090. Es un poco lo que venía a decir Kopite7kimi en las filtraciones, que era 1.1 veces una RTX 4090. No hay sorpresas.

https://www.nvidia.com/es-es/geforce/graphics-cards/50-series/
Pollonidas escribió:@hh1 Yo ya digo que sería la primera vez en la historia de la compañía que la -80 rinde menos que la -90 de la generación anterior (salvando casos especiales como series en los que la -90 era una dual) por supuesto sin contar "trucos" como DLSS/FG en la revisión que sea. De hecho la 4080 tenía todas las papeletas para rendir menos que la 3090 (chip terminado en -3 en la 4080, es decir, gama media/alta, cuando la 3080/3090/3090Ti sí que llevaban el chip grande todas ellas) y la diferencia a mejor es de hecho notoria.

Otra cuestión a tener en cuenta es que, incluso si rindiera a un nivel similar, si el consumo es significativamente menor en la nueva entre eso y, ahora sí, las tecnologías nuevas de escalado, puede ser totalmente determinante para mandar el precio del anterior buque insignia al inframundo. Y eso a pesar de que cosas como la VRAM adicional van a tirar hacia arriba del precio de segunda mano para casos de uso como IA y minado.

Al menos eso quiero pensar como consumidor, por el bien de todos. Si después de 2 años el mismo "tier" de rendimiento no baja un "tier" de precio, apaga y vámonos.

Lo dicho por @Sicopro , en cuestión de semanas saldremos de dudas [beer]. Por mi parte si no hay sorpresas y me consigo hacer con una 5000 venderé mi actual 4090 a un buen amigo por bastante menos que eso (sabiendo que está por debajo del precio de mercado, pero bueno, tampoco vamos a salir de pobres)

Saludos

Hombre...
Muchas historia con la 90, no hay.
Hay dos ,y una de ellas ,apenas destacaba con respecto a la 3080Ti y tampoco es que fuese muchísimo mejor que la 3080.

La diferencia de la 4090 con el resto, es mayor.

Tambien s la primera vez que a o más mejoran Cudas , cos aque sí hacían antes.

Por eso digo, que aunque se diese el terreno ideal del dlsss + FG"4 de que la imagen fuese la hostia , que no se notase diferencia con nativo o DLSS 4 sin FG ,cosa que es básicamente imposible , habría que coger el concepto mejor con pinzas ,porque aún así ,necesita de juegos con DLSS 4 ,y no todos los van a llevar..

Pero es que ,si sumamos fallos gráficos de l fG y latencia ,hay que ver la calidad de todo esto ,que de momento, habiendo visto ya varios vídeos con esto en funcionamiento (desconozco si con los últimos drivers de DLSS 4), desde luego que no dan calidad tan buena como un DLSS 3 cálidad.

Es que esto es determinante .
Si hablamos de que todo los juegos van con DLSS 4 y FGx4 con una calidad tan buena que a penas se nota con respecto a un DLSS normal ,pues ahí, que te voy a decir.Toda la razón.
Se follan el valor de la 4090 sí o sí.

Pe es que el primer punto de que esté en todos los ju gis ,no va a pasar.
Y el de la calidad zpor lo visto, hasta ahora ,tampoco.

El cambio que vas a hacer a una 500, yo no le veo el sentido ,salvo a una 5090.
Yo creo que no mejor s ,sino que empeoras.

Ponte que vas a una 5080.
Sin DLSS 4 ya es peor sí o sí que una 4090,salvo soroeeson mayúsculo.

Luego ,pones dlss4 +FGx4 ,y vas a estar en algunos juegos con artefactos notorios o mayor lag, para superar a una 4090.
Yo es que ,no lo veo.

@Sicopro
Si sin nada activo, una 5080 es más potente que una 4090, ahí sí que le doy toda la razón a @Pollonidas.
Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.
hh1 escribió:Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.


Solamente hay dos opciones, mienten con esa gráfica o es verdad. En cualquier caso lo vamos a saber en tres semanas.

La RTX 5080 tiene:

- 171 RT TFLOPS.
- 10752 núcleos CUDA.
- El ancho de banda es 960 GB/s.
- Frecuencia boost 2.62 GHz.
- TFLOPS (FP32) debería tener 56.34.
- AI TOPS 1801, esto es para el DLSS y el MFG.

La RTX 4090 tiene:

- 191 RT TFLOPS.
- 16384 núcleos CUDA.
- El ancho de banda es de 1024 GB/s.
- Frecuencia boost 2.52 GHz.
- TFLOPS (FP32) tiene 82.58.
- AI TOPS 1321, en este caso para el DLSS y el FG.

Sobre el papel no parece que pueda la RTX 5080 superar en rasterización ni tampoco en RT a la 4090. Si debería ser bastante superior en el tema del DLSS, FG y MFG por los AI TOPS.

En teoría no se han aumentado el número de operaciones por núcleo, siguen siendo 2.

Pueden optimizar la arquitectura para salvar la diferencia así:

- Reducción de latencia por la memoria GDDR7. Optimizaciones y mejoras en la caché L1 y L2. Eliminas cuellos de botella y haces más ágil todo el sistema de memoria.
- Mejoras en los ROPs y optimización del pipeline de rasterizado.
- Si los RT Cores de nueva generación son más eficientes, puedes liberar a los núcleos CUDA, así que en teoría tienes más rendimiento con menos TFLOPS.
- Los núcleos CUDA de nueva generación pueden tener menos latencia y ganar en paralelización con diversas instrucciones.
- Mejoras en la gestión de hilos y la programación de tareas en los SM.

Todas esas mejoras y optimizaciones de una nueva arquitectura no salen reflejadas en el número de TFLOPS. Hay que esperar a medir el rendimiento real en videojuegos.

En unos días veremos si esas gráficas de rendimiento eran más falsas que un billete de 70 € o son verdad.
Sicopro escribió:@hh1

Solamente hay dos opciones, mienten con esa gráfica o es verdad. En cualquier caso lo vamos a saber en tres semanas.

La RTX 5080 tiene:

- 171 RT TFLOPS.
- 10752 núcleos CUDA.
- El ancho de banda es 960 GB/s.
- Frecuencia boost 2.62 GHz.
- TFLOPS (FP32) debería tener 56.34.
- AI TOPS 1801, esto es para el DLSS y el MFG.

La RTX 4090 tiene:

- 191 RT TFLOPS.
- 16384 núcleos CUDA.
- El ancho de banda es de 1024 GB/s.
- Frecuencia boost 2.52 GHz.
- TFLOPS (FP32) tiene 82.58.
- AI TOPS 1321, en este caso para el DLSS y el FG.

Sobre el papel no parece que pueda la RTX 5080 superar en rasterización ni tampoco en RT a la 4090. Si debería ser bastante superior en el tema del DLSS, FG y MFG por los AI TOPS.

En teoría no se han aumentado el número de operaciones por núcleo, siguen siendo 2.

Pueden optimizar la arquitectura para salvar la diferencia así:

- Reducción de latencia por la memoria GDDR7. Optimizaciones y mejoras en la caché L1 y L2. Eliminas cuellos de botella y haces más ágil todo el sistema de memoria.
- Mejoras en los ROPs y optimización del pipeline de rasterizado.
- Si los RT Cores de nueva generación son más eficientes, puedes liberar a los núcleos CUDA, así que en teoría tienes más rendimiento con menos TFLOPS.
- Los núcleos CUDA de nueva generación pueden tener menos latencia y ganar en paralelización con diversas instrucciones.
- Mejoras en la gestión de hilos y la programación de tareas en los SM.

Todas esas mejoras y optimizaciones de una nueva arquitectura no salen reflejadas en el número de TFLOPS. Hay que esperar a medir el rendimiento real en videojuegos.

En unos días veremos si esas gráficas de rendimiento eran más falsas que un billete de 70 € o son verdad.

Creo que nonnls hemos entendido.

Estoy de acuerdo contigo, pero Nome has entendido a mí.

Cuando hablo de ser mejor , hablo del conjunto.

Si una ,para ser mejor que la otra ,necesita que haya un SO implementando en el juego, mal vamos para decir que es más potente,porque partimos de la base que , si no está ese dlss 4 ,no sólo no es mejor ,sino que es notoriamente peor.

Luego, si le sumamos que se da el terreno Lara que sea mejor con ese DLSS y FGx4 , también dependerá de lo bien que se vea en el juego en cuestión o no, porque lo que hemos tenido hasta ahora , son juegos con FG en los que va muy bien y a oenss se ven cosas raras en los gráficos ,peor hemos tenido otros en los que se nota un claro empeoramiento gráfico en forma de arreglos ,gosthing y demás..
Y ojo, esto con un X2 ,imagina con un x4.

Por lo que ,dar por hecho que la 5080 va a ser mejor ,es mucho dar por hecho, creo yo ,hasta no ver cantidad de juegos con DLSS 4 y el nivel de ese FGx4.

Por eso digo ,que eso de la devaluación de la 5?4090, no se yo hasta que punto.
Porelfectamente puede seguir siendo la top 2 en esta gen.

No todo son fps máximos ,sino que yo creo que ,la calidad debe acompañar .
hh1 escribió:Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.


Yo te respondía únicamente a eso, te lo voy a quotear en el otro mensaje. [carcajad]

Lo demás es cosa tuya con Pollonidas, ahí no me meto. [fiu]

Como ves no estaba hablando en ningún momento del DLSS, ni de las mejoras o pegas que pueda tener el MFG.

Solo decía que hay formas de poder hacer esa magia o también de que nos están vendiendo la moto.

Por la gráfica me refería a la del Far Cry 6 que es la única sin MFG o FG. Es puro rasterizado y RT.
Sicopro escribió:
hh1 escribió:Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.


Yo te respondía únicamente a eso, te lo voy a quotear en el otro mensaje. [carcajad]

Lo demás es cosa tuya con Pollonidas, ahí no me meto. [fiu]

Como ves no estaba hablando en ningún momento del DLSS, ni de las mejoras o pegas que pueda tener el MFG.

Solo decía que hay formas de poder hacer esa magia o también de que nos están vendiendo la moto.

Por la gráfica me refería a la del Far Cry 6 que es la única sin MFG o FG. Es puro rasterizado y RT.

Claro..
Es que en ese rendimiento relativo, que no sabemos las condiciones (no dudo que en fps una 5080 con FGx4 ronda más que una 4090), no se pondera que el juego ha de llevar DLSS 4 , ni la calidad de imagen, ni el input lag ni nada ,para obtener esa victoria.

Salvando distancias ,haciendo una comparación , es como si dices que la 5080 es más potente que la 4090, porque a 1450p da más fps que la 4090 a 4k.
Claro, pero con peores gráficos

No es exactamente lo mismo, peor para que se entienda.

Por lo que ,no sé yo, hasta aque punto, se puede decir que es mejor.

Es ahí a donde voy...

Vaya por delante ,que yo algún juego lo he jugado con FG sin notar absolutamente nada extraño.Nl lag (que estará ahí) ni desperfectos gráficos (que estarán pero yo no los he notado.
Por ejemplo, Bankshers lo jugué con FG y tal raicsnente

Y The Finals ,alguna vez lo pongo, y soy incapaz de notar nada .Ni input lag, ni ninguna rareza gráfica .Y eso que es un juego competitivo.

Luego ,han habido otros juegos que sí que se notan cosas.
hh1 escribió:Por eso digo ,que eso de la devaluación de la 5?4090, no se yo hasta que punto.
Porelfectamente puede seguir siendo la top 2 en esta gen.


Te lo pongo aquí en otro mensaje mejor, que justo había editado al leer el debate que tenías con Pollonidas y justo publicaste. [carcajad]

He leído todo el tema que estabais hablando del valor de la RTX 4090.

Hace falta ver los benchmarks, pero ese extra de VRAM le puede interesar a mucha gente. También el músculo que pueda tener en rasterización si finalmente la RTX 5080 se queda por detrás.

Pero vamos que la RTX 4090 se va a seguir vendiendo muy bien. Yo no creo que baje de los 1100-1300 € en segunda mano hasta quizás las RTX 5000 Super.

El tema del input lag no me preocupa, además con el Reflex 2 y Frame Warp va a ir muy bien. Los defectos si que son habituales si te fijas, en Cyberpunk 2077 muchas veces tenías las típicas estelas o efecto fantasma. Eso es algo que en teoría han corregido en gran medida para todas las series.

Si es solo para jugar seguramente sale mejor una RTX 5080. Pero la cuestión es que la mayoría de gente que se compra una RTX 4090 o 5090 en realidad no lo hacen para jugar. En ese sentido no pierde valor por la cantidad de VRAM y el músculo que va a seguir teniendo en rasterización.
Sicopro escribió:
hh1 escribió:Por eso digo ,que eso de la devaluación de la 5?4090, no se yo hasta que punto.
Porelfectamente puede seguir siendo la top 2 en esta gen.


Te lo pongo aquí en otro mensaje mejor, que justo había editado al leer el debate que tenías con Pollonidas y justo publicaste. [carcajad]

He leído todo el tema que estabais hablando del valor de la RTX 4090.

Hace falta ver los benchmarks, pero ese extra de VRAM le puede interesar a mucha gente. También el musculo que pueda tener en rasterización si finalmente la RTX 5080 se queda por detrás.

Pero vamos que la RTX 4090 se va a seguir vendiendo muy bien. Yo no creo que baje de los 1100-1300 € en segunda mano hasta quizás las RTX 5000 Super.

El tema del input lag no me preocupa, además con el Reflex 2 y Frame Warp va a ir muy bien. Los defectos si que son habituales si te fijas, de hecho en Cyberpunk 2077 muchas veces tenías las típicas estelas o efecto fantasma.

Eso es algo que en teoría han arreglado para todas las series.

Si es solo para jugar seguramente sale mejor una RTX 5080. Pero la cuestión es que la mayoría de gente que se compra una RTX 4090 o 5090 en realidad no lo hacen para jugar. En ese sentido no pierde valor por la cantidad de VRAM y el musculo que va a seguir teniendo en rasterización.

Yo diría que ,como no sean más potentes las 5000, hasta las 6000.
Ninguna super va a cambiar nada en estoexcepto la VRAM.
seguirán siendo peores en raster ,seguiran necesitando juegos con DLSS 4 para superarla , y seguirán con los mismos defectos gráficos (si los hay) que da el FGx4.

Yo creo que Nvidia ha sido muy lista.
Coll con este mismo nodo no iba a mejorar mucho en tema Cudas y rendimiento, ha hecho lo justo y se ha ido a lo fácil, que era la IA y el FG.

Seguramente ,con las 6000 cambie el tema del restwr y los cudas y ahí sea más sencillo ver un buen subidón.
Bueno no te creas, les suelen meter también un buen pico de núcleos CUDA. Que no digo que vaya a ser la puta hostia, pero le añade más músculo justamente en potencia bruta.

Una RTX 5080 Super igual podría rondar algo así:

- 24 GB VRAM.
- 12.000-12500 núcleos CUDA.
- 200 RT TFLOPS.
- 65 TFLOPS.

Como le metan 24 GB ya te puedes ir olvidando del valor de la RTX 4090, ahí cae en picado.

Tengo una estimación con la IA de las RTX 6000 lo hice con el nodo N2 de TSMC. Lo he corregido ahora añadiendo el nodo N3P que parece ser más probable para las RTX 6000, y dejando el nodo N2P (en lugar del N2) para las RTX 7000.

Aquí está la potencia bruta en rasterización de la gama media y alta teniendo en cuenta los datos conocidos del nodo N3P y N2P de TSMC. Se incluye un ajuste por la segmentación cada vez mayor que hace Nvidia de la tope de gama y el resto de GPUs. He tenido en cuenta también el espacio aproximado que suele dedicar Nvidia en el die a Tensor Cores, RT Cores, etc. El tamaño del die para la tope de gama en un diseño monolítico debería rondar entre 600-700 mm².

Con el nodo N3P:

RTX 6090: 133 TFLOPS (26.000 núcleos CUDA a 2.55 GHz)
RTX 6080: 66 TFLOPS (12.500 núcleos CUDA a 2.65 GHz)
RTX 6070 Ti: 55 TFLOPS (10.500 núcleos CUDA a 2.6 GHz)
RTX 6070: 36 TFLOPS (7.000 núcleos CUDA a 2.6 GHz)

Con el nodo N2P:

RTX 7090: 170 TFLOPS (28.600 núcleos CUDA a 2.95 GHz)
RTX 7080: 84 TFLOPS (13.750 núcleos CUDA a 3.05 GHz)
RTX 7070 Ti: 69 TFLOPS (11.550 núcleos CUDA a 3.0 GHz)
RTX 7070: 46 TFLOPS (7.700 núcleos CUDA a 3.0 GHz)


La probabilidad con los datos disponibles era del 90 % de que las especificaciones ronden algo como lo de arriba. Lo hice con dos modelos diferentes y coincidían, pero podría haber un margen de error del 20 % sin problema.

En teoría deberían ser más caras que las 5000 y seguramente un poco más que las 4000. Por el precio de las obleas que vi en una publicación de Taiwán.

Deberían consumir un poco menos que las RTX 5000 pero más que la RTX 4000. Esa RTX 6090 recuerdo en el cálculo que era con un TDP de 500 W. Pero en teoría ese nodo podría incluso llegar refinado a los 3.5 GHz, en el N2P. Subiendo todavía más el consumo hasta algo como la RTX 5090 en plan 575 W.

El salto en frecuencia si te fijas es parecido al que hubo entre las RTX 3000 y 4000. En núcleos CUDA se mantiene consistente con el salto en las RTX 3000 a 4000 y 5000, la densidad de transistores no aumenta demasiado pero el salto en eficiencia es bastante considerable.
Sicopro escribió:Bueno no te creas, les suelen meter también un buen pico de núcleos CUDA. Que no digo que vaya a ser la puta hostia, pero le añade más músculo justamente en potencia bruta.

Una RTX 5080 Super igual podría rondar algo así:

- 24 GB VRAM.
- 12.000-12500 núcleos CUDA.
- 200 RT TFLOPS.
- 65 TFLOPS.

Como le metan 24 GB ya te puedes ir olvidando del valor de la RTX 4090, ahí cae en picado.

Tengo una estimación con la IA de las RTX 6000 lo hice con el nodo N2 de TSMC.

Aquí está la potencia bruta en rasterización de la gama media y alta teniendo en cuenta los datos conocidos del nodo N2 de TSMC. La frecuencia promedio estimada para el nodo es de 3.2 GHz. La densidad de transistores aumenta en un 27 % y la eficiencia energética en un 46 % respecto al nodo 4NP (RTX 5000). Se incluye un ajuste por la segmentación cada vez mayor que hace Nvidia de la tope de gama y el resto de GPUs. He tenido en cuenta también el espacio aproximado que suele dedicar Nvidia en el die a Tensor Cores, RT Cores, etc. El tamaño del die para la tope de gama en un diseño monolítico debería rondar entre 600-650 mm² como máximo.

- RTX 6090: 175 TFLOPS (27.264 núcleos CUDA a 3.2 GHz)
- RTX 6080: 86 TFLOPS (13.471 núcleos CUDA a 3.2 GHz)
- RTX 6070 Ti: 72 TFLOPS (11,226 núcleos CUDA a 3.2 GHz)
- RTX 6070: 49 TFLOPS (7,698 núcleos CUDA a 3.2 GHz)


La probabilidad con los datos disponibles era del 90 % de que las especificaciones ronden algo como lo de arriba. Lo hice con dos modelos diferentes y coincidían, pero podría haber un margen de error del 20 % sin problema.

En teoría deberían ser más caras que las 5000 y seguramente un poco más que las 4000. Por el precio de las obleas que vi en una publicación de Taiwán.

Deberían consumir un poco menos que las RTX 5000 pero más que la RTX 4000. Esa RTX 6090 recuerdo en el cálculo que era con un TDP de 500 W. Pero en teoría ese nodo podría incluso llegar refinado a los 3.5 GHz, en el N2P. Subiendo todavía más el consumo hasta algo como la RTX 5090 en plan 575 W.

El salto en frecuencia si te fijas es parecido al que hubo entre las RTX 3000 y 4000. En núcleos CUDA se mantiene consistente con el salto en las RTX 3000 a 4000 y 5000, la densidad de transistores no aumenta demasiado pero el salto en eficiencia es bastante considerable.

Tremendo curro jajaja [beer]

Peo es que el calor no es solo la VRAM.
Eso es un elemento más.
En Gaming, cuenta el rendimiento.

Por mucha VRAM que le metas a la super ,volvemos a lo mismo, como en rendimiento no sea igual o mejor ,o bastante cercano sin dlss4 +FGx4, seguimos en que se la están jugando nnla cantidad de juegos con DLSS 4 y en la calidad que pueda tener ese fGx4.

Si eso no cumple el n los dos puntos que te digo, o falla en uno, ya puede tener 24 GB de Vram ,que estamos en las mismas.

Es eu ,si DLSS 4 estuviese en todos los juegos ,a poco que sea bueno el FG ,el davte se acabaría.
Peor no es así y no sabemos l calidad de FGx4.

Tengo l acosa de que ,cuando veamos reviews ya con los drivers y tal, va a ser imposible no ver a los Youtubers diciendo que está bien, que funciona bien PERO....
Es que ya te lo digo yo.
En rasterización pura y dura es imposible que la alcance, la diferencia ahora mismo es demasiado grande, con optimizaciones puedes recortar algo pero no tanto. Otra cosa es con el RT activado, ahí ya es otro cantar, pueden recortar mucho las distancias, también depende del juego y si tiene más peso el rasterizado o el RT.

Por eso mencionaba la gráfica del Far Cry 6 con el RT, es lo más interesante, ya que las demás sobre todo muestran el DLSS 4.

Con DLSS 4 no hace falta ni mencionarlo que obviamente aplasta a la RTX 4090. Sumando rasterizado y RT activado pueden estar cerca. Ten en cuenta que ahora esos AI TOPS afectan vía renderizado neural al RT, es decir que el RT se apoya también en los Tensor Cores y la ganancia de TOPS, todo eso descarga a los CUDA aún más.

Añadiendo el reescalado DLSS quizás también pueda recortar algo de distancia. Sin tener en cuenta FG y MFG.

La mejora de la arquitectura va más en el sentido del RT y AI TOPS. Pero eso no es simplemente humo en plan DLSS 4 con frames inventados, es mejorar el renderizado vía RT, apoyarse en la IA para potenciarlo más y luego ya la técnica del MFG. Al final el rendimiento se va a disparar sobre todo con RT, PT y DLSS 4.

Pero al margen del MFG, solamente con RT activado debería haber un salto enorme, especialmente cuanto más RT utilices, es decir en juegos con PT como Cyberpunk 2077, cuando más chicha necesitas es donde más diferencia puede sacarle a la RTX 4090.

Para jugar sin más por rasterizado con RT apagado tampoco es que necesites mucha potencia. La gracia se encuentra en ese punto de mejorar el rendimiento con RT activado.

Lo de la VRAM lo decía por la gente interesada en esa cantidad de cara a estaciones de trabajo. Si te ofrecen una GPU más barata, nueva y con una cantidad similar de VRAM, puede ser interesante. Especialmente si encima rinde mejor en RT, consume menos, tiene más AI TOPS. Por eso te decía que una RTX 5080 Super con 24 GB le puede restar mucho valor de reventa a una RTX 4090.

Respecto a lo del curro, me tire unas dos horas para hacerlo, sobre todo para encontrar la información. Bueno y luego los típicos errores de cálculo y las idas de olla de la IA. [carcajad]

Ya veremos en los benchmarks como queda finalmente la cosa.
Sicopro escribió:En rasterización pura y dura es imposible que la alcance, la diferencia ahora mismo es demasiado grande, con optimizaciones puedes recortar algo pero no tanto. Otra cosa es con el RT activado, ahí ya es otro cantar, pueden recortar mucho las distancias, también depende del juego y si tiene más peso el rasterizado o el RT.

Por eso mencionaba la gráfica del Far Cry 6 con el RT, es lo más interesante, ya que las demás sobre todo muestran el DLSS 4.

Con DLSS 4 no hace falta ni mencionarlo que obviamente aplasta a la RTX 4090. Sumando rasterizado y RT activado pueden estar cerca. Ten en cuenta que ahora esos AI TOPS afectan vía renderizado neural al RT, es decir que el RT se apoya también en los Tensor Cores y la ganancia de TOPS, todo eso descarga a los CUDA aún más.

Añadiendo el reescalado DLSS quizás también pueda recortar algo de distancia. Sin tener en cuenta FG y MFG.

La mejora de la arquitectura va más en el sentido del RT y AI TOPS. Pero eso no es simplemente humo en plan DLSS 4 con frames inventados, es mejorar el renderizado vía RT, apoyarse en la IA para potenciarlo más y luego ya la técnica del MFG. Al final el rendimiento se va a disparar sobre todo con RT, PT y DLSS 4.

Pero al margen del MFG, solamente con RT activado debería haber un salto enorme, especialmente cuanto más RT utilices, es decir en juegos con PT como Cyberpunk 2077, cuando más chicha necesitas es donde más diferencia puede sacarle a la RTX 4090.

Para jugar sin más por rasterizado con RT apagado tampoco es que necesites mucha potencia. La gracia se encuentra en ese punto de mejorar el rendimiento con RT activado.

Lo de la VRAM lo decía por la gente interesada en esa cantidad de cara a estaciones de trabajo. Si te ofrecen una GPU más barata, nueva y con una cantidad similar de VRAM, puede ser interesante. Especialmente si encima rinde mejor en RT, consume menos, tiene más AI TOPS. Por eso te decía que una RTX 5080 Super con 24 GB le puede restar mucho valor de reventa a una RTX 4090.

Respecto a lo del curro, me tire unas dos horas para hacerlo, sobre todo para encontrar la información. Bueno y luego los típicos errores de cálculo y las idas de olla de la IA. [carcajad]

Ya veremos en los benchmarks como queda finalmente la cosa.

Hombre ,es que la clave es poder meter mle un buen PT con una buena tasa de frames.
Pero de que vale eso ,si con el PT buscas mejores gráficos ,y lo palmas con el FG.

Por eso ,digo que va a depender todo ,básicamente ,de la calidad que consiga Nvidia con esto.

A ver esos benchmarks [beer]
Yo creo que si consigues rentabilizar lo que haces de alguna forma te dolerá menos el dinero que te dejes en la GPU, créeme que hay formas de rentabilizar la GPU y más si haces ese tipo de cosas.
katatsumuri escribió:Yo creo que si consigues rentabilizar lo que haces de alguna forma te dolerá menos el dinero que te dejes en la GPU, créeme que hay formas de rentabilizar la GPU y más si haces ese tipo de cosas.

El tema es que me dedico a la investigación y no me deja mucho tiempo ni muchas posibilidades de rentabilizar directamente lo que hago, todo va enfocado a la tesis.

@hh1 @Sicopro Muchas gracias por toda la información, he aprendido un montón. Quedará ver que pasa con los benchmark de Blender y Unreal.

En verdad ese hipotético modelo de la 5080 super sería justo lo que necesito jaja, la cuestión es esperar un año siguiendo lastrado por la 3080, algo que ahora mismo no me puedo permitir.
@hh1 @Sicopro no quiero alargarme mucho más ni ensuciar el post (más XD) al compañero, pero sí que quiero hacer un pequeño apunte al hilo de una discusión similar mía con otra persona sobre precisamente el salto 4090->5080, que comprensiblemente nadie se habrá leído porque por las dos partes había unos posts tirando a larguitos.

Me cito:
1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)


CU=compute units (lo que normalmente se llaman shaders, núcleos CUDA, o lo que prefiráis)

Lo que quiero decir es que la arquitectura tiene un peso grande, muy grande, al nivel de eclipsar por mucho la cantidad de cores "a pelo". Creo que especialmente el caso de la 1070 es informativo aquí. Parte de la mejora es por frecuencia, pero parte es por arquitectura. La diferencia del 10-15% que nombro es de la media ponderada de la base de datos de TPU (lo que suelen llamar "performance summary" en las reviews de gráficas)

Si la 5080 no supera con solvencia y sin trucos a la 4090, algo va horriblemente mal. Y por supuesto os doy la razón a ambos a que los números apuntan a eso. Lo que quiero decir es que ha habido precedentes con números igual o más "en contra" que ahora y aun así nunca se ha dado semejante fracaso.

Y basándome en lo "descafeinadas" que han sido las super últimamente (la 4080 Super es de hecho PEOR que la 4080, porque rinde igual pero tiene las fases de alimentación bastante menos sobredimensionadas, lo único bueno de la 4080 super es que bajó el precio de esa gama 200€) yo diría que a lo que se refiere el compañero @Sicopro sería más bien a la posible 5080Ti (un chip de 5090 con el bus recortado y bastante parte no funcional). Pero para esa gráfica, si es que algún día existe (de momento no les hace falta) le quedan meses (o más de 1 año) para ver la luz.

Saludos
Pollonidas escribió:@hh1 @Sicopro no quiero alargarme mucho más ni ensuciar el post (más XD) al compañero, pero sí que quiero hacer un pequeño apunte al hilo de una discusión similar mía con otra persona sobre precisamente el salto 4090->5080, que comprensiblemente nadie se habrá leído porque por las dos partes había unos posts tirando a larguitos.

Me cito:
1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)


CU=compute units (lo que normalmente se llaman shaders, núcleos CUDA, o lo que prefiráis)

Lo que quiero decir es que la arquitectura tiene un peso grande, muy grande, al nivel de eclipsar por mucho la cantidad de cores "a pelo". Creo que especialmente el caso de la 1070 es informativo aquí. Parte de la mejora es por frecuencia, pero parte es por arquitectura. La diferencia del 10-15% que nombro es de la media ponderada de la base de datos de TPU (lo que suelen llamar "performance summary" en las reviews de gráficas)

Si la 5080 no supera con solvencia y sin trucos a la 4090, algo va horriblemente mal. Y por supuesto os doy la razón a ambos a que los números apuntan a eso. Lo que quiero decir es que ha habido precedentes con números igual o más "en contra" que ahora y aun así nunca se ha dado semejante fracaso.

Y basándome en lo "descafeinadas" que han sido las super últimamente (la 4080 Super es de hecho PEOR que la 4080, porque rinde igual pero tiene las fases de alimentación bastante menos sobredimensionadas, lo único bueno de la 4080 super es que bajó el precio de esa gama 200€) yo diría que a lo que se refiere el compañero @Sicopro sería más bien a la posible 5080Ti (un chip de 5090 con el bus recortado y bastante parte no funcional). Pero para esa gráfica, si es que algún día existe (de momento no les hace falta) le quedan meses (o más de 1 año) para ver la luz.

Saludos

Pues puede ser que sí la supere en raster.
Vamos a ver.

5080Ti ,como pronto, después del Verano.
Lo más probable ,es que en sale ,sea al año
Pollonidas escribió:@hh1 @Sicopro no quiero alargarme mucho más ni ensuciar el post (más ) al compañero, pero sí que quiero hacer un pequeño apunte al hilo de una discusión similar mía con otra persona sobre precisamente el salto 4090->5080, que comprensiblemente nadie se habrá leído porque por las dos partes había unos posts tirando a larguitos.


Nosotros hemos venido a hablar de nuestro libro. [carcajad]

Pollonidas escribió:Me cito:
1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)


CU=compute units (lo que normalmente se llaman shaders, núcleos CUDA, o lo que prefiráis)


Ya pero es que no es tan simple ahora, en ese entonces había un cambio en el nodo y el aumento en rendimiento se explicaba en gran medida por el aumento de la frecuencia. Por eso la 1070 te podía rendir más pese a tener menos núcleos en rasterización, ya que en realidad tiene más TFLOPS por el salto en frecuencia por el nuevo nodo más eficiente.

En un post anterior ya había explicado las optimizaciones vía arquitectura, incluso lo hice detalladamente.

Ahora mismo no tienes un cambio de nodo, ni tampoco hay un aumento en frecuencias. Así que en rasterización solo puedes aumentar la potencia de forma drástica si disparas el número de operaciones/ciclo, pero en principio siguen siendo 2, por el momento Nvidia no ha dicho nada al respecto. Así que solo les queda la opción de optimizar de la forma que había mencionado antes en diversos aspectos.

Por ejemplo utilizando los Tensor Cores, toda esa potencia en AI TOPS retroalimenta el rendimiento en RT y también de los CUDA, ya que se apoyan en el renderizado neural para dejar más libres a los CUDA y también optimizas más los cálculos de intersección para RT. Por ahí seguramente venga el aumento de rendimiento en videojuegos, incluso aunque la cifra teórica de TFLOPS pueda ser inferior. Al menos inferior de la forma que tradicionalmente se calculan.

En la presentación básicamente se mostraba mucho los AI TOPS y es por las características de la nueva arquitectura. En ningún momento se molestaron en mostrar los TFLOPS para FP32, se la sudaba a Jensen Huang. Creo que si mostraron los RT TFLOPS.

Tampoco sabemos si han reducido la latencia aumentando más la caché L2, optimizar los ROPs, es que hay muchas cosas que no sabemos de momento.

Como ya dije tiene pinta de que el rendimiento al final va a ser bastante superior al activar RT. Dependiendo del juego y cuanto más peso tenga la renderización en RT más margen le va a sacar la RTX 5080 a la 4090. Pero en rasterización pura y dura no sabemos si van a lograr salvar una diferencia tan grande en TFLOPS vía arquitectura. Salvo que hayan tocado el tema de las operaciones/ciclo, pero no he visto información al respecto, en su momento se anuncio cuando lo hicieron para las RTX 3000.

Turing (RTX 2000): 1 operación FP32 + 1 operación INT32 por núcleo CUDA y por ciclo.
Ampere (RTX 3000): 2 operaciones FP32 por núcleo CUDA y por ciclo, o 1 FP32 + 1 INT32.

Personalmente creo que habrán logrado que la RTX 5080 rinda más que la RTX 4090, ya que normalmente Kopite7kimi no se suele equivocar. Debe ser un insider de Nvidia o alguna ensambladora. Pero no sé si estaba hablando de solamente rasterización, o de rasterización + RT activado.

Pollonidas escribió:Y basándome en lo "descafeinadas" que han sido las super últimamente (la 4080 Super es de hecho PEOR que la 4080, porque rinde igual pero tiene las fases de alimentación bastante menos sobredimensionadas, lo único bueno de la 4080 super es que bajó el precio de esa gama 200€) yo diría que a lo que se refiere el compañero @Sicopro sería más bien a la posible 5080Ti (un chip de 5090 con el bus recortado y bastante parte no funcional). Pero para esa gráfica, si es que algún día existe (de momento no les hace falta) le quedan meses (o más de 1 año) para ver la luz.


Justo a eso me refería, una RTX 5080 Super o TI, como la quieran llamar. Con un chip recortado de la RTX 5090 y un bus de 384 bits en lugar de 512 bits para meter 24 GB de VRAM GDDR7.

Quito la tabla de rendimiento en rasterizado de Chiphell, después de leer los comentarios no parece muy fiable, así que seguimos como estábamos. Hasta que no haya benchmarks independientes fiables no hay nada que hacer.
Justamente por eso comentaba al compañero lo de mirar los FLOPS y no tanto los CUs, igualmente en el caso particular de la 1070 gran parte es por frecuencia pero gran parte es por arquitectura, por eso me parece buen ejemplo.

El cambio de nodo es relevante para las frecuencias que se pueden alcanzar, para el calor generado (y por ende, las temperaturas que se van a alcanzar y la capacidad del disipador) y para el tamaño físico del chip. Nada más. Nótese la cursiva anterior, igualmente creo que mucha gente tiene el erróneo concepto de que el cambio de nodo es notorio en el rendimiento, cuando no es el caso, al menos no de forma directa. Lo que se nota si acaso es el aumento de frecuencia, que no siempre se da (ver por ejemplo sandy bridge vs ivy bridge, a 32 y 22nm respectivamente, y los primeros escalaban bastante mejor y alcanzaban mayores frecuencias). Cuando intel seguía el modelo tick-tock lo notorio con diferencia eran los tocks (cambios de arquitectura) y para nada los ticks (cambios de proceso de fabricación y refinamientos menores. Los primeros i7 (nehalem) era un tock, sandy bridge era un tock, haswell era un tock...

Las operaciones por ciclo llevan siendo 2 (hablando de FP32) desde mucho antes de Ampere, puedes comprobarlo viendo los FLOPS de varias generaciones en la tabla que hay con este dato de la wikipedia en inglés y comprobando como es coherente con esto. Supongo que la "novedad" es la combinación de operaciones con varios tipos de datos en un solo ciclo, pero vamos, lo que quiero decir es que eso solo cuenta parte de la historia. Hay cosa que yo mismo no me esperaba, como que la 4070Ti Super (mismo bus, no muchos menos CUs, no muchos menos TFLOPs) esté relativamente lejos de la 4080, y es mayormente por la falta de caché L2. Esas cosas hasta que no salen reviews es imposible saberlas, ni siquiera teniendo fuentes relativamente fiables.

Sobre lo de la posible 5090 recortada, entiendo perfectamente a lo que te refieres (y ojalá se haga una realidad porque esa gama ahora mismo está sin cubrir), lo que yo quería decir es que ese modelo suele llamarse -Ti, casi nunca -Super. El modelo super suele ser el mismo chip pero sin deshabilitar nada, con mejoras de frecuencia.

Saludos
29 respuestas