Nomada_Firefox escribió:La opción B es bastante mejor porque las novedades de la serie 50 son más de software que claramente en Blender no vas a usar.
marlou escribió:Nomada_Firefox escribió:La opción B es bastante mejor porque las novedades de la serie 50 son más de software que claramente en Blender no vas a usar.
Justamente eso pensaba, que al tener mas potencia bruta iba a rendir mejor pero al parecer la velocidad del reloj afecta mucho:
una 4070 siendo un 10% más rápida que una 3090 en Blender
Pollonidas escribió:Mucha gente se centra en cosas que en mi humilde opinión son absolutamente irrelevantes.
Si vas a mirar métricas teóricas, incluso si no es una medida muy fiable porque no tiene en cuenta algunos criterios importantes, no mires cantidad de cuda cores, mira FLOPS. Que no es más que (cantidad de cores) x (frecuencia) x (operaciones/ciclo)
Es decir, que es de esperar que en blender en particular una 5080 sea superior a tu 3080 por un factor de 2-2.5 a pesar de tener un número similar de cores. A falta de reviews que lo confirmen claro.
La 4090 eso sí me parece una opción estupenda. Pero si puedes aguantar hasta que salgan las gamas medias de la serie 5000 te recomiendo hacerlo, porque a estas alturas de la película pagar 1400 cocos por una 4090 me parece un absoluto derroche. Pienso que en cuestión de meses bajarán de los 1000, y no digo una cantidad más baja porque para casos como el tuyo tanto por VRAM como por “músculo” van a seguir siendo superiores a gran parte de la serie 5000.
Saludos
Pollonidas escribió:Mucha gente se centra en cosas que en mi humilde opinión son absolutamente irrelevantes.
Si vas a mirar métricas teóricas, incluso si no es una medida muy fiable porque no tiene en cuenta algunos criterios importantes, no mires cantidad de cuda cores, mira FLOPS. Que no es más que (cantidad de cores) x (frecuencia) x (operaciones/ciclo)
Es decir, que es de esperar que en blender en particular una 5080 sea superior a tu 3080 por un factor de 2-2.5 a pesar de tener un número similar de cores. A falta de reviews que lo confirmen claro.
La 4090 eso sí me parece una opción estupenda. Pero si puedes aguantar hasta que salgan las gamas medias de la serie 5000 te recomiendo hacerlo, porque a estas alturas de la película pagar 1400 cocos por una 4090 me parece un absoluto derroche. Pienso que en cuestión de meses bajarán de los 1000, y no digo una cantidad más baja porque para casos como el tuyo tanto por VRAM como por “músculo” van a seguir siendo superiores a gran parte de la serie 5000.
Saludos
hh1 escribió:Yo tengo mis dudas de que una 4090 en meses ,baje de 1400€ de segunda mano..
Va a depender muy mucho de la calidad de ese FGx4 de las 5000.
Sin saber el resultado Real con nuevos drivers ,,hoy por hoy, no veo motivo para que baje más.
Eso no quita ,que haya algún desesperado que la deje más barata para ir a por una 5090.
Pollonidas escribió:hh1 escribió:Yo tengo mis dudas de que una 4090 en meses ,baje de 1400€ de segunda mano..
Va a depender muy mucho de la calidad de ese FGx4 de las 5000.
Sin saber el resultado Real con nuevos drivers ,,hoy por hoy, no veo motivo para que baje más.
Eso no quita ,que haya algún desesperado que la deje más barata para ir a por una 5090.
Puedo equivocarme, por supuesto, pero mira cuánto valía una 3090 al poco de salir las 4000, y eso que veníamos de un mercado infladísimo de precio por las crypo/covid que incluso hoy sigue notándose en gamas medias (ver precio de una 3060 usada mismamente).
Lo comenté en el hilo de las 5000 y muchos me saltaron al cuello: me extrañaría mucho que, en raster puro y duro y sin trucos, una 5080 no rinda significativamente más que una 4090. Sería la primera generación que eso no ocurre y no tendría ningún sentido desde el punto de vista del marketing.
Por supuesto me puedo equivocar en la apreciación (tengo la misma información que el resto) y los FLOPS indican lo contrario porque según la base de datos de TPU la 4090 tiene como un 20% de ventaja. Pero no sé hasta qué punto el boost aportado por la propia nvidia para las 5000 es conservador o no, eso podría cambiarlo todo. En las reviews se verá.
Saludos
Pollonidas escribió:@hh1 Yo ya digo que sería la primera vez en la historia de la compañía que la -80 rinde menos que la -90 de la generación anterior (salvando casos especiales como series en los que la -90 era una dual) por supuesto sin contar "trucos" como DLSS/FG en la revisión que sea. De hecho la 4080 tenía todas las papeletas para rendir menos que la 3090 (chip terminado en -3 en la 4080, es decir, gama media/alta, cuando la 3080/3090/3090Ti sí que llevaban el chip grande todas ellas) y la diferencia a mejor es de hecho notoria.
Otra cuestión a tener en cuenta es que, incluso si rindiera a un nivel similar, si el consumo es significativamente menor en la nueva entre eso y, ahora sí, las tecnologías nuevas de escalado, puede ser totalmente determinante para mandar el precio del anterior buque insignia al inframundo. Y eso a pesar de que cosas como la VRAM adicional van a tirar hacia arriba del precio de segunda mano para casos de uso como IA y minado.
Al menos eso quiero pensar como consumidor, por el bien de todos. Si después de 2 años el mismo "tier" de rendimiento no baja un "tier" de precio, apaga y vámonos.
Lo dicho por @Sicopro , en cuestión de semanas saldremos de dudas . Por mi parte si no hay sorpresas y me consigo hacer con una 5000 venderé mi actual 4090 a un buen amigo por bastante menos que eso (sabiendo que está por debajo del precio de mercado, pero bueno, tampoco vamos a salir de pobres)
Saludos
hh1 escribió:Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.
Sicopro escribió:@hh1
Solamente hay dos opciones, mienten con esa gráfica o es verdad. En cualquier caso lo vamos a saber en tres semanas.
La RTX 5080 tiene:
- 171 RT TFLOPS.
- 10752 núcleos CUDA.
- El ancho de banda es 960 GB/s.
- Frecuencia boost 2.62 GHz.
- TFLOPS (FP32) debería tener 56.34.
- AI TOPS 1801, esto es para el DLSS y el MFG.
La RTX 4090 tiene:
- 191 RT TFLOPS.
- 16384 núcleos CUDA.
- El ancho de banda es de 1024 GB/s.
- Frecuencia boost 2.52 GHz.
- TFLOPS (FP32) tiene 82.58.
- AI TOPS 1321, en este caso para el DLSS y el FG.
Sobre el papel no parece que pueda la RTX 5080 superar en rasterización ni tampoco en RT a la 4090. Si debería ser bastante superior en el tema del DLSS, FG y MFG por los AI TOPS.
En teoría no se han aumentado el número de operaciones por núcleo, siguen siendo 2.
Pueden optimizar la arquitectura para salvar la diferencia así:
- Reducción de latencia por la memoria GDDR7. Optimizaciones y mejoras en la caché L1 y L2. Eliminas cuellos de botella y haces más ágil todo el sistema de memoria.
- Mejoras en los ROPs y optimización del pipeline de rasterizado.
- Si los RT Cores de nueva generación son más eficientes, puedes liberar a los núcleos CUDA, así que en teoría tienes más rendimiento con menos TFLOPS.
- Los núcleos CUDA de nueva generación pueden tener menos latencia y ganar en paralelización con diversas instrucciones.
- Mejoras en la gestión de hilos y la programación de tareas en los SM.
Todas esas mejoras y optimizaciones de una nueva arquitectura no salen reflejadas en el número de TFLOPS. Hay que esperar a medir el rendimiento real en videojuegos.
En unos días veremos si esas gráficas de rendimiento eran más falsas que un billete de 70 € o son verdad.
hh1 escribió:Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.
Sicopro escribió:hh1 escribió:Pero no veo cómo va a hacer esa magia ,teniendo en cuenta el número de cudas de cada una.
Yo te respondía únicamente a eso, te lo voy a quotear en el otro mensaje.
Lo demás es cosa tuya con Pollonidas, ahí no me meto.
Como ves no estaba hablando en ningún momento del DLSS, ni de las mejoras o pegas que pueda tener el MFG.
Solo decía que hay formas de poder hacer esa magia o también de que nos están vendiendo la moto.
Por la gráfica me refería a la del Far Cry 6 que es la única sin MFG o FG. Es puro rasterizado y RT.
hh1 escribió:Por eso digo ,que eso de la devaluación de la 5?4090, no se yo hasta que punto.
Porelfectamente puede seguir siendo la top 2 en esta gen.
Sicopro escribió:hh1 escribió:Por eso digo ,que eso de la devaluación de la 5?4090, no se yo hasta que punto.
Porelfectamente puede seguir siendo la top 2 en esta gen.
Te lo pongo aquí en otro mensaje mejor, que justo había editado al leer el debate que tenías con Pollonidas y justo publicaste.
He leído todo el tema que estabais hablando del valor de la RTX 4090.
Hace falta ver los benchmarks, pero ese extra de VRAM le puede interesar a mucha gente. También el musculo que pueda tener en rasterización si finalmente la RTX 5080 se queda por detrás.
Pero vamos que la RTX 4090 se va a seguir vendiendo muy bien. Yo no creo que baje de los 1100-1300 € en segunda mano hasta quizás las RTX 5000 Super.
El tema del input lag no me preocupa, además con el Reflex 2 y Frame Warp va a ir muy bien. Los defectos si que son habituales si te fijas, de hecho en Cyberpunk 2077 muchas veces tenías las típicas estelas o efecto fantasma.
Eso es algo que en teoría han arreglado para todas las series.
Si es solo para jugar seguramente sale mejor una RTX 5080. Pero la cuestión es que la mayoría de gente que se compra una RTX 4090 o 5090 en realidad no lo hacen para jugar. En ese sentido no pierde valor por la cantidad de VRAM y el musculo que va a seguir teniendo en rasterización.
Aquí está la potencia bruta en rasterización de la gama media y alta teniendo en cuenta los datos conocidos del nodo N3P y N2P de TSMC. Se incluye un ajuste por la segmentación cada vez mayor que hace Nvidia de la tope de gama y el resto de GPUs. He tenido en cuenta también el espacio aproximado que suele dedicar Nvidia en el die a Tensor Cores, RT Cores, etc. El tamaño del die para la tope de gama en un diseño monolítico debería rondar entre 600-700 mm².
Con el nodo N3P:
RTX 6090: 133 TFLOPS (26.000 núcleos CUDA a 2.55 GHz)
RTX 6080: 66 TFLOPS (12.500 núcleos CUDA a 2.65 GHz)
RTX 6070 Ti: 55 TFLOPS (10.500 núcleos CUDA a 2.6 GHz)
RTX 6070: 36 TFLOPS (7.000 núcleos CUDA a 2.6 GHz)
Con el nodo N2P:
RTX 7090: 170 TFLOPS (28.600 núcleos CUDA a 2.95 GHz)
RTX 7080: 84 TFLOPS (13.750 núcleos CUDA a 3.05 GHz)
RTX 7070 Ti: 69 TFLOPS (11.550 núcleos CUDA a 3.0 GHz)
RTX 7070: 46 TFLOPS (7.700 núcleos CUDA a 3.0 GHz)
Sicopro escribió:Bueno no te creas, les suelen meter también un buen pico de núcleos CUDA. Que no digo que vaya a ser la puta hostia, pero le añade más músculo justamente en potencia bruta.
Una RTX 5080 Super igual podría rondar algo así:
- 24 GB VRAM.
- 12.000-12500 núcleos CUDA.
- 200 RT TFLOPS.
- 65 TFLOPS.
Como le metan 24 GB ya te puedes ir olvidando del valor de la RTX 4090, ahí cae en picado.
Tengo una estimación con la IA de las RTX 6000 lo hice con el nodo N2 de TSMC.Aquí está la potencia bruta en rasterización de la gama media y alta teniendo en cuenta los datos conocidos del nodo N2 de TSMC. La frecuencia promedio estimada para el nodo es de 3.2 GHz. La densidad de transistores aumenta en un 27 % y la eficiencia energética en un 46 % respecto al nodo 4NP (RTX 5000). Se incluye un ajuste por la segmentación cada vez mayor que hace Nvidia de la tope de gama y el resto de GPUs. He tenido en cuenta también el espacio aproximado que suele dedicar Nvidia en el die a Tensor Cores, RT Cores, etc. El tamaño del die para la tope de gama en un diseño monolítico debería rondar entre 600-650 mm² como máximo.
- RTX 6090: 175 TFLOPS (27.264 núcleos CUDA a 3.2 GHz)
- RTX 6080: 86 TFLOPS (13.471 núcleos CUDA a 3.2 GHz)
- RTX 6070 Ti: 72 TFLOPS (11,226 núcleos CUDA a 3.2 GHz)
- RTX 6070: 49 TFLOPS (7,698 núcleos CUDA a 3.2 GHz)
La probabilidad con los datos disponibles era del 90 % de que las especificaciones ronden algo como lo de arriba. Lo hice con dos modelos diferentes y coincidían, pero podría haber un margen de error del 20 % sin problema.
En teoría deberían ser más caras que las 5000 y seguramente un poco más que las 4000. Por el precio de las obleas que vi en una publicación de Taiwán.
Deberían consumir un poco menos que las RTX 5000 pero más que la RTX 4000. Esa RTX 6090 recuerdo en el cálculo que era con un TDP de 500 W. Pero en teoría ese nodo podría incluso llegar refinado a los 3.5 GHz, en el N2P. Subiendo todavía más el consumo hasta algo como la RTX 5090 en plan 575 W.
El salto en frecuencia si te fijas es parecido al que hubo entre las RTX 3000 y 4000. En núcleos CUDA se mantiene consistente con el salto en las RTX 3000 a 4000 y 5000, la densidad de transistores no aumenta demasiado pero el salto en eficiencia es bastante considerable.
Sicopro escribió:En rasterización pura y dura es imposible que la alcance, la diferencia ahora mismo es demasiado grande, con optimizaciones puedes recortar algo pero no tanto. Otra cosa es con el RT activado, ahí ya es otro cantar, pueden recortar mucho las distancias, también depende del juego y si tiene más peso el rasterizado o el RT.
Por eso mencionaba la gráfica del Far Cry 6 con el RT, es lo más interesante, ya que las demás sobre todo muestran el DLSS 4.
Con DLSS 4 no hace falta ni mencionarlo que obviamente aplasta a la RTX 4090. Sumando rasterizado y RT activado pueden estar cerca. Ten en cuenta que ahora esos AI TOPS afectan vía renderizado neural al RT, es decir que el RT se apoya también en los Tensor Cores y la ganancia de TOPS, todo eso descarga a los CUDA aún más.
Añadiendo el reescalado DLSS quizás también pueda recortar algo de distancia. Sin tener en cuenta FG y MFG.
La mejora de la arquitectura va más en el sentido del RT y AI TOPS. Pero eso no es simplemente humo en plan DLSS 4 con frames inventados, es mejorar el renderizado vía RT, apoyarse en la IA para potenciarlo más y luego ya la técnica del MFG. Al final el rendimiento se va a disparar sobre todo con RT, PT y DLSS 4.
Pero al margen del MFG, solamente con RT activado debería haber un salto enorme, especialmente cuanto más RT utilices, es decir en juegos con PT como Cyberpunk 2077, cuando más chicha necesitas es donde más diferencia puede sacarle a la RTX 4090.
Para jugar sin más por rasterizado con RT apagado tampoco es que necesites mucha potencia. La gracia se encuentra en ese punto de mejorar el rendimiento con RT activado.
Lo de la VRAM lo decía por la gente interesada en esa cantidad de cara a estaciones de trabajo. Si te ofrecen una GPU más barata, nueva y con una cantidad similar de VRAM, puede ser interesante. Especialmente si encima rinde mejor en RT, consume menos, tiene más AI TOPS. Por eso te decía que una RTX 5080 Super con 24 GB le puede restar mucho valor de reventa a una RTX 4090.
Respecto a lo del curro, me tire unas dos horas para hacerlo, sobre todo para encontrar la información. Bueno y luego los típicos errores de cálculo y las idas de olla de la IA.
Ya veremos en los benchmarks como queda finalmente la cosa.
katatsumuri escribió:Yo creo que si consigues rentabilizar lo que haces de alguna forma te dolerá menos el dinero que te dejes en la GPU, créeme que hay formas de rentabilizar la GPU y más si haces ese tipo de cosas.
1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)
Pollonidas escribió:@hh1 @Sicopro no quiero alargarme mucho más ni ensuciar el post (más ) al compañero, pero sí que quiero hacer un pequeño apunte al hilo de una discusión similar mía con otra persona sobre precisamente el salto 4090->5080, que comprensiblemente nadie se habrá leído porque por las dos partes había unos posts tirando a larguitos.
Me cito:1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)
CU=compute units (lo que normalmente se llaman shaders, núcleos CUDA, o lo que prefiráis)
Lo que quiero decir es que la arquitectura tiene un peso grande, muy grande, al nivel de eclipsar por mucho la cantidad de cores "a pelo". Creo que especialmente el caso de la 1070 es informativo aquí. Parte de la mejora es por frecuencia, pero parte es por arquitectura. La diferencia del 10-15% que nombro es de la media ponderada de la base de datos de TPU (lo que suelen llamar "performance summary" en las reviews de gráficas)
Si la 5080 no supera con solvencia y sin trucos a la 4090, algo va horriblemente mal. Y por supuesto os doy la razón a ambos a que los números apuntan a eso. Lo que quiero decir es que ha habido precedentes con números igual o más "en contra" que ahora y aun así nunca se ha dado semejante fracaso.
Y basándome en lo "descafeinadas" que han sido las super últimamente (la 4080 Super es de hecho PEOR que la 4080, porque rinde igual pero tiene las fases de alimentación bastante menos sobredimensionadas, lo único bueno de la 4080 super es que bajó el precio de esa gama 200€) yo diría que a lo que se refiere el compañero @Sicopro sería más bien a la posible 5080Ti (un chip de 5090 con el bus recortado y bastante parte no funcional). Pero para esa gráfica, si es que algún día existe (de momento no les hace falta) le quedan meses (o más de 1 año) para ver la luz.
Saludos
Pollonidas escribió:@hh1 @Sicopro no quiero alargarme mucho más ni ensuciar el post (más ) al compañero, pero sí que quiero hacer un pequeño apunte al hilo de una discusión similar mía con otra persona sobre precisamente el salto 4090->5080, que comprensiblemente nadie se habrá leído porque por las dos partes había unos posts tirando a larguitos.
Pollonidas escribió:Me cito:
1070 1920CU > 980Ti 2816SU (y por bastante diferencia, en torno a un 10-15%, a pesar de la brutal diferencia en "músculo")
2070 Super 2560SU > 1080Ti 3584SU (por poca diferencia, todo sea dicho, pero lógico con la desventaja de cores)
CU=compute units (lo que normalmente se llaman shaders, núcleos CUDA, o lo que prefiráis)
Pollonidas escribió:Y basándome en lo "descafeinadas" que han sido las super últimamente (la 4080 Super es de hecho PEOR que la 4080, porque rinde igual pero tiene las fases de alimentación bastante menos sobredimensionadas, lo único bueno de la 4080 super es que bajó el precio de esa gama 200€) yo diría que a lo que se refiere el compañero @Sicopro sería más bien a la posible 5080Ti (un chip de 5090 con el bus recortado y bastante parte no funcional). Pero para esa gráfica, si es que algún día existe (de momento no les hace falta) le quedan meses (o más de 1 año) para ver la luz.