[HO] NVIDIA GeForce RTX 5000

@nomadafirefox

Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.

Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.

Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.
Sicopro escribió:Veo muchos eolianos preocupados por una hipotética subida de precios por la llegada de Trump. Creo recordar que esos aranceles son solo sobre las importaciones.

Las RTX 5000 tienen una cadena de suministro compleja. Los chips se fabrican en Taiwán (TSMC) y la memoria en Corea y USA, por lo que estos componentes no estarían afectados. Gran parte del ensamblaje final de las RTX 5000 se hace en China, y eso sí podría estar en el punto de mira de Trump.

Los aranceles de Trump deberían ser quirúrgicos, dirigidos a sectores específicos y no aplicados de forma masiva. El tipo es un populista sin muchas luces, pero hasta eso llega, para algo tiene miles de asesores.

En el pasado aranceles similares elevaron los precios entre un 5-10 %, y algunas empresas mitigaron la subida reubicando la producción en Taiwán o México, así que ya tienen la experiencia previa del primer mandato de Trump. Supongo que habrán previsto hace meses la posible llegada de Trump a la presidencia y no les va a pillar en pañales.

Además de que implementar nuevos aranceles lleva su tiempo, todos los procedimientos legales y administrativos podrían retrasar meses la subida de precios.

Por cierto, para el que no lo sepa. Trump hizo su fortuna en el Nueva York de los años 70 y 80, aprovechando una expansión inmobiliaria y una crisis financiera. Heredo unos cuantos millones de su padre y un montón de contactos estratégicos, así pudo acceder a terrenos baratos, subsidios y financiación. Para más inri, el desarrollo inmobiliario de la época estaba influenciado por la mafia y los sindicatos que controlaban, recomiendo la película de: "El Irlandés", es bastante fidedigna.

El éxito de Trump es puro marketing personal, y su fortuna se debe a un cóctel de privilegios. Hasta una ameba hubiese hecho cientos o miles de millones en el contexto que vivió Trump.


Y no sería tan fácil como llevar las gráficas de China a Europa directamente? :Ð
Nomada_Firefox escribió:
John Wayne escribió:No tiene sentido que una 5060 tenga un dlss superior al de una 4090.

Diselo a las 3090 y a muchas anteriores. Ninguna tienen generador de frames. Lo que es el DLSS en si mismo, yo la verdad, nunca vi diferencia entre las RTX 30 y 40.

Tamagami escribió:Sacaran la tecnologia que hace rendir el doble a la VRAM?

No hay indicios de nada asi, incluso las noticias que dicen que el DLSS consume menos, es falsa porque el consumo es el mismo, lo que hace el DLSS es jugar con reescalados. Lo que si es posible es que usando memoria GDDR7, consuman un poco menos. Pero nada del otro mundo.

Yo he empezado a pensar ya desde el año pasado que no saldra ninguna tecnologia de software que aumente el rendimiento una barbaridad, no creo en milagros.

esami escribió:Sobre la racaneria de NVIDIA sobre la VRAM me estaba preguntando que opinaran las grandes desarroladoras de juegos sobre el tema y lo cayadas que parecen que estan.

Hay una respuesta que no has puesto y es la real, para esto los juegos tienen diferentes niveles de calidad.

Ademas les da igual las ventas en PC a la mayoria. Si fuera asi, no sucederia que la gran mayoria de juegos triple A mejoran el consumo de Vram pasados meses desarrollo.



Pero como va a consumir menos por ser GDDR7?
Es memoria, bytes son bytes. Hay mayor ancho de banda, nada más, la memoria no va a hacer ninguna transformación automática en los datos...

Vamos, digo yo... Si tiene alguna base ese comentario porfa comenta un poco por qué. En principio no le veo ningún sentido.
John Wayne escribió:@nomadafirefox

Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.

Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.

Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.

Tampoco significa que la 4090 vaya a ser en algun REMOTISIMO momento peor que la 5060.

Que le vas a hacer si actualizan por ejemplo los tensor cores a una nueva version mas eficiente que es la que permite ¨ un nuevo dlss¨ por decir algo

Mejor que no trabajen mas en mejorar esos chips?

Que los incluyan en las 4090 fabricadas en 2025? para que? si ya te los van a meter en las 5000

La tecnología avanza. Otra cosa es que alguien demuestre que ese software si funciona en las 4000 y no nos dejen usarlo.

Pero el que lo ha probado por ejemplo con el framegeneration en las 3000 y 2000 ha visto que no funciona por mucho fps que indique, son fotogramas clonados sin mas informacion.
[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?

Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.
que llegue ya la madrugada del 7 de Enero que se acabe ya este hilo de especulacion de hard y precio por favor..... y empecemos a hablar de cosas realmente ciertas....
Nomada_Firefox escribió:
[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?

Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.

Y mas cache tambien podria reducir algo no?
Tamagami escribió:
Nomada_Firefox escribió:
[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?

Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.

Y mas cache tambien podria reducir algo no?

Bueno, aunque nos venden la GPU tan cara, cosa que a todos nos fastidia porque por si sola es un ladrillo, no es una consola, todo pasa antes por la CPU y la RAM. Por eso hay cosas como que algunas CPUs sean mejores o los cuellos de botella.

Eso me recuerda que me gustaria ver si en Intel acaban por poner una latencia tan baja como en sus buenos tiempos de la DDR4 a la DDR5. Aunque en aquella epoca, tampoco hacia maravillas.
Tamagami escribió:
Nomada_Firefox escribió:
[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?

Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.

Y mas cache tambien podria reducir algo no?

Ninguna de esas dos cosas reducen el consumo de memoria.
adriano_99 escribió:
parh escribió:
adriano_99 escribió:La verdadera pregunta es: tendrán los cojones de dejar sin el nuevo dlss a la gente que se dejó más de 2000 pavos en una 4090?


yo sinceramente no me esperaria dlss 4 en las 4000. Si acaso alguna feature puntual, pero la version completa con todas las nuevas caracteristicas seguro que no. La comunidad se quejará está claro y Nvidia alegará que las mejoras van acomopañadas de hardware especifico, no es un tema de software.

LynX escribió:
adriano_99 escribió:La verdadera pregunta es: tendrán los cojones de dejar sin el nuevo dlss a la gente que se dejó más de 2000 pavos en una 4090?


Eso sí que sería una guarrada y es por lo que me pienso si comprarme la 5090 o no, siempre que salga a un precio digamos razonable claro xD.

Sinceramente, si hacen eso me da igual lo buenas que sean sus graficas, mi próxima sería si o si AMD.
Porque al menos sabes que no te van a dejar tirado cuando salga FSR5/DLSS5.
Y nvidia es una caradura en muchos sentidos pero hasta ahora su soporto a nivel de software de sus graficas ha sido muy bueno, siempre han sacado actualizaciones de drivers para sus graficas muchos años después de salir a la venta.
Pero si van a hacer la guarrada de solo soportar features en una generación de graficas a mi me pierden.


bueno, es que yo prefiero Nvidia por dos razones: disfrutar antes y mejor. AMD esta en su zona de confort siendo proveedor de GPUs de Sony y, si por AMD fuese, todos jugariamos a calidad plei-steshion y el 4K nativo seria la mayor novedad que tendriamos en gaming pc

Que me gustaria que AMD se pusiese al nivel de Nvidia? por supuesto que sí, los gamers seriamos los beneficiados de una autentica competencia entre las dos, pero, lamentablemente, no es asi, y AMD ni quiere y, parece, que ni puede.
John Wayne escribió:No tiene sentido que una 5060 tenga un dlss superior al de una 4090.


La 4060 tiene mejor dlss que la 3090 por no mencionar que la 3090 no tiene ni frame generation.

Porque iba a cambiar eso ahora si ya lo han hecho cuando tenian competencia y ahora no la tienen?

Haran lo que les salga de los huevos y la gente tragara como llevamos años viendo.



adriano_99 escribió:
Tamagami escribió:
Nomada_Firefox escribió:Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.

Y mas cache tambien podria reducir algo no?

Ninguna de esas dos cosas reducen el consumo de memoria.


Claro que reduce la cantidad de vram que se necesita.

Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.

Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.

Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.

Cuanto mas rapido menos VRAM se necesita.

Es facil de entender.
neox3 escribió:Con esto, la 5060 es un 33% más potente que la 4060 y un 10% más potente que la 4070 (de portátiles) y un pelo superior al de la 4060ti de escritorio (un 2%).

Si trae mas de 8GB pues de PM, si sigue con 8GB, pues será un poco Meh ...

PD: Parece que esa filtracion era falsa:
https://www.notebookcheck.org/Portatil-RTX-5060-frente-a-RTX-4060-La-GPU-RTX-50-para-portatiles-sera-mas-de-un-20-mas-rapida-pero-su-limitada-VRAM-podria-aguarle-la-fiesta.940152.0.html
SECHI escribió:Claro que reduce la cantidad de vram que se necesita.

Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.

Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.

Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.

Cuanto mas rapido menos VRAM se necesita.

Es facil de entender.


En teoría parece que funciona, pero en la práctica no. El tema es que no cargas una textura, la utilizas y la desechas al momento, necesitas retenerla durante su uso y se van acumulando junto a más texturas. Son como los discos NVME, por muy rápidos que sean, seguirás necesitando mucha memoria RAM para ciertas tareas.

En su día ya dijeron que los 10GB de VRAM de la 3080 no supondrían un problema porque era GDDR6X...pues no ha sido así.
Morpheus24o escribió:En teoría parece que funciona, pero en la práctica no. El tema es que no cargas una textura, la utilizas y la desechas al momento, necesitas retenerla durante su uso y se van acumulando junto a más texturas. Son como los discos NVME, por muy rápidos que sean, seguirás necesitando mucha memoria RAM para ciertas tareas.

En su día ya dijeron que los 10GB de VRAM de la 3080 no supondrían un problema porque era GDDR6X...pues no ha sido así.

Claro, al final da igual lo rápida que sea la VRAM, si hay que estar cargando/descargando texturas todo el rato, la penalización es tan brutal, que al final rindes peor que una tarjeta con mas VRAM pero mas lenta.

Lo que dices de la 3080 serán milongas de los fabricantes, no creo que ninguna analista que se respete haya dicho eso.
Morpheus24o escribió:
SECHI escribió:Claro que reduce la cantidad de vram que se necesita.

Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.

Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.

Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.

Cuanto mas rapido menos VRAM se necesita.

Es facil de entender.


En teoría parece que funciona, pero en la práctica no. El tema es que no cargas una textura, la utilizas y la desechas al momento, necesitas retenerla durante su uso y se van acumulando junto a más texturas. Son como los discos NVME, por muy rápidos que sean, seguirás necesitando mucha memoria RAM para ciertas tareas.

En su día ya dijeron que los 10GB de VRAM de la 3080 no supondrían un problema porque era GDDR6X...pues no ha sido así.


Bueno mi explicación ha sido a lo barrio sesamo, evidentemente el proceso es muchísimo mas complicado, no carga texturas una a una y espera a la siguiente, a decir verdad ni siquiera las diferencia entre ellas, solo envia datos comprimidos para luego descomprimirlos pero no como un disco duro, lo hace de una manera muy complicada.

Pero bueno, era una manera de hablar de manera sencilla. Todo el proceso es muy complicado, si buscas información sobre el tema alucinas de como funciona todo.
@SECHI no es así como funciona la memoria.

La GPU trabaja con diferentes niveles de memoria, si el dato que busca no está en la memoria accede al siguiente nivel de memoria, cada nivel es más lento y más grande que el anterior.

En el caso de la VRAM es el último nivel antes de pedirlo a la RAM o al disco duro, cuando una aplicación supera la memoria necesaria para ejecutar un problema, se tiene que desalojar un bloque de la VRAM y transferirlo a disco, y traer el nuevo bloque.

Por eso el rendimiento baja en picado en cuanto falta la VRAM, y este efecto pasa independientemente de la velocidad de la VRAM, ya que el rendimiento lo marca más bien el disco duro.
PepeC12 escribió:@SECHI no es así como funciona la memoria.

La GPU trabaja con diferentes niveles de memoria, si el dato que busca no está en la memoria accede al siguiente nivel de memoria, cada nivel es más lento y más grande que el anterior.

En el caso de la VRAM es el último nivel antes de pedirlo a la RAM o al disco duro, cuando una aplicación supera la memoria necesaria para ejecutar un problema, se tiene que desalojar un bloque de la VRAM y transferirlo a disco, y traer el nuevo bloque.

Por eso el rendimiento baja en picado en cuanto falta la VRAM, y este efecto pasa independientemente de la velocidad de la VRAM, ya que el rendimiento lo marca más bien el disco duro.


Yo no he hablado en ningún momento de cuando te quedas sin vram. Ya sabemos lo que ocurre.
pinturito escribió:que llegue ya la madrugada del 7 de Enero que se acabe ya este hilo de especulacion de hard y precio por favor..... y empecemos a hablar de cosas realmente ciertas....

El salseo tiene su gracia :Ð
Real no fake

Imagen

Imagen

Esta en concreto, diseño de 2.5 ranuras
John Wayne escribió:Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.

Habéis repetido el mismo comentario muchas veces y no entiendo la indignación.

No pasa nada, si lo hacen puede ser normal, es el simple avance de alguien como Nvidia que evoluciona y crea nueva tecnología y para nada tiene por qué significar que se ría de los clientes o similar. El problema lo tienen los clientes que solo quieren tener lo último. Si por algún tema necesitan tener lo último que apechuguen, pero que no se quejen porque si tienen lo último es porque quieren, nadie les obliga.

En cuanto a la evolución, si en las 5000 meten nuevo hardware que facilita alguna funcionalidad concreta (ya sea IA o lo que sea), es evidente que las anteriores generaciones no podrán hacer nada de eso (tampoco la 4090 por muy potente que sea) y sería algo comprensible.

Otra cosa es lo que acabe pasando, no seré yo quien se ponga a teorizar en base a rumores o la info que ha ido saliendo y menos a menos de 5 días para que se presente, ya solo queda esperar.


neofonta escribió:
pinturito escribió:que llegue ya la madrugada del 7 de Enero que se acabe ya este hilo de especulacion de hard y precio por favor..... y empecemos a hablar de cosas realmente ciertas....

El salseo tiene su gracia :Ð

Eso es un tema personal, a mi personalmente el salseo no me interesa nada. Como en todos los temas, los habrá que les guste el tema rumores/salseo y los habrá que no.

También con ganas de que llegue el 7 y se hable de información oficial y no tantas fumadas y teorías (algunas absurdas).
Como? Que la 4090 no tendrá el dlss? pues voy a castigar a nvidia comprándome una 5090! Hombre ya! [sonrisa]
PSX22 escribió:si sube como de 30 a 40, la 3080 es un 100% y la 4080 es un 150%, es muy loco.

Tu ves a la 5080 rindiendo un 50% mas que una 4080?


El rendimiento relativo es una proporción abstracta, así que depende de la GPU que utilices como base para el 100 %. Si lo miras desde la base de la 4080 a la 3080 no ves que el porcentaje es menor.

Si quieres saber el rendimiento exacto real es mejor que trinques la media de ganancia de FPS para cada resolución, y luego hagas otra media con toda la serie entera.

RTX 4090 vs 3090: 50 %
RTX 4080 vs 3080: 40 %
RTX 4070 Ti vs 3070 Ti: 25 %
RTX 4070 vs 3070: 20 %
RTX 4060 Ti vs 3060 Ti: 15 %
RTX 4060 vs 3060: 12 %

Total: 50 + 40 + 25 + 20 + 15 + 12 / 6 = 27 %.

Son cifras redondeadas así que el porcentaje igual varía entre 1-3 %.

Tamagami escribió:Y mas cache tambien podria reducir algo no?


Eso fue lo que se hizo con las RTX 4000, un aumento considerable de la caché L2.

Al tener más datos cargados en caché no necesitas acceder tanto a la VRAM, y el mayor ancho de banda ayuda a mover los datos más rápido, así que optimizas el sistema de memoria, lo haces más ágil. Pero como alguien dijo antes, los bytes son bytes, y eso no disminuye casi nada el consumo de VRAM. Aunque aumenta mucho el rendimiento.

Lo que ayuda es la compresión de texturas, eso ya se hace, pero la cuestión es si las RTX 5000 van a tener NTC (Nvidia Texture Compression), una compresión basada en ML. No tiene pinta, ya que en la filtración de Inno3D no salió mencionado, parece ser que la novedad es el renderizado neural.

SECHI escribió:Claro que reduce la cantidad de vram que se necesita.

Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.

Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.

Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.

Cuanto mas rapido menos VRAM se necesita.

Es facil de entender.


Confundes la agilidad del sistema de memoria con la cantidad de VRAM necesaria. Aunque el mayor ancho de banda y la cantidad de caché pueden hacer que los datos se manejen más rápido, eso no reduce significativamente el uso de VRAM. Mejoras el rendimiento y la fluidez, pero las texturas siguen ocupando el mismo espacio en VRAM. La cantidad de VRAM necesaria depende de la resolución y la calidad, no de la rapidez al procesarlas.

La variación como mucho va a ser de unos pocos cientos de megas, algo marginal.

Lo que de verdad afecta al consumo de VRAM es: la compresión de texturas, el streaming de texturas, los mipmaps y por supuesto evitar las redundancias en general. :Ð
John Wayne escribió:@nomadafirefox

Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.

Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.

Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.

Bueno, magnificas palabras, muy bonitas pero si tu fueras Nvidia, querrias aprovecharte y vender algo lo más exclusivo.

Asi que vuelve a decirme eso de no tiene ninguna logica porque yo creo que es muy logico. Lo ilogico es que el publico se lo permita porque a AMD por intentar hacer cosas parecidas la crujen pero a Nvidia no.

@Sicopro Lo que hay entre una 4060 y una 3060 es más bien un 6%. Pero que no esteis usando porcentajes de techpowerup porque es rendimiento relativo y no es como se ve realmente en la lista.

Ademas una 4070Ti rinde como una 3090.........mucha diferencia para un redondeo........ :)
neox3 escribió:Real no fake

Imagen

Imagen

Esta en concreto, diseño de 2.5 ranuras


Se terminaron los ladrillos, al menos para las 80. Los que pillen una 90 se van a cagar. [carcajad]
neox3 escribió:Real no fake

Imagen

Imagen

Esta en concreto, diseño de 2.5 ranuras


Me huele que habrá que esperar un año a que salgan las que lleven más de 16 Gb. Hasta entonces creo que seguiré jugando a 2k xD.
neox3 escribió:Real no fake

Imagen

Imagen

Esta en concreto, diseño de 2.5 ranuras


Tienes el enlace original? gracias!

¿La FE 4080? ¬_¬

Imagen

Fuente:
https://videocardz.com/newz/new-geforce ... -led-strip
esami escribió:
neox3 escribió:Real no fake

Imagen

Imagen

Esta en concreto, diseño de 2.5 ranuras


Tienes el enlace original? gracias!

¿La FE 4080? ¬_¬

Imagen

Fuente:
https://videocardz.com/newz/new-geforce ... -led-strip



Pues esta chula la founder (de no ser fake)
Parecen más delgadas no?, o tienen consumo reducido, han mejorado la disipación o serán estufas.
Me parece un poco plasticosa y horterilla para ser la founders.
Yo me la juego y digo que no van a tener ningún DLSS exclusivo por lo menos hasta la serie 6XXX.
John Wayne escribió:@nomadafirefox

Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.

Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.

Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.

Eso lo he p nssso ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

@LynX
Yo creo que no va a haber que esperar tanto.Puede que se n Verano salga esa TI o después del Verano.
KnightSparda escribió:Me parece un poco plasticosa y horterilla para ser la founders.


Yo creo que es un render, pero la.estetica esta bien
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
Rvilla87 escribió:
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.

Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.
@Sicopro Bueno, mi 4090 ocupa un diseño de 3,2 ranuras por lo que el susto ya está dado
hh1 escribió:
Rvilla87 escribió:
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.

Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.

Exacto, sigo dudando que las RTX 30 no puedan tener frame generation.
hh1 escribió:
Rvilla87 escribió:
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.

Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.

Y tú sabes con seguridad que lo hacen (si fuera el caso, no está confirmado) porque no les da la gana?!?! :-?

Es que ya son ganas de quejarse por quejar sin tener ni idea de por qué lo hacen o lo dejan de hacer...

Pero si es muy sencillo el tema, cuando alguna nueva tecnología requiere de un hardware específico es de cajón que el hardware anterior NO podrá tener esa tecnología.

Si crees que lo hacen vía hardware (y no vía software) por joder, eso se desmonta tan fácil como que los mods cambian el software para que la nueva tecnología funcione en anteriores generaciones. Así se destapa el método rastrero para joder a los clientes (que crees, no digo que haya pasado). Cosas mas o menos similares ha pasado alguna que otra vez (no hablo en este ámbito de gráficas, pero podría ser, no lo sé de memoria).

Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).
supuestamente, AMD el FSR4 si sera compatible con la serie 7000. Pero con la serie 6000 se supone que no sera compatible.
Rvilla87 escribió:Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).


Yo soy pro nvidia pero ahí te equivocas un poco.
El FSR como upscaler si que es muy inferior a dlss pero el FG de Amd funciona muy muy bien. Si partes de fps de más de 60fps el resultado es buenisimo.
En los juegos que lo incorporan de serie junto a DLSS y que permite usarlo en mi 3080 funciona de maravilla. Lo único que se le puede tachar es un poco más de latencia, pero por lo demás... chapó. Si realmente lo has probado no dirias lo que dices.

Amd tirará de hardware sobretodo para competir contra dlss
Rvilla87 escribió:
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.


En la mayoria de juegos se usa el FG de AMD, y la gente ni se entera si tiene peor calidad...
Kroxy escribió:
Rvilla87 escribió:Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).


Yo soy pro nvidia pero ahí te equivocas un poco.
El FSR como upscaler si que es muy inferior a dlss pero el FG de Amd funciona muy muy bien. Si partes de fps de más de 60fps el resultado es buenisimo.
En los juegos que lo incorporan de serie junto a DLSS y que permite usarlo en mi 3080 funciona de maravilla. Lo único que se le puede tachar es un poco más de latencia, pero por lo demás... chapó. Si realmente lo has probado no dirias lo que dices.

Amd tirará de hardware sobretodo para competir contra dlss

Precisamente ahi esta la.gracia: tener unn FG con la menor latencia posible. Total, crear un frame a partir de uno anterior y posterior no es nada del.otro mundo, la gracia es hacerlo "sin que se note", y eso solo lo tiene el FG del Dlss. Y lo tiene no porque sus programadores son unos cracks sino porque ha diseñado el hardwate especifico para dicha tarea ( los optical flow accelerator, si no recuerdo mal)
HakiGold escribió:
Rvilla87 escribió:
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.


En la mayoria de juegos se usa el FG de AMD, y la gente ni se entera si tiene peor calidad...


supuestamente el fsr4 solo sera en la serie 7000 y 9000.

nvida si es capaz de dejar tirado a la generacion anterior, con el dlss 4, "obligando" a comprar la serie 5000
@parh

El de Nvidia también genera las misma latencia que el de AMD, al final de cuentas es imposible no agregar latencias , ya que se trata de agregar un Frame intermedio entre dos reales.
Rvilla87 escribió:
hh1 escribió:
Rvilla87 escribió:Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.

Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.

Y tú sabes con seguridad que lo hacen (si fuera el caso, no está confirmado) porque no les da la gana?!?! :-?

Es que ya son ganas de quejarse por quejar sin tener ni idea de por qué lo hacen o lo dejan de hacer...

Pero si es muy sencillo el tema, cuando alguna nueva tecnología requiere de un hardware específico es de cajón que el hardware anterior NO podrá tener esa tecnología.

Si crees que lo hacen vía hardware (y no vía software) por joder, eso se desmonta tan fácil como que los mods cambian el software para que la nueva tecnología funcione en anteriores generaciones. Así se destapa el método rastrero para joder a los clientes (que crees, no digo que haya pasado). Cosas mas o menos similares ha pasado alguna que otra vez (no hablo en este ámbito de gráficas, pero podría ser, no lo sé de memoria).

Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).

Primero ,yo no me estoy quejando.
Solo he dado una opinión.

Para ver si se podría implementar o no, habrá que esperar a ver lo que sacan y cómo funciona.

Ñeo ,dese luego que ,si puede funcionar en gráficas que hace 2 años costaban +1000€, me parecería una cerdada de Nvidia.
HakiGold escribió:
Rvilla87 escribió:
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.

Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología? :Ð

Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.


En la mayoria de juegos se usa el FG de AMD, y la gente ni se entera si tiene peor calidad...

Si tuviera que tener en cuenta a la gente que incluso opina que para qué el FG de Nvidia o AMD (cada uno con su calidad) cuando tienen el Lossless Scaling... Es todo muy subjetivo, y aprovecho para responder al comentario de @Kroxy

Decidme cual de los FGs veis mejor: https://youtu.be/69k7ZXLK1to?t=157

Pero es que en mi anterior comentario no quise entrar en nada subjetivo (si es difícil de detectar o no, si la latencia importa mas o menos, o que si la mayoría de gente lo diferencia o no, etc.). Lo que venía a decir es que si Nvidia tiene un objetivo de calidad X y eso ven que no lo cumplen solo vía software sino que necesitan hardware, pues digo yo que irán a por su solución, por mucho que luego haya gente que se monte películas y sea una malpensada (¿saben mejor ellos que los ingenieros de Nvidia? ¬_¬ ).


@Gamer1974 pues si supuestamente el nuevo FG de AMD funcionará en las 7000 a simple vista veo que puede significar 2 cosas: o que las 7000 ya las prepararon previeron que en un futuro aplicarían el FG vía hardware o que no será del todo bueno al no usar hardware dedicado. 1º a ver la calidad y cómo explican que las 7000 (supuestamente) lo soportan y las otras no. Porque en ese sentido Nvidia lo justificó con lo del nuevo hardware.


@hh1 hombre a mi lo de "que menos que ya que haces la guarrada" y que al menos las gamas altas de la anterior puedan usar la nueva supuesta tecnología me pareció una queja. Si dices que no, pues mira, no era una queja, es lo de menos porque lo que venía a decir es que no entiendo ese tipo de comentarios que casi parece que podáis hacer mejor el trabajo que los de Nvidia hasta el punto de "saber" cuándo una nueva tecnología puede requerir o no de nuevo hardware... o si no algo que me parece peor, pretender que NO haya progreso (o tanto progreso) con tal de no molestar a clientes porque no tienen todas las tecnologías con hardware anterior.
@Rvilla87

Lo importante es si en la práctica se nota o no, Nvidia no ha quitado el FG de la 3000 porque no cumplas X calidad técnica, ya que en la práctica la gente no juega en cámara lenta y con zoom 500% como se ve en ese video.
PSX22 no podrá escribir en este subforo hasta dentro de 1 hora
Claro eso que planteas es ridiculo, la estadistica no cuenta la verdad, solo una a medias, si a mi me interesa la 5080 tengo que mirar ese tier en Delta de ganancia intergen de ese Tier, si haces media de las 60 con las 90, es como explicar que si yo tengo 2 pollos, y tu nada, comemos 1 pollo cada uno, lo cual es falso. Si las series 80 han ganado un 50% de 30 a 40 series, lo sensato es esperar un 50% para 40 a 50 ( en este caso la tier 80). Mezclar gamas es dar un delta de ganancia intergen para la serie entera erroneo, porque en casos de 60 sera una sobreestimacion y en caso de 90 sera una infraestimacion.

EN este caso fue de 50, pero esa retabilidad de ganancia no tiene porque repetirse, yo al menos no espero un 50% en la 5080 ni cercano sin DLSS4.

Sobre resoluciones es otro engaño, pues a mi no me intereda la ganancia media en 3 resoluciones, sino en la resolucion 4K que suele ser muy menor a la media de los 3 standares ( 1080 1440 2160) , si la 5070TI supera en un 100% a la 4070TI en 1080p a mi no me da informacion , no juego asi, me lo tendran que dar expresado en 1440p o 2160P, aunque en mi caso es 4k dlss ( 1440P internos). En esta gen a ver si es verdad que los cuda cores no son penalizados por usar DLSS y son los tensor cores los que cargan con el 100% del proceso, pues seria ideal equiparar 4K DLSS calidad ( 1440p internos ) a un rendimiento nativo 1440p sin DLSS, pero me temo que seguira habiendo penalizacion ya que los tensor por si solos no pueden terminar todo el proceso de rescalado y axulian los cuda de alguna forma.


Sobre la VRAM una muy rapida no creo que reduzca la cantidad de memoria en uso, para eso se requeriria memoria DDR6 que trabajase a latencias similares y velocidades similares a 20Gbps, asi podria hacerse balanceo entre DDR6 y GDDR6 como si una memoria unificada se tratase, no parece el caso viable. Lo que si se puede hacer es usar SSD nvme de 14000MB o mas si es posible cargar previamente texturas directo a vram en el momento de uso ( en cambios de salas ) o en mundos abiertos con un sistema de poping no muy evidente, en PS5 ya se usa en ratchet esto para cargar texturas no visibles en ese momento , por ejemplo la vista trasera del protagonista, hay tiempo de giro de camara para cargar lo faltante dede ssd a memoria unificada de ps5. Hacer esto es complicado en PC porque no tienes un hardware certificado para todos y se tira por meter todo en la bolsa y ya dejarlo allocated por si las moscas.


Otra forma de reducir VRAM es la IA generativa, si los nucleos IA generan texturas al vuelo , pueden cargarse en el momento de mostrarse y luego generar otras liberando memoria de las anteriores, asi lo que importa es el pull global de cosas se mas pequeño. Ahora muchos juegos si ocupan 14GB de texturas, si tienes la memoria intentan cargarla desde el principio, porque no hay que hacer una cadena de prioridades del streming de assets en el tiempo y claro en juegos abiertos no es cosa facil.


Sicopro escribió:
PSX22 escribió:si sube como de 30 a 40, la 3080 es un 100% y la 4080 es un 150%, es muy loco.

Tu ves a la 5080 rindiendo un 50% mas que una 4080?


El rendimiento relativo es una proporción abstracta, así que depende de la GPU que utilices como base para el 100 %. Si lo miras desde la base de la 4080 a la 3080 no ves que el porcentaje es menor.

Si quieres saber el rendimiento exacto real es mejor que trinques la media de ganancia de FPS para cada resolución, y luego hagas otra media con toda la serie entera.

RTX 4090 vs 3090: 50 %
RTX 4080 vs 3080: 40 %
RTX 4070 Ti vs 3070 Ti: 25 %
RTX 4070 vs 3070: 20 %
RTX 4060 Ti vs 3060 Ti: 15 %
RTX 4060 vs 3060: 12 %

Total: 50 + 40 + 25 + 20 + 15 + 12 / 6 = 27 %.

Son cifras redondeadas así que el porcentaje igual varía entre 1-3 %.

Tamagami escribió:Y mas cache tambien podria reducir algo no?


Eso fue lo que se hizo con las RTX 4000, un aumento considerable de la caché L2.

Al tener más datos cargados en caché no necesitas acceder tanto a la VRAM, y el mayor ancho de banda ayuda a mover los datos más rápido, así que optimizas el sistema de memoria, lo haces más ágil. Pero como alguien dijo antes, los bytes son bytes, y eso no disminuye casi nada el consumo de VRAM. Aunque aumenta mucho el rendimiento.

Lo que ayuda es la compresión de texturas, eso ya se hace, pero la cuestión es si las RTX 5000 van a tener NTC (Nvidia Texture Compression), una compresión basada en ML. No tiene pinta, ya que en la filtración de Inno3D no salió mencionado, parece ser que la novedad es el renderizado neural.

SECHI escribió:Claro que reduce la cantidad de vram que se necesita.

Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.

Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.

Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.

Cuanto mas rapido menos VRAM se necesita.

Es facil de entender.


Confundes la agilidad del sistema de memoria con la cantidad de VRAM necesaria. Aunque el mayor ancho de banda y la cantidad de caché pueden hacer que los datos se manejen más rápido, eso no reduce significativamente el uso de VRAM. Mejoras el rendimiento y la fluidez, pero las texturas siguen ocupando el mismo espacio en VRAM. La cantidad de VRAM necesaria depende de la resolución y la calidad, no de la rapidez al procesarlas.

La variación como mucho va a ser de unos pocos cientos de megas, algo marginal.

Lo que de verdad afecta al consumo de VRAM es: la compresión de texturas, el streaming de texturas, los mipmaps y por supuesto evitar las redundancias en general. :Ð







que dice este GURU?
que si blackwell no es mucho mejor que ada, como los cuda no aumentan casi , dice que 4070TI super no va a ser mucho peor que la 5070TI ( sin DLSS4 ni FG) pero que dice este hombre, podra tener razon? tendra finalmente razon nuestro @hh1 favorito?




@Rvilla87
Ese video ya lo vi en su momento. QUizá no me has entendido.
El FG de Nvidia seguro que es mejor y superior, no lo dudo, pero al igual que con el FSR se nota a simple vista los fallos que tiene de flickering, etc, con el FG de AMD eso no pasa y a simple vista cumple de sobras. Por decir te diré que yo ni tan solo noto el aumento de latencia.

Me estoy pasando ahora mismo el Ghostrunner 2 con DLSS y FG de AMD. Lo permite de serie el juego sin ningun mod. Como bien sabrás ese juego es rápido de narices, pues no noto absolutamente ningún defecto en el FG de AMD.
PSX22 no podrá escribir en este subforo hasta dentro de 1 hora
@Kroxy

ese ghost lo tienes de epic y lo sabes, ayer me pase el boss primero con barra de vida, juegarral, me va 4K 120 nativos , gracias al poder del duende verde



En cuanto al FG de nvidia, tienes razon en temas de huds, genera doble imagen, pero es aceptable, en AMD supone que deberia ser peor sino no tendria sentido el uso de hardware





este guru de arriba dice que seria un 5% mejor la 5070TI que la 4070TI Super, sera posible ( sin DLSS4) por un mero tema de los cores que no les presume mejor rendimiento
PSX22 escribió:Claro eso que planteas es ridiculo, la estadistica no cuenta la verdad, solo una a medias, si a mi me interesa la 5080 tengo que mirar ese tier en Delta de ganancia intergen de ese Tier, si haces media de las 60 con las 90, es como explicar que si yo tengo 2 pollos, y tu nada, comemos 1 pollo cada uno, lo cual es falso. Si las series 80 han ganado un 50% de 30 a 40 series, lo sensato es esperar un 50% para 40 a 50 ( en este caso la tier 80). Mezclar gamas es dar un delta de ganancia intergen para la serie entera erroneo, porque en casos de 60 sera una sobreestimacion y en caso de 90 sera una infraestimacion.

EN este caso fue de 50, pero esa retabilidad de ganancia no tiene porque repetirse, yo al menos no espero un 50% en la 5080 ni cercano sin DLSS4.

Sobre resoluciones es otro engaño, pues a mi no me intereda la ganancia media en 3 resoluciones, sino en la resolucion 4K que suele ser muy menor a la media de los 3 standares ( 1080 1440 2160) , si la 5070TI supera en un 100% a la 4070TI en 1080p a mi no me da informacion , no juego asi, me lo tendran que dar expresado en 1440p o 2160P, aunque en mi caso es 4k dlss ( 1440P internos). En esta gen a ver si es verdad que los cuda cores no son penalizados por usar DLSS y son los tensor cores los que cargan con el 100% del proceso, pues seria ideal equiparar 4K DLSS calidad ( 1440p internos ) a un rendimiento nativo 1440p sin DLSS, pero me temo que seguira habiendo penalizacion ya que los tensor por si solos no pueden terminar todo el proceso de rescalado y axulian los cuda de alguna forma.


Sobre la VRAM una muy rapida no creo que reduzca la cantidad de memoria en uso, para eso se requeriria memoria DDR6 que trabajase a latencias similares y velocidades similares a 20Gbps, asi podria hacerse balanceo entre DDR6 y GDDR6 como si una memoria unificada se tratase, no parece el caso viable. Lo que si se puede hacer es usar SSD nvme de 14000MB o mas si es posible cargar previamente texturas directo a vram en el momento de uso ( en cambios de salas ) o en mundos abiertos con un sistema de poping no muy evidente, en PS5 ya se usa en ratchet esto para cargar texturas no visibles en ese momento , por ejemplo la vista trasera del protagonista, hay tiempo de giro de camara para cargar lo faltante dede ssd a memoria unificada de ps5. Hacer esto es complicado en PC porque no tienes un hardware certificado para todos y se tira por meter todo en la bolsa y ya dejarlo allocated por si las moscas.


Otra forma de reducir VRAM es la IA generativa, si los nucleos IA generan texturas al vuelo , pueden cargarse en el momento de mostrarse y luego generar otras liberando memoria de las anteriores, asi lo que importa es el pull global de cosas se mas pequeño. Ahora muchos juegos si ocupan 14GB de texturas, si tienes la memoria intentan cargarla desde el principio, porque no hay que hacer una cadena de prioridades del streming de assets en el tiempo y claro en juegos abiertos no es cosa facil.


Sicopro escribió:
PSX22 escribió:si sube como de 30 a 40, la 3080 es un 100% y la 4080 es un 150%, es muy loco.

Tu ves a la 5080 rindiendo un 50% mas que una 4080?


El rendimiento relativo es una proporción abstracta, así que depende de la GPU que utilices como base para el 100 %. Si lo miras desde la base de la 4080 a la 3080 no ves que el porcentaje es menor.

Si quieres saber el rendimiento exacto real es mejor que trinques la media de ganancia de FPS para cada resolución, y luego hagas otra media con toda la serie entera.

RTX 4090 vs 3090: 50 %
RTX 4080 vs 3080: 40 %
RTX 4070 Ti vs 3070 Ti: 25 %
RTX 4070 vs 3070: 20 %
RTX 4060 Ti vs 3060 Ti: 15 %
RTX 4060 vs 3060: 12 %

Total: 50 + 40 + 25 + 20 + 15 + 12 / 6 = 27 %.

Son cifras redondeadas así que el porcentaje igual varía entre 1-3 %.

Tamagami escribió:Y mas cache tambien podria reducir algo no?


Eso fue lo que se hizo con las RTX 4000, un aumento considerable de la caché L2.

Al tener más datos cargados en caché no necesitas acceder tanto a la VRAM, y el mayor ancho de banda ayuda a mover los datos más rápido, así que optimizas el sistema de memoria, lo haces más ágil. Pero como alguien dijo antes, los bytes son bytes, y eso no disminuye casi nada el consumo de VRAM. Aunque aumenta mucho el rendimiento.

Lo que ayuda es la compresión de texturas, eso ya se hace, pero la cuestión es si las RTX 5000 van a tener NTC (Nvidia Texture Compression), una compresión basada en ML. No tiene pinta, ya que en la filtración de Inno3D no salió mencionado, parece ser que la novedad es el renderizado neural.

SECHI escribió:Claro que reduce la cantidad de vram que se necesita.

Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.

Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.

Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.

Cuanto mas rapido menos VRAM se necesita.

Es facil de entender.


Confundes la agilidad del sistema de memoria con la cantidad de VRAM necesaria. Aunque el mayor ancho de banda y la cantidad de caché pueden hacer que los datos se manejen más rápido, eso no reduce significativamente el uso de VRAM. Mejoras el rendimiento y la fluidez, pero las texturas siguen ocupando el mismo espacio en VRAM. La cantidad de VRAM necesaria depende de la resolución y la calidad, no de la rapidez al procesarlas.

La variación como mucho va a ser de unos pocos cientos de megas, algo marginal.

Lo que de verdad afecta al consumo de VRAM es: la compresión de texturas, el streaming de texturas, los mipmaps y por supuesto evitar las redundancias en general. :Ð







que dice este GURU?
que si blackwell no es mucho mejor que ada, como los cuda no aumentan casi , dice que 4070TI super no va a ser mucho peor que la 5070TI ( sin DLSS4 ni FG) pero que dice este hombre, podra tener razon? tendra finalmente razon nuestro @hh1 favorito?





Ya veremos.
Yo lo llevo diciendo meses ,porque es algo cantado.
Lo mismo me equivoco,pero yo creo que van por shí los tiros.
Siempre dije que el armar principal de Nvidia es un nuevo DLSS que haga que saquen más fps reescalando.

Que narga se hace la espera para salir de dudas

Creo que es la vez que más largo se me está haciendo ,esperando una salida de gráficas
3184 respuestas