Sicopro escribió:Veo muchos eolianos preocupados por una hipotética subida de precios por la llegada de Trump. Creo recordar que esos aranceles son solo sobre las importaciones.
Las RTX 5000 tienen una cadena de suministro compleja. Los chips se fabrican en Taiwán (TSMC) y la memoria en Corea y USA, por lo que estos componentes no estarían afectados. Gran parte del ensamblaje final de las RTX 5000 se hace en China, y eso sí podría estar en el punto de mira de Trump.
Los aranceles de Trump deberían ser quirúrgicos, dirigidos a sectores específicos y no aplicados de forma masiva. El tipo es un populista sin muchas luces, pero hasta eso llega, para algo tiene miles de asesores.
En el pasado aranceles similares elevaron los precios entre un 5-10 %, y algunas empresas mitigaron la subida reubicando la producción en Taiwán o México, así que ya tienen la experiencia previa del primer mandato de Trump. Supongo que habrán previsto hace meses la posible llegada de Trump a la presidencia y no les va a pillar en pañales.
Además de que implementar nuevos aranceles lleva su tiempo, todos los procedimientos legales y administrativos podrían retrasar meses la subida de precios.
Por cierto, para el que no lo sepa. Trump hizo su fortuna en el Nueva York de los años 70 y 80, aprovechando una expansión inmobiliaria y una crisis financiera. Heredo unos cuantos millones de su padre y un montón de contactos estratégicos, así pudo acceder a terrenos baratos, subsidios y financiación. Para más inri, el desarrollo inmobiliario de la época estaba influenciado por la mafia y los sindicatos que controlaban, recomiendo la película de: "El Irlandés", es bastante fidedigna.
El éxito de Trump es puro marketing personal, y su fortuna se debe a un cóctel de privilegios. Hasta una ameba hubiese hecho cientos o miles de millones en el contexto que vivió Trump.
Nomada_Firefox escribió:John Wayne escribió:No tiene sentido que una 5060 tenga un dlss superior al de una 4090.
Diselo a las 3090 y a muchas anteriores. Ninguna tienen generador de frames. Lo que es el DLSS en si mismo, yo la verdad, nunca vi diferencia entre las RTX 30 y 40.Tamagami escribió:Sacaran la tecnologia que hace rendir el doble a la VRAM?
No hay indicios de nada asi, incluso las noticias que dicen que el DLSS consume menos, es falsa porque el consumo es el mismo, lo que hace el DLSS es jugar con reescalados. Lo que si es posible es que usando memoria GDDR7, consuman un poco menos. Pero nada del otro mundo.
Yo he empezado a pensar ya desde el año pasado que no saldra ninguna tecnologia de software que aumente el rendimiento una barbaridad, no creo en milagros.esami escribió:Sobre la racaneria de NVIDIA sobre la VRAM me estaba preguntando que opinaran las grandes desarroladoras de juegos sobre el tema y lo cayadas que parecen que estan.
Hay una respuesta que no has puesto y es la real, para esto los juegos tienen diferentes niveles de calidad.
Ademas les da igual las ventas en PC a la mayoria. Si fuera asi, no sucederia que la gran mayoria de juegos triple A mejoran el consumo de Vram pasados meses desarrollo.
John Wayne escribió:@nomadafirefox
Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.
Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.
Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.
[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?
Nomada_Firefox escribió:[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?
Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.
Tamagami escribió:Nomada_Firefox escribió:[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?
Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.
Y mas cache tambien podria reducir algo no?
Tamagami escribió:Nomada_Firefox escribió:[_-+-_] escribió:Pero como va a consumir menos por ser GDDR7?
Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.
Y mas cache tambien podria reducir algo no?
adriano_99 escribió:parh escribió:adriano_99 escribió:La verdadera pregunta es: tendrán los cojones de dejar sin el nuevo dlss a la gente que se dejó más de 2000 pavos en una 4090?
yo sinceramente no me esperaria dlss 4 en las 4000. Si acaso alguna feature puntual, pero la version completa con todas las nuevas caracteristicas seguro que no. La comunidad se quejará está claro y Nvidia alegará que las mejoras van acomopañadas de hardware especifico, no es un tema de software.LynX escribió:adriano_99 escribió:La verdadera pregunta es: tendrán los cojones de dejar sin el nuevo dlss a la gente que se dejó más de 2000 pavos en una 4090?
Eso sí que sería una guarrada y es por lo que me pienso si comprarme la 5090 o no, siempre que salga a un precio digamos razonable claro xD.
Sinceramente, si hacen eso me da igual lo buenas que sean sus graficas, mi próxima sería si o si AMD.
Porque al menos sabes que no te van a dejar tirado cuando salga FSR5/DLSS5.
Y nvidia es una caradura en muchos sentidos pero hasta ahora su soporto a nivel de software de sus graficas ha sido muy bueno, siempre han sacado actualizaciones de drivers para sus graficas muchos años después de salir a la venta.
Pero si van a hacer la guarrada de solo soportar features en una generación de graficas a mi me pierden.
John Wayne escribió:No tiene sentido que una 5060 tenga un dlss superior al de una 4090.
adriano_99 escribió:Tamagami escribió:Nomada_Firefox escribió:Velocidad de la memoria. Cuando comparas graficas con memoria GDDR6 con GDDR6X, ves eso en los datos dentro del juego sobre el consumo. Pero tampoco es la rebomba.
Y mas cache tambien podria reducir algo no?
Ninguna de esas dos cosas reducen el consumo de memoria.
neox3 escribió:Con esto, la 5060 es un 33% más potente que la 4060 y un 10% más potente que la 4070 (de portátiles) y un pelo superior al de la 4060ti de escritorio (un 2%).
SECHI escribió:Claro que reduce la cantidad de vram que se necesita.
Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.
Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.
Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.
Cuanto mas rapido menos VRAM se necesita.
Es facil de entender.
Morpheus24o escribió:En teoría parece que funciona, pero en la práctica no. El tema es que no cargas una textura, la utilizas y la desechas al momento, necesitas retenerla durante su uso y se van acumulando junto a más texturas. Son como los discos NVME, por muy rápidos que sean, seguirás necesitando mucha memoria RAM para ciertas tareas.
En su día ya dijeron que los 10GB de VRAM de la 3080 no supondrían un problema porque era GDDR6X...pues no ha sido así.
Morpheus24o escribió:SECHI escribió:Claro que reduce la cantidad de vram que se necesita.
Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.
Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.
Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.
Cuanto mas rapido menos VRAM se necesita.
Es facil de entender.
En teoría parece que funciona, pero en la práctica no. El tema es que no cargas una textura, la utilizas y la desechas al momento, necesitas retenerla durante su uso y se van acumulando junto a más texturas. Son como los discos NVME, por muy rápidos que sean, seguirás necesitando mucha memoria RAM para ciertas tareas.
En su día ya dijeron que los 10GB de VRAM de la 3080 no supondrían un problema porque era GDDR6X...pues no ha sido así.
PepeC12 escribió:@SECHI no es así como funciona la memoria.
La GPU trabaja con diferentes niveles de memoria, si el dato que busca no está en la memoria accede al siguiente nivel de memoria, cada nivel es más lento y más grande que el anterior.
En el caso de la VRAM es el último nivel antes de pedirlo a la RAM o al disco duro, cuando una aplicación supera la memoria necesaria para ejecutar un problema, se tiene que desalojar un bloque de la VRAM y transferirlo a disco, y traer el nuevo bloque.
Por eso el rendimiento baja en picado en cuanto falta la VRAM, y este efecto pasa independientemente de la velocidad de la VRAM, ya que el rendimiento lo marca más bien el disco duro.
pinturito escribió:que llegue ya la madrugada del 7 de Enero que se acabe ya este hilo de especulacion de hard y precio por favor..... y empecemos a hablar de cosas realmente ciertas....
John Wayne escribió:Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.
neofonta escribió:pinturito escribió:que llegue ya la madrugada del 7 de Enero que se acabe ya este hilo de especulacion de hard y precio por favor..... y empecemos a hablar de cosas realmente ciertas....
El salseo tiene su gracia
PSX22 escribió:si sube como de 30 a 40, la 3080 es un 100% y la 4080 es un 150%, es muy loco.
Tu ves a la 5080 rindiendo un 50% mas que una 4080?
Tamagami escribió:Y mas cache tambien podria reducir algo no?
SECHI escribió:Claro que reduce la cantidad de vram que se necesita.
Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.
Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.
Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.
Cuanto mas rapido menos VRAM se necesita.
Es facil de entender.
John Wayne escribió:@nomadafirefox
Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.
Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.
Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.
neox3 escribió:Real no fake
Esta en concreto, diseño de 2.5 ranuras
neox3 escribió:Real no fake
Esta en concreto, diseño de 2.5 ranuras
neox3 escribió:Real no fake
Esta en concreto, diseño de 2.5 ranuras
esami escribió:neox3 escribió:Real no fake
Esta en concreto, diseño de 2.5 ranuras
Tienes el enlace original? gracias!
¿La FE 4080?
Fuente:
https://videocardz.com/newz/new-geforce ... -led-strip
John Wayne escribió:@nomadafirefox
Sé que el generador de fotogramas es exclusivo de las 4000. Y me resulta eso vergonzoso porque sólo hay una variación de dos años entre unas tarjetas y otras.
Que vuelvan a hacer la jugada ahora, con lo que cuesta una 4090, quedándose sin tecnología que una 5060 sí va a tener, es simplemente increíble.
Te puedo comprar que la 4060 no lo lleve, pero dejar fuera a la gama alta, altísima que era la 4090, yo creo que no tiene ninguna lógica más allá de aquella que obedece al bolsillo de nvidia.
KnightSparda escribió:Me parece un poco plasticosa y horterilla para ser la founders.
hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Rvilla87 escribió:hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
hh1 escribió:Rvilla87 escribió:hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.
hh1 escribió:Rvilla87 escribió:hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.
Rvilla87 escribió:Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).
Rvilla87 escribió:hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
Kroxy escribió:Rvilla87 escribió:Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).
Yo soy pro nvidia pero ahí te equivocas un poco.
El FSR como upscaler si que es muy inferior a dlss pero el FG de Amd funciona muy muy bien. Si partes de fps de más de 60fps el resultado es buenisimo.
En los juegos que lo incorporan de serie junto a DLSS y que permite usarlo en mi 3080 funciona de maravilla. Lo único que se le puede tachar es un poco más de latencia, pero por lo demás... chapó. Si realmente lo has probado no dirias lo que dices.
Amd tirará de hardware sobretodo para competir contra dlss
HakiGold escribió:Rvilla87 escribió:hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
En la mayoria de juegos se usa el FG de AMD, y la gente ni se entera si tiene peor calidad...
Rvilla87 escribió:hh1 escribió:Rvilla87 escribió:Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
Una cosa es que no puedan tener esa mejora ,y otra es que no la tenga porque no les da la gana.
Es distinto.
Y tú sabes con seguridad que lo hacen (si fuera el caso, no está confirmado) porque no les da la gana?!?!
Es que ya son ganas de quejarse por quejar sin tener ni idea de por qué lo hacen o lo dejan de hacer...
Pero si es muy sencillo el tema, cuando alguna nueva tecnología requiere de un hardware específico es de cajón que el hardware anterior NO podrá tener esa tecnología.
Si crees que lo hacen vía hardware (y no vía software) por joder, eso se desmonta tan fácil como que los mods cambian el software para que la nueva tecnología funcione en anteriores generaciones. Así se destapa el método rastrero para joder a los clientes (que crees, no digo que haya pasado). Cosas mas o menos similares ha pasado alguna que otra vez (no hablo en este ámbito de gráficas, pero podría ser, no lo sé de memoria).
Pero lo mejor es que no es necesario montarse películas ni ser mal pensado, que ya tenemos en la actualidad el caso del FG DLSS y no se ha conseguido pasar a las 3000, con lo cual se demuestra que no era posible en las 3000. Y por si fuera poco, otra prueba de ello es cómo AMD intentó su FG vía software y obtuvo un FG de menor calidad respecto al de Nvidia hasta el punto que para la nueva generación tirarán de FG vía hardware (lo confirmaron hace meses y se puso en este hilo).
HakiGold escribió:Rvilla87 escribió:hh1 escribió:Eso lo he o nsseo ya varias veces.
Si hiciesen alguna tecnología exclusiva, que menos que ya que haces la guarrada ,las ganas altas de la anterior gen, que puedan utilizarla, que para eso costaron un dineral.
Y en ese supuesto caso, le envías tu 4090 a Nvidia para que te añadan el supuesto hardware necesario de las 5000 para la nueva tecnología?
Y por favor, no saquéis el tema de que el FG lo hizo AMD sin hardware, la calidad no es la misma y la demostración es que no se ha conseguido tener el FG del DLSS 3 en las 3000 o anteriores.
En la mayoria de juegos se usa el FG de AMD, y la gente ni se entera si tiene peor calidad...
Sicopro escribió:PSX22 escribió:si sube como de 30 a 40, la 3080 es un 100% y la 4080 es un 150%, es muy loco.
Tu ves a la 5080 rindiendo un 50% mas que una 4080?
El rendimiento relativo es una proporción abstracta, así que depende de la GPU que utilices como base para el 100 %. Si lo miras desde la base de la 4080 a la 3080 no ves que el porcentaje es menor.
Si quieres saber el rendimiento exacto real es mejor que trinques la media de ganancia de FPS para cada resolución, y luego hagas otra media con toda la serie entera.
RTX 4090 vs 3090: 50 %
RTX 4080 vs 3080: 40 %
RTX 4070 Ti vs 3070 Ti: 25 %
RTX 4070 vs 3070: 20 %
RTX 4060 Ti vs 3060 Ti: 15 %
RTX 4060 vs 3060: 12 %
Total: 50 + 40 + 25 + 20 + 15 + 12 / 6 = 27 %.
Son cifras redondeadas así que el porcentaje igual varía entre 1-3 %.Tamagami escribió:Y mas cache tambien podria reducir algo no?
Eso fue lo que se hizo con las RTX 4000, un aumento considerable de la caché L2.
Al tener más datos cargados en caché no necesitas acceder tanto a la VRAM, y el mayor ancho de banda ayuda a mover los datos más rápido, así que optimizas el sistema de memoria, lo haces más ágil. Pero como alguien dijo antes, los bytes son bytes, y eso no disminuye casi nada el consumo de VRAM. Aunque aumenta mucho el rendimiento.
Lo que ayuda es la compresión de texturas, eso ya se hace, pero la cuestión es si las RTX 5000 van a tener NTC (Nvidia Texture Compression), una compresión basada en ML. No tiene pinta, ya que en la filtración de Inno3D no salió mencionado, parece ser que la novedad es el renderizado neural.SECHI escribió:Claro que reduce la cantidad de vram que se necesita.
Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.
Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.
Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.
Cuanto mas rapido menos VRAM se necesita.
Es facil de entender.
Confundes la agilidad del sistema de memoria con la cantidad de VRAM necesaria. Aunque el mayor ancho de banda y la cantidad de caché pueden hacer que los datos se manejen más rápido, eso no reduce significativamente el uso de VRAM. Mejoras el rendimiento y la fluidez, pero las texturas siguen ocupando el mismo espacio en VRAM. La cantidad de VRAM necesaria depende de la resolución y la calidad, no de la rapidez al procesarlas.
La variación como mucho va a ser de unos pocos cientos de megas, algo marginal.
Lo que de verdad afecta al consumo de VRAM es: la compresión de texturas, el streaming de texturas, los mipmaps y por supuesto evitar las redundancias en general.
PSX22 escribió:Claro eso que planteas es ridiculo, la estadistica no cuenta la verdad, solo una a medias, si a mi me interesa la 5080 tengo que mirar ese tier en Delta de ganancia intergen de ese Tier, si haces media de las 60 con las 90, es como explicar que si yo tengo 2 pollos, y tu nada, comemos 1 pollo cada uno, lo cual es falso. Si las series 80 han ganado un 50% de 30 a 40 series, lo sensato es esperar un 50% para 40 a 50 ( en este caso la tier 80). Mezclar gamas es dar un delta de ganancia intergen para la serie entera erroneo, porque en casos de 60 sera una sobreestimacion y en caso de 90 sera una infraestimacion.
EN este caso fue de 50, pero esa retabilidad de ganancia no tiene porque repetirse, yo al menos no espero un 50% en la 5080 ni cercano sin DLSS4.
Sobre resoluciones es otro engaño, pues a mi no me intereda la ganancia media en 3 resoluciones, sino en la resolucion 4K que suele ser muy menor a la media de los 3 standares ( 1080 1440 2160) , si la 5070TI supera en un 100% a la 4070TI en 1080p a mi no me da informacion , no juego asi, me lo tendran que dar expresado en 1440p o 2160P, aunque en mi caso es 4k dlss ( 1440P internos). En esta gen a ver si es verdad que los cuda cores no son penalizados por usar DLSS y son los tensor cores los que cargan con el 100% del proceso, pues seria ideal equiparar 4K DLSS calidad ( 1440p internos ) a un rendimiento nativo 1440p sin DLSS, pero me temo que seguira habiendo penalizacion ya que los tensor por si solos no pueden terminar todo el proceso de rescalado y axulian los cuda de alguna forma.
Sobre la VRAM una muy rapida no creo que reduzca la cantidad de memoria en uso, para eso se requeriria memoria DDR6 que trabajase a latencias similares y velocidades similares a 20Gbps, asi podria hacerse balanceo entre DDR6 y GDDR6 como si una memoria unificada se tratase, no parece el caso viable. Lo que si se puede hacer es usar SSD nvme de 14000MB o mas si es posible cargar previamente texturas directo a vram en el momento de uso ( en cambios de salas ) o en mundos abiertos con un sistema de poping no muy evidente, en PS5 ya se usa en ratchet esto para cargar texturas no visibles en ese momento , por ejemplo la vista trasera del protagonista, hay tiempo de giro de camara para cargar lo faltante dede ssd a memoria unificada de ps5. Hacer esto es complicado en PC porque no tienes un hardware certificado para todos y se tira por meter todo en la bolsa y ya dejarlo allocated por si las moscas.
Otra forma de reducir VRAM es la IA generativa, si los nucleos IA generan texturas al vuelo , pueden cargarse en el momento de mostrarse y luego generar otras liberando memoria de las anteriores, asi lo que importa es el pull global de cosas se mas pequeño. Ahora muchos juegos si ocupan 14GB de texturas, si tienes la memoria intentan cargarla desde el principio, porque no hay que hacer una cadena de prioridades del streming de assets en el tiempo y claro en juegos abiertos no es cosa facil.Sicopro escribió:PSX22 escribió:si sube como de 30 a 40, la 3080 es un 100% y la 4080 es un 150%, es muy loco.
Tu ves a la 5080 rindiendo un 50% mas que una 4080?
El rendimiento relativo es una proporción abstracta, así que depende de la GPU que utilices como base para el 100 %. Si lo miras desde la base de la 4080 a la 3080 no ves que el porcentaje es menor.
Si quieres saber el rendimiento exacto real es mejor que trinques la media de ganancia de FPS para cada resolución, y luego hagas otra media con toda la serie entera.
RTX 4090 vs 3090: 50 %
RTX 4080 vs 3080: 40 %
RTX 4070 Ti vs 3070 Ti: 25 %
RTX 4070 vs 3070: 20 %
RTX 4060 Ti vs 3060 Ti: 15 %
RTX 4060 vs 3060: 12 %
Total: 50 + 40 + 25 + 20 + 15 + 12 / 6 = 27 %.
Son cifras redondeadas así que el porcentaje igual varía entre 1-3 %.Tamagami escribió:Y mas cache tambien podria reducir algo no?
Eso fue lo que se hizo con las RTX 4000, un aumento considerable de la caché L2.
Al tener más datos cargados en caché no necesitas acceder tanto a la VRAM, y el mayor ancho de banda ayuda a mover los datos más rápido, así que optimizas el sistema de memoria, lo haces más ágil. Pero como alguien dijo antes, los bytes son bytes, y eso no disminuye casi nada el consumo de VRAM. Aunque aumenta mucho el rendimiento.
Lo que ayuda es la compresión de texturas, eso ya se hace, pero la cuestión es si las RTX 5000 van a tener NTC (Nvidia Texture Compression), una compresión basada en ML. No tiene pinta, ya que en la filtración de Inno3D no salió mencionado, parece ser que la novedad es el renderizado neural.SECHI escribió:Claro que reduce la cantidad de vram que se necesita.
Cuanta mas velocidad mas rapido carga y una vez cargado y ese bufer enviado, automáticamente se borra para llenarse otra vez con la siguiente textura.
Cuanto mas rapido sea ese proceso mas texturas puedes cargar cada milisegundo, es decir, necesitas menos vram por milisegundo porque se libera mucho antes.
Si ahora saliera un GDDR8 al doble de velocidad, necesitarias la mitad de tiempo para cargar las mismas texturas por lo que nunca llegarias a llenar la vram disponible y por lo tanto neceistarias menos VRAM para jugar.
Cuanto mas rapido menos VRAM se necesita.
Es facil de entender.
Confundes la agilidad del sistema de memoria con la cantidad de VRAM necesaria. Aunque el mayor ancho de banda y la cantidad de caché pueden hacer que los datos se manejen más rápido, eso no reduce significativamente el uso de VRAM. Mejoras el rendimiento y la fluidez, pero las texturas siguen ocupando el mismo espacio en VRAM. La cantidad de VRAM necesaria depende de la resolución y la calidad, no de la rapidez al procesarlas.
La variación como mucho va a ser de unos pocos cientos de megas, algo marginal.
Lo que de verdad afecta al consumo de VRAM es: la compresión de texturas, el streaming de texturas, los mipmaps y por supuesto evitar las redundancias en general.
que dice este GURU? que si blackwell no es mucho mejor que ada, como los cuda no aumentan casi , dice que 4070TI super no va a ser mucho peor que la 5070TI ( sin DLSS4 ni FG) pero que dice este hombre, podra tener razon? tendra finalmente razon nuestro @hh1 favorito?