[HO] NVIDIA GeForce RTX 5000

hh1 escribió:
Pollonidas escribió:
hh1 escribió:Hay que tener en cuenta que la 4090 es muy bestia.
Yo creo que en raster la 5080 ,que encima ,no es una 80 realmente , va a estar por debajo .
La va a superar reescalando.

Es más ,ten en cuenta que la 5090 es el doble que la 5080 .
Si la 5080 fuese ya mejor en raster que la 4090, cuanto le sacaría a esta la 5090?
Una brutalidad que tampoco se ha dado jamás.
Y eso en raster .
Que si nos vamos a reescalado , hablaríamos de barbaridades.
Lo dudo mucho y más cuando no cambian de nodo.

Las mejoras de nodo lo que aportan son frecuencias más altas y consumos menores a igualdad de todo lo demás, a nivel de potencia lo que se nota es la arquitectura y el número de unidades de cómputo.

No te digo que no a lo de que la 5090 es literalmente el doble de la 5080 si las specs que se han filtrado son ciertas, pero en tamaño del die es "solo" un 20% más que la 4090, creo que el salto generacional en el tope de gama no va a ser superior a lo que se ha visto otras veces.

Y sobre lo anterior, aunque me moje demasiado, yo pienso que en raster puro y duro la 5080 debería ser claramente superior a la 4090. Sin escalado ni "trucos". Simplemente porque desde el punto de vista de márketing no tiene sentido otra cosa. Puedo equivocarme, claro, pero me parecería un movimiento "raro" cuanto menos.

zeo360 escribió:Buenas,

No se como veis cambiar una 3080 + 185€ por una 4070 Ti.

Un saludo

No está mal desde el punto de vista económico, pero yo personalmente no haría el cambio, primero por esperar a lo que salga como dicen los compañeros, y segundo porque bajas dos gamas, incluso si es más potente. Por la 4070Ti super, todavía me lo pensaría, pero de nuevo, no creo que salga a cuenta correr para que se devalúe menos tu gráfica porque la que pongas en su lugar también debería perder valor en la misma proporción.

Saludos

Pues si el salto no va a ser tan grande ,según lo que dices, que puede ser, pues siendo la 5080 la mitad que la 5090 (que obviamente, en rendimiento no tiene porqué ser literal), pues dudo mucho que la 5080 ,como ya dije, supere a la 4090 en raster.

Y ahí dejaría claro, porqué Nvidia estaría jugando con el tema de los tensor cores y los cuda cores, para conseguir mayor diferencia en reescalado ,ya que, como dices, en ratser ,no va a ser tan sencillo, o lo mismo ,ni les interesa subir tanto y tiran más por el otro camino.

Yo tengo claro que la 5080 cuando actives DLSS, FG y RT va a ser superior a la 4090, cuanto superior no lo se.

La cosa está si será siendo superior si se saturan sus 16 gb.
the_aeon escribió:
hh1 escribió:
Pollonidas escribió:Las mejoras de nodo lo que aportan son frecuencias más altas y consumos menores a igualdad de todo lo demás, a nivel de potencia lo que se nota es la arquitectura y el número de unidades de cómputo.

No te digo que no a lo de que la 5090 es literalmente el doble de la 5080 si las specs que se han filtrado son ciertas, pero en tamaño del die es "solo" un 20% más que la 4090, creo que el salto generacional en el tope de gama no va a ser superior a lo que se ha visto otras veces.

Y sobre lo anterior, aunque me moje demasiado, yo pienso que en raster puro y duro la 5080 debería ser claramente superior a la 4090. Sin escalado ni "trucos". Simplemente porque desde el punto de vista de márketing no tiene sentido otra cosa. Puedo equivocarme, claro, pero me parecería un movimiento "raro" cuanto menos.


No está mal desde el punto de vista económico, pero yo personalmente no haría el cambio, primero por esperar a lo que salga como dicen los compañeros, y segundo porque bajas dos gamas, incluso si es más potente. Por la 4070Ti super, todavía me lo pensaría, pero de nuevo, no creo que salga a cuenta correr para que se devalúe menos tu gráfica porque la que pongas en su lugar también debería perder valor en la misma proporción.

Saludos

Pues si el salto no va a ser tan grande ,según lo que dices, que puede ser, pues siendo la 5080 la mitad que la 5090 (que obviamente, en rendimiento no tiene porqué ser literal), pues dudo mucho que la 5080 ,como ya dije, supere a la 4090 en raster.

Y ahí dejaría claro, porqué Nvidia estaría jugando con el tema de los tensor cores y los cuda cores, para conseguir mayor diferencia en reescalado ,ya que, como dices, en ratser ,no va a ser tan sencillo, o lo mismo ,ni les interesa subir tanto y tiran más por el otro camino.

Yo tengo claro que la 5080 cuando actives DLSS, FG y RT va a ser superior a la 4090, cuanto superior no lo se.

La cosa está si será siendo superior si se saturan sus 16 gb.

Con todo eso activado , al 99% que será mejor que la 4090.
Ni lo dudo.
@the_aeon


Indiana jones me usa 20GB vram al maximo 4K DLAA FG ON y PT pleno


Comprobado ayer


24gb seria lo minimo



El que quiera entender que entienda
Comprarse una gráfica de 2000 euros para activar nerviosamente fg, dlss, reflex, dlaa, y no se que más. A mi ni se me ocurre activar el dlss a 4k excepto en los juegos que lamentablemente están hechos con ue5 que son borrosisimos de por si y están pensados para ejecutarse con reescalados para tapar vergüenzas.

El rendimiento importante es el rendimiento en raster, el resto es mercadotecnia. Y la 5080 apenas va a superar a la 7900 xtx, ni se va a acercar a la 4090.
Rvilla87 escribió:@PSX22 la autoridad, en este contexto, no se la concede uno mismo sino los demás. No sé cómo crees que te ven pero desde luego a mi no me sirve un mensaje simple sin demostración alguna por tu parte (no así para algún que otro forero).

La autoridad se pierde cuando uno se contradice. Y para muestra 2 que puedo encontrar fácil con una búsqueda rápida:


Y para nada era necesaria una biblia, simplemente con decir que "he hecho pruebas" ya valía si se te tuviera un mínimo de autoridad (que ni afirmo ni desmiento, cada uno te considerará como crea). Pero como en EOL se acostumbra a ver mensajes afirmando cosa sin ton ni son pues qué quieres que te diga, normalmente no me creo casi nada porque la mayoría son invenciones sin fundamento alguno.

Si a ti te sirve con ese nivel de desinformación, perfecto, a mi no. Pero bueno, no es el único tema donde está mas que claro que no nos vamos a entender, pero al menos ha servido que para que no soltar únicamente la desinformación "mas vram = problema" como hiciste entender sino que pusiste pruebas de ese juego específico (porque no aplica a todos los juegos por igual, cosa que hemos hablado muchas veces en este tipo de hilos).



yo soy la autoridad competente EOL-il xd. Eso lo primero. Soy el richar del DF del eol. El se contradice, pocos videos has visto de DF pues hay varias rectificaciones . EN mi caso no es asi.

Eque te has liado con mis post de humor tortilleros, jamas he dicho que DLSS3 consuma menos vram, eso seria ser un sucio necio jaja. Pero nadie puede ser engañado con eso, si esa tecnologia ha usado mas memoria de siempre. Lo leerias mal. Que tambien puede ser que sea un post de humor, no digo que no.

Al caso, en este caso he estado midiendo con linea frametime y monitor de VRAM ( allocated) ( used) y DDR, claramente la ves llegar al umbral y empieza la carga en DDR4, hasta los 1.5-1.7GB en DDR el buffer aguanta, a partir de 2.2GB, pasas automaticamente de 90fps a 40 fps, sin modificar nada mas que mejores o peores texturas.


Aqui lo qu eesta claro es que nvidia mide bien la vram , pero estamos hablando de unas GPU de ya varios años, en 2025 no se aplica eso. Es verdad que no muchos juegos usan mas de 12gb vram, pero este indiana en 4K DLSS balanceado FG ON y PT ON, claramente usa 13-14GB.

AAVISO a navegantes de 5080 con 16gb, NO va a dar el chiringuiro de la vram con 16, para 4K DLSS3 FG ON y PT ON. Ya esta avisado queda.

Pero , si no usas DLSS3 ( hay quien lo odia) Y/O no quiera PT ( hay quien no nota ni los cambios) pues la 5080 va a ser mucho mejor que la 4090 si sale por 1200
PSX22 escribió:[...] jamas he dicho que DLSS3 consuma menos vram, eso seria ser un sucio necio jaja. Pero nadie puede ser engañado con eso, si esa tecnologia ha usado mas memoria de siempre. Lo leerias mal. Que tambien puede ser que sea un post de humor, no digo que no.

No puede ser que cada vez que digas una tontería vengas con la excusa de que era humor. Esas excusas se las cuentas a un niño de 5 años que quizás a él se la cuelas, a la gente adulta no se la cuelas tan fácilmente.

Tu mensaje donde, según tú, NO decías que DLSS 3 consumía menos VRAM:
PSX22 escribió:@Rvilla87

paradojicamente lo puse porque normalmente cuando usas DLSS3 reduces resolucion y por tanto vram, pero en este caso aumenta , en cyberpunk no es asi, cuando uso 4K nativo me usa mucha mas vram que cuando uso 4K DLSS FG, no es una norma. y no viene de un analisis sino de probarlo yo mismo


Y fíjate que ni hace falta entrar en la famosa confusión de llamar DLSS 3 a todo (el super resolution y el FG, entre otras cosas) cuando no es todo, porque lo pones mas fácil al usar las 2 veces el mismo término: DLSS 3. Así que no hay duda posible.

O te equivocaste en mezclar conceptos o en decir que DLSS 3 consumía menos VRAM, no vengas ahora con excusas baratas. Pero vale, que sí, que será humor, no?

Avísanos si te acepten en el club de la comedia, que al menos ahí quizás nos reiremos un rato [plas]
Rvilla87 escribió:
PSX22 escribió:[...] jamas he dicho que DLSS3 consuma menos vram, eso seria ser un sucio necio jaja. Pero nadie puede ser engañado con eso, si esa tecnologia ha usado mas memoria de siempre. Lo leerias mal. Que tambien puede ser que sea un post de humor, no digo que no.

No puede ser que cada vez que digas una tontería vengas con la excusa de que era humor. Esas excusas se las cuentas a un niño de 5 años que quizás a él se la cuelas, a la gente adulta no se la cuelas tan fácilmente.

Tu mensaje donde, según tú, NO decías que DLSS 3 consumía menos VRAM:
PSX22 escribió:@Rvilla87

paradojicamente lo puse porque normalmente cuando usas DLSS3 reduces resolucion y por tanto vram, pero en este caso aumenta , en cyberpunk no es asi, cuando uso 4K nativo me usa mucha mas vram que cuando uso 4K DLSS FG, no es una norma. y no viene de un analisis sino de probarlo yo mismo


Y fíjate que ni hace falta entrar en la famosa confusión de llamar DLSS 3 a todo (el super resolution y el FG, entre otras cosas) cuando no es todo, porque lo pones mas fácil al usar las 2 veces el mismo término: DLSS 3. Así que no hay duda posible.

O te equivocaste en mezclar conceptos o en decir que DLSS 3 consumía menos VRAM, no vengas ahora con excusas baratas. Pero vale, que sí, que será humor, no?

Avísanos si te acepten en el club de la comedia, que al menos ahí quizás nos reiremos un rato [plas]



Si algo te impide ver que posteo aleatoriamente seriamente o no, incluso puede haber grandes verdades mezclado con grandes baiteos, es mi gran seña de autoria eoliana, y ya deberias saber! yo no puedo hacer nada por incrementar tu capacidad, ni tu tampoco me temo xd.

La cita que pones es correcta, pero es tu capacidad debe ser que ignora muchas cosas, el DLSS3 reduce la VRAM si no se activa FG ( el driver sigue siendo 3.7 sin FG) Por tanto activar DLSS siempre reduce el uso de VRAM. Pero no has tenido en cuenta que es el FG el que la aumenta. Entonces es a la vez, DLSS reduce la VRAM y DLSS3 FG aumenta el uso, pero hablo para gente que interprete constantemente de forma diferente las las palabras, en este caso

Puedo usar DLSS3 como me convenga en cada caso hay que interpretar lo que digo, DLSS3 puede ser con o sin FG. No usar DLSS3 no es usar DLSS2. Hay varios DLSS3, en ese caso de antes, DLSS3 no usa FG por temas de simplicar. Pero realmente DLSS3 seria con FG, y sigue siendo cierto, usa menos VRAM porque la ram usada por FG no la computo, sino solo la de la resolucion base respecto a 4K; y siempre es menor. Por eso se puede decir que DLSS3, reduce VRAM y FG la aumenta, y ambas son ciertas.

Ese post no es de humor, es de humor si no tienes ni idea de lo que hablo, visto asi, mis post son gatos de Schrödinger jaja Este parrafo combina informacion tecnica y humor, puede que no alcances a entenderlo, y yo lo comprendo.


En resumen DLSS3 te ahorra memoria porque no trabajas a 4K

y DLSS3 te aumenta el consumo de vram si activas FG

ambas son ciertas

y es facil de ver, que consume mas , 1440p DLSS3 FG o 4K DLSS3 FG? claramente el segundo caso, demostrado pues que DLSS siempre reduce la VRAM Y nativo siempre la potencia
@PSX22 pero a quién le estás explicando los componentes del DLSS si te lo expliqué en su momento al ver que te confundías? hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s13450#p1754949626

De hecho ahora leyendo el principio de ese mensaje ya veo que vuelvo a equivocarme perdiendo el tiempo contigo, ya olvidé lo absurdo que era hablar contigo de estas cosas. En fin, buenas noches porque aquí termina mi conversación contigo.

PD: Respondiendo sobre un post de mayo como si lo hubiera escrito hoy, lo que faltaba por ver, esta vez sí que he pillado tu humor [qmparto]
Rvilla87 escribió:@PSX22 pero a quién le estás explicando los componentes del DLSS si te lo expliqué en su momento al ver que te confundías? hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s13450#p1754949626

De hecho ahora leyendo el principio de ese mensaje ya veo que vuelvo a equivocarme perdiendo el tiempo contigo, ya olvidé lo absurdo que era hablar contigo de estas cosas. En fin, buenas noches porque aquí termina mi conversación contigo.



al fin reconoces que no puedes conversar por falta de dominio de la jerga tecnologica, el DLSS3 no existe ya , van por la version 3.8.10 y no tiene nada que ver con el FG. Debe ser que andas despistado con las quest y no has podido ir al dia. Espero que vayas revisando novedades sino no podras entender mucho mas. Es pronto para dormir, pero descansa
PSX22 escribió:
Rvilla87 escribió:@PSX22 pero a quién le estás explicando los componentes del DLSS si te lo expliqué en su momento al ver que te confundías? hilo_hilo-oficial-nvidia-ada-lovelace-rtx4000_2446714_s13450#p1754949626

De hecho ahora leyendo el principio de ese mensaje ya veo que vuelvo a equivocarme perdiendo el tiempo contigo, ya olvidé lo absurdo que era hablar contigo de estas cosas. En fin, buenas noches porque aquí termina mi conversación contigo.



al fin reconoces que no puedes conversar por falta de dominio de la jerga tecnologica, el DLSS3 no existe ya , van por la version 3.8.10 y no tiene nada que ver con el FG. Debe ser que andas despistado con las quest y no has podido ir al dia. Espero que vayas revisando novedades sino no podras entender mucho mas. Es pronto para dormir, pero descansa

Yo tampoco sé de vuestra jerga y aquí me tenéis en la sombra leyendo y intentar descifrar algunas cosas lo que si tengo claro es que pillaré una 5090.
Lo que no se es por que siempre dicen que es mejor las fundador de nvidia que las de otros ensambladores? Pd vengo de una 3080ti
@bigsefirot

No es mejor una FE ( founders que una rog strix 4090) eso te han mentido si te lo han dicho. Lo que pasa es que si quieres la opcion mas barata sin suelen ser de salida las founders.

Lo que si esta claro es que si quieres ir a futuro bien servido, no te compres una 5080 de 16gb, porque con esa memoria si vas a 4K y path tracing YA las esta pasando canutas la 4080 . Y dejarse 1500 papeles para que dia 1 ya haya juegos que no podras poner a su tope con DLSS3 FG + Path tracing PT pues como que no.

He puesto las siglas con letras por ayudar, pero de normal nunca pongo nada que no sea DLSS Q o Balanced, FG ON VRR PT on 4K , pero asi ayuda esta vez
PSX22 escribió:@bigsefirot

No es mejor una FE ( founders que una rog strix 4090) eso te han mentido si te lo han dicho. Lo que pasa es que si quieres la opcion mas barata sin suelen ser de salida las founders.

Lo que si esta claro es que si quieres ir a futuro bien servido, no te compres una 5080 de 16gb, porque con esa memoria si vas a 4K y path tracing YA las esta pasando canutas la 4080 . Y dejarse 1500 papeles para que dia 1 ya haya juegos que no podras poner a su tope con DLSS3 FG + Path tracing PT pues como que no.

He puesto las siglas con letras por ayudar, pero de normal nunca pongo nada que no sea DLSS Q o Balanced, FG ON VRR PT on 4K , pero asi ayuda esta vez

Oki gracias por la aclaración 😅 ves me voy a la cama y aprendo algo nuevo y desde las sombras
PSX22 escribió:@the_aeon


Indiana jones me usa 20GB vram al maximo 4K DLAA FG ON y PT pleno


Comprobado ayer


24gb seria lo minimo



El que quiera entender que entienda


Como te consume mas que los 16gb de vram de tu tarjeta? Tira de memoria virtual de un ssd?
Vergüenza tenia que darle a los desarrolladores tener que activar dlss, frame generations y mierdas varias para poder jugar a buenos frames, al final lo que se está haciendo es perder calidad, gastandote 1000€ para arriba... Más vergüenza aun Nvidia por haber sacado esas tecnologías...
gojesusga escribió:Vergüenza tenia que darle a los desarrolladores tener que activar dlss, frame generations y mierdas varias para poder jugar a buenos frames, al final lo que se está haciendo es perder calidad, gastandote 1000€ para arriba... Más vergüenza aun Nvidia por haber sacado esas tecnologías...

A NVIDIA le está saliendo redondo, como los desarrolladores entran al trapo, habrá demanda para sus tarjetas [mamaaaaa]

SECHI escribió:Como te consume mas que los 16gb de vram de tu tarjeta? Tira de memoria virtual de un ssd?

Tiran de RAM cuando se quedan sin VRAM:

Imagen

Imagen

https://www.cgdirector.com/what-is-shared-gpu-memory/
Quizá con RAM DDR5 es suficientemente rápida como para no necesitar más de 16GB VRAM?

Es que, algo no me cuadra si finalmente la 5080 la presentan con solo 16GB VRAM
SECHI escribió:
PSX22 escribió:@the_aeon


Indiana jones me usa 20GB vram al maximo 4K DLAA FG ON y PT pleno


Comprobado ayer


24gb seria lo minimo



El que quiera entender que entienda


Como te consume mas que los 16gb de vram de tu tarjeta? Tira de memoria virtual de un ssd?





No, primero se llenan 15 de 16Gb vram

Luego va a RAM DDR4 y se monitoriza facil, todo el excedente de vram se suma a ram. De no tener ram va a memoria virtual de SSD. Pero todo lo que sea desbordar vram ya es injugable, pasa de 90 a 40 y si es mas grande el bloque pasa a 5 fps



Por tanto 5080 16gb no sirve, seria 20 o 24 y 20 muy justo
https://elchapuzasinformatico.com/2024/ ... -384-bits/

5080 un 10% superior a la 4080?? En serio?

Larga vida a mi 4090
the_aeon escribió:https://elchapuzasinformatico.com/2024/12/nvidia-rtx-5080-rendimiento-version-24-gb-384-bits/

5080 un 10% superior a la 4080?? En serio?

Larga vida a mi 4090


Si es así, habrá que migrar a AMD
the_aeon escribió:https://elchapuzasinformatico.com/2024/12/nvidia-rtx-5080-rendimiento-version-24-gb-384-bits/

5080 un 10% superior a la 4080?? En serio?

Larga vida a mi 4090




Ya os lo dije, que era la estafita juanera parte 2


La 5080 16gb liteada a 1200€ jajaja

La verdadera es la 5080 24gb 384b


La 5080 es un 10% mas de 4080super y esa es un 15 mas que la 70TIS


Un 25% mas de potencia ir de 770€ vs 1300€


Jajaja y misma vram


Sin fisuras huang
the_aeon escribió:https://elchapuzasinformatico.com/2024/12/nvidia-rtx-5080-rendimiento-version-24-gb-384-bits/

5080 un 10% superior a la 4080?? En serio?

Larga vida a mi 4090


Si pero un 40% mas de potencia en RT y a 1000$ la founder (1200€ en españa con impuestos y cambio de moneda).

No se, no se, habra que verla en movimiento con bench fiables y que se confirmen estos precios.

@PSX22 @654321

Gracias por las aclaraciones. Pues ya me fijare a ver que me hace mi 3080 con mis tristes 10gb de vram [mamaaaaa]
@SECHI


Pues ira perfecta si usas 1440p dlss calidad sin PT y texturas en medio y ajustes en medio

En caso extremo usa low
Hombre, con 24GB de VRAM de 384bits ya sería otra cosa la 5080, aunque no sea mucho mas potente que la 4080, para temas de IA por ejemplo mucho mejor, así le puedes poner un buen LLM local a Mantella !!!!!
PSX22 escribió:@SECHI


Pues ira perfecta si usas 1440p dlss calidad sin PT y texturas en medio y ajustes en medio

En caso extremo usa low


Estoy jugando a todo entre 1440p y 4k en ajustes altos/ultra según juego y rondo entre los 60 y 120fps. Todo depende de lo que quiera sacar a ese juego en concreto.

Al alan wake 2 por ejemplo jugaba a 2k 80-100 con algunos parametros de rt activados pero sin pt porque era imposible, en cyberpunk juego a 4k 60 con pt pero bajando cosas y usando fg de amd, etc... El star wars outlaws en 2k sobre los 120fps casi siempre menos en algunas zonas abiertas que baja a 80-90 pero el gsync hace maravillas. Todo esto con dlss calidad activado claro. Si bajo a dlss rendimiento suele verse demasiado mal. Si veo que me petardea algo pues bajo texturas, sombras o lo que sea, no se me caen los anillos por bajar algo

Con la 3080 tengo que hacer virguerías para conseguir buen rendimiento con rt y con pt ya tengo que usar FG de amd por cojones o incluso he jugado a veces con el programa lossless scaling para pasar de 60-80 a 120fps aunque ahi si que se nota algunas cosas raras segun que zonas muy oscuras.

Al final es buscarse un poco la vida y hacer pruebas hasta dejarlo a tu gusto.
SECHI escribió:
the_aeon escribió:https://elchapuzasinformatico.com/2024/12/nvidia-rtx-5080-rendimiento-version-24-gb-384-bits/

5080 un 10% superior a la 4080?? En serio?

Larga vida a mi 4090


Si pero un 40% mas de potencia en RT y a 1000$ la founder (1200€ en españa con impuestos y cambio de moneda).

No se, no se, habra que verla en movimiento con bench fiables y que se confirmen estos precios.

@PSX22 @654321

Gracias por las aclaraciones. Pues ya me fijare a ver que me hace mi 3080 con mis tristes 10gb de vram [mamaaaaa]

Para quien venga de una 4080 es un gran salto en RT, si yo tuviera una 4080 seguramente cambiaria a la 5080.

Pero teniendo una 4090, si la filtración es cierta, peor en raster, mejor en RT y 16gb, no veo claro el cambio.

Viendo lo que chupan de vram los últimos juegos, no veo claro bajar de 20 gb, no se...

Y la supuesta 5080 de 24gb, hasta que no la vea anunciada oficialmente, no me creo nada.
@SECHI


Loseless te puede salvar mucho y las texturas en medio no ven casi nada peor que ultra, cambia el volumen de las residentes en memoria, pase de supremo a low y la mesa no se veia pixelada, sino igual
5080 16 GB 1400€
5080 TI 24 GB 1800€
5090 2300€

Y se las quitarán de las manos.
Veremos los precios reales, yo por mi parte cada vez le tengo más manía al raytracing, ya q en mi 3060 baja en picado el rendimiento y la verdad es q no lo noto mucho.
Creo que está próxima gen, me centrare en comprar la mejor calidad precio en rasterización para 2k 120hz , si es AMD pues AMD, a mí pesar de dejar el dssl [tadoramo] [bye]
PSX22 escribió:@SECHI


Loseless te puede salvar mucho y las texturas en medio no ven casi nada peor que ultra, cambia el volumen de las residentes en memoria, pase de supremo a low y la mesa no se veia pixelada, sino igual


No entiendo que es eso de las residentes que tengo que cambiar.

Yo en los juegos suelo poner texturas en alto y las sombras en alto o medio (resolución o calidad de as sombras) y no veo consumo de vram por encima de 10gb.

Como digo, hasta ahora he podido jugar a todo a muy buena calidad y buenos frames subiendo y bajando cosas segun juego y resolución.

La verdad que hoy en dia los juegos tops aun poniendo muchos apartados en medio se ven muy pero que muy bien, no es como hace años que solo bajando un punto el AA o las sombras veias dientes de sierra por todos lados o sombras con parpadeos y pixeladas como puños a lo Minecraft.

En eso es verdad que si hemos.mejorado bastante. Supongo que por la ley de moore de los videojuegos o la ley de rendimiento decreciente.
@SECHI


No se hace nada es automatico, poner en medio o bajo texturas y ya
olbhap escribió:Quizá con RAM DDR5 es suficientemente rápida como para no necesitar más de 16GB VRAM?

Es que, algo no me cuadra si finalmente la 5080 la presentan con solo 16GB VRAM

No, la VRAM es mucho mas rápido por regla general, aquí dan algunos ejemplos: https://forums.tomshardware.com/threads ... m.3817734/

La 5080 es perfectamente factible con 16GB tal y como la vende Nvidia. Hablo de la experiencia que tenemos con las 4000, de las 5000 no sé nada porque paso de rumores.

Cada gama la asocia a una resolución recomendada, de forma que usan menos resolución, también dan por hecho que NO vas a ponerlo a ultra sino medio o alto y por lo tanto no te vas a quedar corto de VRAM. Por lo tanto el problema no es que la gráfica en cuestión esté corta de VRAM sino que el usuario no la sabe usar y usa la resolución y calidad gráfica incorrecta, superior a lo que, según Nvidia, aspira esa gráfica en cuestión. Y esto aunque lo digo en parte a modo coña (bueno, desde el punto de vista de Nvidia que te quiere vender la moto), en parte es verdad por el problema de la ultritis que sufren algunos usuarios.
Rvilla87 escribió:...NO vas a ponerlo a ultra sino medio o alto y por lo tanto no te vas a quedar corto de VRAM. Por lo tanto el problema no es que la gráfica en cuestión esté corta de VRAM sino que el usuario no la sabe usar.

Gastarte 1400€ en una gráfica recien sacada al mercado y tener que bajar resolución y poner gráficos en medio porque sino se ahoga es absurdo.

Señor Rvilla, a riesgo de que jamás me venda su TV, debo admitir que se merece un baneo de como mínimo tres meses. [poraki]
Valhan escribió:
Rvilla87 escribió:...NO vas a ponerlo a ultra sino medio o alto y por lo tanto no te vas a quedar corto de VRAM. Por lo tanto el problema no es que la gráfica en cuestión esté corta de VRAM sino que el usuario no la sabe usar.

Gastarte 1400€ en una gráfica recien sacada al mercado y tener que bajar resolución y poner gráficos en medio porque sino se ahoga es absurdo.

Señor Rvilla, a riesgo de que jamás me venda su TV, debo admitir que se merece un baneo de como mínimo tres meses. [poraki]


El problema es que piden 1400€, y ante el derecho de pedir la virtud de no dar.

Yo al menos fuera del ámbito profesional no me gasto más de 1000€ en una gráfica.

El raytracing se lo pueden meter por donde quieran, la mayoría de juegos no vale la pena ni instalarlos y los juegos buenos al final tienden a ser poco exigentes.

Al menos para mi los gráficos son bastante secundarios, soy más de jugabilidad, lore etc.

Y es que al final los juegos se diseñan para correr en una máquina obsoleta de 200w (la PS5).

Creo que hay demasiado consumismo absurdo y Nvidia y AMD se aprovechan.
@Valhan


No le hagas caso esta bajo de conocimientos ya que esta centrado en las quest3 que se ha comprado xd


La 5080 es para 4K. Y puedo confirmarte que ya hay juegos de este año que en 4K ultra y path consumen 16GB y mas, seria craso error la
5080 de 16, pero la de 24 si seria future proof



@PepeC12 si pero la ps5 no te mueve wu kong a 60 ni 120 estables, no hablo de graficos sino fluidez y eso di te afecta a la jugabilidad
PSX22 escribió:@bigsefirot

No es mejor una FE ( founders que una rog strix 4090) eso te han mentido si te lo han dicho. Lo que pasa es que si quieres la opcion mas barata sin suelen ser de salida las founders.

Lo que si esta claro es que si quieres ir a futuro bien servido, no te compres una 5080 de 16gb, porque con esa memoria si vas a 4K y path tracing YA las esta pasando canutas la 4080 . Y dejarse 1500 papeles para que dia 1 ya haya juegos que no podras poner a su tope con DLSS3 FG + Path tracing PT pues como que no.

He puesto las siglas con letras por ayudar, pero de normal nunca pongo nada que no sea DLSS Q o Balanced, FG ON VRR PT on 4K , pero asi ayuda esta vez

Das siempre por hecho que la 5080 va a costar 1500€...

@PepeC12
Bueno...consumismo absurdo...
Pues según lo quieras mirar.

Por esa regla de 3 ,con una 3070 ,por ejemplo, pones 1080p y tienes Lara jugar buen tiempo.
No hace falta más.

Pero al que le gusta esto ,le gustan más cosas y exige más.
Luego ,también depende dela cartera de cada uno o de como se piense.
Yo juego mucho competitivo ,y alguno es exigente ,y me gusta tenerlo muy alto de fps ,porque yo ,lo noto.
Por poner un ejemplo.

Igual que los juegos de carreras o shooters ,me mola muchísimo en altos ,porque lo noto.
No creo que sea consumismo.Es que me parece que se juega mejor.
Que se puede jugar con menos ?pues claro.Pero no va igual

Eno del Ray Tracing sí estoy más de acuerdo
Sigo diciendo que elegir una gráfica por esto, hasta ahora ,es un error.
Poquitos iu porquitos juegos merecen la pena con RT.Y esl ,si lo llevan.
Supongo que ,la tendencia ,es que vaya a más...Pero para mover bien juegos con PT , cuesta y mucho.
Y tampoco creo que todos merezcan la pena.
@hh1


Pues esque 1200 seria la low cost FE


Cuanto van a valer las demas?? Si fuera 1100 lo aceptaria pero que no, chino juan no tiene competencia
PSX22 escribió:@hh1


Pues esque 1200 seria la low cost FE


Cuanto van a valer las demas?? Si fuera 1100 lo aceptaria pero que no, chino juan no tiene competencia

O menos.

Vengo diciendo que la 5080 tiene toda la pinta de que es una 5070.
Y han hecho el hueco perfecto Lara Meyer entre media a la verdadera 5080, que será la TI, que esa sí, andará por 1500€ tranquilamente.

Lo dije hace meses y parece que van por ahí los tiros.

Aún así, la 5080 reescalando ,puede que no sea tan poca cosa como la gente cree.Ni en RT tampoco.

Estás con lo de la FE y tiendas ,cuando ya hemos visto bastantes veces ,gráficas de ensambladoras a precios de FE o incluso ,por debajo.
Zotac ,PNY y KFA2 suelen ser de esas.
No sería nada raro .No se salida ,pero al.mes o dos meses ,ver cosas cosas que digo, porque ya ha pasado.
No pasó mucho con la 4080, pero sí con la 4090.
Estuvieron esas a 1699€ mucho tiempo, y hubo uno que se bajó sobre los 1500€ una temporada
PSX22 escribió:@Valhan


No le hagas caso esta bajo de conocimientos ya que esta centrado en las quest3 que se ha comprado xd


La 5080 es para 4K. Y puedo confirmarte que ya hay juegos de este año que en 4K ultra y path consumen 16GB y mas, seria craso error la
5080 de 16, pero la de 24 si seria future proof



@PepeC12 si pero la ps5 no te mueve wu kong a 60 ni 120 estables, no hablo de graficos sino fluidez y eso di te afecta a la jugabilidad



Ya bueno, tu hablas de jugar con FG que es como tener la mitad de fps a nivel de input lag.

Al final tú pones brillibrilli aumentando la latencia y fastidiando la jugabilidad y los de PS5 bajan la calidad y la resolución.

Para mi es parecido.
Valhan escribió:
Rvilla87 escribió:...NO vas a ponerlo a ultra sino medio o alto y por lo tanto no te vas a quedar corto de VRAM. Por lo tanto el problema no es que la gráfica en cuestión esté corta de VRAM sino que el usuario no la sabe usar.

Gastarte 1400€ en una gráfica recien sacada al mercado y tener que bajar resolución y poner gráficos en medio porque sino se ahoga es absurdo.

Señor Rvilla, a riesgo de que jamás me venda su TV, debo admitir que se merece un baneo de como mínimo tres meses. [poraki]

Eso díselo a Nvidia, ya lo dije: "Y esto aunque lo digo en parte a modo coña (bueno, desde el punto de vista de Nvidia que te quiere vender la moto)". Lo que sí dije en serio fue lo de ultritis.

Y por otro lado como ha dicho pepe, el problema es pedir 1400€, pero ya cada uno que pague lo que considere.

Desde luego no seré yo quien defienda que las gráficas tienen una cantidad de VRAM correcta, no como otros... "lo miden bastante bien los fabricantes" [qmparto]
PepeC12 escribió:
PSX22 escribió:@Valhan


No le hagas caso esta bajo de conocimientos ya que esta centrado en las quest3 que se ha comprado xd


La 5080 es para 4K. Y puedo confirmarte que ya hay juegos de este año que en 4K ultra y path consumen 16GB y mas, seria craso error la
5080 de 16, pero la de 24 si seria future proof



@PepeC12 si pero la ps5 no te mueve wu kong a 60 ni 120 estables, no hablo de graficos sino fluidez y eso di te afecta a la jugabilidad



Ya bueno, tu hablas de jugar con FG que es como tener la mitad de fps a nivel de input lag.

Al final tú pones brillibrilli aumentando la latencia y fastidiando la jugabilidad y los de PS5 bajan la calidad y la resolución.

Para mi es parecido.



Y como te crees que se juega en PS5? hay generacion de frames para alcanzar 60, y creeme que ese generador es mucho peor que DLSS3 FG con reflex, para empezar cuando llegas a 120 con FG partes de 60, lo que partes de input lag por frame de 16ms y no 33ms partiendo de 30. El nivel de artefactos y latencia no es la misma liga. Ademas yo no he dicho que sea con FG los 120, nada impide poner 1440p low sin PT en wu kong PC y alcanzas 120 fps sin FG sin ningun problema, y mas con las CPU de eol, que son en plan 7800x3d , no es parecido en PC Puedes ponerte si quieres una latencia de 4ms y 240fps en fornite, pones todo low 1080p y ya lo tienes hasta con GPUs no tan punteras. En pc se puede, en consola es lo que te dan, no , no es lo mismo. En PC puedes decidir jugar a 30 FPS 8K, y no, no es lo mismo 8K 30 nativos que 1080p 30 fps en hellblande 2 no, aunque el input lag sea parecido, no , no es lo mismo.



@hh1

pero por favor zotac o KFA2 eso la gente huye como de la peste xd La gente si ve una buena oferta mira antes una Asus , MSI, gygabyte, no es todo KFA2 o ROG strix, hay terminos medios, luego que si los conectores se queman xd


Supongo que se te ha caido un litro de aceite en el teclado porque las tildes milagrosamente estan , pero lo de invetar GPU's que no existen, tienes un don no? que si la 4089 o la 6080 xd me tomo con humor [beer]
PSX22 escribió:
PepeC12 escribió:
PSX22 escribió:@Valhan


No le hagas caso esta bajo de conocimientos ya que esta centrado en las quest3 que se ha comprado xd


La 5080 es para 4K. Y puedo confirmarte que ya hay juegos de este año que en 4K ultra y path consumen 16GB y mas, seria craso error la
5080 de 16, pero la de 24 si seria future proof



@PepeC12 si pero la ps5 no te mueve wu kong a 60 ni 120 estables, no hablo de graficos sino fluidez y eso di te afecta a la jugabilidad



Ya bueno, tu hablas de jugar con FG que es como tener la mitad de fps a nivel de input lag.

Al final tú pones brillibrilli aumentando la latencia y fastidiando la jugabilidad y los de PS5 bajan la calidad y la resolución.

Para mi es parecido.



Y como te crees que se juega en PS5? hay generacion de frames para alcanzar 60, y creeme que ese generador es mucho peor que DLSS3 FG con reflex, para empezar cuando llegas a 120 con FG partes de 60, lo que partes de input lag por frame de 16ms y no 33ms partiendo de 30. El nivel de artefactos y latencia no es la misma liga. Ademas yo no he dicho que sea con FG los 120, nada impide poner 1440p low sin PT en wu kong PC y alcanzas 120 fps sin FG sin ningun problema, y mas con las CPU de eol, que son en plan 7800x3d , no es parecido en PC Puedes ponerte si quieres una latencia de 4ms y 240fps en fornite, pones todo low 1080p y ya lo tienes hasta con GPUs no tan punteras. En pc se puede, en consola es lo que te dan, no , no es lo mismo. En PC puedes decidir jugar a 30 FPS 8K, y no, no es lo mismo 8K 30 nativos que 1080p 30 fps en hellblande 2 no, aunque el input lag sea parecido, no , no es lo mismo.



@hh1

pero por favor zotac o KFA2 eso la gente huye como de la peste xd La gente si ve una buena oferta mira antes una Asus , MSI, gygabyte, no es todo KFA2 o ROG strix, hay terminos medios, luego que si los conectores se queman xd


Supongo que se te ha caido un litro de aceite en el teclado porque las tildes milagrosamente estan , pero lo de invetar GPU's que no existen, tienes un don no? que si la 4089 o la 6080 xd me tomo con humor [beer]

Y?
Si tienen buenos precios ,caen.
Pregunta en el foro a ver cuántas KFA2 ,Zotac y PNY hay de 4090, incluso de 4080.
Te vas a llevar una sorpresa.

PNY tengo yo, que es de lo peorcito en 4090 y encantado de la vida.
Cuál es el problema?

No valen,?No cuentan?

Tuve también una Zotac 3070 y encantado Ni un problema.

No pagaría 200-300-400€ más por una MSI buenísima de muerte , sinceramente.
No pongo más de 100€ más por una Suprime ,la verdad.Y ya me costaría soltarlos ,sabiendo que es mejor que mi PNY.
Pero es que ,al final, más o menos ,las diferencias en funcionamiento, no son tantas.

Que pueede durar más ,se puede ocear más y tal? Estupendo ,pero ni le voy a hacer OC a saco ,ni la voy a tener 400 años para ver lo que dura.

Como te digo, no pondría más ,y no siquieera se ,si llegado el caso,los hubiese puesto.
Desde luego, viendo como me va la PNY "baratucha" ,creo que no lo haría.
@hh1

claro que hay ONY y PNY tambien xd. Pero "por lo que sea eh " cuando PCC pone la 4070 super a 599 estando a 650 son las primeras en agotarse, y cuando no queda nada de nada ( como ahora mismo) es cuando las zotac y KFA2 se venden mas, y no no, no se rompen mas, simplemente algo con peor materiales o peor construccion, no tiene porque romperse mas una PNY que una AORUS o AERO, simplemente a mismo precio la gente prefiere la estetica o los materiales, por eso en ofertas vuelan, si no hay , lo normal es que vendan mas. El caso no me lies, las 5080 no creo que salgan en 1200, que van a salir mas baratas que las 4080 en su dia en 2022?


huuumf hummf ya puedo olerlas! estamos a dias del chino juan se suba a escenario veguero
PSX22 escribió:@hh1

claro que hay ONY y PNY tambien xd. Pero "por lo que sea eh " cuando PCC pone la 4070 super a 599 estando a 650 son las primeras en agotarse, y cuando no queda nada de nada ( como ahora mismo) es cuando las zotac y KFA2 se venden mas, y no no, no se rompen mas, simplemente algo con peor materiales o peor construccion, no tiene porque romperse mas una PNY que una AORUS o AERO, simplemente a mismo precio la gente prefiere la estetica o los materiales, por eso en ofertas vuelan, si no hay , lo normal es que vendan mas. El caso no me lies, las 5080 no creo que salgan en 1200, que van a salir mas baratas que las 4080 en su dia en 2022?


huuumf hummf ya puedo olerlas! estamos a dias del chino juan se suba a escenario veguero

No.
De hecho, la prueba ,una vez más ,l atienes en la 4090.
Habla de todo ,pero la gente se iba a la KFA2 ,y en su defecto, a la PNY.
Por qué ?.Porque estaban a 1699€.
El resto era bastante más caro.

Y da igual.Al final, lo que ue te trato de decir ,es que no es como dices.
Da exactamente igual a porqué se vaya la gente o se deje de ir

La cuestión es que no siemrpe es como dices que ,sale la FE ,se agote ,y hay que comprar las custom más caras.
No es cierto.

Depende de la gráfica ,depende de la época ...

Con la 4090, desde luego, no fue así.
Recuerdo también buenas ofertas de Zotac y alguna otra marca ,por debajo del precio de la FE.

Das por hecho que eso será como dices ,pero es que ,no lo sabemos.

Tampoco pasó con la 3070 ni con la 3080 en su salida ,donde tenías a las Zotac al mismo precio que las FE los primeros meses.
Por ponerte otro ejemplo.

Vamos a esperar a que salgan y vamos a ver qué pasa esta vez .
Mientras ,es dar por hechas cosas que no sabemos.
@hh1

hay que dejar que salga al escenario la estrella china del dolar hongkonés , hara su show y vaciara carteras
@PSX22 Hasta donde yo se la PS5 no tiene FG ni nada por el estilo.

Y lo segundo, el problema del FG como tecnología es que puede tener sentido para llegar de 60 a 120 fps, pero de 30 a 60 es menos apetecible.

Cual es el problema?, pues que donde realmente seria útil es para llegar a esos 60 fps, pero como la latencia sigue siendo a 30 fps, no tienes la misma respuesta.

Y claro, te quedas que es útil para pasar de 60 fps a 120 fps, pero sigues en las mismas, en los juegos donde es interesante tener un buen frame rate, osea 120 o más, normalmente es porque necesitas mejores respuestas, pero el inputlag sigue siendo el de 60 fps.

Al final es una tecnologia que en mi opinión no sirve para nada, solo para tener un numerito mas alto en el contador de frames, pero inutil a nivel competitivo, y pasar de 60 fps a 120 fps en un juego no competitivo te da un poco lo mismo realmente.
@PepeC12

si lo tiene, usa el de AMD cuando ellos quieren, wu kong interpola con AMD FSR3 de 30 a 60 fps , esta en el analisis de DF donde los 3 modos. Lo que no tiene generador paradogicamente es el PSSR de la pro

hay muchos juegos que no necesitas input lag de 120, por ejemplo indiana jones , de 60 a 120 hay mucha diferencia, pero 120 con input lag de 60, es perfectamente jugable, incluso a 40 fps lo es, vas andando
NVIDIA está machacando a Intel y AMD en ventas de GPU: tiene el 90% de la cuota mundial, la más alta de su historia

https://elchapuzasinformatico.com/?p=580470
Zeratulastur escribió:NVIDIA está machacando a Intel y AMD en ventas de GPU: tiene el 90% de la cuota mundial, la más alta de su historia

https://elchapuzasinformatico.com/?p=580470



se lo tengo dicho al foro, que no van a ser baratas, que no venden una escoba lo de amd jajaj , intel ni existe, pero ni en gpu ni cpu jajaj. Y amd sobrevive por las PS5 y un poco por la pifia de intel en cpu. Miedo me da que nvidia le de por sacar CPUs
Me sorprende más el porcentaje de posts de @PSX22 en el hilo. Lo de nVidia ni me impresiona, pero que cada vez que alguien diga algo, la siguiente respuesta en el hilo sea del compañero, es algo que no se valora.

Aún estaríamos en la primera página si no fuera por su labor. Da igual a la hora que entres, que nunca estarás solo.

Tengo la rueda del ratón que ha perdido hasta el dibujo.
Valhan escribió:Me sorprende más el porcentaje de posts de @PSX22 en el hilo. Lo de nVidia ni me impresiona, pero que cada vez que alguien diga algo, la siguiente respuesta en el hilo sea del compañero, es algo que no se valora.

Aún estaríamos en la primera página si no fuera por su labor. Da igual a la hora que entres, que nunca estarás solo.

Tengo la rueda del ratón que ha perdido hasta el dibujo.



hombre entre linea y linea de produccion de las 5000 , saco el iphone y entro a defender mi marca multimillonaria, que menos. Para lo de la rueda te recomiendo hacer click y bajar el raton, por aquello de a ver si se te va saltar la rueda xd Mas que nada porque se vienen mas posts y no quiero fracturas de dedo
1925 respuestas