[HO] NVIDIA GeForce RTX 5000

Valhan escribió:@metalero24 @daniel78 Estoy viendo que devolver a LDLC la 4080S de 1000€, asegurada, me va a costar unos 90€, con lo que el envío de esa 4090 probablemente le cueste unos 120€... quizás le vale más la pena, y se quita de paso el verdadero incordio que supone hacerles el envío a Francia, venderla por lo que pierde.

Esto, lo que comentas del IGIC, y que hace una semana pusieron buenas ofertas en estas GPU, hace más lógico el precio.

Otro tema es si es fiable, o no, este caso en concreto. Ahí ya no me meto.


Si es como creo, y es con el 7% de IGIC y no 21% IVA, y pudo usar el descuento del 10%, la habrá costado 1.353€ (creo que es el precio por la que la tenía anunciada).

En chollometro hay gente que dice que la devolución a LDLC es gratis y otros que no...si hay que pagar portes, si que se queda igual y se ahorra posibles problemas de envío/aduana y tiempo.
metalero24 escribió:En chollometro hay gente que dice que la devolución a LDLC es gratis y otros que no...si hay que pagar portes, si que se queda igual y se ahorra posibles problemas de envío/aduana y tiempo.

En chollometro hay mucha gente que habla de cosas que nunca ha hecho ni visto. Igual que cuando yo compre mi 4070Ti, habia quien decia que por ser una v2, refrigera mal. Pero refrigera igual. Y con eso otras muchas.

¿Y que problemas de aduana vas a tener salvo que seas de canarias si esto viene de Paris?

No solamente no es gratis la devolución sino que ademas solo puedes contactar por email. De un modo muy parco y te dan la dirección, no te dicen que te mandan un repartidor x dia a recogerlo. En esa situación, cruzar los dedos y usar un comparador de envios
Duron600 escribió:PS4 117,2 millones
PS5 61,7 millones
XBOX ONE 57 millones
Xbox Series S + X 28 millones
STEAM DECK 20 millones

Total 283 millones de jugadores de videojuegos usan AMD
Esta claro que AMD es un cero a la izquierda y que no cuenta nada en la industria de los videojuegos, esta claro que los desarrolladores no la van a tener en cuenta.

Vamos a por la tercera generación de consolas con la PS6 y NVIDIA sigue sin catar el pastel.

Perdón a todos por el Off topic.
Por mi parte lo dejo aquí.

Saludos [oki] [oki]


20 millones de Deck?

Fuente?
Brutico escribió:@Black Templar No es libre, solo unos módulos, el libre es Noveau. Estas usando el propietario con un par de módulos libres [+risas]

Nunca dije libre. Dije Open-Source. [sati]

@PSX22 No viste en su hilo que puse dos fotos?.

Con el FG de FSR3 desactivado:

Imagen

Con el FG de FSR3 activado:

Imagen

Funcionando en CachyOS Linux con los presets a tope:

Imagen

@Pollonidas No, no te equivocas. Los oficiales ya son los de código abierto.
@[Alex]

La Steam Deck le ha enseñado el futuro a Microsoft.
En The Verge indican que según la consultora Omdia se han vendido 20 millones de Steam Deck
Duron600 escribió:@[Alex]

La Steam Deck le ha enseñado el futuro a Microsoft.
En The Verge indican que según la consultora Omdia se han vendido 20 millones de Steam Deck


Gracias
Para el que solo use Steam, pregunto, y con esto dejo el Off Topic, ¿Steam Os para escritorio, como lo veis?
Saludos [oki] [oki]
Finalmente no voy a pillar la 4090. Me pasó vídeos y la verdad es q no tenía pinta de ser ninguna estafa pero el hecho de estar en islas diferentes y q la tienda sea francesa y no española me echó para atrás.
@Black Templar

si, si, pero tu pc es un misil, tu has probado ese mismo pc , con windows 11, por si te da algun fps mas? La duda iba mas por si rinde similar o estas perdiendo algun FPS, que en tu caso importa poco al tener mucho margen
PSX22 escribió:@Black Templar

si, si, pero tu pc es un misil, tu has probado ese mismo pc , con windows 11, por si te da algun fps mas? La duda iba mas por si rinde similar o estas perdiendo algun FPS, que en tu caso importa poco al tener mucho margen


A ver, por norma, los drivers de Linux siempre van por detrás de los de Windows. Normalmente, los juegos suelen ir mejor en WIndows peeeerooo..... hay honrosas excepciones en que el juego va mejor en Linux que en Windows.

El caso más famoso es X-Com 2 que tiene versión nativa para Linux y va como el culo, con Proton va mejor la versión de Windows en Linux que la versión de Windows en Windows (vaya lío). A ver yo considero que meterse en Linux es con la idea de aprender y experimentar, si quieres usarlo igual que Windows quédate en Windows. Son filosofías muy diferentes. Por cierto, las fotos que he puesto son del portátil, no del PC con la 4090. [sati]
@Black Templar

en steamdeck pasa, en STEAM OS hay juegos que dan algun fps mas, que si le instalas windows. Pero son bastante pocos y porque en steamdeck no esta pensaba para windows a nivel drivers.

Ya me extrañaba solo 50fps xd Pensaba que seria 4K sin DLSS o algo asi.


Entonces xcom va mejor bajo proton que bajo windows, curioso. Entiendo que se hace mas por filosofia porque en tema juegos general, muy poca gente opta por solo linux. ( luego y dual boot supongo que tienes todo)
Duron600 escribió:@[Alex]

La Steam Deck le ha enseñado el futuro a Microsoft.
En The Verge indican que según la consultora Omdia se han vendido 20 millones de Steam Deck


@Duron600 @[Alex] . Cuidado que si entras en la noticia original de TheVerge sus palabras son: "Valve has sold “multiple millions” of its Steam Deck handheld gaming PC. Omdia research estimates that nearly 20 million handheld gaming devices were sold worldwide last year". Con lo que entiendo que esto engloba todas las portátiles del estilo Deck.

Y sobre lo de SteamOS para escritorio... ojalá. Ganas de que desaparezca Windows de mi vida no me faltan, en concreto desde que desapareció msDOS.
Valhan escribió:
Duron600 escribió:@[Alex]

La Steam Deck le ha enseñado el futuro a Microsoft.
En The Verge indican que según la consultora Omdia se han vendido 20 millones de Steam Deck


@Duron600 @[Alex] . Cuidado que si entras en la noticia original de TheVerge sus palabras son: "Valve has sold “multiple millions” of its Steam Deck handheld gaming PC. Omdia research estimates that nearly 20 million handheld gaming devices were sold worldwide last year". Con lo que entiendo que esto engloba todas las portátiles del estilo Deck.

Y sobre lo de SteamOS para escritorio... ojalá. Ganas de que desaparezca Windows de mi vida no me faltan, en concreto desde que desapareció msDOS.


Esto me cuadra más.

Leí que Valve ya consideraría un éxito haber vendido 2-3 millones.
@[Alex] Está claro que si Lenovo y ASUS han sacado sus clones y M$ está pensando en hacerlo es que el dispositivo tiene buena aceptación comercial. A mí me gustaría una Rog Ally, pero no la compraré porque ya voy bien con mi portátil y mi PC. No necesito un dispositivo con una pantalla diminuta para dejarme la poca vista que me queda. [+risas]
(mensaje borrado)
Counterpunch está baneado por "Troll"
No veas el offtopic que os estáis montando en el hilo de las rtx.

Que si steamdeck, que si drivers, Que si Linux
yo cambiaria la fuente pero ya por no mucho precio pillas una de 750wtios o 850 watios
lo unico que me podria hacer plantear cambiar la 4090 en menos de 4 años es que la grafica se no dé la talla con las nueva hornada de AAA con graficos ultra-realistas que se avecina en 2024-2025, y especialmente, GTA VI
parh escribió:lo unico que me podria hacer plantear cambiar la 4090 en menos de 4 años es que la grafica se no dé la talla con las nueva hornada de AAA con graficos ultra-realistas que se avecina en 2024-2025, y especialmente, GTA VI


De e aquí a que salga GTA 6 en pc has cambiado hasta de placa base y CPU.

Se dice 2027
parh escribió:lo unico que me podria hacer plantear cambiar la 4090 en menos de 4 años es que la grafica se no dé la talla con las nueva hornada de AAA con graficos ultra-realistas que se avecina en 2024-2025, y especialmente, GTA VI

Seguro? [jaja] si tienes una 4090, es altamente probable que la vayas a cambiar por la siguiente más TOP, salvo que algo haya cambiado en tu vida que no te lo permitiese. Pero tener lo mejor de lo mejor ya te da una predisposición a cambiar a lo mejor de lo mejor.

Si echamos un vistazo a los juegos que han ido saliendo los últimos años, con una 3080 se podía seguir jugando perfectamente a todo a 1440p y 60fps. Con más o menos gráficos "ultra-realistas", todas las gráficas que ha ido saliendo por encima de esa en cuanto a prestaciones se podrían considerar capricho. Así que no te hagas el interesante y prepara la billetera!
Schencho escribió:
parh escribió:lo unico que me podria hacer plantear cambiar la 4090 en menos de 4 años es que la grafica se no dé la talla con las nueva hornada de AAA con graficos ultra-realistas que se avecina en 2024-2025, y especialmente, GTA VI

Seguro? [jaja] si tienes una 4090, es altamente probable que la vayas a cambiar por la siguiente más TOP, salvo que algo haya cambiado en tu vida que no te lo permitiese. Pero tener lo mejor de lo mejor ya te da una predisposición a cambiar a lo mejor de lo mejor.

Si echamos un vistazo a los juegos que han ido saliendo los últimos años, con una 3080 se podía seguir jugando perfectamente a todo a 1440p y 60fps. Con más o menos gráficos "ultra-realistas", todas las gráficas que ha ido saliendo por encima de esa en cuanto a prestaciones se podrían considerar capricho. Así que no te hagas el interesante y prepara la billetera!

no, no soy de comprar lo "mejor de lo mejor" a ciegas. Me gusta razonar mis adquisiciones. De hecho, si ahora mismo quisiera pillar una grafica, mi eleccion seria la que tu tienes, la 4080 super, que se ha llegado a poner a menos de 1000 euretes. A ese precio, claramente la compra maestra para 4K
Black Templar escribió:@[Alex] Está claro que si Lenovo y ASUS han sacado sus clones y M$ está pensando en hacerlo es que el dispositivo tiene buena aceptación comercial. A mí me gustaría una Rog Ally, pero no la compraré porque ya voy bien con mi portátil y mi PC. No necesito un dispositivo con una pantalla diminuta para dejarme la poca vista que me queda. [+risas]

Yo no las veo muy allá aún.
Poca potencia ,no dura una mierda la batería...
A ver vengo preocupado por la VRAM ( es gracioso que lo ponga yo lo se) jajaja.

Vengo con mas madera:


Segun esto el COD con una GPU 4070tiS que es casi igual que la 4070ti, usa 15GB vram cuando usas 4K DLSS Q.

Pero entonces si la 5070 es una 4070TI con 12gb ( Se ha filtrado) y tiene potencia como se ve de sobra para 4K DLSSQ a 120fps... como cojones va a hacerselo mirar la 5070 con 12???

Pero esque el chino Juan esta LOCO?




PSX22 escribió:A ver vengo preocupado por la VRAM ( es gracioso que lo ponga yo lo se) jajaja.

Vengo con mas madera:


Segun esto el COD con una GPU 4070tiS que es casi igual que la 4070ti, usa 15GB vram cuando usas 4K DLSS Q.

Pero entonces si la 5070 es una 4070TI con 12gb ( Se ha filtrado) y tiene potencia como se ve de sobra para 4K DLSSQ a 120fps... como cojones va a hacerselo mirar la 5070 con 12???

Pero esque el chino Juan esta LOCO?





Yo tengo entendido que no funciona así.
El juego te coge la VRAM que cree según la que tienes disponible.
Eso no quiere decir que esté usando toda esa VRAM.

De hecho, es muy sencillo de ver.
Pones el mismo juego con una 4090 de 24gb y por ejemplo una de 12 GB , y va a poner que usa mas VRAM en la 4090 con más mismas condiciones

Eso no quiere decir que la necesite y la use
Simplemente que detecta que tienes más y " guarda" más para su uso

En el video que puse más atrás te lo explica perfectamente .

Mira a 4K con una 4090 ,casi 16gb de VRAM:


Con una 4070 super 4k 10gb de VRAM:
En la comparación anterior, si la calidad gráfica es la misma y no petardea, está claro que con 10 gigas hay mmoria suficiente.

De todas formas la 5070 debería llevar más memoria que esos 12 gigas, porque de llevarlos envejecerá bastante mal. Va a ser una gráfica que de salida podrá con el 1440p y al tiempo tendrá que bajar al 1080p. Si llevara 16 debería aguantar más tiempo. Hay que decir que lo supongo habiendo ultritis gráfica siempre.

También está el que se pueda bajar calidad gráfica en los juegos para ahorrar memoria, cualquier gráfica cuanto más tarde aguante sin bajar resolución u opciones de gráficas en los juegos, así de buena resultará ser. Con mi 4090 en estos dos años ni una sola vez he tenido que bajar de tenerlo todo en ultra y el DLSS en calidad para 1440p, soltando cuadros por segundo siempre suficientes como para sentirlo todo fluido. Con el DLAA sí que a veces ya llega justa sobre todo si no hay generador de cuadros. Yo el FG si está lo uso porque ni me importan mucho los artefactos que salen algunas veces ni noto tampoco que haya retardo como para pensar en quitarlo.

Bueno, está claro que en mi caso por falta de memoria no es. También los jueguicos cada vez piden más músculo.

PD1: También es una mierda que para según que jueguicos un 4090 vaya justa para 1440p, si con el raytracing no había suficiente, ahora hay que subir la cantidad de rayos en la imagen hasta que los juegos de hace 30 años se arrastren por el fango con la gráfica más tocha que hay para consumo. Esto último no lo va a arreglar la 5090 por cara que sea.
PSX22_ escribió:A ver vengo preocupado por la VRAM ( es gracioso que lo ponga yo lo se) jajaja.

Vengo con mas madera:

Segun esto el COD con una GPU 4070tiS que es casi igual que la 4070ti, usa 15GB vram cuando usas 4K DLSS Q.

Pero entonces si la 5070 es una 4070TI con 12gb ( Se ha filtrado) y tiene potencia como se ve de sobra para 4K DLSSQ a 120fps... como cojones va a hacerselo mirar la 5070 con 12???

Pero esque el chino Juan esta LOCO?



El chino no está loco, lo miden bastante bien los fabricantes... [qmparto]

Ahora en serio, que vengas ahora a dudar de lo creías aportando argumentos erróneos con ese vídeo (cuando para mas inri ya te dimos mejores argumentos y no hiciste caso) me da que pensar que, o estás troleando, o haces perder el tiempo a los que hablamos contigo porque nos ignoras.

Y es que recuerdo una discusión contigo justo que empezó justo a raíz de ese mensaje en el que defendías que los fabricantes medían bien la VRAM (con un simple caso del Hellblade 2?), y te dijimos varias veces:

Y con todo eso (y más cosas que supongo que te habrán dicho, tan solo busqué a partir de mis mensajes), ahora vienes dudando de lo que afirmabas hace un tiempo gracias a ese video que pones del COD y que no demuestra nada? :-?

Esto se ha explicado ya muchas veces, ¿cuántas veces necesitas que lo expliquemos?

Es que simplificando, erróneamente, al simple uso de VRAM, puedes ver 1 solo ejemplo para demostrar lo inútil que es hacerle caso a eso: el uso tan alto de VRAM de Star Wars Outlaws:
Imagen

Cualquiera diría, viendo esos datos, que el juego no funciona en gráficas de 8GB y en muchos modos gráficos en gráficas de 12GB, pero a la que se leen las conclusiones todo tiene sentido: https://www.techpowerup.com/review/star ... ark/6.html
VRAM
Our VRAM testing shows that Star Wars Outlaws will use a ton of memory—when it's available. On cards with less VRAM it does a reasonably good job at memory management. Our results confirm this, the RTX 4060 Ti 8 GB runs at virtually the same FPS as the RTX 4060 Ti 16 GB, even at 1440p and 4K. As we turned on all the additional NVIDIA eye candy, memory usage kept increasing, and it topped out at 21 GB (!!) when we were running Ultra, plus RTXDI, plus RTX Ray Reconstruction, plus Frame Generation. While that number sounds high, it makes sense to allocate as much VRAM as possible to avoid stutter—empty VRAM doesn't do you any good.


Ahora, ¿esto demuestra que 12GB de VRAM son suficientes para 4k? Eso depende del juego, de cómo se configure gráficamente y de qué entendamos como suficiente o no.

Por ejemplo el caso que puse de Alan Wake 2 a 1440p con RT cuando la 4060 Ti de 16GB iba a 30 fps y la de 8GB iba a 8fps.

A partir de aquí ya llega las justificaciones que cada uno pueda hacer: que si 30 fps no es lo mínimo aceptable y antes que ir a esos fps quita el RT o baja la calidad gráfica, que solo pasa en unos pocos juegos pero la gran mayoría no tiene problemas, etc.
PSX22 escribió:Pero entonces si la 5070 es una 4070TI con 12gb ( Se ha filtrado) y tiene potencia como se ve de sobra para 4K DLSSQ a 120fps... como cojones va a hacerselo mirar la 5070 con 12???

Pues va a tener que estar cargando cosas a memoria con mas frecuencia, pq tendrá que descartar cosas de la memoria ... por lo que tendrá batante menos rendimiento a 4K que si le hubiesen puesto los 16GB que debería llevar.
pakolo1977 escribió:En la comparación anterior, si la calidad gráfica es la misma y no petardea, está claro que con 10 gigas hay mmoria suficiente.

De todas formas la 5070 debería llevar más memoria que esos 12 gigas, porque de llevarlos envejecerá bastante mal. Va a ser una gráfica que de salida podrá con el 1440p y al tiempo tendrá que bajar al 1080p. Si llevara 16 debería aguantar más tiempo. Hay que decir que lo supongo habiendo ultritis gráfica siempre.

También está el que se pueda bajar calidad gráfica en los juegos para ahorrar memoria, cualquier gráfica cuanto más tarde aguante sin bajar resolución u opciones de gráficas en los juegos, así de buena resultará ser. Con mi 4090 en estos dos años ni una sola vez he tenido que bajar de tenerlo todo en ultra y el DLSS en calidad para 1440p, soltando cuadros por segundo siempre suficientes como para sentirlo todo fluido. Con el DLAA sí que a veces ya llega justa sobre todo si no hay generador de cuadros. Yo el FG si está lo uso porque ni me importan mucho los artefactos que salen algunas veces ni noto tampoco que haya retardo como para pensar en quitarlo.

Bueno, está claro que en mi caso por falta de memoria no es. También los jueguicos cada vez piden más músculo.

PD1: También es una mierda que para según que jueguicos un 4090 vaya justa para 1440p, si con el raytracing no había suficiente, ahora hay que subir la cantidad de rayos en la imagen hasta que los juegos de hace 30 años se arrastren por el fango con la gráfica más tocha que hay para consumo. Esto último no lo va a arreglar la 5090 por cara que sea.

Yo sí he tenido que bajar settings con la 4090,sobre todo en algún triple A o competitivo ,para sacarle más fps.

Que podría no haber bajado nada y jugar bien?Sí.
Pero a veces renta mas sacrificar dos mierdas que no valen pa na, y ganar fps

@Rvilla87
Es que es como el mito de que las Nvidia consumen menos VRAM que las AMD.
Lo que ocurre es que las AMD suelen llegar mas VRAM y el juego asigna más uso de esta ,lo que no significa que la esté usando toda.
@hh1
vayamos por partes como dijo jack.

es cierto que a mas VRAM mas se asigna, por eso mismo alguien que solo tiene 8 o 12, se le llena mas rapido y movera el excedente a RAM ( antesde llenarse la VRAM completamente).

De forma que tu puedes ver que la VRAM la tienes a 11.5GB de 12 y puedes pensar que tienes suficiente pues aun te sobra, pero la realidad es que si miras VRAM compartida ( veras que en cuanto pasas de 1GB de compartida) se vienen los problemas


Estuve cambiando de ultra sin DLSS a alto, medio bajo, y luego con DLSS y FG lo mismo a varios niveles calidad rendimiento etc... Es decir simulando muchos cambios de ajustes sin cerrar el juego... Y que pasaba? que iba buildeando VRAM no liberaba... y la ram nunca pasaba de 11.5GB, pero los fps cayeron de 80 a 40.... un festival del stutter hill nivel max.


sobre las amd y vram que usan mas porque llevan mas.. entonces porque la 4060TI usa menos VRAM que la 6800XT si ambas son 16?? a ver si va ser verdad el argumento totillero al final??


@654321



respuesta correctisima, como le pongas FG y 4K y toques bastante ajustes, puede pasarte que el FG se ahogue al quedarse sin VRAM y cae al 50% de rendimineto y se viene el stutter hill2. EN CP77 es facil de replicar con 4K DLSS calidad RT overdrive con una 4070TI de 12gb. Y me temo lo peor del Juanillo con su 5070 de 12gb.



@Rvilla87

siempre me guardo lo mejor para el final ^^

Dudar de lo que uno afirma no es tipico de los genios? ^ ^

Bueno ahora vamos a la parte seria, algunas partes estan contestadas arriba, pero basicamente una GPU floja con 8gb y otra con 16 como la 4060 no creo que vayan a envejecer diferente, por como ponias jugar a 8 fps y 30 es la misma esperiencia, antes de poner con la version de swtich.

Por otro lado si es verdad que la cuantificacion de VRAM no es precisa segun cada caso del juego, el problema es que la vram parece que nunca se llena del todo, pero se esta moviendo a ram DDR y esto si el juego supiera intercambiar los bloques de memoria un poco con antelacion no seria problema, pero si mueves cosas a DDR y tienes asignada cosas en la vram que no usas pero por si acaso tienes ahi... cuando necesites algo de ram y no lo hayas intercamnbiado por lo que no necesitas asignado en vram, ahi vas a tener un problema pero no es falta de vram, sino faltan de no organizar bien la memoria. Justo por lo de que asignar vram no es necesariamente algo en uso en tiempo real. Asi que es el propio juego el responsable de la falta de VRAM en muchos casos. Por eso algunos juegos dan mas problemas que otros mas que por uso real, sino por gestion de vram. He podido desbordar la vram causando muchas pruebas ingame y hay fuga de VRAM, por esto en mismos ajustes un juego recien iniciado y mismo punto de juego, no consume la misma ram que cuando llevas jugando 4 horas sin salir del juego. Y logicamente es el mismo punto misma situacion y no es la misma asignacion ( aunque si de uso real). Y es el no saber gestionar esa asignacion no inmediata la que puede en unos casos dar problemas, no de inicio sino a las horas de jugar.
PSX22 escribió:sobre las amd y vram que usan mas porque llevan mas.. entonces porque la 4060TI usa menos VRAM que la 6800XT si ambas son 16?? a ver si va ser verdad el argumento totillero al final??

Para afirmar que una gráfica usa mas o menos VRAM que la otra primero habría que ver la cantidad de juegos que se han analizado. Porque con 4 juegos contados (o incluso 20) no se puede demostrar mucha cosa.

No recuerdo ver ningún artículo o estudio de este tema a gran escala, pero vamos, tampoco le daría importancia a esto porque como decimos no es útil y puede llevar a engaño (como avisaba Nvidia y ha pasado con tu mensaje... insisto, leete eso que parece que sigues sin entenderlo).

Lo realmente importante es saber si una posible VRAM insuficiente hace que en un juego concreto la gráfica pierda rendimiento. Y de esto sí que ha habido mucha información, recuerdo bastante comparativa de Hardware Unboxed y en la discusión que tuvimos en su momento al menos adriano_99 te pasó varios videos donde si no recuerdo mal se veía el penoso rendimiento en algunas Nvidia con VRAM insuficiente (lo de Howarts Legacy y otros).


PSX22 escribió:Bueno ahora vamos a la parte seria, algunas partes estan contestadas arriba, pero basicamente una GPU floja con 8gb y otra con 16 como la 4060 no creo que vayan a envejecer diferente, por como ponias jugar a 8 fps y 30 es la misma esperiencia, antes de poner con la version de swtich.

Es un ejemplo de gráfica que envejece diferente, una con un rendimiento muy perjudicado por su claramente limitada VRAM vs otra que tiene un rendimiento justito (30 fps es aceptable en según qué contenido, al menos para algunos jugadores). Ya pasó con gráficas de la serie 3000 de Nvidia como también te decía adriano_99 y desde luego viendo lo "generosa" que es Nvidia yo no sé cómo afirmabas en el pasado que los fabricantes lo calculaban bien, y más cuando ya había ejemplos del mal rendimiento de algunas 4000 con insuficiente VRAM con Howarts Legacy.

Por otro lado, incluso en según qué tipo de juego quizás puedas meter FG a esos 30fps de base sin que se note mucho (algo normalmente no recomendado), depende del juego y de lo exigente o la vista del jugador.

Con la gráfica que va a 8fps no quedará otra que reducir las opciones gráficas, demostrando que la VRAM no era suficiente.


PSX22 escribió:Por otro lado si es verdad que la cuantificacion de VRAM no es precisa segun cada caso del juego, el problema es que la vram parece que nunca se llena del todo, pero se esta moviendo a ram DDR y esto si el juego supiera intercambiar los bloques de memoria un poco con antelacion no seria problema, pero si mueves cosas a DDR y tienes asignada cosas en la vram que no usas pero por si acaso tienes ahi... cuando necesites algo de ram y no lo hayas intercamnbiado por lo que no necesitas asignado en vram, ahi vas a tener un problema pero no es falta de vram, sino faltan de no organizar bien la memoria. Justo por lo de que asignar vram no es necesariamente algo en uso en tiempo real. Asi que es el propio juego el responsable de la falta de VRAM en muchos casos. Por eso algunos juegos dan mas problemas que otros mas que por uso real, sino por gestion de vram. He podido desbordar la vram causando muchas pruebas ingame y hay fuga de VRAM, por esto en mismos ajustes un juego recien iniciado y mismo punto de juego, no consume la misma ram que cuando llevas jugando 4 horas sin salir del juego. Y logicamente es el mismo punto misma situacion y no es la misma asignacion ( aunque si de uso real). Y es el no saber gestionar esa asignacion no inmediata la que puede en unos casos dar problemas, no de inicio sino a las horas de jugar.

Cada juego es de su padre y de su madre, solo ellos saben cómo han hecho el juego (de nuevo, la info de Nvidia también lo dice), nosotros nos podemos limitar a jugarlo y a testear lo que se pueda, poco más. De hecho, lo de testear, es precisamente lo que hacen algunos medios profesionales y parte de lo que dices ya lo comprueban (varias veces he leído/visto lo de que cuando termines de configurar un juego concreto mejor reiniciarlo, de Digital Foundry por ejemplo).

Todo este bloque lo he leído un poco en diagonal porque me parece que estás entrando en un detalle que nos ayuda en nada en esta conversación, y más cuando hasta hace nada no sabías ni lo básico en cuanto a asignación de VRAM de un juego (como te ha explicado hh1 y como ya varios foreros te explicamos meses atrás).

No le daría vueltas a cómo los juegos gestionan la VRAM, por mucho que podamos pensar que X desarrollador es un chapuzas y lo hace mal poco vamos a poder cambiar y tendremos lo que nos den.

Lo que sí podemos hacer es informarnos de lo que estamos haciendo/mirando (aunque en tu caso hubiera valido con no ignorar a los foreros que hablaron del tema en su día) y así no escribir desinformación como la que hiciste en tu mensaje del video del COD. Porque todo esto no empezó por hablar de si un juego tiene mejor o peor gestión de VRAM (lo que entiendo que dices ahorra en ese párrafo), sino por tu suposición incorrecta de cómo funciona la VRAM en base a un vídeo que viste.

Información por otro lado que a lo poco que mires análisis técnicos de juegos habrías visto hace mucho tiempo, te puse el Outlaws pero también tienes el Avatar donde pasa lo mismo.


PD: A, se me olvidaba. Si no me parecía mal que dudaras de lo que afirmabas meses atrás por el simple hecho de cambiar de opinión. Lo que me parecía mal es que te dijimos varios foreros que no era correcto lo que decías, te lo intentamos justificar de diferentes formas, no hiciste ni caso a todo eso... y ahora resulta que ves un video que NO debería haberte cambiado de opinión o generarte dudas pero que has malinterpretado (porque encima te explicamos cómo funciona lo de la VRAM y deberías saberlo) y resulta que te genera dudas.
Bueno, pero en algun punto debes poner la linea, no es realista analizar 2500 juegos ni desde el punto de vista factible ni desde el punto de vista de la realidad en si misma de caso de uso. Yo no juego a 2500 juegos desde luego xd.

No es casualidad que me comprase una 4070 en vez de 7800xt en su momento, mira muy bien que ocurre con RT en cyberpunk y basicamente la comrpa la justificaba ese juego, y luego como se ha demostrado total acierto con wu kong , silent hill 2 etc etc respecto a la 7800xt mas potente sobre el papel. Es decir uno debe saber que debe comprarse en funcion de a que va a jugar, apra jugar a APEX o hitman 3 sin DLSS no te compras una nvidia desde luego. Eso se ve muy bien en las tablas de diferenciales por cada juego donde puedes ver 15 juegos en positivo y 15 en negativo respecto a Nvidia o viceversa.

Es mensaje solo dicen que no saben la causa y que todo varia, es decir que me da la razon en que es problema de cada juego en como se gestiona la purga de vram y como se recarga de nuevo, causando golpe de fps. Asi que no insistas con esa tonteria mas, que ese mensaje no aclara nada, te dice que la unica forma de saber como va es jungado, y en eso lleva la razon. Por eso se mira antes de comprar la GPU a que vas a jugar porque esta todo probado en videos.


Sigo manteniendo que COD es un desastre en VRAM en que se llena y en realidad antes de llenarse se vuelca a otra memoria, y no es falta de VRAM , sino falta de gestion de vram por parte de un % de juegos realmente bajo. Entonces queda demostrado que es un drama los 12GB para la 5070 sin embargo la memoria esta bien medida al mismo tiempo, porque por unos casos tan minimos, no se puede acusar de mala fe a una empresa ni de mal hacer. Lo que pasa es que si juegas a esos casos, debes mirar una nvidia superior, pero ya esta.

Eso no invalida que 12GB son suficientes para 1440p ultra porque si son suficientes en el 90% de casos , es que en la mayoria de casos tiene razon el fabricante, asi que solo era un tema de precisar la " salvo excepcion". Por tanto tengo razon en el COD que falta VRAM sin embargo la GPU con 12, esta bien diseñada dado que de los miles de juegos afecta realmente a una gran minoria.

Seria como decir que avatar en 4 ultra RT con DLAA sin parches dia 1, necesita mas de 16GB de la 4080 y que esta mal diseñada la tarjeta, claro que no, es un RARA AVIS.




Rvilla87 escribió:
PSX22 escribió:sobre las amd y vram que usan mas porque llevan mas.. entonces porque la 4060TI usa menos VRAM que la 6800XT si ambas son 16?? a ver si va ser verdad el argumento totillero al final??

Para afirmar que una gráfica usa mas o menos VRAM que la otra primero habría que ver la cantidad de juegos que se han analizado. Porque con 4 juegos contados (o incluso 20) no se puede demostrar mucha cosa.

No recuerdo ver ningún artículo o estudio de este tema a gran escala, pero vamos, tampoco le daría importancia a esto porque como decimos no es útil y puede llevar a engaño (como avisaba Nvidia y ha pasado con tu mensaje... insisto, leete eso que parece que sigues sin entenderlo).

Lo realmente importante es saber si una posible VRAM insuficiente hace que en un juego concreto la gráfica pierda rendimiento. Y de esto sí que ha habido mucha información, recuerdo bastante comparativa de Hardware Unboxed y en la discusión que tuvimos en su momento al menos adriano_99 te pasó varios videos donde si no recuerdo mal se veía el penoso rendimiento en algunas Nvidia con VRAM insuficiente (lo de Howarts Legacy y otros).


PSX22 escribió:Bueno ahora vamos a la parte seria, algunas partes estan contestadas arriba, pero basicamente una GPU floja con 8gb y otra con 16 como la 4060 no creo que vayan a envejecer diferente, por como ponias jugar a 8 fps y 30 es la misma esperiencia, antes de poner con la version de swtich.

Es un ejemplo de gráfica que envejece diferente, una con un rendimiento muy perjudicado por su claramente limitada VRAM vs otra que tiene un rendimiento justito (30 fps es aceptable en según qué contenido, al menos para algunos jugadores). Ya pasó con gráficas de la serie 3000 de Nvidia como también te decía adriano_99 y desde luego viendo lo "generosa" que es Nvidia yo no sé cómo afirmabas en el pasado que los fabricantes lo calculaban bien, y más cuando ya había ejemplos del mal rendimiento de algunas 4000 con insuficiente VRAM con Howarts Legacy.

Por otro lado, incluso en según qué tipo de juego quizás puedas meter FG a esos 30fps de base sin que se note mucho (algo normalmente no recomendado), depende del juego y de lo exigente o la vista del jugador.

Con la gráfica que va a 8fps no quedará otra que reducir las opciones gráficas, demostrando que la VRAM no era suficiente.


Es mensaje solo dicen que no saben la causa y que todo varia, es decir que me da la razon en que es problema de cada juego en como se gestiona la purga de vram y como se recarga de nuevo, causando golpe de fps. Asi que no insistas con esa tonteria mas, que ese mensaje no aclara nada, te dice que la unica forma de saber como va es jungado, y en eso lleva la razon. Por eso se mira antes de comprar la GPU a que vas a jugar porque esta todo probado en videos.


Sigo manteniendo que COD es un desastre en VRAM en que se llena y en realidad antes de llenarse se vuelca a otra memoria, y no es falta de VRAM , sino falta de gestion de vram por parte de un % de juegos realmente bajo. Entonces queda demostrado que es un drama los 12GB para la 5070 sin embargo la memoria esta bien medida al mismo tiempo, porque por unos casos tan minimos, no se puede acusar de mala fe a una empresa ni de mal hacer. Lo que pasa es que si juegas a esos casos, debes mirar una nvidia superior, pero ya esta.

Eso no invalida que 12GB son suficientes para 1440p ultra porque si son suficientes en el 90% de casos , es que en la mayoria de casos tiene razon el fabricante, asi que solo era un tema de precisar la " salvo excepcion". Por tanto tengo razon en el COD que falta VRAM sin embargo la GPU con 12, esta bien diseñada dado que de los miles de juegos afecta realmente a una gran minoria.



PSX22 escribió:Por otro lado si es verdad que la cuantificacion de VRAM no es precisa segun cada caso del juego, el problema es que la vram parece que nunca se llena del todo, pero se esta moviendo a ram DDR y esto si el juego supiera intercambiar los bloques de memoria un poco con antelacion no seria problema, pero si mueves cosas a DDR y tienes asignada cosas en la vram que no usas pero por si acaso tienes ahi... cuando necesites algo de ram y no lo hayas intercamnbiado por lo que no necesitas asignado en vram, ahi vas a tener un problema pero no es falta de vram, sino faltan de no organizar bien la memoria. Justo por lo de que asignar vram no es necesariamente algo en uso en tiempo real. Asi que es el propio juego el responsable de la falta de VRAM en muchos casos. Por eso algunos juegos dan mas problemas que otros mas que por uso real, sino por gestion de vram. He podido desbordar la vram causando muchas pruebas ingame y hay fuga de VRAM, por esto en mismos ajustes un juego recien iniciado y mismo punto de juego, no consume la misma ram que cuando llevas jugando 4 horas sin salir del juego. Y logicamente es el mismo punto misma situacion y no es la misma asignacion ( aunque si de uso real). Y es el no saber gestionar esa asignacion no inmediata la que puede en unos casos dar problemas, no de inicio sino a las horas de jugar.

Cada juego es de su padre y de su madre, solo ellos saben cómo han hecho el juego (de nuevo, la info de Nvidia también lo dice), nosotros nos podemos limitar a jugarlo y a testear lo que se pueda, poco más. De hecho, lo de testear, es precisamente lo que hacen algunos medios profesionales y parte de lo que dices ya lo comprueban (varias veces he leído/visto lo de que cuando termines de configurar un juego concreto mejor reiniciarlo, de Digital Foundry por ejemplo).

Todo este bloque lo he leído un poco en diagonal porque me parece que estás entrando en un detalle que nos ayuda en nada en esta conversación, y más cuando hasta hace nada no sabías ni lo básico en cuanto a asignación de VRAM de un juego (como te ha explicado hh1 y como ya varios foreros te explicamos meses atrás).

No le daría vueltas a cómo los juegos gestionan la VRAM, por mucho que podamos pensar que X desarrollador es un chapuzas y lo hace mal poco vamos a poder cambiar y tendremos lo que nos den.

Lo que sí podemos hacer es informarnos de lo que estamos haciendo/mirando (aunque en tu caso hubiera valido con no ignorar a los foreros que hablaron del tema en su día) y así no escribir desinformación como la que hiciste en tu mensaje del video del COD. Porque todo esto no empezó por hablar de si un juego tiene mejor o peor gestión de VRAM (lo que entiendo que dices ahorra en ese párrafo), sino por tu suposición incorrecta de cómo funciona la VRAM en base a un vídeo que viste.

Información por otro lado que a lo poco que mires análisis técnicos de juegos habrías visto hace mucho tiempo, te puse el Outlaws pero también tienes el Avatar donde pasa lo mismo.


PD: A, se me olvidaba. Si no me parecía mal que dudaras de lo que afirmabas meses atrás por el simple hecho de cambiar de opinión. Lo que me parecía mal es que te dijimos varios foreros que no era correcto lo que decías, te lo intentamos justificar de diferentes formas, no hiciste ni caso a todo eso... y ahora resulta que ves un video que NO debería haberte cambiado de opinión o generarte dudas pero que has malinterpretado (porque encima te explicamos cómo funciona lo de la VRAM y deberías saberlo) y resulta que te genera dudas.
PSX22 escribió:@hh1
vayamos por partes como dijo jack.

es cierto que a mas VRAM mas se asigna, por eso mismo alguien que solo tiene 8 o 12, se le llena mas rapido y movera el excedente a RAM ( antesde llenarse la VRAM completamente).

De forma que tu puedes ver que la VRAM la tienes a 11.5GB de 12 y puedes pensar que tienes suficiente pues aun te sobra, pero la realidad es que si miras VRAM compartida ( veras que en cuanto pasas de 1GB de compartida) se vienen los problemas


Estuve cambiando de ultra sin DLSS a alto, medio bajo, y luego con DLSS y FG lo mismo a varios niveles calidad rendimiento etc... Es decir simulando muchos cambios de ajustes sin cerrar el juego... Y que pasaba? que iba buildeando VRAM no liberaba... y la ram nunca pasaba de 11.5GB, pero los fps cayeron de 80 a 40.... un festival del stutter hill nivel max.


sobre las amd y vram que usan mas porque llevan mas.. entonces porque la 4060TI usa menos VRAM que la 6800XT si ambas son 16?? a ver si va ser verdad el argumento totillero al final??


@654321



respuesta correctisima, como le pongas FG y 4K y toques bastante ajustes, puede pasarte que el FG se ahogue al quedarse sin VRAM y cae al 50% de rendimineto y se viene el stutter hill2. EN CP77 es facil de replicar con 4K DLSS calidad RT overdrive con una 4070TI de 12gb. Y me temo lo peor del Juanillo con su 5070 de 12gb.



@Rvilla87

siempre me guardo lo mejor para el final ^^

Dudar de lo que uno afirma no es tipico de los genios? ^ ^

Bueno ahora vamos a la parte seria, algunas partes estan contestadas arriba, pero basicamente una GPU floja con 8gb y otra con 16 como la 4060 no creo que vayan a envejecer diferente, por como ponias jugar a 8 fps y 30 es la misma esperiencia, antes de poner con la version de swtich.

Por otro lado si es verdad que la cuantificacion de VRAM no es precisa segun cada caso del juego, el problema es que la vram parece que nunca se llena del todo, pero se esta moviendo a ram DDR y esto si el juego supiera intercambiar los bloques de memoria un poco con antelacion no seria problema, pero si mueves cosas a DDR y tienes asignada cosas en la vram que no usas pero por si acaso tienes ahi... cuando necesites algo de ram y no lo hayas intercamnbiado por lo que no necesitas asignado en vram, ahi vas a tener un problema pero no es falta de vram, sino faltan de no organizar bien la memoria. Justo por lo de que asignar vram no es necesariamente algo en uso en tiempo real. Asi que es el propio juego el responsable de la falta de VRAM en muchos casos. Por eso algunos juegos dan mas problemas que otros mas que por uso real, sino por gestion de vram. He podido desbordar la vram causando muchas pruebas ingame y hay fuga de VRAM, por esto en mismos ajustes un juego recien iniciado y mismo punto de juego, no consume la misma ram que cuando llevas jugando 4 horas sin salir del juego. Y logicamente es el mismo punto misma situacion y no es la misma asignacion ( aunque si de uso real). Y es el no saber gestionar esa asignacion no inmediata la que puede en unos casos dar problemas, no de inicio sino a las horas de jugar.

Yo imagino que es que no es algo exacto.Y en cada juego y gráfica ,toma la VRAM de una manera ,pero sobre todo ,en función de lo que tiene.

Lo que he leído mil veces ,es que nunca usa lo que coge.

Ahora ,si me dices que has hecho pruebas y cae el rendimiento, puede que lleves razón, o que en esas pruebas en concreto, se supera o se llega al límite. [beer]

Viendo varios vídeos ,parece que hay un parámetro que es lo que asigna y otro la que se usa.
PSX22 escribió:Sigo manteniendo que COD es un desastre en VRAM en que se llena y en realidad antes de llenarse se vuelca a otra memoria, y no es falta de VRAM , sino falta de gestion de vram por parte de un % de juegos realmente bajo. Entonces queda demostrado que es un drama los 12GB para la 5070 sin embargo la memoria esta bien medida al mismo tiempo, porque por unos casos tan minimos, no se puede acusar de mala fe a una empresa ni de mal hacer. Lo que pasa es que si juegas a esos casos, debes mirar una nvidia superior, pero ya esta.

¿Pero has puesto información de lo mal que COD gestiona la VRAM como para que pierda rendimiento en gráficas con menos VRAM? Porque de ser así entonces sí podemos decir que lo hace mal... pero cuál es esa info?

Ya te lo hemos dicho muchas veces, que no importa la VRAM que reserve un juego, no te fijes por ese numerito que viste en los vídeos.
@hh1

lo tengo mas que comprobado cuando fuerzas 4K DLSS RT y FG ( todo a la vez) puedes tener 80fps , y si consigues desbordarlo, entonces cae a 50 o menos, y el FG sin vram se atasca y no levanta mas los FPS, es algo comprobado ya cuando he hecho esas pruebas en esos 2 -3 juegos concretos. No es queja general en absoluto y seguro que los juegos podrian mejorarlo aunque fuera rebajando automaticamente algun parametro, pero no estan tan bien pensados todavia.


@Rvilla87

no me has entendido , los numeros son todo teorias, no se lo que esta haciendo ningun juego a nivel memoria, se que ese es el unico juego reciente de las decenas que he probado que maximizado al maximo en 4K DLSS con FG y RT tiene problemas comprobables en mi GPU y en cualquiera del mismo modelo. Es algo que fisicamente compruebo si ningun contador porque pasar de 100 a 60fps, no se necesita ningun contador. Pero dejo claro que salvo en ese juego y CP77 llevado al extremo, no hay queja ninguna, la tarjeta rinde perfectamente con lo que se le pide y por 1-2 casos de cientos de juegos no se puede criticar a nivel general y son los juegos los que podrian hacerlo mejor.
@hh1 Mi monitor es de 165hz, aunque se puede overclockear a 180 ni nunca lo he hecho ni nunca lo haré.

Como no le tiro al competitivo ni en normal no soy capaz de distinguir mayor fluidez a partir de los 120 cuadros por segundo, en su día por eso le tiré al que tengo, que estaba bastante bien de precio cuando lo compré. Obviamente es mejor monitor el tuyo.

A mi mi ultritis me dicta con cualquier juego que instalo, que si lo puedo poner todo en ultra con dlaa, veo los cuadros bien altos y no noto falta de fluidez, así lo dejo. Si veo que no es suficiente, entonces dlss en calidad es mano de santo por ahora. Y como los cuadros son altos de todas formas, si hay frame generator lo activo también para acercarlo todo lo posible a los 158 cuadros que tengo puestos de tope. También hay juegos que hay que tenerlo todo activado para que se sientan bien, cp2077 y awake2 son los más destacables.

Está claro que terminará llegando el día que empiece a bajar settings estúpidos para ganar cuadros, ya veremos cuando será.

Otra cosa que hago a veces es que si por lo que sea detecto microstuttering con el tope a 158, capo los cuadros en 120 y con eso suele minimizarse. No es lo mismo que baje de 158 a 100 que de 120 a 100 por ejemplo, el primero se nota mucho más que el segundo.
pakolo1977 escribió:@hh1 Mi monitor es de 165hz, aunque se puede overclockear a 180 ni nunca lo he hecho ni nunca lo haré.

Como no le tiro al competitivo ni en normal no soy capaz de distinguir mayor fluidez a partir de los 120 cuadros por segundo, en su día por eso le tiré al que tengo, que estaba bastante bien de precio cuando lo compré. Obviamente es mejor monitor el tuyo.

A mi mi ultritis me dicta con cualquier juego que instalo, que si lo puedo poner todo en ultra con dlaa, veo los cuadros bien altos y no noto falta de fluidez, así lo dejo. Si veo que no es suficiente, entonces dlss en calidad es mano de santo por ahora. Y como los cuadros son altos de todas formas, si hay frame generator lo activo también para acercarlo todo lo posible a los 158 cuadros que tengo puestos de tope. También hay juegos que hay que tenerlo todo activado para que se sientan bien, cp2077 y awake2 son los más destacables.

Está claro que terminará llegando el día que empiece a bajar settings estúpidos para ganar cuadros, ya veremos cuando será.

Otra cosa que hago a veces es que si por lo que sea detecto microstuttering con el tope a 158, capo los cuadros en 120 y con eso suele minimizarse. No es lo mismo que baje de 158 a 100 que de 120 a 100 por ejemplo, el primero se nota mucho más que el segundo.

Ya...
Eso ya es cuestión de cada uno.
También creo que depende mucho de los juegos que se usen.

Yo el tema fps lo noto en shooters.No hace falta que sea competitivo solamente

Por ejemplo, en Overwatch 2passr de 120fps a 240fps ,parde casi otro juego.
En The Finals lo noto algo menos pero se nota también.

Pero en juegos de un jugador con campaña ,como Doom Eternal ,es orgásmico..Se nota bastante ir por encimad de 200ffps.

Son algunos ejemplos .

Ya en otro tipo de juegos ,me pasa como dices ,que ni lo noto.
Por ejemplo, estilo aventura ,con que pase de 60 fps es que no noto noto diferencia

Mismamente , probé a quitar cosas y meterle FSR a Silent Hill 2 e iba de 130 a 170fps ,según zona.Incluis en alguna ,vi los 200fps.
Al final no comemos ,lo dejé con mejor imagen queen DLSS con RT y todo épico, e incluso en zonas viendo 60fos ,yo veía que igual igual
Me daba igual 60 que 170fps,pero se veía claramente mejor.

Depende del juego y de la vista de cada uno
yo veo normal con la 4090 bajar ciertas cosas, si por ejemplo no notas las sombras en medio y te da 20 fps, buenos son. Eso bajo RT y 4K por mucha 4090 que tengas, vas a ir mejor. Luego quien no quiera RT muy respetable con esa tarjeta. En ese caso es un poco pena porque tiene gran capacidad ,pero si no lo valoras, porque no apagarlo y ganar 50 fps?

claro que si
PSX22 escribió:yo veo normal con la 4090 bajar ciertas cosas, si por ejemplo no notas las sombras en medio y te da 20 fps, buenos son. Eso bajo RT y 4K por mucha 4090 que tengas, vas a ir mejor. Luego quien no quiera RT muy respetable con esa tarjeta. En ese caso es un poco pena porque tiene gran capacidad ,pero si no lo valoras, porque no apagarlo y ganar 50 fps?

claro que si

Sin duda.
Yo jugó con eso ,según es el juego y se se nota o ko.
Al final,,si no notas algo y ganas fps ,por qué no?
@hh1

yo lo mismo, aunque actualice a una mejor para RTX, realmente si veo que no me da nada palpable a la hora de jugar con accion, lo quito seguro, siempre que me de en plan 5-10 o 20 fps los que sean. Renderizar cosas que no percibles es tonteria, es como jugar en wukong en cinematico, no nota nada respecto a ultra.


Mañana espero con suerte la TI Super, lo usare para tener mas FPS no mejor RT por lo general. Hoy cambie la fuente y me duelen los dedos de apretar cables, que tortura con una caja mini ATX
PSX22 escribió:@hh1

yo lo mismo, aunque actualice a una mejor para RTX, realmente si veo que no me da nada palpable a la hora de jugar con accion, lo quito seguro, siempre que me de en plan 5-10 o 20 fps los que sean. Renderizar cosas que no percibles es tonteria, es como jugar en wukong en cinematico, no nota nada respecto a ultra.


Mañana espero con suerte la TI Super, lo usare para tener mas FPS no mejor RT por lo general. Hoy cambie la fuente y me duelen los dedos de apretar cables, que tortura con una caja mini ATX

Uf...Yo ya pasé de cajas ajustadas.
Prefiero cajas más grandes.Me da una pereza tremenda las pequeñas.

También hay vasos en los que hay diferencia ,pero cuesta notarla a la vista.
En algunos juegos he tenido que hacer capturas varias de con unos y otros settings ,o DLSS VS FSR.
Y cuando pones una al lado e la otra ,no notas nada .Luego amplias ,y es evidente la diferencia
Pero al final, como dices ,da igual si en una imagen normal en movimiento ,no lo percibes
Mejor más fps ,está claro

Ya contarás qué tal esa Ti Super.
Tien que ir bastante bien
@hh1

Es tal cual unos juegos se nota en texturas pero otros el DLsS calldad hasta ayuda a ver el pelo mejor y alias






Llego mi ti superrerr record en menos de 12 horas


Me emcantan las compras relampago

Le compre un soporte y todo
@PSX22 Qué tas comprao ya? ¿No sabes que hay que saber contenerse? A ver dame envidia y enséñame en que te has gastado los dineros. [carcajad] [carcajad] [carcajad] [carcajad] [carcajad]
Esta es la VRam que gestiona call of duty black ops 6, a 4k 120 ultra, Básicamente lo que tenga la GPU.

Imagen

Imagen
Black Templar escribió:@PSX22 Qué tas comprao ya? ¿No sabes que hay que saber contenerse? A ver dame envidia y enséñame en que te has gastado los dineros. [carcajad] [carcajad] [carcajad] [carcajad] [carcajad]

Ha comprado una 4070 Ti Super porque jugaba con una 4070 a 4K. Pero ni la una ni la otra son graficas de 4K. Tan buena que era la 4070 asi y ya vemos donde acabo. XD

Supongo que ahora sufrira un paron cardiaco al ver que no ha ganado tanto. XD
@Nomada_Firefox Yo no entiendo demasiado del tema, pero de una 4070 pelada a una 4070ti Súper debería haber bastante diferencia.
Black Templar escribió:@Nomada_Firefox Yo no entiendo demasiado del tema, pero de una 4070 pelada a una 4070ti Súper debería haber bastante diferencia.

Claro que hay diferencia, como bien dices, de media hay un 28% de diferencia en rendimiento a resolución 4K: https://www.techpowerup.com/review/asus ... uf/32.html

Imagen

Saludos.
Nomada_Firefox escribió:
Black Templar escribió:@PSX22 Qué tas comprao ya? ¿No sabes que hay que saber contenerse? A ver dame envidia y enséñame en que te has gastado los dineros. [carcajad] [carcajad] [carcajad] [carcajad] [carcajad]

Ha comprado una 4070 Ti Super porque jugaba con una 4070 a 4K. Pero ni la una ni la otra son graficas de 4K. Tan buena que era la 4070 asi y ya vemos donde acabo. XD

Supongo que ahora sufrira un paron cardiaco al ver que no ha ganado tanto. XD



no, no, juego siempre a 1440p internos y 4K es el framebuffer del DLSS.

4K DLSS rendimiento y espero 4K DLSS calidad, para jugar a 4K60 a todo es necesaria la 4090 y no llega a todo como con silent hill 2

@javier español


lo ha puesto perfecto es un 72% lo que tenia y pasas a un 100% , es un salto similar a una 4080 a 4090 o cercano.

De una 4070super o TI si habria sido tonteria pasar, y 16GB me hacian falta pues justo al usar FG siempre se come 1GB siempre por la cara. ( me estaba llenando la VRAM compartida hasta 2-3GB en titulos concretos)


@Black Templar

si, hay lo que ha puesto javier, por menos de un 30% nunca cambiaria pero ofrece 25-30 y si es 4K aun mejora mas respecto 1440 de una TI base
@Black Templar

gracias y tu ese monitor que ha permitido que no te echen de casa jajaj

He tenido que reinstalar drivers y msi after no lo reconocia.

Uso el conector de mi nueva RM750e tambien el 12vph maligno ( no uso el adaptador marrano)

Pesa casi igual que la vieja 4070 , curioso, y solo mide 1CM mas, es un ensamble liteado aun asi le puse el palito soporte de 5€ de amazon porque me hacia gracia, el punto mas peligroso sin duda apretar el click de liberar la gpu antigua con un destornillador ( no me cabia ni un boli por el disipador cooler master torre grande) Se que hay placas con boton aparte, pero mira esas cosas nunca las piensas.


Ahora pasare el benchmark sin UV en modo stock del wu kong
, que anoche hice 2 con RT y sin RT en calidad ultra 4K DLSS 50


Lo malo es que los que teneis la 4090 si os da el venazo, no podeis actualizar jajaj Hasta el que chino Juan diga nadie se mueva.
PSX22 escribió:Lo malo es que los que teneis la 4090 si os da el venazo, no podeis actualizar jajaj Hasta el que chino Juan diga nadie se mueva.

La tengo en UV, tenerla al 100% es desperdiciarla. [carcajad] [carcajad] [carcajad]
1906 respuestas