[HO] NVIDIA GeForce RTX 5000

Zeratulastur escribió:Rendimiento el esperado de la 4090 TI ☠️

a ver que solo se esta teniendo en cuenta la ganancia de potencia bruta en nativo con RT, pero parece que se está olvidando:

- No hay drivers oficiales.
- No funciona Reflex 2 plenamente y pese a eso la latencia del MFG es de risa.
- Quienes han probado CP2077 DLSS con transformers y no han visto ni un solo efecto fantasma.
- El salto en potencia es bastante espectacular para no haber cambiado de nodo, es algo que llevamos diciendo desde el principio del hilo.
- El verdadero cambio de arquitectura y de paradigma se encuentra en el renderizado neural. El problema es que eso no lo vamos a poder ver en acción hasta pasados unos meses. Entonces la diferencia gracias a los AI TOPS y el soporte de FP4 va a ser mucho más notable con respecto a las RTX 40 y 30.
- Ese mismo camino con el renderizado neural lo va a seguir AMD con UDNA y también PS6 para la décima generación.

El futuro de los videojuegos es justamente ese camino, ya que la Ley de Moore está muerta y enterrada.

Hay varias cosas de los RTX Shaders y del renderizado neural que van a ser fáciles y rápidas de implementar. Por ejemplo, la radiance cache utilizando RTXGI o el NTC para comprimir texturas es muy fácil con el SDK. El problema es que no hay drivers, y el devkit va a estar disponible a finales de mes junto con el DirectX que va a dar soporte a todo, así que hasta unos pocos meses no veremos parches.

Pero vamos que las consolas y GPUs van a tirar por ese camino y no por saltos masivos en la reducción de nodo. De hecho, el último salto decente en reducción de nodo va a ser el de los 2 nm, luego ya van a ser saltos en decimas, así que hay que tirar de apilamiento 3D en los transistores y dentro de una década aumentar frecuencias con nuevos semiconductores más eficientes y poco más. Pero reducir el nodo van a ser saltos de decimas, de angstroms.
Daiben escribió:La 5070 entonces será una 4070S costando lo mismo que una 4070S per con MFG, sacadita de p...de Nvidia, sí.

Entiendo que lo dices con ironía.
Estoy esperando precisamente por la 5070 para montar un PC nuevo de 0 (sería mi primer PC para jugar) con el objetivo de jugar a 1440p pero la verdad no veo mucho comentario positivo con las nuevas gráficas y me hace dudar [+risas]
Tengo una placa base b450 pcie3.0x16 mirando esta gráfica del video con la 5090 hay entre un 2 y un 4%de perdida de rendimiento según resolución entre pcie 3.0 y 5.0
Con la 5070 ti el resultado será similar?

nose_ escribió:@FranciscoVG hombre algo se ganará con una 5080, aunque solo sea por por el x3/x4


Pues igual un 5% mas de rendimiento, y el x3 o x4 del MF para el que le parezca util por que para mi no lo es

Por cierto son varios los que dicen que también añade artefactos

Imagen

Aqui se ve la botella de cerveza medio transparente como en un efecto raro, es sacado del video de linus y según dicen son bastante habituales
Kakarot_13 escribió:
Daiben escribió:La 5070 entonces será una 4070S costando lo mismo que una 4070S per con MFG, sacadita de p...de Nvidia, sí.

Entiendo que lo dices con ironía.
Estoy esperando precisamente por la 5070 para montar un PC nuevo de 0 (sería mi primer PC para jugar) con el objetivo de jugar a 1440p pero la verdad no veo mucho comentario positivo con las nuevas gráficas y me hace dudar [+risas]


No hay ninguna ironía, la 5070 va a rendir poco mas que la 4070 normal, se va a quedar muy lejos de la 4070 ti.

RedRock escribió:Tengo una placa base b450 pcie3.0x16 mirando esta gráfica del video con la 5090 hay entre un 2 y un 4%de perdida de rendimiento según resolución entre pcie 3.0 y 5.0
Con la 5070 ti el resultado será similar?



Te estas confundiendo con el 2.0, otra vez no con los debates absurdos, la diferencia entre pcie 3.0 y 4.0 solo se notan en graficas laptop capadas a x8 como la 4060 o 7600.
Tamagami escribió:
PepeC12 escribió:
nose_ escribió:@FranciscoVG hombre algo se ganará con una 5080, aunque solo sea por por el x3/x4



A ver, yo el multi frame generation lo veo una tonteria mayuscula, para empezar partes de que necesitas si o si 60 fps, y si lo activas aumenta la latencia considerablemente.

Ahora si tienes 60 fps, si activas el FG pasas a 120fps (pero con peor latencia que con 60), puedes pasar ahora con el MFG a 180 o 240 fps... Para que coño quieres tantos fps si la latencia es peor que si tuvieras 60? la gracia de tener altos fps es el tiempo de respuesta, por eso los monitores gaming empezaron a tener mas de 120hz.

Chorrada marketiniana como un piano y a muchos se la estan colando.

En mi opinion es mucho mejor jugar a 60 fps con tu Gsync o Freesync o lo que tenga tu monitor y dejarte de chorradas, tienes la latencia que corresponde a esos fps y punto. Que 60 fps es una muy buena tasa para jugar a juegos, salvo shooters competitivos con raton que les viene muy bien tener altos fps reales, no veo yo la necesidad de meter frames falsos y latencia.

Pero eso de la latencia es real? donde lo has visto? en alguna review de la 5090 se puede ver?

Es real.
El frame generation ya aumenta mucho la latencia en el imput lag y en video video de digital foundry dicen que el multiframe generation lo aumenta aun mas.
Imagen
Frame generation añade en este ejemplo 16ms respecto a solo usar dlss con reflex activo en ambos casos.
16ms parece poco pero 16ms es la diferencia entre 60fps(un frame cada 16,66ms) y 30fps( un frame cada 33,33ms).
Pues con el nuevo multiframe habria que añadirle otro 5ms!
El frame generation sirve para que el movimiento de las cosas que no dependen de tu input se vean mas suaves y para sentirte mejor contigo porque el numero de fps que ves en la pantalla es mas alto.
Pero los juegos no solo no se sienten mas responsivos sino que se sienten menos responsivos.
Mucha gente te dirá que no se nota pero mucha gente te dirá en consola que no se nota jugar a 30 fps en vez de 60.

Kakarot_13 escribió:
Daiben escribió:La 5070 entonces será una 4070S costando lo mismo que una 4070S per con MFG, sacadita de p...de Nvidia, sí.

Entiendo que lo dices con ironía.
Estoy esperando precisamente por la 5070 para montar un PC nuevo de 0 (sería mi primer PC para jugar) con el objetivo de jugar a 1440p pero la verdad no veo mucho comentario positivo con las nuevas gráficas y me hace dudar [+risas]

No, no hay ninguna ironía por desgracia.
Con la 5090 hemos visto que blackwell no ofrece un aumento significativo del rendimiento por núcleo y la 5070 tiene menos nucleos que la 4070 super.
La 4070 rinde un 16% mas que la 4070 así que la 5070 no la va a superar por mas de un 5%.
A lo mejor ni eso, casi toda la mejora vendrá del ancho de banda de las memorias.
@Lorena99
No me estoy confundiendo con nada,los datos de la 5090 estan ahí en el video y si hay esa diferencia entre pcie 3.0 y 5.0, ni siquiera he mencionado el 4.0, he hecho una pregunta,no se a que viene eso de debate absurdo.
@adriano_99 pues no sé qué hacer entonces. Para lo que queda igual me espero pero viendo lo que comentáis de que la 5070 no va a rendir más que la 4070 super…
Ramsy_Osborne está baneado por "clon de usuario baneado"
Kakarot_13 escribió:@adriano_99 pues no sé qué hacer entonces. Para lo que queda igual me espero pero viendo lo que comentáis de que la 5070 no va a rendir más que la 4070 super…


Yo estoy en un caso parecido al tuyo y por lo que vengo leyendo en otros foros como el del.chapuza electrónico hay mucho agorero.

Los tensor cores de las 50xx se ventilan a las series anteriores en IA y ese es el futuro aunque algunos no les guste.

Con una 5080 vas a ver mejor los juegos que el que tiene una 4080 y con una 5070 Ti también vas a ver mejor los juegos que cualquiera que tenga una GPU gama 4070.

Diles a cualquiera de los que tienen una GPU serie 4000 que les cambian gratis su GPU por su mismo modelo de la serie 5000 a ver lo que dicen ;) .
@parh Estoy de acuerdo con lo que dices y a la vez no me gusta la situación en la que está esto.

Sobre todo no quiero que pienses que te llevo la contraria con lo que voy a decir, que a fin de cuentas es un poco repetir lo que he dicho en días pasados.

Partiendo de la base de que es así todo lo que has puesto, o sea que es completamente cierto y es lo que está pasando, yo quiero añadir que de todas formas la presentación de todo esto ha sido desafortunada porque no ha sido lo suficientemente honesta.

El que la ley de moore ya no exista es un paradigma muy sombrío para la industria en general, ya que nunca ha sabido equilibrar bien los avances tremendos que ha habido en la parte del hardware por la parte del software. Ya sea por cumplir plazos o por vagancia de las personas o la causa que sea, desde que aparecieron los microcomputadores a finales de los 70 del siglo XX, la sensación de que se podrían aprovechar mejor los circuitos de lo que se consigue siempre ha sido una constante.

Por ejemplo, para esto más concretamente siempre andamos lamentándonos de lo mal optimizados que están los juegos desde que el Dlss dejó de verse como una patata. Y todo esto mientras tanto el hardware está entrando en una fase de estancamiento que puede que termine siendo definitiva.

La solución al atolladero parece que va a ser la ia y aunque a mi personalmente no me guste ese arreglo por otras razones, usar la parte del software (porque la ia tiene más de software que de hardware) para seguir yendo en plan triunfal por el mundo, no es honesto ya que esta empresa si tiene tanto poderío en la industria, se debe más bien por vender hardware que por el software que producen. Esto último es algo que nunca deberíamos perder de vista en lugar de entrar siempre a fliparnos con el espectáculo de humo y espejos en que se está convirtiendo todo esto. Y tras el humo y espejos hacer cola una vez más para dejar una cantidad importante de dinero en la cuenta del mago chino.

Quizás todavía no pueda llamarse refrito a.los chips nuevos comparados con los anteriores, pero como dentro de dos años vuelvan a usar la misma litografía, esa palabra se va a leer mucho por aquí.

Una cosa que ayer oí un par de veces en las reviews de la 5090 es que ahora sí esta serie está preparada para el nuevo paradigma ese del neural rendering. Yo estoy en desacuerdo con eso porque considero que desde las turing hay hardware adaptado para el tipo de cálculos que necesita esa manera novedosa de representar gráficos, y si una 2060 no tiene suficiente memoria como para llegar siquiera a 1080p, al menos que pueda verse en una resolución inferior, pero al menos hacer el esfuerzo por habilitarlo o si ni así, por lo menos abrir el código para que gente de todo el mundo pueda tener la posibilidad de investigarlo. Ganarían algo menos de dinero pero también se podrían aprovechar de lo que desarrollara esa comunidad.

Pero es que el día que se implante plenamente el neural rendering, si es que así terminan llamando a que la tarjeta imagine completamente todos los cuadros del juego, aplicación o lo que esté representando en la pantalla, estoy seguro que gracias a su manera de hacer las cosas una 5090 no podrá hacerlo aunque tenga hardware de sobra para conseguirlo. Las reviews de ayer a mi me confirmaron además que la 4090 también lo tiene, de hecho.
@papatuelo entonces estamos en un intercambio en el que te dan unos fps extras que seguramente no vas a notar a costa de imput lag y artifacts que tampoco se perciben.

Deberían existir las catas ciegas de gráficas, que te pongan un juego con diferentes gráficas y que la gente adivine el rango aproximado de fps a los que se mueve.
MarioLemieux escribió:@papatuelo entonces estamos en un intercambio en el que te dan unos fps extras que seguramente no vas a notar a costa de imput lag y artifacts que tampoco se perciben.

Deberían existir las catas ciegas de gráficas, que te pongan un juego con diferentes gráficas y que la gente adivine el rango aproximado de fps a los que se mueve.


Eso se hace en el mundo de los móviles, se muestran una serie de fotos iguales hechas con distintos móviles sin decir con cual están hechas para que la gente opine de calidad, resolución, color, aberraciones, etc y es una risa ver los resultados.
Ahí se vería si esos % y ojos biónicos son tan exactos como la gente cree.
papatuelo escribió:No hagáis mucho caso a los catastróficas del input lag. Probadlo vosotros mismo q el 99% no os vais a dar ni puñeteras cuenta, pero ni remotamente.

Además por poner un ejemplo, digital foundry explica q si juegas con el cyberpunk nativo tienes mayor input lag q si Lo haces con dlss y frame generation X4.

Esto es Xq en 4k nativo y con assets altos no alcanzas los 60 fps mientras q con reescalado y FG lo sobrepasas.

Creo q en el video sale como en nativo rondas los 55 ms y con FG 4X los 35. Así q si queréis ver si notáis el input lag probad a jugar nativo ese juego, habrá más igual, y si podéis jugar también podéis hacerlo con FG.


Por desgracia para mi implica que si tú juego va a 60fps con DLSS, al activar el FG ya sea a 120, 180 o 240 fps internamente tu inputlag es equivalente a jugar a 30fps.

Vosotros decidís si queréis jugar a 60 fps reales y con input lag mínimo o a 240fps pero con un inputlag de 30fps.

Las consolas van a 30fps en muchos juegos, jugable es, otra cosa es que sea lo ideal o no.
parh escribió:- Quienes han probado CP2077 DLSS con transformers y no han visto ni un solo efecto fantasma.

Sí, pero eso también con la 30XX ...

parh escribió:- El verdadero cambio de arquitectura y de paradigma se encuentra en el renderizado neural. El problema es que eso no lo vamos a poder ver en acción hasta pasados unos meses.

Meses ? ja ja jaja, me da que para cuando empiece a haber juegos que lo uses ya tendras una 60XX o 70XX ...
Los que se compraron una 20XX de lanzamiento, cuando empezaron a disfrutar del raytracing ?


papatuelo escribió:Además por poner un ejemplo, digital foundry explica q si juegas con el cyberpunk nativo tienes mayor input lag q si Lo haces con dlss y frame generation X4.

Pero si lo juegas solo con escalado DLSS entonces tiene la mitad de lag que en esos 2 casos que comentas [qmparto]


Kakarot_13 escribió:Entiendo que lo dices con ironía.
Estoy esperando precisamente por la 5070 para montar un PC nuevo de 0 (sería mi primer PC para jugar) con el objetivo de jugar a 1440p pero la verdad no veo mucho comentario positivo con las nuevas gráficas y me hace dudar [+risas]

Esperate a los benchamarks, pero fijate que la 5070 tiene bastantes menos nucleos que la 4070S, la mejora viene por el aumento de ancho de banda por la memoria, pero se espera que sea lo comido por lo servido y que anden muy parejas.

Esperate a que salga, a ver los benchmarks, y a ver si las 4070S estan rebajadas o no.
Nvidiaenjoyer está baneado por "usuario con cuenta inmolada que vuelve a trolear al foro"
Honestamente, y hablo desde el más absoluto sentimiento fanboy, esta generación es un desastre y la 5090, la única que me interesa, es una 4090 Ti renombrada. No me puedo creer que haya leído comentarios como “menuda bestia” o “me parece muy buena” cuando, como ya se ha comentado, tenemos un ~25-30% más de rendimiento bruto en base a consumir un ~25-30% más. Esto, no es evolución, esto es simplemente matemático… a más consumo, a más frecuencia y demás pues evidentemente más rendimiento.

El escenario ideal, al menos para mí, hubiese sido que manteniendo los consumos de la 4090 (que ya está bien) hubiesen conseguido un 30% más de rendimiento bruto. Pero celebrar por todo lo alto esto… uf no.


Ahora, como bien fanboy pues la compraré, siempre me gusta ir a la última y, por desgracia, me quema el dinero. Pero he de decir que si no te sobra el dinero y tienes una 4090 el salto es ridículo. Nos han vendido software camuflado de hardware.
MarioLemieux escribió:@papatuelo entonces estamos en un intercambio en el que te dan unos fps extras que seguramente no vas a notar a costa de imput lag y artifacts que tampoco se perciben.

Deberían existir las catas ciegas de gráficas, que te pongan un juego con diferentes gráficas y que la gente adivine el rango aproximado de fps a los que se mueve.


Ayer publicaron un vídeo en el que se juega con varias opciones de DLSS a ciegas para ver si realmente son perceptibles:

https://www.youtube.com/watch?v=kR7Zc3CS4vg
Menudo bicho que han sacado, miedo me da la siguiente generación consumiendo mas y generando mas inputlag, cuanto mas de ambas mejor.
Si si, mucha crítica a las nuevas 5000 pero el día 30 vais a estar como locos por comprarlas y encima no vais a poder :D
RedRock escribió:Tengo una placa base b450 pcie3.0x16 mirando esta gráfica del video con la 5090 hay entre un 2 y un 4%de perdida de rendimiento según resolución entre pcie 3.0 y 5.0
Con la 5070 ti el resultado será similar?




Justo lo que estaba buscando, muchas gracias, tengo un i9 9900k y me estoy planteando un cambio a nueva plataforma (9700x9600x), pero para un 5080 y jugar en 4k +100 fps
Borlanchos escribió:Si si, mucha crítica a las nuevas 5000 pero el día 30 vais a estar como locos por comprarlas y encima no vais a poder :D


Por aquí algunos iluminados dicen que se podrán pillar sin problemas.

Estoy esperando al día 30 para demostrar que se equivocan. Yo mismo intentaré comprar la 5080FE, no porque me guste pagar más en defecto de una 5070ti sino porque me gusta la FE que es más pequeña y compacta. Las customs son ridículamente grandes.
https://videocardz.com/newz/asus-pcie-s ... 0-affected
En mi experiencia con Placas Base, el Q-Release slim este nuevo de Asus me parece una autentica chapuza.
Espero no hacer offtopic o repetir mensaje.
Umm ya veo que el firmware de la 5090 es buenisimo, 901W en 1ms..........es más que una radial.....tengo miedo que en mi casa saltasen los plomos con ese chisme.
Imagen
Nvidiaenjoyer está baneado por "usuario con cuenta inmolada que vuelve a trolear al foro"
Borlanchos escribió:Si si, mucha crítica a las nuevas 5000 pero el día 30 vais a estar como locos por comprarlas y encima no vais a poder :D

Tal cual. También te digo… si me quedo sin ella el día 30 me espero a la serie 6000.

Ahora mismo estoy en modo consumista total, completamente absorbido por el sistema capitalista y con una necesidad imperiosa de gastar en esa gráfica. Pero eso se bajará cuando el día 30 me pegue la estampada y no pueda ni entrar a la página.
Nomada_Firefox escribió:Umm ya veo que el firmware de la 5090 es buenisimo, 901W en 1ms..........es más que una radial.....tengo miedo que en mi casa saltasen los plomos con ese chisme.
Imagen



Dentro de un par de años cuando salga la 6090 con nuevo nodo y fabricación más reducida y mucho menos consumo la gente pondrá verde a la 5090 por ser una bestia pero a costa de consumo y calor.

La gente que le da igual el consumo no se da cuenta que no sólo es consumo sino el calor que emiten 600W.
Es ridículo ese consumo, alguno q sepa del tema, por curiosidad, podría hacer un gráfico q plasme en € la pasta en electricidad, y comparado con otras generaciones.
Sería muy interesante
Nomada_Firefox escribió:Umm ya veo que el firmware de la 5090 es buenisimo, 901W en 1ms..........es más que una radial.....tengo miedo que en mi casa saltasen los plomos con ese chisme.
Imagen



Virgen santísima que consumos. Pronto un PC consumirá más que un aire acondicionado. Lo bueno es que podremos usarlo como bomba de calor….tanto en invierno como en verano.


Según la calculadora de fotocasa, solo la gráfica funcionando a pleno rendimiento durante una hora al día, 30 días al mes, tiene un coste de 4 euros en la factura de la luz.

https://www.fotocasa.es/fotocasa-life/c ... omesticos/
Nvidiaenjoyer está baneado por "usuario con cuenta inmolada que vuelve a trolear al foro"
Lo peor de ese consumo es que la caja va a estar dentro como una fundición. Van a subir las temps de todos los componentes.

No se si merece la pena esto por un ~30% más de rendimiento. Ahora mismo estoy muy dubitativo.
Imagen

Se esta contratando mas personal en las centrales nucleares ante la salida de la serie 5000 de Nvidia [+risas] [rtfm] [qmparto]
@Torregassa pues si esos datos son correctos es una buena pasta 30 horas sale a 4€, hacer cuentas ¬_¬
papatuelo escribió:No hagáis mucho caso a los catastróficas del input lag. Probadlo vosotros mismo q el 99% no os vais a dar ni puñeteras cuenta, pero ni remotamente.


Pues como el jugar a mas de 75 fps o en alto/ultra. La gente no se suele dar cuenta de absolutamente nada, por eso juegan con el msi afterburner abierto, para ver los frames. Y si no hubiera opciones graficas visibles, no sabrían si juegan en medio, alto o ultra.
Pero aqui estamos, cambiando de gpu cada dos años para ver un numerito mayor en la tasa de frames.
Torregassa escribió:Según la calculadora de fotocasa, solo la gráfica funcionando a pleno rendimiento durante una hora al día, 30 días al mes, tiene un coste de 4 euros en la factura de la luz.

¿No son 4€ todo el mes? no es tanto.
Nomada_Firefox escribió:
Torregassa escribió:Según la calculadora de fotocasa, solo la gráfica funcionando a pleno rendimiento durante una hora al día, 30 días al mes, tiene un coste de 4 euros en la factura de la luz.

¿No son 4€ todo el mes? no es tanto.


Regalao. De verdad alguien dispuesto a pagar 2600 a 3000 pavos mira el coste de la luz de la grafica?

XD llados ven a mi xD
papatuelo escribió:No hagáis mucho caso a los catastróficas del input lag. Probadlo vosotros mismo q el 99% no os vais a dar ni puñeteras cuenta, pero ni remotamente.

Además por poner un ejemplo, digital foundry explica q si juegas con el cyberpunk nativo tienes mayor input lag q si Lo haces con dlss y frame generation X4.

Esto es Xq en 4k nativo y con assets altos no alcanzas los 60 fps mientras q con reescalado y FG lo sobrepasas.

Creo q en el video sale como en nativo rondas los 55 ms y con FG 4X los 35. Así q si queréis ver si notáis el input lag probad a jugar nativo ese juego, habrá más igual, y si podéis jugar también podéis hacerlo con FG.



Esa conclusión es errónea. Si pones DLSS y no activas el FG vas a tener mejores tiempos que con el FG activado.

Si se quiere analizar ese caso, hay que ser coherentes con las pruebas. No puedes poner un juego en 4K nativo, ver su input lag y pasar a otra prueba en la que ademas del FG le metes DLSS, que renderiza a una resolución inferior, permitiendo más fps. La prueba debería ser 4K-NOFG vs 4K-FG.

Es literalmente imposible que un frame generado de forma artificial te de menos input lag que el renderizado nativo. Yo particularmente lo noto, porque juego con teclado y ratón y cualquier giro de cámara es insufrible.
30 horas sale por 4€, no es tan difícil de entender [+risas]
Si hay una buena refrigeración y una torre grande la temperatura no serán problemas y el consumo no afectará mucho a la factura a la luz.
Después de leer varios a análisis veo que es una gran tarjeta y eso que los drivers aún están verdes y el dia de lanzamiento estarán más pulidos lo si coinciden mucho que recomiendan un 9800X3D,monitor 4k 240Hz yo solo tengo la duda de que ensamblador elegir estoy entre la ASUS GeForce ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition y la MSI GeForce RTX 5090 32G SUPRIM SOC,esperando los análisis para elegir modelo.
El problema no es el consumo, ni el calor generado que sera enorme, el problema es tener picos y que los componentes no se desintegren con esos picos.

Ya se sabe, comprar nuevo, es comprar productos en fase beta. Y muchas veces más caros.
Ayer estuve probando el DLSS 4 y el nuevo FG, el x2.

Y el DLSS se ve algo menor, tampoco una locura, pero te quita 4 o 5 fps.

El FG lo veo mas o menos igual, pero te da 4 o 5 fps.

Ósea, lo que Dios te da, Dios te lo quita, ganancia 0.
the_aeon escribió:Ayer estuve probando el DLSS 4 y el nuevo FG, el x2..

Una pregunta ¿que juegos lo tienen ya puesto?
Nomada_Firefox escribió:
Torregassa escribió:Según la calculadora de fotocasa, solo la gráfica funcionando a pleno rendimiento durante una hora al día, 30 días al mes, tiene un coste de 4 euros en la factura de la luz.

¿No son 4€ todo el mes? no es tanto.



Ahí hay que añadir el resto de consumo del PC y la pantalla, impuestos y toda la mandanga de la factura. Al final se irá a unos 7-8 al mes por una hora a pleno rendimiento al día. Esto es según precio de 15centimos kWh, que es un precio medio, sin contar que probablemente se usé el PC en horas pico de +22 céntimos el kWh, lo que lo elevaría a 10-11 euros/30 horas. Que si, que quien se gaste chorrocientos euros en un producto se la va a sudar todo y bla bla bla, yo solo comento el dato por si a alguien le parece interesante o relevante. Personalmente creo que es tan relevante tener en cuenta el consumo como el precio de la grafica en cuestión. A quien no le importe el precio de un producto entiendo que le de igual también el consumo y su coste.
pero a ver, de verdad uno se deja unos 2500€ en una 5090 (mas los que pillen ensambles tope de gama), fuente top de 300 pavos, procesador de 500 etc etc y esta preocupado por el incremento en la factura de la luz? [mad] [mad]
@Torregassa buen trabajo, por ejemplo, el baldur's gate 3 si te lo pasas en 120 h, con la 5090 además pagas un sobrecoste de unos 12 € tirado por lo bajo
@Torregassa No creo que sea un problema para nadie que compre esto.

Yo no tengo una XX90 obviamente pero uso el PC a diario 8 horas minimo al dia, la mayoria del dia relajado, juego dos horas o más al dia, a veces 3, otras 4, depende, a fin de cuentas grabo las partidas y lo que gasta mi PC no repercute demasiado en la factura. Es peor la nevera que es vieja y pasa el dia tirando. Por no hablar de la calefación 24 horas......
parh escribió:pero a ver, de verdad uno se deja unos 2500€ en una 5090 (mas los que pillen ensambles tope de gama), fuente top de 300 pavos, procesador de 500 etc etc y esta preocupado por el incremento en la factura de la luz? [mad] [mad]


Salvando las distancias, mismo caso que los que se compran un Teléfono top de gama (es más habitual con iPhones, pero entrarían otras marcas también) a plazos.

Lo razonable es pensar que si te vas a gastar una cantidad considerable en adquirir una tarjeta de este tipo, el incremento en la factura de la luz no debería importar, pero la realidad se encarga en demostrar que el ser humano es de todo menos razonable.
A mí de ese consumo de 600W lo que me preocupa es el calor que va a generar esa mierda en verano, deberían regalar un aire acondicionado con ella jajajaja....



No se que hacer. Quería pillar una buena gráfica ahora que he renovado el resto del pc y estoy en proceso de pillar monitor 4K, algo nivel 5070 ti mínimo era la idea, pero me niego a gastar ese dinero y tener solo 16GB.

No ya por juegos , que también, si no porque me gusta cotillear temas de IA de vez en cuando...


Así que mis opciones, valorando la VRAM como importante, son:
3090 de segunda mano y en la serie RTX 60 ver qué hago: como contra la 3090 para 4K no va a ir muy fina, claro. Como ventaja luego la puedo dejar de secundaria
5060 ti futura e ir tirando a lo modesto hasta las RTX 60 . Es en realidad equivalente al punto anterior pero con algo nuevo aunque peor... Pero con menos consumo.
5090: carísima, aunque en VRAM mucho más cargada. Francamente en juegos no necesito tanto... Al final juego más tiempo a juegos antiguos que modernos (que también)
Si pillo esto la idea es que sea mi gráfica al menos hasta las RTX 70, 4 añitos


Creo que tiraré por la 3090... Aunque la cosa aquí es que mi criterio para elegir depende de la bola de cristal. Cuanta memoria tendrá una hipotética 6090 y 6080? 48GB? 32GB?96GB?

En potencia una 4090 de segunda mano me sonaria bien, pero no para los precios que tiene, para quedarme en 24GB ya me quedaría en la 3090 con vistas a la siguiente gen...


La verdad es que es mal momento para pasar a 4K, porque en 2K la 3090 me haría el apaño bien, pero tengo ganas de cambiar mi monitor 2K que es viejillo y ni HDR ni nada tiene, y puestos a cambiar lo suyo es 4K...


En fin, perdonad la chapa pero quería soltarla por si alguien da una visión externa. Tal como estoy igual lo dejo al azar, intento pillar una 5090 FE, y si no cuela, a por la 3090 y en dos años nos vemos otra vez jajaja
¿Sera verdad esto? https://videocardz.com/pixel/nvidia-has ... tx-50-gpus

Parece de chiste, es el ojos que no ven, corazon que no siente.
Nomada_Firefox escribió:¿Sera verdad esto? https://videocardz.com/pixel/nvidia-has ... tx-50-gpus

Parece de chiste, es el ojos que no ven, corazon que no siente.


pues sí, de libro. Nvidia corta por la sano de esa manera
Nomada_Firefox escribió:@Torregassa No creo que sea un problema para nadie que compre esto.

Yo no tengo una XX90 obviamente pero uso el PC a diario 8 horas minimo al dia, la mayoria del dia relajado, juego dos horas o más al dia, a veces 3, otras 4, depende, a fin de cuentas grabo las partidas y lo que gasta mi PC no repercute demasiado en la factura. Es peor la nevera que es vieja y pasa el dia tirando. Por no hablar de la calefación 24 horas......



No digo que sea o no un problema, que no se me mal interprete. Simplemente digo que es algo que puede ser tenido en cuenta para el que tiene presente el precio de la gráfica en la toma de decisión final. Al final todo son costes de más o menos.

Habrá quien diga “a mi me da igual que cueste 2000 euros porque es mi pasatiempo preferido y no gasto en nada más a lo largo del mes que en el PC y jugar”. Totalmente comprensible como el que piensa que “tengo el presupuesto limitado y quiero exprimir al máximo cada euro invertido, tanto a presente como a futuro”. Al final todo son contextos de cada uno, y como tal totalmente comprensibles todos.
Nomada_Firefox escribió:
the_aeon escribió:Ayer estuve probando el DLSS 4 y el nuevo FG, el x2..

Una pregunta ¿que juegos lo tienen ya puesto?

Cyberpunk, pero si copias el archivo .dll en otro juego funciona.

Yo lo copie en Alan wake 2 y el FG nuevo se nota que da mas fps, el DLSS 4 no actúa porque tendrías que elegirlo en opciones del juego y aun no esta la opción en el menú, entonces actúa como DLSS 3.
12974 respuestas