the_aeon escribió:Ayer estuve probando el DLSS 4 y el nuevo FG, el x2.
Y el DLSS se ve algo menor, tampoco una locura, pero te quita 4 o 5 fps.
El FG lo veo mas o menos igual, pero te da 4 o 5 fps.
Ósea, lo que Dios te da, Dios te lo quita, ganancia 0.
Hombre, ganancia 0 tampoco, por lo que dices se gana calidad de imagen, no?
De hecho se han visto la gran mejora que supone el DLSS 4 con el tema transformadores (con esa pequeña pérdida de rendimiento, sí), no podemos ignorarla cuando es precisamente la tecnología mas usada (Super Resolution) por encima del Frame Generation.
Torregassa escribió:Nomada_Firefox escribió:Torregassa escribió:Según la calculadora de fotocasa, solo la gráfica funcionando a pleno rendimiento durante una hora al día, 30 días al mes, tiene un coste de 4 euros en la factura de la luz.
¿No son 4€ todo el mes? no es tanto.
Ahí hay que añadir el resto de consumo del PC y la pantalla, impuestos y toda la mandanga de la factura. Al final se irá a unos 7-8 al mes por una hora a pleno rendimiento al día. Esto es según precio de 15centimos kWh, que es un precio medio, sin contar que probablemente se usé el PC en horas pico de +22 céntimos el kWh, lo que lo elevaría a 10-11 euros/30 horas. Que si, que quien se gaste chorrocientos euros en un producto se la va a sudar todo y bla bla bla, yo solo comento el dato por si a alguien le parece interesante o relevante. Personalmente creo que es tan relevante tener en cuenta el consumo como el precio de la grafica en cuestión. A quien no le importe el precio de un producto entiendo que le de igual también el consumo y su coste.
Por una parte, los 4€ te salen de calcular un consumo a 900Wh? Eso es una locura, eso es el mayor pico, no es el consumo de la grafica en gaming, que es menos de 600W (587W, y no cuento undervolt):
https://www.techpowerup.com/review/nvid ... on/43.htmlY por otro lado, a mi lo que me parece relevante es calcular el
precio de la diferencia respecto a lo que ya se tenga.
Con la 4090 ya salió ese debate, no es por repetir lo mismo pero creo que todos sabemos que los que se compran esa gráfica no van a estar mirando si se gastan
unos céntimos mas por 1h de juego. Y es que, si partimos que
la media de consumo jugando es de mas o menos 0,2 kWh, quien se pilló la 4090 gastando unos 0,2kwh más (el doble) estamos hablando de una diferencia de
0,03€ por hora (a 0,15€ el kWh) o
menos de 1€ al mes si sumamos 30h de uso.
Y de nuevo se repite, esa persona que tenía la 4090 y ahora se pillaría la 5090 vuelve a aumentar casi 0,2kWh (menos realmente) con lo cual otros 0,03€ por hora. Vamos, que incluso pasando de una gráfica común a la top 5090 hablamos de un aumento de precio por hora de juego de 0,06€ que
sumaría menos de 2€ al mes, la mitad de esos 4€ que comentas y eso que en este ejemplo paso de una gráfica que consume poco a la que más consume.
Leo comentarios del tremendo gasto de la 5090 pero lo que me parece que no se está teniendo en cuenta y es de cajón, es que muy posiblemente ese jugador ya esté consumiendo X (lo que sea dependiendo de su equipo) y ese gasto ya hay que tenerlo en cuenta.
¿Cuántos se estiran de los pelos con el gran consumo y no tienen claro lo que consume en su casa cada electrodoméstico? Porque me parece que la mayoría. Lo de no tener en cuenta el gasto eléctrico no es simplemente por un tema de ir sobrado a nivel económico, es que realmente es así, es algo que difícilmente se deba tener en cuenta en los gastos cuando se gasta uno ese dinero. Si nos ponemos ahorrar, seguro que hay muchos otros sitios donde reducir costes del hogar. Y aquí otro problema... estaba calculando 30h de juego al mes, que más de uno no tiene de 20h de juego al mes