[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

EMC2 escribió:@Bio81

Hombre haciendo una suma simple no te va alcanzar para una supuesta RTX4090 800w + 100 del CPU + 30 del resto de componente 930w.

Tendria que ser una GPU que consuma maximo 600w en tu caso.


ahí estamos una 4090 Ti o la Titan (como la llamen) de 800w ni me lo planteo no ya por la fuente de alimentación que se puede cambiar si no por el consumo , la factura de luz también hay que pagarla además de la grafica , que esa grafica con el chip completo AD102 debe costar unos 2.000 euros.

salu2.
lol me encanta que mi Seasonic 1000 Titanio se queda corta en breve [jaja]
Veremos. Mi actual GPU consume en torno a los 350. Con 1000 aguanto calculo hasta unos 700 max de GPU.
Ya más... se complica mucho. Y no me apetece cambiar la fuente. Tiene un año tal vez.

A ver que sale finalmente. Pero que quede claro que me parece una salvajada.
josep345 escribió:Como me gusta este hilo xD!! [fumando]
Mucho mejor que el hilo de las fuentes

PD: Pues parece con mi fuente de 650W no voy a ningún lado
Bio81 escribió:
EMC2 escribió:@Bio81

Hombre haciendo una suma simple no te va alcanzar para una supuesta RTX4090 800w + 100 del CPU + 30 del resto de componente 930w.

Tendria que ser una GPU que consuma maximo 600w en tu caso.


ahí estamos una 4090 Ti o la Titan (como la llamen) de 800w ni me lo planteo no ya por la fuente de alimentación que se puede cambiar si no por el consumo , la factura de luz también hay que pagarla además de la grafica , que esa grafica con el chip completo AD102 debe costar unos 2.000 euros.

salu2.


Reflexionemos.
De verdad que alguien que se compre una 4090, no se va poder permitir pagar la luz??

No veo mas que lloros por ese tema, y me parece a veces hasta demagogia pura, cuando en una casa normal, algo como un congelador o la nevera consume mas...

Un pc normal de hoy en dia para gaming, puede tener un consumo navegando, oficina, viendo pelis...de 2.2 kw/h.

Un equipo con grafica capada en consumo para minado, que consuma 300w, 24h encendido, consume diariamente 3.5kw/h aprox, sacar vuestros cálculos en gaming....

Una nevera completa consume 55kw/h, un congelador individual sobre 45 kw/h, un lavavajillas sobre 20 y una tele grande sobre 21, teniendo en cuenta las horas de uso mensuales habituales de cada aparato.

Yo tengo una 3080ti y un 5800x, todo pasado por agua, el pc ahora mismo esta encendido por trabajo y cuando puedo, algo de juego, o ver una peli, descargas... sobre 11-12h al dia, tele, alexa, nevera con congelador, lavavajillas... y pago de luz en un piso grande de 2 habitaciones, 34e al mes....

De verdad creeis que el consumo de luz se va duplicar por tener una 4090??

O que va importar algo que gaste 6e al mes mas en luz, si ya de primeras me puedo permitir comprarme una grafica de mas de 1800e?

La verdad son lloros, que no entiendo
neox3 escribió:
Bio81 escribió:
EMC2 escribió:@Bio81

Hombre haciendo una suma simple no te va alcanzar para una supuesta RTX4090 800w + 100 del CPU + 30 del resto de componente 930w.

Tendria que ser una GPU que consuma maximo 600w en tu caso.


ahí estamos una 4090 Ti o la Titan (como la llamen) de 800w ni me lo planteo no ya por la fuente de alimentación que se puede cambiar si no por el consumo , la factura de luz también hay que pagarla además de la grafica , que esa grafica con el chip completo AD102 debe costar unos 2.000 euros.

salu2.


Reflexionemos.
De verdad que alguien que se compre una 4090, no se va poder permitir pagar la luz??

No veo mas que lloros por ese tema, y me parece a veces hasta demagogia pura, cuando en una casa normal, algo como un congelador o la nevera consume mas...

Un pc normal de hoy en dia para gaming, puede tener un consumo navegando, oficina, viendo pelis...de 2.2 kw/h.

Un equipo con grafica capada en consumo para minado, que consuma 300w, 24h encendido, consume diariamente 3.5kw/h aprox, sacar vuestros cálculos en gaming....

Una nevera completa consume 55kw/h, un congelador individual sobre 45 kw/h, un lavavajillas sobre 20 y una tele grande sobre 21, teniendo en cuenta las horas de uso mensuales habituales de cada aparato.

Yo tengo una 3080ti y un 5800x, todo pasado por agua, el pc ahora mismo esta encendido por trabajo y cuando puedo, algo de juego, o ver una peli, descargas... sobre 11-12h al dia, tele, alexa, nevera con congelador, lavavajillas... y pago de luz en un piso grande de 2 habitaciones, 34e al mes....

De verdad creeis que el consumo de luz se va duplicar por tener una 4090??

O que va importar algo que gaste 6e al mes mas en luz, si ya de primeras me puedo permitir comprarme una grafica de mas de 1800e?

La verdad son lloros, que no entiendo

Es que preocuparse por el consumo de una 4090 o 4090ti es como preocuparse por el consumo de gasolina de un ferrari o lamborgini.
Si de verdad te preocupa la factura de la luz no te compres una grafica de mas de mil pavos.
Mi Tacent podrá con todo. La fuente más vendida jeje, por algo será. Viva Tacent!!

Es ironía evidentemente jeje
spaizor6 escribió:Mi Tacent podrá con todo. La fuente más vendida jeje, por algo será. Viva Tacent!!

Es ironía evidentemente jeje


Son los mejores, además ahora vienen con asientos mas cómodos y cargador de movil

http://www.tacent.com.mx/
Chaquetero está baneado por "troll"
neox3 escribió:
Bio81 escribió:
EMC2 escribió:@Bio81

Hombre haciendo una suma simple no te va alcanzar para una supuesta RTX4090 800w + 100 del CPU + 30 del resto de componente 930w.

Tendria que ser una GPU que consuma maximo 600w en tu caso.


ahí estamos una 4090 Ti o la Titan (como la llamen) de 800w ni me lo planteo no ya por la fuente de alimentación que se puede cambiar si no por el consumo , la factura de luz también hay que pagarla además de la grafica , que esa grafica con el chip completo AD102 debe costar unos 2.000 euros.

salu2.


Reflexionemos.
De verdad que alguien que se compre una 4090, no se va poder permitir pagar la luz??

No veo mas que lloros por ese tema, y me parece a veces hasta demagogia pura, cuando en una casa normal, algo como un congelador o la nevera consume mas...

Un pc normal de hoy en dia para gaming, puede tener un consumo navegando, oficina, viendo pelis...de 2.2 kw/h.

Un equipo con grafica capada en consumo para minado, que consuma 300w, 24h encendido, consume diariamente 3.5kw/h aprox, sacar vuestros cálculos en gaming....

Una nevera completa consume 55kw/h, un congelador individual sobre 45 kw/h, un lavavajillas sobre 20 y una tele grande sobre 21, teniendo en cuenta las horas de uso mensuales habituales de cada aparato.

Yo tengo una 3080ti y un 5800x, todo pasado por agua, el pc ahora mismo esta encendido por trabajo y cuando puedo, algo de juego, o ver una peli, descargas... sobre 11-12h al dia, tele, alexa, nevera con congelador, lavavajillas... y pago de luz en un piso grande de 2 habitaciones, 34e al mes....

De verdad creeis que el consumo de luz se va duplicar por tener una 4090??

O que va importar algo que gaste 6e al mes mas en luz, si ya de primeras me puedo permitir comprarme una grafica de mas de 1800e?

La verdad son lloros, que no entiendo


Y este es el nivel señores, un tipo que dice tan tranquilamente que un pc consume 2200 w. Ojo, navegando eh, ejecutando benchmarks pues fácilmente consumirá unos 40,5 kWh, más que una fábrica de hielo.

Si esque para que, con gente así no hay nada que hacer, con gente así no entiendo cómo Nvidia y AMD son tan consideradas y no sacan la próxima gama a base de mierdas de vaca con el rtx serigrafiado.

Ya lo de que una nevera consuma como el Bernabéu de noche pues, ahí he dejado de leer. En fin buena suerte a todos porque vaya futuro.
Chaquetero escribió:
neox3 escribió:
Bio81 escribió:
ahí estamos una 4090 Ti o la Titan (como la llamen) de 800w ni me lo planteo no ya por la fuente de alimentación que se puede cambiar si no por el consumo , la factura de luz también hay que pagarla además de la grafica , que esa grafica con el chip completo AD102 debe costar unos 2.000 euros.

salu2.


Reflexionemos.
De verdad que alguien que se compre una 4090, no se va poder permitir pagar la luz??

No veo mas que lloros por ese tema, y me parece a veces hasta demagogia pura, cuando en una casa normal, algo como un congelador o la nevera consume mas...

Un pc normal de hoy en dia para gaming, puede tener un consumo navegando, oficina, viendo pelis...de 2.2 kw/h.

Un equipo con grafica capada en consumo para minado, que consuma 300w, 24h encendido, consume diariamente 3.5kw/h aprox, sacar vuestros cálculos en gaming....

Una nevera completa consume 55kw/h, un congelador individual sobre 45 kw/h, un lavavajillas sobre 20 y una tele grande sobre 21, teniendo en cuenta las horas de uso mensuales habituales de cada aparato.

Yo tengo una 3080ti y un 5800x, todo pasado por agua, el pc ahora mismo esta encendido por trabajo y cuando puedo, algo de juego, o ver una peli, descargas... sobre 11-12h al dia, tele, alexa, nevera con congelador, lavavajillas... y pago de luz en un piso grande de 2 habitaciones, 34e al mes....

De verdad creeis que el consumo de luz se va duplicar por tener una 4090??

O que va importar algo que gaste 6e al mes mas en luz, si ya de primeras me puedo permitir comprarme una grafica de mas de 1800e?

La verdad son lloros, que no entiendo


Y este es el nivel señores, un tipo que dice tan tranquilamente que un pc consume 2200 w. Ojo, navegando eh, ejecutando benchmarks pues fácilmente consumirá unos 40,5 kWh, más que una fábrica de hielo.

Si esque para que, con gente así no hay nada que hacer, con gente así no entiendo cómo Nvidia y AMD son tan consideradas y no sacan la próxima gama a base de mierdas de vaca con el rtx serigrafiado.

Ya lo de que una nevera consuma como el Bernabéu de noche pues, ahí he dejado de leer. En fin buena suerte a todos porque vaya futuro.


Te copio y pego , informacion que puedes encontrar en cualquier pagina de analisis de consumos, como paginas como Ocu, Compra maestra, etc, creo que no has leido la parte que puse de los kwh adaptados a las horas de uso....

Electrodoméstica Consumo kWh mensual Tiempo de utilización mensual
Nevera 55,16 kWh/eq. 720 horas
Congelador 49,91 kWh/eq. 720 horas
Horno 12 kWh/eq. 100 horas
Secadora 18,6 kWh/eq. 20 horas
Iluminación general 34,16 kWh/hogar 180 horas
Pequeño electrodoméstico 6,33 kWh/eq. 60 horas
Televisión 21,91 kWh/eq. 240 horas
Lavavajillas 20,5 kWh/eq. 30 horas
Lavadora 21,25 kWh/eq. 30 horas
Ordenador 14,33 kWh/eq. 180 horas

Y si quieres te paso el enlace... Porque estas confundiendo kwh con watios totales...

Quien no lo quiera ver, que no lo vea, pero ni de lejos lo q mas consume en una casa, va ser un pc y al nivel de que vaya influir drásticamente, en la factura de la luz...
EMC2 está baneado por "Troll"
Alguien se compra una GPU de 2000€ no necesariamente tiene que tener dinero de sobra, esta la posibilidad que ahorrará un poco para darse ese capricho.

Y con la crisis energética yo no lo veo muy claro que si esos consumo para jugar, seran una buena idea o simples lloros.
Para mi es peor el calor que genera en la habitación/sala donde esté que el gasto de luz en si.

Tener una supuesta gráfica que consuma 600W ella sola en una habitación sin aire acondicionado es una locura.
DaNi_0389 escribió:Para mi es peor el calor que genera en la habitación/sala donde esté que el gasto de luz en si.

Tener una supuesta gráfica que consuma 600W ella sola en una habitación sin aire acondicionado es una locura.


Ya no saben que sacar,lo que va a echar para atrás a posibles compradores,por la casi obligación de cambiar fuente 😠😠y la de aire caliente que tiene que soltar eso,otra más una buena caja con buen flujo de aire.🙂🙂
neox3 escribió:Electrodoméstica Consumo kWh mensual Tiempo de utilización mensual
Nevera 55,16 kWh/eq. 720 horas
Congelador 49,91 kWh/eq. 720 horas
Horno 12 kWh/eq. 100 horas
Secadora 18,6 kWh/eq. 20 horas
Iluminación general 34,16 kWh/hogar 180 horas
Pequeño electrodoméstico 6,33 kWh/eq. 60 horas
Televisión 21,91 kWh/eq. 240 horas
Lavavajillas 20,5 kWh/eq. 30 horas
Lavadora 21,25 kWh/eq. 30 horas
Ordenador 14,33 kWh/eq. 180 horas

Y si quieres te paso el enlace... Porque estas confundiendo kwh con watios totales...

Pasa el enlace porque no me cuadra el consumo del Horno, según eso estaría consumiendo solamente 120W (imposible), y la lavadora 708W. El ordenador estaría casi en los 80W, y eso podría ser, el mío gasta eso solamente navegando. De esos 80W, unos 5W aprox es lo q estaría gastando la gráfica en "idle", cuando se ponga a funcionar de verdad... +600W.
El problema que le veo no es sólo el consumo que es excesivo, sino lo que calienta ese cacharro.

Al final son Watios de calor que estás metiendo a la habitación, en invierno muy bien, pero en verano mete tu un calefactor de 800w.

No sólo eso, sino que muchas veces una gráfica con 150w te da un rendimiento más que satisfactorio.

Que cada uno elija, yo desde luego no compraría una 3090, me parece tirar el dinero teniendo una 3080, y si la serie 4000 sigue esta tendencia pues igual.

Que compren la 3090, la gente que se pueda permitir tirar el dinero o por desconocimiento.

Yo por ejemplo estiro mucho las gráficas, y seguramente la 6800xt que tengo me dure mínimo 2 o 3 generaciones hasta que vea que los juegos empiecen a pedir más o ya no tenga más soporte.
PepeC12 escribió:El problema que le veo no es sólo el consumo que es excesivo, sino lo que calienta ese cacharro.

Al final son Watios de calor que estás metiendo a la habitación, en invierno muy bien, pero en verano mete tu un calefactor de 800w.

No sólo eso, sino que muchas veces una gráfica con 150w te da un rendimiento más que satisfactorio.

Que cada uno elija, yo desde luego no compraría una 3090, me parece tirar el dinero teniendo una 3080, y si la serie 4000 sigue esta tendencia pues igual.

Que compren la 3090, la gente que se pueda permitir tirar el dinero o por desconocimiento.

Yo por ejemplo estiro mucho las gráficas, y seguramente la 6800xt que tengo me dure mínimo 2 o 3 generaciones hasta que vea que los juegos empiecen a pedir más o ya no tenga más soporte.


Si bueno en verano es un problema pero en invierno puede suponer ahorrarte poner la calefacción xd

Realmente depende de donde vivas y de lo ventilada que tengas la habitacion, si eres de una zona de mucho calor y poco frio una grafica asi si que puede suponer un problema importante y hay que tenerlo muy en cuenta por que 600w en una habitacion constantemente no es ninguna tonteria,y digo 600w por que me niego a pensar que sean 800w como dice el rumor, a mi ya la 3080 me hacia encender el aire mas veces de las que me gustaria, situaciones donde con la 6600xt por ejemplo al consumir y calentarse mucho menos no era necesario, asi que en mi caso no solo eran los 200w de diferencia de la 6600xt a la 3080 tambien esta el gasto extra que me hacia esta ultima por obligarme a encender el aire, y eso que esta son 300w no me quiero imaginar 600w, yo que en invierno no paso frio y no enciendo la calefaccion nunca igual con un bicho de esos tengo que encender el aire frio incluso en pleno enero xd

Yo por eso paso ya de la gama alta, no es ni por dinero, es que no me sale de los huevos tener que encender el aire cada vez que quiera jugar durante 10 meses al año
EMC2 está baneado por "Troll"
Tal vez lo positivo es que si duplican rendimiento, se pueda optar por una de consumo menor, la 4060 deberia estar cerca de una 3090 en rendimiento y a lo mejor consumiendo menos 200-250w.

Yo ya tengo decidió que por precio y consumo, esta generacion ire por la gama-media se de AMD o Nvidia, simpre fui de la gama media-alta y alta, XX70 y XX80, pero la verdad ya no apetece dejarme tanta pasta en GPU y menos hoy con el tema de reescalados.
Yo estoy pensando también q a más de una 4060 no voy a optar. Demasiados problemas de todo tipo.
Lo normal es que una 4060 rinda similar a la 3070, siendo más eficiente y con RT mejorado. Supongo que será ideal para 1080 a muchos fps o 2k a 60 fps.
También es cierto que tampoco veo software que demande más potencia, la generación de consolas no ha empezado aún a efectos prácticos. Hasta que no se pueda ir a la tienda y pillar una...
Yo sigo manteniendo mi I74770 (de 2013) con la 1660 super, pero tengo ganas ya de cambiarlo, a ver si un posible 13400f junto a una 4060 salen bien y se ponen a tiro a un precio decente. Veremos a ver si entonces la memoria DDR5 renta o no, que si no me veo esperando al 14400f... serían 10 generaciones de CPU.
Pegcaero de barrio está baneado por "Troll"
Yo tengo claro que como la 4090 consuma 600W paso de actualizar. En primer lugar porque los juegos llevan estancados un tiempo en cuanto requisitos y, por otro lado, porque a ver como refrigeras 600W xD
BladeRunner escribió:
neox3 escribió:Electrodoméstica Consumo kWh mensual Tiempo de utilización mensual
Nevera 55,16 kWh/eq. 720 horas
Congelador 49,91 kWh/eq. 720 horas
Horno 12 kWh/eq. 100 horas
Secadora 18,6 kWh/eq. 20 horas
Iluminación general 34,16 kWh/hogar 180 horas
Pequeño electrodoméstico 6,33 kWh/eq. 60 horas
Televisión 21,91 kWh/eq. 240 horas
Lavavajillas 20,5 kWh/eq. 30 horas
Lavadora 21,25 kWh/eq. 30 horas
Ordenador 14,33 kWh/eq. 180 horas

Y si quieres te paso el enlace... Porque estas confundiendo kwh con watios totales...

Pasa el enlace porque no me cuadra el consumo del Horno, según eso estaría consumiendo solamente 120W (imposible), y la lavadora 708W. El ordenador estaría casi en los 80W, y eso podría ser, el mío gasta eso solamente navegando. De esos 80W, unos 5W aprox es lo q estaría gastando la gráfica en "idle", cuando se ponga a funcionar de verdad... +600W.


Esos datos están sacados de aqui haciendo busquedas normales en google de consumos de electrodomesticos en kwh:
https://www.mipodo.com/blog/ahorro/como ... asa_al_dia

Luego en medidas de año, de la propia OCU puedes sacarlos a mensuales, dividiendo entre 12:
"los electrodomésticos que más energía consumen al año en una casa son la nevera (662 kWh al año de media), el congelador (563 kWh), la televisión (263 kWh), la lavadora (255 kWh), la secadora (255 kWh) y el lavavajillas (246 kWh)."
https://www.ocu.org/vivienda-y-energia/ ... domesticos

Divides entre 12 como digo y te da mensual incluso parecido a lo anterior!, nevera 55.1 , congelador 46.9 , television 21.91, lavadora 21.25 , lavavajillas 20,5....

Veis que no me invento nada...
neox3 escribió:
Bio81 escribió:
EMC2 escribió:@Bio81

Hombre haciendo una suma simple no te va alcanzar para una supuesta RTX4090 800w + 100 del CPU + 30 del resto de componente 930w.

Tendria que ser una GPU que consuma maximo 600w en tu caso.


ahí estamos una 4090 Ti o la Titan (como la llamen) de 800w ni me lo planteo no ya por la fuente de alimentación que se puede cambiar si no por el consumo , la factura de luz también hay que pagarla además de la grafica , que esa grafica con el chip completo AD102 debe costar unos 2.000 euros.

salu2.


Reflexionemos.
De verdad que alguien que se compre una 4090, no se va poder permitir pagar la luz??

No veo mas que lloros por ese tema, y me parece a veces hasta demagogia pura, cuando en una casa normal, algo como un congelador o la nevera consume mas...

Un pc normal de hoy en dia para gaming, puede tener un consumo navegando, oficina, viendo pelis...de 2.2 kw/h.

Un equipo con grafica capada en consumo para minado, que consuma 300w, 24h encendido, consume diariamente 3.5kw/h aprox, sacar vuestros cálculos en gaming....

Una nevera completa consume 55kw/h, un congelador individual sobre 45 kw/h, un lavavajillas sobre 20 y una tele grande sobre 21, teniendo en cuenta las horas de uso mensuales habituales de cada aparato.

Yo tengo una 3080ti y un 5800x, todo pasado por agua, el pc ahora mismo esta encendido por trabajo y cuando puedo, algo de juego, o ver una peli, descargas... sobre 11-12h al dia, tele, alexa, nevera con congelador, lavavajillas... y pago de luz en un piso grande de 2 habitaciones, 34e al mes....

De verdad creeis que el consumo de luz se va duplicar por tener una 4090??

O que va importar algo que gaste 6e al mes mas en luz, si ya de primeras me puedo permitir comprarme una grafica de mas de 1800e?

La verdad son lloros, que no entiendo


yo pago de luz 60 euros mas o menos al mes , ahora un poco mas por el aire acondicionado , una 4090 Ti de 800w encarecería la factura de luz por que ahora la factura de la luz esta mas cara , si vuelve a como estaba antes no tengo nada que decir pero ahora mismo esta mas cara por eso hay franjas horarias , ahora punta , hora valle etc.., 800w es un consumo que se acerca al consumo de una resistencia eléctrica que es lo que mas consume en una casa como el calefactor eléctrico de agua , el secador o la plancha (1.000 y pico vatios) , duplicar no se va duplicar la factura pero ya no puedes jugar sin pensar en la factura al menos yo , sobre todo cuando la gpu este al 99% de carga o cerca en hora punta con un consumo continuo de 800w (durante horas) o cerca de estos a eso súmale el resto del pc , por eso además de lo cara que será y que saldrá seguramente dentro de año o año y medio , le doy prioridad a la 4080 o Ti por que ofrecerán una relación rendimiento precio muy superior a la 4090 Ti de 800w y ojo eso con que realmente al final sea así por que estamos hablando de rumores.
Lo dicho como mola este hilo [fumando] [fumando]
EMC2 está baneado por "Troll"
Tengo entendido que el 9 se presentaria las quadro, ya que es un evento para profesionales en temas graficos.

Asi que dudo mucho que se presenten ese dia las gaming, tal vez hagan un evento para finales de agosto o septiembre para presentarlas.
@neox3 ¿Piso grande de dos habitaciones? ¿Puedes especificar los metros, si eres tan amable?
A mi personalmente se me ha encarecido la factura de la luz en casi treinta euros al mes, pero es que ha habido dos meses que se me duplicó y vivo en un piso de 100 m².
Ah, y las sesiones largas jugando encarecen la factura.
Pdt.: En mi vida he pagado 40 euros de luz.
Coincido, a mi la factura de la luz plim. 10€ de diferencia tirando por lo alto me la sudan.

Lonque me jode es tener eso metido en la caja y refrigerarlo. El tamaño del disipa puede ser brutal para absorber todo ese calor. A ver la caja Que hace falta y el palito para apoyar la grafica en el suelo de la caja [facepalm]

Y en verano puede ser un horno que no te apetezca ponerte a medio metro de distancia.

Menos calor generado también es más silencio que para mi es importante porque soy un maniático.

Así que veremos en que queda esto
Pero es que sacar eso en esta época va contra el Zeitgeist, que la tendencia es el undervolt hoy en día.
neox3 escribió:Esos datos están sacados de aqui haciendo busquedas normales en google de consumos de electrodomesticos en kwh:
https://www.mipodo.com/blog/ahorro/como ... asa_al_dia

Estuve mirando pero esa tabla tiene q estar mal en el caso del Horno por lo menos. Te paso un link en el q dice q un horno eficiente para cocinar a 180ºC gasta 0.85kw/h (850W).
https://www.energyavm.es/cuanto-consume ... -muy-poco/
Si fueran 100 horas, gastaría en ese mes (q ha estado 100 horas funcionando) 85kW/h, no 12kW/h, q es lo q pone en la tabla.
Así q prepársense los de la 4090Ti q van a tener cerca algo parecido a un horno eficiente. ratataaaa
rubencbr escribió:@neox3 ¿Piso grande de dos habitaciones? ¿Puedes especificar los metros, si eres tan amable?
A mi personalmente se me ha encarecido la factura de la luz en casi treinta euros al mes, pero es que ha habido dos meses que se me duplicó y vivo en un piso de 100 m².
Ah, y las sesiones largas jugando encarecen la factura.
Pdt.: En mi vida he pagado 40 euros de luz.


Si, sin problema, 105 m y este mismo mes hemos pagado eso de luz, 35e... Los meses que mas, 75, en invierno cuando se pone la calefacción todos los dias...

Haber si vas a tener mucha mas potencia contratada de la necesaria... Que eso le ha pasado a mucha gente.

Luego para los que comentais lo del calor, es cierto, pero con un buen sistema de disipación, la sensación es menor, yo al menos noto menos calor desprendido por el pc con la liquida, que por aire como estaba antes todo el equipo, y los rumores dicen que es posible que muchas gráficas custom tiren a sistemas híbridos de disipación...

Eso puede ser un problema añadido para los que ya tengan una aio en cpu y no tengan sitio para otra
DaNi_0389 escribió:Para mi es peor el calor que genera en la habitación/sala donde esté que el gasto de luz en si.

Tener una supuesta gráfica que consuma 600W ella sola en una habitación sin aire acondicionado es una locura.

Pero en invierno te ahorras la calefacción [hallow]
Ya se ven 3090 nuevas a 1300, las 4000 están cerca… hay que ir preparando las fuentes tochas xD
A ver cuando dicen algo estos de nvidia, luego ya dependiendo de consumos y precio tiraremos por una 4090 o una 4080.

Saludos. [beer]
Nur4rihyon escribió:A ver cuando dicen algo estos de nvidia, luego ya dependiendo de consumos y precio tiraremos por una 4090 o una 4080.

Saludos. [beer]

Al final será eso, si la ganancia no es enorme y el consumo es la mitad, blanco y en botella.

Expectantes todos [fiu]
ram escribió:Ya se ven 3090 nuevas a 1300, las 4000 están cerca… hay que ir preparando las fuentes tochas xD

La MSI GeForce RTX 3090 Ti SUPRIM X a 1600€ y hace nada estaba a 2400€.
Se huele la llegada de las 4000. [burla2]
Según kopite la 4070 rinde parecido a la 3090 y la 4080 será sobre un 35% mejor que la 3090.

https://twitter.com/kopite7kimi/status/ ... LZhpoHph3g
ram escribió:Según kopite la 4070 rinde parecido a la 3090 y la 4080 será sobre un 35% mejor que la 3090.

https://twitter.com/kopite7kimi/status/ ... LZhpoHph3g


De ser así, menudos pepinos [boing]
Entiendo que aparte de cambiar de gráfica, hay que cambiar la fuente para nuevos conectores no?
KKnot escribió:Entiendo que aparte de cambiar de gráfica, hay que cambiar la fuente para nuevos conectores no?


La sèrie 30 founders tiene conectores propios y vienen con adaptador, no veo porqué debería ser diferente
ram escribió:Según kopite la 4070 rinde parecido a la 3090 y la 4080 será sobre un 35% mejor que la 3090.

https://twitter.com/kopite7kimi/status/ ... LZhpoHph3g

@NicOtE
De ser así, en el caso de la 4070, tampoco es ninguna sorpresa.
Un pelo por encima de los esperado.
Ya la 3070 rendía similar (ahora mejor) que una 2080Ti.
La 4070 se esperaba como una 3080Ti mínimo.Que se equipare a una 3090, tampoco es sorpresa, ya que esta rinde un pelo más que una 3080Ti en juegos, claro

Lo que sí es bruto es lo de la 4080.
@hh1 no me extrañaría que llevara la 4070 10 o 12 gb algo parecido a lo que paso con la 3070 y los 8gb.

El salto bestia es en la 4090,esta vez hay mucho distancia sobre la 80.
EMC2 está baneado por "Troll"
Segun esos datos, aunque varia bastante dependiendo el power limit y OC:

RTX 3080 = 8,000 , RTX 4080 =15,000 = 88%
RTX 3090 = 9,000 , RTX 4070 = 10,000 = 12%

La 4070 seria como una 3090 ti, pero seria de ver ya en juegos como rinden.
EMC2 escribió:Segun esos datos, aunque varia bastante dependiendo el power limit y OC:

RTX 3080 = 8,000 , RTX 4080 =15,000 = 88%
RTX 3090 = 9,000 , RTX 4070 = 10,000 = 12%

La 4070 seria como una 3090 ti, pero seria de ver ya en juegos como rinden.



Una 3090 buena hace más de 10 mil puntos y una ti más de 11 mil, por eso decía que 4070 es una 3090.
EMC2 está baneado por "Troll"
@ram

Pero a una rtx 4070 tambien le podras hacer OC y subirle el power limit, al final la diferencia sera la misma. Por eso tomo lo score de las GPU de referencia, que al final de cuentas es los resultados que esta dando kopite, de las RTX 4000 de referencia.
@EMC2 si si claro, he sido cauto , 11500 3090 y 12500 3090ti han pasado por mis manos , por eso te digo que 9000 quizá será una founder.
Buenas creéis que habrá un salto brutal en esta generación ?
sinchan610 escribió:Buenas creéis que habrá un salto brutal en esta generación ?


Ya hay un salto brutal. Entre el software, y el hardware que existe para mover ese software.
EMC2 escribió:Segun esos datos, aunque varia bastante dependiendo el power limit y OC:
RTX 3080 = 8,000 , RTX 4080 =15,000 = 88%


Mi 3080 con undervolt en ese test da 8.800 consumiendo unos 340/350W y con frecuencias no muy altas, unos 1905Mhz , la 4080 le meteria un +70%. Impresionante el salto que parece que van a dar.
A ver en que queda el tema del consumo.

Las CPU se van a quedar cortas para estas GPU a resoluciones "bajas" [qmparto]
OK Computer escribió:
sinchan610 escribió:Buenas creéis que habrá un salto brutal en esta generación ?


Ya hay un salto brutal. Entre el software, y el hardware que existe para mover ese software.

yo acabo de comprar una 3060 y si veo que una 4060 rinde igual que una 3080 y no consuma una barbaridad a lo mejor venderia la mia y la compraria siempre que no supere la barrera de los 500 euros
sinchan610 escribió:Buenas creéis que habrá un salto brutal en esta generación ?


Depende de lo que consideres brutal, si esperas que se multiplique el rendimiento como algunos han llegado a decir te vas a llevar un buen chasco, mi apuesta es entre 30% y 60% de mejora dependiendo del modelo, vamos lo que viene pasando normalmente

Y esto hablando de juegos, los benchmarks tflops y demas veremos, aun recuerdo cuando se filtro la 3080 que tenia 30 tflops que era el triple de una 2080, luego acabo siendo un 60% mejor y consumiendo un huevo mas xd
FranciscoVG escribió:
sinchan610 escribió:Buenas creéis que habrá un salto brutal en esta generación ?


Depende de lo que consideres brutal, si esperas que se multiplique el rendimiento como algunos han llegado a decir te vas a llevar un buen chasco, mi apuesta es entre 30% y 60% de mejora dependiendo del modelo, vamos lo que viene pasando normalmente

Y esto hablando de juegos, los benchmarks tflops y demas veremos, aun recuerdo cuando se filtro la 3080 que tenia 30 tflops que era el triple de una 2080, luego acabo siendo un 60% mejor y consumiendo un huevo mas xd

tambien, siempre que se cumpla claro
FranciscoVG escribió:
sinchan610 escribió:Buenas creéis que habrá un salto brutal en esta generación ?


Depende de lo que consideres brutal, si esperas que se multiplique el rendimiento como algunos han llegado a decir te vas a llevar un buen chasco, mi apuesta es entre 30% y 60% de mejora dependiendo del modelo, vamos lo que viene pasando normalmente

Y esto hablando de juegos, los benchmarks tflops y demas veremos, aun recuerdo cuando se filtro la 3080 que tenia 30 tflops que era el triple de una 2080, luego acabo siendo un 60% mejor y consumiendo un huevo mas xd


Opino igual. En base al Time Spy Extreme, de la 2070 a la 3070 hubo un 45-50% y de la 3070 a la 4070 en ese test hay otro salto de 50% aprox. Es un buen salto aunque también puede ser porque AMD venga apretando
14371 respuestas