4090 ¿La ley de Moore ha muerto?

Estoy viendo por encima esta nueva gráfica y dado el tamaño de la 4090 he pensado que va a ser cierto lo de que la ley de Moore ha muerto. Antes en cada generación a igual tamaño y consumo aumentaba el rendimiento. Ahora para aumentar rendimiento tiene que hacerlo también el tamaño y el consumo eléctrico. ¿Que será lo siguiente? ¿Necesitaremos una acometida trifásica y tirar un tabique? Y otra cosa ¿Habrá que sacar una hipoteca a 25 años?
Para la próxima gen habrá que tener una central nuclear portátil rollo Fallout [carcajad]
ortegasoy escribió:Estoy viendo el video de Toro Tocho y dado el tamaño de esa 4090 he pensado que va a ser cierto lo de que la ley de Moore ha muerto. Antes en cada generación a igual tamaño y consumo aumentaba el rendimiento. Ahora para aumentar rendimiento tiene que hacerlo también el tamaño y el consumo eléctrico. ¿Que será lo siguiente? ¿Necesitaremos una acometida trifásica y tirar un tabique?

Yo creo que hay un montón de gente que tiene un montón de ideas preconcebidas y erróneas sobre el consumo y sobre la 4090.

Porque realmene la EFICIENCIA ha aumentado como en pocas generaciones se ha visto. Y más aún hubiera aumentado con un power target de 300W en lugar de 450W, cosa que inexplicablemente nvidia ha elegido no hacer.

Ver por ejemplo la tabla de eficiencia de techpowerup (básicamente son FPS/watio):
Imagen

Y al respecto de lo segundo, un vídeo muy interesante de der8auer, en inglés (básicamente dice que bajando el power limit a un 70%, se baja el consumo un 33%, pero el rendimiento solo un 8%, por lo que ese power target tiene mucho más sentido para una GPU comercial orientada a juegos, y el que quiera hacer overclock y tirar por la borda la eficiencia, que lo haga):


Los disipadores están MUY sobredimensionados simple y llanamente porque nvidia no tenía la certeza, en fases tempranas del diseño, de poder acceder a los procesos de fabricación más modernos en el volumen suficiente para estas GPUs, y en caso de haber tirado por los 8nm de Samsung estos disipadores hubieran sido absolutamente necesarios (también hubiera habido salto en eficiencia, pero el consumo total habría estado por las nubes). Por suerte sí que ha podido tirar por N4 (que realmente son 5nm si no me equivoco) de TSMC y no es necesario para nada tanto disipador, pero es muy ventajoso para mantener las temperaturas del chip y la RAM bajas con un ruido muy bajo.

Mi única queja con esta GPU es el precio (tengo más quejas con los dos modelos de 4080, que deberían llamarse 4070 y 4060Ti respectivamente si realmente tuvieran un poco de respeto por el consumidor, y deberían tener también un precio bastante más bajo). Pero justamente es la prueba de que la ley de moore sigue muy viva y que la efiencia está subiendo drásticamente. La gente que dice lo contrario se está basando en prejuicios y no en los números que se ven en todas las reviews, porque una 4090 con el power limit de una 3080 rinde bastante más que una 3090Ti, si eso no es salto en eficiencia, vosotros diréis.

El consumo en idle es un poco alto, eso sí. Como 5-7W más que sus equivalentes de la pasada generación. Me hubiera gustado ver eso un poco más cuidado. Pero es un chip enorme, por mucho que bajes las frecuencias, es complicado conseguir consumos realmente bajos. Y la GDDR6X no ayuda.

Saludos
Eficiente desde el punto de vista consumo/rendimiento, lo es. Pero el consumo ha entrado en un punto que ya no es agradable a la vista. Esa es la cuestión.
Nomada_Firefox escribió:Eficiente desde el punto de vista consumo/rendimiento, lo es. Pero el consumo ha entrado en un punto que ya no es agradable a la vista. Esa es la cuestión.

Tan sencillo como bajar el power target a 300W como propone der8auer en el vídeo que enlazo en el post anterior. O digo más, bajarlo a 225W.

Una 4090 limitada a 225W (50% power target, donde más eficiente es la GPU) rinde más que una 3090Ti, y consume menos que una 3070. Si realmente alguien está preocupado por la eficiencia (no por la factura de la luz, sino por convicción, principios, o llámalo como quieras), esta es la gráfica a comprar ahora mismo, para limitar el TDP después claro.

Claro, no tiene mucho sentido comprar un superdeportivo para ir a 80km/h por autovía para gastar lo mínimo posible, y no acercarse nunca a un circuito. Las medias de consumo serán espectaculares, pero probablemente sea desaprovechar la inversión.

Saludos
La "Ley" de Moore en realidad ni es ley ni es nada, lo de "Ley" viene de un titular de un periodico de la época.

Basicamente lo que se vio por aquellos años es que a cada año que pasaba, el numero de transistores se duplicaba, y lo recalco Moore.

Para categorizar algo como Ley, debe cumplirse en todos los ámbitos y regirse bajo ciertos estándares del método científico, cosa que no hizo Moore ni nadie, porque realmente es imposible de probar algo como que los transistores cada año se van a duplicar. En todo caso sería mas apropiado llamarlo "Teoría de Moore", que si se acerca más a lo que se veía realmente.
@Pollonidas Coincido que encontraria de risa que alguien comprara una 4090 y estuviera preocupado por la factura de la luz. [sonrisa] Si lo esta, seguramente de propina habra comprado algo asi con un micro credito y ya seran un problema de no saber administrarse. Todavia lo decian ayer que la peña esta usando para pagar tarjetas revolving y se estan endeudando por encima de sus posibilidades. [facepalm]
la 4090 la veo mas enfocada a temas profesionales o a otros usos, pero las 3080 son un desmadre estos nos han calcado la subida del ipc 2022 y de los proximos para ahorrar tiempo . a ver que hace amd , si no repite la jugada
yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento

Yo estoy con una 3070ti y hoy estaba jugando en 4K ultra 60fps a RDR2, MGS V, etc... No quiero ni imaginar con una 3080ti que ya si sería como el tope de gama.

Evidentemente que siempre se pueden diseñar juegos por encima de las posibilidades de la mayoría de GPU's, incluso por encima de una 4090, pero seamos seres racionales, esas GPUs están hechas para desarrollar proyectos de inteligencia a artificial o trabajar con ellas, tenerlas como dianas para jugar a videojuegos me parece un error, son grandes porque no están hechas para tenerlas en el ordenador de tu casa, aunque las puedas tener si tienes el suficiente dinero y seguramente vayan a recibir soporte dedicado para videojuegos.
katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento


Y entonces? Que quieres jugar a 4k 60fps con una 3070 o como va la cosa?? Yo por preferir, prefería con una 1060, pero...
d2akl escribió:
katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento


Y entonces? Que quieres jugar a 4k 60fps con una 3070 o como va la cosa?? Yo por preferir, prefería con una 1060, pero...

Pues estoy jugando a 4K 60fps con una 3070ti a juegos como RDR2, en ultra.
katatsumuri escribió:
d2akl escribió:
katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento


Y entonces? Que quieres jugar a 4k 60fps con una 3070 o como va la cosa?? Yo por preferir, prefería con una 1060, pero...

Pues estoy jugando a 4K 60fps con una 3070ti a juegos como RDR2, en ultra.



A 48 más bien.
@d2akl si, lo he mirado, no entiendo porque me baja la configuración de algunas cosas en alto, en ultra me llega a 50-52fps por norma, aunque por dos efectos en alto no me muero
katatsumuri escribió:@d2akl si, lo he mirado, no entiendo porque me baja la configuración de algunas cosas en alto, en ultra me llega a 50-52fps por norma, aunque por dos efectos en alto no me muero


Viste 😎😎 pues ya no es ultra xdxd.

Ahora hablando en serio, también puedo pensar como tu con lo de la 4090 esta overkill para 4k60fps, a día de hoy, pero...yo me voy pillar una xD.
Las 4080 me parecen una estafa de lo malas que van ser, sobre todo la de 12gb
d2akl escribió:
katatsumuri escribió:@d2akl si, lo he mirado, no entiendo porque me baja la configuración de algunas cosas en alto, en ultra me llega a 50-52fps por norma, aunque por dos efectos en alto no me muero


Viste 😎😎 pues ya no es ultra xdxd.

Ahora hablando en serio, también puedo pensar como tu con lo de la 4090 esta overkill para 4k60fps, a día de hoy, pero...yo me voy pillar una xD.
Las 4080 me parecen una estafa de lo malas que van ser, sobre todo la de 12gb

En realidad me va aún peor porque se me había activado el DLSS [carcajad] , como como a 44-45 fps en ultra, y eso que tampoco es ultra porque hay otras opciones que no se activan con el preset al máximo

No sé que mierda le pasa a este juego que no me guarda las configuraciones o hasta incluso con el reinicio me las cambia.

Y por otra parte he descubierto que mi GPU está jodida, algunos assets vuelven sus texturas en lila, de hecho me pasaba antes de cambiar a otra plataforma con la misma GPU pero yo pensaba que era un problema de falta de ram, por suerte tengo garantía.
Yo creo que ya tenemos que meter en la ecuacion para comprar grafica el consumo ya como un factor importante, en mi caso en todo lo que puedo activo dlss, y escaladores para mantenerlo a raya, puedo ir a mas pero me estresa cuando el consumo se dispara casi 200w y eso que tengo una humilde 3060 ti.

Realmente vale la pena pasar de 1440p a 4K doblando el consumo? Yo honestamente creo que no.
@ortegasoy algun reviewer dice que con el 60% de consumo se consigue el 90% de la potencia en la 4090, que las podian haber sacado con menos radiador reduciendo bastante el BOM.
Edito: Veo que ya lo ha puesto pollonidas con enlace a un video de otro youtuber, son varios los que lo dicen.

El especula que NVIDIA les ha metido un overclocking exagerado, aumentando el consumo y el tamaño pq cree que las RDNA van a tener mas potencia con consumos normales.

Lo de Jen-Hsun Huang son milongas, TSMC y sus 4nm tienen buena relacion precio/consumo/rendimiento. Son sus diseños monoliticos los que no dan la talla.
Pollonidas escribió:
ortegasoy escribió:Estoy viendo el video de Toro Tocho y dado el tamaño de esa 4090 he pensado que va a ser cierto lo de que la ley de Moore ha muerto. Antes en cada generación a igual tamaño y consumo aumentaba el rendimiento. Ahora para aumentar rendimiento tiene que hacerlo también el tamaño y el consumo eléctrico. ¿Que será lo siguiente? ¿Necesitaremos una acometida trifásica y tirar un tabique?

Yo creo que hay un montón de gente que tiene un montón de ideas preconcebidas y erróneas sobre el consumo y sobre la 4090.

Porque realmene la EFICIENCIA ha aumentado como en pocas generaciones se ha visto. Y más aún hubiera aumentado con un power target de 300W en lugar de 450W, cosa que inexplicablemente nvidia ha elegido no hacer.

Ver por ejemplo la tabla de eficiencia de techpowerup (básicamente son FPS/watio):
Imagen

Y al respecto de lo segundo, un vídeo muy interesante de der8auer, en inglés (básicamente dice que bajando el power limit a un 70%, se baja el consumo un 33%, pero el rendimiento solo un 8%, por lo que ese power target tiene mucho más sentido para una GPU comercial orientada a juegos, y el que quiera hacer overclock y tirar por la borda la eficiencia, que lo haga):


Los disipadores están MUY sobredimensionados simple y llanamente porque nvidia no tenía la certeza, en fases tempranas del diseño, de poder acceder a los procesos de fabricación más modernos en el volumen suficiente para estas GPUs, y en caso de haber tirado por los 8nm de Samsung estos disipadores hubieran sido absolutamente necesarios (también hubiera habido salto en eficiencia, pero el consumo total habría estado por las nubes). Por suerte sí que ha podido tirar por N4 (que realmente son 5nm si no me equivoco) de TSMC y no es necesario para nada tanto disipador, pero es muy ventajoso para mantener las temperaturas del chip y la RAM bajas con un ruido muy bajo.

Mi única queja con esta GPU es el precio (tengo más quejas con los dos modelos de 4080, que deberían llamarse 4070 y 4060Ti respectivamente si realmente tuvieran un poco de respeto por el consumidor, y deberían tener también un precio bastante más bajo). Pero justamente es la prueba de que la ley de moore sigue muy viva y que la efiencia está subiendo drásticamente. La gente que dice lo contrario se está basando en prejuicios y no en los números que se ven en todas las reviews, porque una 4090 con el power limit de una 3080 rinde bastante más que una 3090Ti, si eso no es salto en eficiencia, vosotros diréis.

El consumo en idle es un poco alto, eso sí. Como 5-7W más que sus equivalentes de la pasada generación. Me hubiera gustado ver eso un poco más cuidado. Pero es un chip enorme, por mucho que bajes las frecuencias, es complicado conseguir consumos realmente bajos. Y la GDDR6X no ayuda.

Saludos


A ver si lo entiendo...

Antiguamente NVIDIA te vendía una GPU contenida de precio, de consumo y con unas frecuencias con una tolerancia coherente a posibles fallos

Los compradores, se encargaban ya, si querías, de hacerle OC y exprimirla hasta el limite que quisiera

Ahora NVIDIA nos venden una tarjeta completamente distinta....caras, con consumos elevados y unas frecuencias que toleran menor OC que antiguamente

Osea que se han dado cuenta del asunto, y han pensado.....pa regalar potencia y que luego el comprador la exprima, se las vendemos ya subiditas y así podemos cobrar a precio de oro XD XD

Si quieres mejorar consumos , que les hagan UV ....

Recuerdo hace varias generaciones cuando la gente abonada a NVIDIA criticaban a AMD precisamente por sus consumos excesivos...y mira a donde hemos llegado

Entiendo al que se la compre y quiera disfrutar de lo mas TOP, pero no es mi caso
No me voy a gastar 2000€ en una GPU, no quiero una gráfica que consuma mas de 250w, no me voy a pillar una fuente nueva de 1000w para poder usarla, no voy a cambiar la caja de mi htpc, y por supuesto no voy a meter dentro de un pc una GPU mas grande que una ps5 XD XD

Ahí esta, el que lo quiera que lo haga, pero que conmigo no cuenten ;)
nirvana17 escribió:la 4090 la veo mas enfocada a temas profesionales o a otros usos, pero las 3080 son un desmadre estos nos han calcado la subida del ipc 2022 y de los proximos para ahorrar tiempo . a ver que hace amd , si no repite la jugada

¿Que tema profesional? si fuera para trabajar, pues tienes graficas de Nvidia o AMD especificas que hacen ese tipo de curro bastante mejor.
@dinamita4922 En gran parte estoy de acuerdo contigo, pero vamos, que es la tendencia de todas las marcas. Los nuevos Ryzen 7000 son 3/4 de lo mismo, podrían ser procesadores extremadamente eficientes, pero en lugar de eso vienen al límite, y a subir voltaje y frecuencia todo lo que puedan con la refrigeración que les pongas, echando por tierra toda la eficiencia que tenga la arquitectura con su proceso de fabricación.

También creo que tampoco es tan terrible como lo pintas, una cosa es pedir a un usuario "medio" que haga UnderVolt bien, otra diferente es pedirle que mueva un deslizador arriba o abajo en el MSI Afterburner, creo que lo segundo (que es el caso de la 4090) es relativamente razonable, lo primero no.

Nomada_Firefox escribió:
nirvana17 escribió:la 4090 la veo mas enfocada a temas profesionales o a otros usos, pero las 3080 son un desmadre estos nos han calcado la subida del ipc 2022 y de los proximos para ahorrar tiempo . a ver que hace amd , si no repite la jugada

¿Que tema profesional? si fuera para trabajar, pues tienes graficas de Nvidia o AMD especificas que hacen ese tipo de curro bastante mejor.

El problema es que las TPUs tienen un precio que es muy poco accesible incluso para empresas de tamaño pequeño-mediano. La Tesla A100 vale 32.000 cocos más impuestos. En mi trabajo que puntualmente entrenamos modelos para IA, tenemos GPUs de juegos (3090s y 2080Tis, en un servidor), es la forma de conseguir velocidades aceptables con inversiones "pequeñas".

Saludos
Pollonidas escribió:
Nomada_Firefox escribió:Eficiente desde el punto de vista consumo/rendimiento, lo es. Pero el consumo ha entrado en un punto que ya no es agradable a la vista. Esa es la cuestión.

Tan sencillo como bajar el power target a 300W como propone der8auer en el vídeo que enlazo en el post anterior. O digo más, bajarlo a 225W.

Una 4090 limitada a 225W (50% power target, donde más eficiente es la GPU) rinde más que una 3090Ti, y consume menos que una 3070. Si realmente alguien está preocupado por la eficiencia (no por la factura de la luz, sino por convicción, principios, o llámalo como quieras), esta es la gráfica a comprar ahora mismo, para limitar el TDP después claro.

Claro, no tiene mucho sentido comprar un superdeportivo para ir a 80km/h por autovía para gastar lo mínimo posible, y no acercarse nunca a un circuito. Las medias de consumo serán espectaculares, pero probablemente sea desaprovechar la inversión.

Saludos

Que yo sepa no consume menos que una 3070 porque la 3070 gasta 220 watios, no 225, y no sostenidos.
Sobre lo de perder un 8% de rendimiento por bajar el PL un 30% en cuanto a eficiencia es, en efecto, una jugada maestra, pero en cuanto a valor es un desastre: no creo que ese 8% sea mucho mayor que la ganancia de rendimiento sobre una 4080 de 16 gigas. Dicho de otra manera, te gastas la guita en ESA tarjeta para disfrutar precisamente de ESE 8% extra.

katatsumuri escribió:yo es que creo que la 4090 y la 4080 no deberían de verse como tarjetas para videojuegos, lo siento

Yo estoy con una 3070ti y hoy estaba jugando en 4K ultra 60fps a RDR2, MGS V, etc... No quiero ni imaginar con una 3080ti que ya si sería como el tope de gama. [....]

Me cepillo el resto por no alargar la cita. Y añado que más abajo ya has dicho que en efecto a 48-52fps y en alto (no en ultra).
El RDR2 es un juego de 2018. El MGS V es de... ¿2014? ¿2015? ¿2016?
Mete a tu 3070ti un Cyberpunk o un Flight Simulator con trazado de rayos activado a ver si llega no ya a 60, a 45 fps. Te permito hasta poner el DLSS en calidad si gustas :-) Ya te digo yo que no porque yo con una 3080 no llego.
Entonces te darás cuenta del nicho que cubre la serie 4000 y las nuevas que va a traer AMD: 4K con DLSS en calidad, Ultra, sin tocar nada, en todos los juegos.
Duncan Idaho escribió:Que yo sepa no consume menos que una 3070 porque la 3070 gasta 220 watios, no 225, y no sostenidos.

Vale, pues pon el power limit de la 4090 a 200W, la afirmación sigue siendo cierta, lógicamente la pérdida de rendimiento será mayor (aunque sigue siendo suficiente para superar la 3090Ti). Tampoco tendría por qué consumir menos que la 3070, yo hacía la comparación porque hace evidentes las ganancias de eficiencia, pero el hecho de consumir menos que la 3080 con ese nivel de potencia ya es algo muy bueno.
Duncan Idaho escribió:Sobre lo de perder un 8% de rendimiento por bajar el PL un 30% en cuanto a eficiencia es, en efecto, una jugada maestra, pero en cuanto a valor es un desastre: no creo que ese 8% sea mucho mayor que la ganancia de rendimiento sobre una 4080 de 16 gigas. Dicho de otra manera, te gastas la guita en ESA tarjeta para disfrutar precisamente de ESE 8% extra.

¿Con menos de 10K shaders la 4080 de 16GiB frente a 15K de la 4090? ¿Con un bus de memoria digno de gama media (256bits) frente al bus completo típico de los chips grandes (384 bits) en la 4090? Permíteme que lo dude. Lógicamente la 4080 de 16GiB rendirá más que la 3090Ti (la de 12 no lo tengo nada claro si es en escenarios poco favorables, de raster puro sin RT ni DLSS3), de eficiencia no me atrevería a hacer una predicción porque irá bastante más alta de voltaje y frecuencias, pero NI DE COÑA se van a llevar un 8% de rendimiento. 30-35% y no exagero para nada. Los benchmarks que se han filtrado apoyan bastante lo que estoy comentando (no por darles especial credibilidad, sino porque los números son los que cabe esperar viendo las specs en papel de los dos chips)

La 3080 y la 3090 se llevaban "solo" un 10% porque sí compartían el mismo chip, recortado en la 3080. Esta generación es totalmente diferente. La 4080 de 12GiB lleva un chip con número de modelo terminado en -4 (gama media-alta, típico de las 60Ti y 70 en otras generaciones). La de 16GiB lleva un chip terminado en -3 que no es una nomenclatura habitual, pero vamos... una 4070Ti muy cara.

Saludos
21 respuestas