¿Por qué son tan grandes las gráficas?

Recuerdo los tiempos en que las GPU de PC tenían un tamaño normal. Poco a poco empezaron a crecer hasta alcanzar las dimensiones monstruosas de hoy día, auténticos ladrillos. Me llama la atención porque los Soc de las consolas montan GPUs equivalente a gráficas de PC mucho mayores. Los propios Soc de los portátiles son infinitamente más pequeños y la pérdida de rendimiento tampoco es tan dramática como para la diferencia de tamaño. O los Apple Silicon, que integran en su Soc CPU+GPU con un consumo súper reducido.

¿Por qué no paran de crecer las GPUs de PC, si por ejemplo las CPU son tan pequeñas?
Disipar el calor y esas cosas.
Cerca del 80% del volúmen de una gráfica pertenece a disipador y ventiladores
@AxelStone por qué aprietan mucho de fabrica las velocidades y las configuran con voltajes lo suficientemente altos de fabrica para que todos los chips mantengan un mínimo de rendimiento garantizado.
También usan la refrigeración como argumento para subir el precio y/o darle un aire más premium.
Imagen

Esto es una 4090, y es diminuta mas pequeña que una gtx 680, lo que han aumentado son los disipadores no los componentes, basicamente por que consumen y se calientan mas

Esto es principalmente por maximizar el rendimiento, nvidia podria sacar una 4090 que consuma 150w y con un disipador enano, pues claro, pero la gpu costaria practicamente lo mismo, rendiría mucho menos y entonces nos quejaríamos por que es muy cara para el rendimiento que da

Y por cierto el hardware de portatil y el de escritorio es igual, suele cambiar únicamente las frecuencias para por consumo y calor poder meterlo en algo tan pequeño, pero eso es una desventaja ya que a igualdad de rendimiento un portatil siempre va a ser mas caro que un pc de escritorio
O sea básicamente si se encuentra otra forma de refrigeración más eficiente podemos tener de nuevo GPUs más pequeñas. Seguinos anclados a montar disipadores y ventiladores gigantes. El caso es que son tan grandes y pesadas que las top se venden incluso con un tope para apoyarse en la torre y que no fuerce el slot [+risas]

@FranciscoVG si además los portátiles tienen más problemas para mantener el tipo, te cogen un calentón y pueden pegar un bajón de rendimiento. Tengo un sobremesa y un portátil que sobre el papel deberían rendir igual pero en el uso intensivo no le aguanta el tipo ni de coña.
@AxelStone pues si, por eso sí les pones refrigeración líquida adelgazan bastante
Realmente es una cuestión de que el precio (entiéndase económico pero también en imagen de marca) de sobredimensionar el disipador es prácticamente nulo, y sin embargo el precio de quedarse corto es muy alto, en el sentido de mucho ruido, consumidores descontentos, gráficas fallando antes de tiempo...

Realmente tampoco consumen tanto. Cosas como una 4070 jugando consumen mucho menos que gráficas de gama alta de hace unos años, como por ejemplo la GTX580 (y no nombro la 480 porque esta sí que tenía una merecida fama de consumir bastante).

Y en gamas altas, que la 4090 FE tenga ese disipador monstruoso es simple y llanamente porque no tenían la seguridad de poder garantizar suficiente volumen de fabricación con el proceso de 5nm de TSMC, y si la hubieran tenido que fabricar con el de 8nm de Samsung hubiera sido un auténtico horno, así que tiene un disipador que hubiera podido enfriarla en el peor de los casos.

Las consolas que mencionas no sé yo si son muy buen ejemplo porque precisamente van justísimas de refrigeración, a pesar de usar metal líquido y varias triquiñuelas para paliarlo un poco, y son bastante ruidosas también, especialmente si no están limpias como la patena. Los procesadores ARM de Apple tampoco, porque desde luego en eficiencia están un escalón por encima de cualquier otra cosa, pero en potencia bruta, por mucho que les moleste a sus fanboys que te dirán que en no sé qué test cherrypickeado y optimizado un M1 rinde más que una 3090, no compiten en la misma liga. Si rinden como rinden es porque tienen software "a medida" que aprovecha todo el hardware disponible (memoria unificada, "neural engine" que es similar a los tensor cores de las GPUs, etc), pero frente a procesadores y GPUs de sobremesa con software que lo aproveche poco tienen que hacer si sacas el factor del consumo de la operación.

...y ojo, soy el primero que piensa que, especialmente en procesadores, están vendiendo cosas que al salir de la caja tienen un consumo absurdamente alto, porque para exprimir hasta el último mhz en un overclock "mal hecho" meten voltaje a mansalva, cuando tendría más sentido hacer cosas un poco más eficientes, y el que quiera que las "fuerce" a su gusto. Pero la gente no mira eso, la gente mira los tests, así que los fabricantes responden a eso.

Saludos
Son tan grandes porque cada vez necesitan un disipador más grande a medida que son más potentes y consumen más, lo que no sé es hasta donde van a llegar, van a tener que buscarse otras formas o algo, porque vaya... Aunque me imagino que la principal solución sería que consumiesen menos y por lo tanto la GPU genere menos calor, pero quizás con la tecnología actual aun no es posible (con los modelos más potentes, claro).

Ya puedes ver en una imagen que han puesto arriba lo que es en realidad la 4090, la "tarjeta" en sí (es decir, la placa con sus chips y condensadores), todo lo demás es el disipador monstruoso que necesita para mantener unas temperaturas aceptables.
Iban a lanzar esta generación de la serie 4000 de nvidia con tecnologia de 8nm (como la serie 3000), pero finalmente fueron de 4nm

las ensambladoras se prepararon como si fueran a ser 8nm, y por eso tienen diseños "overkill"

la ventaja es que al ser finalmente de 4nm y tener tanta disipación, pues son muy fresquitas
@mrmanson16v Estan fabricadas a 5nm, no dejeis que os cuelen nombres bonitos para el Marketing.
9 respuestas