AMD prevé GPUS de 700W para antes de 2025.

Chaquetero está baneado por "troll"
En una entrevista con su vicepresidente, parece que las mejoras en miniaturización y proceso de fabricación se han acabado, y las mejoras en arquitectura también. A partir de ahora no va a haber progreso más allá de subir los relojes enfermizamente y diseños multichiplet en el mismo die. Se acabó la gama "baja", gráficas de 250w mínimo.

https://www.tomshardware.com/news/amd-envisions-700w-gpus-by-2025

700w... Tener un pc que te genere 1000 w en verano al lado por muy bien disipado que esté al lado es un infierno. Es como tener un calefactor encendido a tope.
Chaquetero escribió:En una entrevista con su vicepresidente, parece que las mejoras en miniaturización y proceso de fabricación se han acabado, y las mejoras en arquitectura también. A partir de ahora no va a haber progreso más allá de subir los relojes enfermizamente y diseños multichiplet en el mismo die. Se acabó la gama "baja", gráficas de 250w mínimo.

https://www.tomshardware.com/news/amd-envisions-700w-gpus-by-2025

700w... Tener un pc que te genere 1000 w en verano al lado por muy bien disipado que esté al lado es un infierno. Es como tener un calefactor encendido a tope.

Es una burrada, ya no solo por el consumo, que también, sino por el horno de tener ese bicho en verano a tu lado.

En verano tengo capadas la RTX3070 a 100W y el Ryzen 3800X a 60W, y aún así, se nota cuando llevas más de una hora jugando que la habitación se caldea. No quiero imaginarme lo que sería tener 700W ahí métodos....
Yo creo q los usuarios deberíamos decir "hasta aquí hemos llegado" con el tema de los consumos. Eso es una burrada. Una gráfica se compra para usarla en muchas horas de juego, no vale la pena cargarse el planeta y menos solamente por ocio. Además, cómo serán esas facturas eléctricas.
BladeRunner escribió:Yo creo q los usuarios deberíamos decir "hasta aquí hemos llegado" con el tema de los consumos. Eso es una burrada. Una gráfica se compra para usarla en muchas horas de juego, no vale la pena cargarse el planeta y menos solamente por ocio. Además, cómo serán esas facturas eléctricas.


Consumo, coste, tamaño... no es casualidad que últimamente se abran tantos hilos con dudas sobre el camino que han tomado las gráficas. Al final todos acabaremos con una consola en casa.
@Chaquetero Supongo que la noticia era leyendo entre lineas.......... "AMD piensa que se van a cargar el mercado gaming de PC".

Pero lo verdaderamente ironico de esto, es que si las tarjetas graficas dedicadas tienen el problema del consumo, imaginaos que les va a pasar a las consolas. Por más que lo rebajen van a tener un problema mayor con el consumo y el calor generado.

@AxelStone Eso de todos............yo no desde luego, y creo que mucha gente tampoco. Y como dije arriba, veo que no has visto que si el PC tiene el problema, las consolas tienen un problema muchisimo mayor.

Ahora sera cuando digas que el hardware de las consolas es diferente y más reducido en consumos pero no es cierto, puede que tarde un poquillo más en alcanzar esas cifras porque suelen jugar con las frecuencias para que no se salga de madre pero el hardware es el mismo.
@Nomada_Firefox Pero si es que no hay que darle muchas vueltas, básicamente es lo que dice el compañero @BladeRunner : no vale la pena cargarse el planeta y menos solamente por ocio.

¿Por qué van a tener un problema las consolas? ni el PC debería tenerlo. GPUs de 700W...estamos hablando de monstruos que empiezan a carecer de sentido en el mercado doméstico. ¿Tan importante es que el arbusto en el último Call of Duty tenga 2000 hojas en vez de 1000?

Ha llegado el momento de separar lo profesional de lo doméstico, en casa no necesitamos una turbina de avión para jugar, yo al menos. Se nos ha ido la mano con el "progreso", no hace falta correr tanto y menos cuando no se puede. Sacar GPUs de 700W no es avanzar.

Por no meter solo consolas en la ecuación, vuelvo a mencionar el caso de los Apple M1, como el Mac Mini: "Mac Mini M1 consumes 39W under high load". ¿Acaso no es un ordenador doméstico válido?
Decir que existan gráficas de "hasta 700 vatios" no implica que no salgan gamas con un TDP inferior; de hecho mirado con detenimiento, no es algo que no se viese venir.
Chaquetero está baneado por "troll"
@Ñomo
@AxelStone A mí me parece perfecto que hagan gráficas de 700, y hasta 1500 w si quieren que necesiten un armario con rl para meterlas. Lo que no me parece nada bien es que dejen de dar opción de poder comprar una buena gráfica con una buena relación potencia/consumo, como en su momento fue la gtx 1070, por 130w una gama media potentísima.

El problema no es que la previsible rtx 4090 vaya a consumir 600w, o que la 8900 xt vaya a consumir 700w, el problema es que las 4060/8700 xt van a consumir entre 250/300w. Eso es lo absurdo y eso es lo que hay que evitar, que las compañías se carguen la gama baja convirtiendolo todo en gama alta con una "nueva" gama alta consistente en SLI/crossfire multichiplet.
AxelStone escribió:@Nomada_Firefox Pero si es que no hay que darle muchas vueltas, básicamente es lo que dice el compañero @BladeRunner : no vale la pena cargarse el planeta y menos solamente por ocio.

Lamento decirte que ya colaboraste en romper el planeta un poco más desde el momento en que entraste aqui.

Cualquiera que viva con más de una bombilla ha colaborado y el planeta ya estaba roto, sino somos capaces de verlo, es cosa de como somos.
No es la primera vez que vivimos un escenario de escalada de potencias, al final deberán tomar otro rumbo. Os recuerdo hace ya muchos años, cuando AMD empezó a plantar cara a Intel (Athlon vs PIV) cómo ambas empezaron una escalada de potencia / consumo desatada, llegando a los famosos PIV Presscot (rebautizados como 'Presshot', con razón).

Al final debieron replantearse los diseños y empezar a buscar más eficiencia, las CPUs empezaron a bajar de consumo y a pesar de todo seguían aumentando en potencia. Con los años se ha demostrado que podemos tener auténticos mecheros en consumo (las CPUs familia U) que multiplican la potencia de aquellos monstruos.

Supongo que en GPUs antes o después pasará lo mismo y será necesario un giro.

@Nomada_Firefox Bueno pero eso es llevar ya el tema a un offtopic bastante grande. También podríamos hablar del coche eléctrico y cómo no es la solución a todos los problemas. Centrándonos en el tema que nos ocupa de las GPUs, esta escalada no lleva a nada, es mi opinión.
@AxelStone Yo solo digo que pensais que el mundo se va a salvar con estas tecnologias que si patatin de patatero, pues lamento decirte que esta bastante destruido ya y que los seres humanos somos unos guarros, solamente cuando se rompa a pedazos, solamente en ese momento igual hacemos algo de verdad pero el mercado consumista que tenemos ahora no es la solución ni por A, ni por B. El que piense lo contrario que salga un poco más de casita.

Respecto al tema que nos ocupa, nadie puede hacer mejoras de litografia en tampoco tiempo como hacen ahora y mejorar la eficiencia energetica, por eso aumentan tanto. Si son inteligentes, tendran el equipo A que hace las reducciones sin pensar en la eficiencia y el equipo B que si piensa en ello, en algun momento sacaran algo que recule y vaya mejor en consumos.
@Nomada_Firefox si eso no te lo discuto, la de mierda que echamos cada dia al planeta y la cosa no para, pero que el primer paso es que cada sector ponga su granito de arena. No se entiende la escalada brutal, que incluso gamas medias tengan consumos tan altos. Un Ryzen 7 5700x, que no deja de ser el corazón del ordenador, tiene un TDP de 65W.

Hay que buscar otros caminos, si es necesario echar el freno y concienciar al personal que jugar no implica consumir 1000W. En resumen avanzar hacia algo sostenible, como se intenta en otros sectores.
Nomada_Firefox escribió:Respecto al tema que nos ocupa, nadie puede hacer mejoras de litografia en tampoco tiempo como hacen ahora y mejorar la eficiencia energetica, por eso aumentan tanto. Si son inteligentes, tendran el equipo A que hace las reducciones sin pensar en la eficiencia y el equipo B que si piensa en ello, en algun momento sacaran algo que recule y vaya mejor en consumos.

Yo, y esto es personal pero creo q los demás deberíamos hacer lo mismo (como consumidores para que empujemos un cambio en la industria) es esperar indefinidamente a que el equipo B saque algo que nos convenza. Si no hacemos eso todo se va a tomar por saco. Pero no es sólo una cuestión nuestra sino de que la industria vea que eso nos importa y que deben tomar otro rumbo. El planeta ya está fracturado pero no podemos seguir dándole con el bazooca, siempre tenemos una huella pero hay que hacer que sea lo más pequeña posible.
AxelStone escribió:Un Ryzen 7 5700x, que no deja de ser el corazón del ordenador, tiene un TDP de 65W.

Un Ryzen 7 no es gama media, ni ahora ni nunca, es ademas una muestra esa CPU en concreto de que con más tiempo mejoran los consumos porque tiene un rendimiento parecido a un 5800X con un consumo algo inferior a un Ryzen 5 5600X.

Y un TDP de 65W es inferior a lo que consumia un gama media como un i5-4690K en 2014. No obstante el TDP de una CPU no es su consumo real. Ni parecido.

@BladeRunner Yo ya lo doy por perdido, sobretodo porque veo muchos buenos comentarios pero poca realidad. Cuando sales al campo y te encuentras una bolsa de plastico en sitio más recondito, te das cuenta. Cuando miras al cielo y lo ves marron....te das más cuenta todavia.
@Nomada_Firefox A ver no busquemos 3 pies al gato, o igual no me estoy explicando bien. Vengo a decir, el Ryzen 7 5700x es una CPU gama alta, es el corazón de la máquina, y hablamos de consumos muy ajustados. No es coherente que la GPU pida esa burrada, hace falta otro camino, es lo que vengo diciendo desde el principio.

Si un PC doméstico debe parecerse a lo que es un Mac Mini, no pasa absolutamente nada. Vas a poder trabajar, navegar, ver tus correos, redactar tus documentos, editar tus videos, jugar...
Nomada_Firefox escribió:@BladeRunner Yo ya lo doy por perdido, sobretodo porque veo muchos buenos comentarios pero poca realidad. Cuando sales al campo y te encuentras una bolsa de plastico en sitio más recondito, te das cuenta. Cuando miras al cielo y lo ves marron....te das más cuenta todavia.

Pero una cosa es que estés de "bajón" y lo comprendo (yo respecto al medio ambiente también lo estoy), pero otra es que a ti personalmente te de todo igual, y yo creo (creo) que no. Aún hay campo y aún sólo se ve una bolsa de plástico en el sitio recóndito, no un vertedero entero. Aquí estamos los estusiastas que nos salen hormiguillas en el culo si no estamos con lo último, pero también leemos, somos "frikis", tenemos valores. O sea que igual podemos decidir no comprar una RTX 4090 (aún pudiendo hacerlo) porque es una burrada que va a gastar mogollón de nada que abras un juego, y gastar significa pagas más luz y contaminar mucho porque la energía aún se produce mayormente de combustibles fósibles, además de otras desventajas como el calor, ruido, tamaño, etc. e ir a por otra más modesta pero que cumpla unos mínimos bastante decentes. Y a los no entusiastas una GTX 1060 (la reina de Steam) ya es suficiente, ¿puedo jugar decentemente? Pues pa'lante.
EMC2 está baneado por "Troll"
Quedan un par de nodos todavia, pero efectivamente estamos llegando al final del silicio actual, aunque lo mas probable se busque otras alternativas como el grasfeno o carbono.

Sobre los avances de arquitectura, pues si también puede que se este llegando aun limite de que mejorar, pero en esto tambien siempre se buscan alternativas y innovaciones para sortear este aspecto.

Vermos como evoluciona la tecnología en la proxima decadas.
No se referirán a algún modelo que pueda salir con doble chip? Tipo una antigua, 6950 o algo así creo que se llamaba que tenía dos chips aunque no rendía el doble.

Tienen que buscar eficiencia también, estos trastos ya se calientan bastante, el nuevo chip arm de apple tampoco parece que funcione tan mal, tendrán que pegar algún cambio de rumbo pero camino para hacerlo parece que sí que hay.
EMC2 escribió:Vermos como evoluciona la tecnología en la proxima decadas.

A ver si evolucionan los chips fotónicos, parece algo más tangible que la tecnología cuántica.

De todas formas el principal límite ahora mismo no es la tecnología sino la creatividad para desarrollar juegos bonitos, jugables y que enganchen. Yo lo que veo actualmente es espectacular.
BladeRunner escribió:De todas formas el principal límite ahora mismo no es la tecnología sino la creatividad para desarrollar juegos bonitos, jugables y que enganchen. Yo lo que veo actualmente es espectacular.


Touché. Los juegos hace ya mucho tiempo que son espectaculares, incluso la generación PS360 ha dado títulos visualmente brillantes. Se trata de jugar, no de mandar un cohete a Plutón.
BladeRunner escribió:Yo creo q los usuarios deberíamos decir "hasta aquí hemos llegado" con el tema de los consumos. Eso es una burrada. Una gráfica se compra para usarla en muchas horas de juego, no vale la pena cargarse el planeta y menos solamente por ocio. Además, cómo serán esas facturas eléctricas.


Cuando tienes quee salir de la isla de tenerife como lo haces en modo ecofriendly?
Es inevitable llegar al límite del silicio.

Puede que los 5nm sea el final o casi, y poco puedan mejorar con el sistema de fabricación.

De todas formas no me parece descabellado que la gama super alta, el equivalente a la 3090 o 6900 consuma 600 o 700w.

El problema que hay ahora es la gama media y baja, una 6800 xt me parece correcto que consuma 300w pero las gamas inferiores deberían consumir menos.

Yo pondría un límite de tdp de 200w para la gama 3070 o 6700 xt y bajaría hasta los 150w para la gama baja.

Luego que cada uno decida que gráfica quiere comprar.

Respecto al planeta un vuelo turístico al espacio de Jeff bezos genera mucho más CO2 de lo que generareis en toda vuestra vida.

Con esto no digo que no influya cada uno, hay que intentar usar el mínimo de energía y recursos posible pero posiblemente aunque toda Europa llegue a emisiones 0 en 2050 si el resto del planeta no hace nada de poco servirá.
@PepeC12 Pues sí, todos pensabamos que los 200W era el limite de la gama media pero ultimamente vienen contadonos que las 4060 pasaran ese limite.

Hasta que el mar o otro fenomeno medioambiental no se lleve una docena de ciudades en varios paises importantes, aqui no va a cambiar gran cosa el tema del medio ambiente.

Y sino fuera por esos cambios drasticos, nada cambiaria. Parece que la gente le ponen la etiqueta "ecologico" y piensan que es real. Que más poner placas solares en cada casa si para hacerlas destruiste un pais entero........ [facepalm]
De todas formas yo tengo esperanza.

AMD dice que al menos tendrá un 50% más de rendimiento por W en rdna3, eso haría una rendimiento de una 6900xt por 150w.

No va pasar, pero sería un pepino de gama media, rollo 7600xt con 150w y rindiendo como una bestia.
Necrofero escribió:
BladeRunner escribió:Cuando tienes quee salir de la isla de tenerife como lo haces en modo ecofriendly?

Pues te voy a decir, viajes en avión fuera de la isla, me da con las 2 manos para contarlos. Sobre todo soy de senderismo, no de viajes, y ni tiempo ahora mismo para hacerlo.
PepeC12 escribió:AMD dice que al menos tendrá un 50% más de rendimiento por W en rdna3, eso haría una rendimiento de una 6900xt por 150w.

El rendimiento por W es la disculpa de las marcas para decir que sus graficas son la bomba. Pero tambien un Ferrari tiene un rendimiento por caballo tremendo pero con lo cara que esta la chofa solo lo sacas de paseo un dia a la semana, eso con suerte de que no arda. [sonrisa]

Mira la gracia, yo tengo una fuente de 650W, si quiero poner una 4060 o una 7600, igual tengo que cambiarla si quiero poner una 4060. Las 3070 con sus 8GB de memoria cada dia me gustan menos.
cuando parece que bajan las graficas ya estan pidiendo fuentes mucho mas caras en la gama alta como 1000 watios y conexion para pci 5 despues de esto no han parado de subir las fuenes de 1000 watios y mas
EMC2 está baneado por "Troll"
El problema es que en esta generación se apunta doblar rendimiento, con un 50%/wattio para RDNA3, para doblar rendimiento de una 6900xt la 7900xt se tendria que ir entorno a los 450-500w TBP( lo del TBP hay que tenerlo claro).
Endesa aprueba el comentario de AMD. [sati]
nirvana17 escribió:cuando parece que bajan las graficas ya estan pidiendo fuentes mucho mas caras en la gama alta como 1000 watios y conexion para pci 5 despues de esto no han parado de subir las fuenes de 1000 watios y mas

Lo sueltas como si la gran mayoria de gente fuera a comprar graficas de gama alta y no va a ser asi. Ni un 10% del gaming es asi.
me lo imagino que poca gente comprara gama alta , pero posiblemente la gama media tambien exijan fuentes de de mayor potencia , con lo cual les tocara cambiar o no comprar una nueva targeta grafica
BladeRunner escribió:Yo creo q los usuarios deberíamos decir "hasta aquí hemos llegado" con el tema de los consumos. Eso es una burrada. Una gráfica se compra para usarla en muchas horas de juego, no vale la pena cargarse el planeta y menos solamente por ocio. Además, cómo serán esas facturas eléctricas.


Pero como usuarios estamos dispuestos a no tener 4K a 60fps con raytracing y fotorealismo? Porque hey, ya se viene el 8K, y entonces el 4k se va a ver borroso y hay que actualizar esa patata de PC que tienes
EMC2 está baneado por "Troll"
Me pregunto que haran las compañias cuando llegue al techo grafico, que viendo las demos y juegos del UE5 ya estamos cerca, quedara lo de la resolución 8k y 16k, pero eso tampoco creo de para mucho.

Se dejara de producir GPU ?.
@ZedHqX4 no sé qué va a pasar en cuanto a los entusiastas, si van a querer tener un bicharraco de 600W dentro del ordenador tirando aire caliente hacia afuera, tendrán que comprar un aire acondicionado. En cuanto a lo del 8K yo no noto diferencias apreciables con el 4K, hay que acercarse a la pantalla para ver el extra de detalle, y eso en condiciones normales de juego no se hace.
EMC2 escribió:Me pregunto que haran las compañias cuando llegue al techo grafico, que viendo las demos y juegos del UE5 ya estamos cerca, quedara lo de la resolución 8k y 16k, pero eso tampoco creo de para mucho.

Se dejara de producir GPU ?.


Por lo pronto ya están los monitores 4K 240Hz como el Samsung Neo G8, pues eso, imagina la gráfica necesaria para sacarle partido a eso.
Si meten esos consumos van a comprar GPUs 4 gatos...no les interesa.
Que las tope de gama puedan consumir eso no significa que la gama media lo haga.

Ya tenemos modelos que se acercan mucho a ese consumo en las RTX 3090 y RX 6900XT.

Pero da miedo la tendencia de consumo que llevamos ultimamente en el Hadware de PC en los CPU y GPU.
36 respuestas