AMD RDNA3 "RX 7000" GPU.

Chaquetero escribió:Va a ser una grata sorpresa si en la tope de gama AMD solo utiliza dos conectores de 8 pines, que significa que consumirá como máximo 270-280w, eso podría significar gamas medias de 150-200w... Ojalá.

No me parece muy dificil pensar en ver graficas como la 6800 en la 7600. Lo que me llamaria la atención es que a una 7600 le pusieran más de 8GB de memoria. Aunque yo creo que eso es precisamente la lacra de la 6600.
BladeRunner escribió:Sobre precio de la 7900 XTX, supongo q andará sobre los 1700€ aquí. Seguirá sin ser una gráfica para mí. [mamaaaaa]

La que importa es la 7900XT, que según las filtraciones parece que tiene mucho menos recorte de núcleos respecto a la tope de gama que la competencia. A ver ...
Chaquetero escribió:Va a ser una grata sorpresa si en la tope de gama AMD solo utiliza dos conectores de 8 pines, que significa que consumirá como máximo 270-280w, eso podría significar gamas medias de 150-200w... Ojalá.



Dos conectores de 8 pines mas el pci-e puede dar hasta 375W.
Este habla de otro momento Zen ("cambio de paradigma en computación al estilo Zen"), y se refiere a GPUs (vídeo antes del jueves). Habrá sorpasso al final, o será todo humo? [+risas]

Pacorrr escribió:Este habla de otro momento Zen ("cambio de paradigma en computación al estilo Zen")

Joder, otro ? Pero si todavia estamos esperando cosas como el RTX IO, que la GPU cargue texturas directamente desde el SSD :O

Edito: Ahh joder, se refiere a los Chiplets, que van a barrer a NVIDIA en consumos y tamaño [qmparto]
Si lo de los 2 conectores de 8 pines en la 7900 xt es cierto no esperéis que pueda ni remotamente competir con la 4090, es imposible.....

La serie 6000 mejoro a nvidia en eficiencia precisamente por que tenian un mejor proceso de fabricacion esta vuelve a estar nvidia por delante, no van a igualar a nvidia consumiendo un 35% menos es ridículo
FranciscoVG escribió:Si lo de los 2 conectores de 8 pines en la 7900 xt es cierto no esperéis que pueda ni remotamente competir con la 4090, es imposible.....

La serie 6000 mejoro a nvidia en eficiencia precisamente por que tenian un mejor proceso de fabricacion esta vuelve a estar nvidia por delante, no van a igualar a nvidia consumiendo un 35% menos es ridículo

De 375W que da 2x8 pines a los 450W del TDP de la 4090 no hay un 35% menos, hay un 16% menos. O de la otra forma, la 4090 consumiría un 20% más.
Pacorrr escribió:
FranciscoVG escribió:Si lo de los 2 conectores de 8 pines en la 7900 xt es cierto no esperéis que pueda ni remotamente competir con la 4090, es imposible.....

La serie 6000 mejoro a nvidia en eficiencia precisamente por que tenian un mejor proceso de fabricacion esta vuelve a estar nvidia por delante, no van a igualar a nvidia consumiendo un 35% menos es ridículo

De 375W que da 2x8 pines a los 450W del TDP de la 4090 no hay un 35% menos, hay un 16% menos. O de la otra forma, la 4090 consumiría un 20% más.


375w no va a ser el tdp eso es el máximo consumo que puede dar esa configuración, el tdp de la 4090 es de 450w pero puede llegar a consumir 675w de forma estable

El tdp podria ser 320-330w como mucho, y que una gpu tenga un consumo de stock tan cercano al limite maximo no es algo bueno precisamente, aunque si ese es el tdp las custom van a venir con 3 conectores fijo
FranciscoVG escribió:
Pacorrr escribió:
FranciscoVG escribió:Si lo de los 2 conectores de 8 pines en la 7900 xt es cierto no esperéis que pueda ni remotamente competir con la 4090, es imposible.....

La serie 6000 mejoro a nvidia en eficiencia precisamente por que tenian un mejor proceso de fabricacion esta vuelve a estar nvidia por delante, no van a igualar a nvidia consumiendo un 35% menos es ridículo

De 375W que da 2x8 pines a los 450W del TDP de la 4090 no hay un 35% menos, hay un 16% menos. O de la otra forma, la 4090 consumiría un 20% más.


375w no va a ser el tdp eso es el máximo consumo que puede dar esa configuración, el tdp de la 4090 es de 450w pero puede llegar a consumir 675w de forma estable

El tdp podria ser 320-330w como mucho, y que una gpu tenga un consumo de stock tan cercano al limite maximo no es algo bueno precisamente, aunque si ese es el tdp las custom van a venir con 3 conectores fijo

Bueno el límite de 2x8 pines no son 300W, en realidad puede llegar a mucho más sin problemas, 300W es el standard de seguridad. De hecho ya han habido tarjetas en el pasado con 2x8 pines y más de 400W de TDP.
FranciscoVG escribió:Si lo de los 2 conectores de 8 pines en la 7900 xt es cierto no esperéis que pueda ni remotamente competir con la 4090, es imposible.....

Dicen que la 4090 da el 95% de su potencia con un 70% de su consumo. Para mi ahi es donde deberia estar por defecto, y luego ya que la gente le haga Overclock si quiere.


FranciscoVG escribió:aunque si ese es el tdp las custom van a venir con 3 conectores fijo

Sería lo lógico, algunas custom pensadas para overclock, o con overclock de serie, con 3 conectores. Hacer bien el producto, en vez de pensando en un par de cifras/benchmarks de marketing.
Creo que a la gran mayoría nos importa poco si es tan potente o no que una 4090, creo que la mayoría estamos en otras cosas:

- Precios mas ajustados
- Tamaños normales
- Consumos no desproporcionados
- Buen chute de potencia en cada gama respecto a la generacion anterior

2 ya sabemos que las cumple, otra se le presupone, solo falta la primera

Ha sido muy triste pasarse por el hilo de las 4000 y ver a gente cortando cajas de casi 200 € para encajar tarjetas de mas de 2000€, es como cuando ves a un tenista por la tele cascando una raqueta profesional como si valiera 2€

Me ha recordado mucho a las voodoo 5 6000
stan01 escribió:Creo que a la gran mayoría nos importa poco si es tan potente o no que una 4090, creo que la mayoría estamos en otras cosas:

- Precios mas ajustados
- Tamaños normales
- Consumos no desproporcionados
- Buen chute de potencia en cada gama respecto a la generacion anterior

2 ya sabemos que las cumple, otra se le presupone, solo falta la primera

Ha sido muy triste pasarse por el hilo de las 4000 y ver a gente cortando cajas de casi 200 € para encajar tarjetas de mas de 2000€, es como cuando ves a un tenista por la tele cascando una raqueta profesional como si valiera 2€

Me ha recordado mucho a las voodoo 5 6000

Has dado en el clavo.
Sobre todo ,una relación precio/rendimiento más ajustada y mejor que la de la 4090,4080 y demás
@654321

Eso que tu estas diciendo lo hacia yo tanto en la 3080 como en la 6800xt, en casi todas realmente mediante undervolt, todos los modelos llevan un voltaje superior al que realmente necesitan, una por asegurarse y otra por que no todos los juegos y programas funcionan igual, yo con la 3080 y undervolt habia juegos donde consumia 200w y otros mas de 300w con exactamente la misma configuración y misma frecuencia

Yo digo esto por que os veo que os venis demasiado arriba sin ningun sentido, ya no hablando de igualar si no de sorpaso incluso, y no tiene ningun sentido que amd supere a nvidia con un proceso de fabricacion inferior y menos consumo, es ridiculo

Teniendo en cuenta eso apostaria a lo de siempre, nvidia seguiria teniendo la corona de la gpu mas potente y a amd le queda competir por precio, tambien te digo que todo esto de la "corona del gaming" al 99% de la gente se la suda totalmente y solo le interesa el rendimiento precio, ahi es donde debe competir amd
FranciscoVG escribió:@654321

Eso que tu estas diciendo lo hacia yo tanto en la 3080 como en la 6800xt, en casi todas realmente mediante undervolt, todos los modelos llevan un voltaje superior al que realmente necesitan, una por asegurarse y otra por que no todos los juegos y programas funcionan igual, yo con la 3080 y undervolt habia juegos donde consumia 200w y otros mas de 300w con exactamente la misma configuración y misma frecuencia

Yo digo esto por que os veo que os venis demasiado arriba sin ningun sentido, ya no hablando de igualar si no de sorpaso incluso, y no tiene ningun sentido que amd supere a nvidia con un proceso de fabricacion inferior y menos consumo, es ridiculo

Teniendo en cuenta eso apostaria a lo de siempre, nvidia seguiria teniendo la corona de la gpu mas potente y a amd le queda competir por precio, tambien te digo que todo esto de la "corona del gaming" al 99% de la gente se la suda totalmente y solo le interesa el rendimiento precio, ahi es donde debe competir amd

El proceso de fabricación es prácticamente el mismo, lo que Nvidia llama N4 no es más TSMC 5nm con ligeras optimizaciones, no hay gran ventaja. Donde si hay gran ventaja es en la arquitectura basada en chiplets que la hace más barata de fabricar y con menor consumo, luego, lo que rindan al final, pues lo everemos pasado mañana.
654321 escribió:
FranciscoVG escribió:Si lo de los 2 conectores de 8 pines en la 7900 xt es cierto no esperéis que pueda ni remotamente competir con la 4090, es imposible.....

Dicen que la 4090 da el 95% de su potencia con un 70% de su consumo. Para mi ahi es donde deberia estar por defecto, y luego ya que la gente le haga Overclock si quiere.


FranciscoVG escribió:aunque si ese es el tdp las custom van a venir con 3 conectores fijo

Sería lo lógico, algunas custom pensadas para overclock, o con overclock de serie, con 3 conectores. Hacer bien el producto, en vez de pensando en un par de cifras/benchmarks de marketing.


Esto es lo que yo venía a comentar...si reportan que al 70% de consumo pierden un 5% de rendimiento....porque la rtx 7000 no puede acercarse al rendimiento de una 4090 por tener una alimentación de cerca de 400w??

stan01 escribió:Creo que a la gran mayoría nos importa poco si es tan potente o no que una 4090, creo que la mayoría estamos en otras cosas:

- Precios mas ajustados
- Tamaños normales
- Consumos no desproporcionados
- Buen chute de potencia en cada gama respecto a la generacion anterior

2 ya sabemos que las cumple, otra se le presupone, solo falta la primera

Ha sido muy triste pasarse por el hilo de las 4000 y ver a gente cortando cajas de casi 200 € para encajar tarjetas de mas de 2000€, es como cuando ves a un tenista por la tele cascando una raqueta profesional como si valiera 2€

Me ha recordado mucho a las voodoo 5 6000


Y esta es otra...si tuviera todos estos puntos positivos, que mas me da que rinda un 20% menos que una 4090?? Dejaría de ser una GPU solvente?? O es que la GPU solo vale para hacer test??

Por esta regla de 3, que NVIDIA no saque ninguna GPU mas....pues toda la serie rtx 4000 que falta van a ser mediocres XD XD
Según le han contado sus fuentes

- 7900XTX 350W y 2x8 pines
- 7900 XT 300W y 2x8 pines
- Modelos custom 450W y 3x8 pines

Y yo pregunto, xq lo veo cada poco que alguien escribe sobre eso.
xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?

X no cambiar la fuente presupongo que sera
d2akl escribió:Y yo pregunto, xq lo veo cada poco que alguien escribe sobre eso.
xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?

X no cambiar la fuente presupongo que sera


Yo creo que es por eso del avance tecnologico y esas cosas [+risas]
Menos consumo,menor tamaño y mas potencia en cada generacion,o al menos eso nos gustaria [fumando]
Como te digo eso creo yo :)

Saludos compañero [beer]
josep345 escribió:
d2akl escribió:Y yo pregunto, xq lo veo cada poco que alguien escribe sobre eso.
xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?

X no cambiar la fuente presupongo que sera


Yo creo que es por eso del avance tecnológico y esas cosas [+risas]
Menos consumo menos tamaño y mas potencia en cada generacion,o al menos eso nos gustaria [fumando]

Saludos compañero [beer]


Es que es al revés, el avance tecnológico, requiere más W o dicho se otra forma, más consumo, como
La escala de Kardashev básicamente.

Lo del tamaño si que puede ser objeto de debate.
Un saludo y el jueves es ya la presentación no?
Yo personalmente por temas de temperaturas. Cuanto más eficiente es un aparato electrónico menores son las temperaturas.
d2akl escribió: Es que es al revés, el avance tecnológico, requiere más W o dicho se otra forma, más consumo, como.La escala de Kardashev básicamente.

A eso iba yo con el "Avance tecnologico" parece que vamos al reves [toctoc] [toctoc]

d2akl escribió: Lo del tamaño si que puede ser objeto de debate.
Un saludo y el jueves es ya la presentación no?


Para mi que Nvidia a cogido el camino facil esta generacion,es decir,quereis potencia bruta..Aqui la tenéis pero a lo basto vaya [+risas]
Como digo son cosas mias.

Saludos [beer]
d2akl escribió:Es que es al revés, el avance tecnológico, requiere más W o dicho se otra forma, más consumo, como
La escala de Kardashev básicamente.

Y dónde dejas la eficiencia? Si no ponemos límites mas o menos razonables en 5 años nos montamos con GPUs tope de gama domésticas que consumen 1500W, no?

Creo que en parte todos esos mensajes que dices lo que buscan es que la mejor tarjeta que presente AMD tenga una mayor eficiencia que la 4090. No creo que nadie con 2 dedos de frente espere de AMD una gráfica con más potencia que la 4090 y que consuma menos, pero quizás sí que podría ser una que tenga (me lo invento) un 15% menos de potencia pero consuma un 30% menos.

Luego, el tema de los precios de la electricidad (y con la crisis en parte por la guerra) también hay que tenerlo en cuenta. Aunque ya sé que parece raro decirle a alguien que se va a gastar 1000-2000€ en una gráfica que vaya con cuidado con el consumo eléctrico (no le vendrá de ahí digo yo), pero quizás puede ser también por esa sensación de que parezca que cuando la 4090 va al tope pienses que estás pagando las horas de juego como una máquina recreativa a 1€ por hora XD
d2akl escribió:Y yo pregunto, xq lo veo cada poco que alguien escribe sobre eso.
xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?

X no cambiar la fuente presupongo que sera


Eficiencia, ni mas ni menos, dame una RX 6900XT en potencia con un consumo de 100W que te meto mi dinero por el culo si hace falta🤣.

Si me vas a dar el doble de potencia que una RX 6900XT consumiendo el triple de W, te la puedes meter por el culo🤣🤣🤣

¿Por que se usan bombillas LED?

¿Por que el motor menos potente de un coche normalito no tiene un consumo de mas de 10l a los 100KM como hace unos años?

El camino que siguio Nvidia, Intel y AMD en sus ultimos Ryzen, es erroneo en todos los sentidos, por consumo global, temperatura en nuestros pc y falta de "evolucion real"


Eso es un poco por encima, vamos a olvidarnos de juegos, vamos a entorno profesional, si una GPU consume 200W durante 10 segundos para realizar la tarea y otra consume 100W pero tarda 40 segundos, la mas eficiente de ambas es la primera, eso es lo que se tiene que mejorar, el rendimiento por watio consumido, todo lo demas es una "evolucion a medias"
josep345 escribió:Para mi que Nvidia a cogido el camino facil esta generacion,es decir,quereis potencia bruta..Aqui la tenéis pero a lo basto vaya [+risas]

Aunque ahora saquen generaciones cada dos años, al final no deja de ser un avance de lo que tenian y como nunca se pararon a mejorarlo, lo cual todos llamariamos refrito pero era más logico aunque no ganasen tanto en rendimiento, pues ha pasado lo que ha pasado. Si lo mismo le sucede a AMD, aunque estos ultimos en CPUs si se pararon a mejorar cosa como el Zen3 con el 5700X.

Yo creo que en algun momento del futuro cercano van a tener que perder tiempo, ambos, uno más pronto que el otro, a mejorar los consumos porque esto cada dia se sale más de madre. Y en CPUs me parece que el problema es mayor, sino les va a crecer el RMA exponencialmente y alguien se quedara por el camino.
Pues no se porque tanta rallada la verdad.

Al final del dia, son 30€ mas al mes en la factura en casos de uso extremo.
Otro asunto es en procesadores que se van de madre las tem, etcétera.

Pero bueno, ahora entiendo algo más vuestro punto, y en cierto modo estoy de acuerdo.
d2akl escribió:xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?

Pq en el Apocalipsis Zombie que toca en 2023 la electricidad va a ser muy cara, necesitaras un generador, y algo para dar de comer al generador ;)
Yo no me quejo por la factura de la luz. De hecho doy a entender que no es el problema, es que a más consumo, más calor generado, más ruido, deficiencias en el cableado como ya vemos, peor producto en general.

Y ya se que pensando en terminos de un motor sin importar la generación de gases y el consumo de gasolina, son graficas más eficientes pero llega un monton donde eso que no valoras va a ser un problemon tremendo.

Y no por la gama alta. Esto va a ser un problema por las gamas medias.
Chaquetero está baneado por "troll"
d2akl escribió: xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?



Por experiencia, si tú la tuvieras te entrarían sudores fríos solo de pensar en lo que es tener una gráfica de 400w al lado echando calor como de una secadora de pelo se tratara en pleno verano. Y no, como no tengas un aparato de AA industrial en tu cuarto eso no lo reviertes.

Luego cuanto mas consumo tenemos: gráficas más caras y complejas, más grandes y menos fiables.

Esto es como decir que por qué los camiones llevan motores diesel, que la gasolina sería mejor y que si consumen mucho más pues, pues que se joda la gente que yo quiero camiones a gasolina.

La evolución en electrónica e informática es igual a miniaturización. Para la miniaturización es imprescindible la eficiencia energética. Que las gráficas cada vez consuman más significa sin debate alguno que la tecnología se ha estancado, o incluso que hemos retrocedido.
Nomada_Firefox escribió: Aunque ahora saquen generaciones cada dos años, al final no deja de ser un avance de lo que tenian


Joe si cada 2 años no tienen nada mejor que la generacion anterior,apaga y vamonos,y ojo! Que hablo de verdadera evolucion,no lo que ahi ahora mismo [+risas]

Nomada_Firefox escribió: Yo creo que en algun momento del futuro cercano van a tener que perder tiempo, ambos, uno más pronto que el otro, a mejorar los consumos porque esto cada dia se sale más de madre. Y en CPUs me parece que el problema es mayor, sino les va a crecer el RMA exponencialmente y alguien se quedara por el camino.


Esto ultimo no se muy bien a que te refieres ¬_¬
Además estás tecnologías que en PC están desatadas luego hay que meterlas de algún modo en portátiles, consolas y demás. Ahí es donde el compromiso de consumo, temperatura y sonoridad realmente se pone más a prueba.
Chaquetero escribió:
d2akl escribió: xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?



Por experiencia, si tú la tuvieras te entrarían sudores fríos solo de pensar en lo que es tener una gráfica de 400w al lado echando calor como de una secadora de pelo se tratara en pleno verano. Y no, como no tengas un aparato de AA industrial en tu cuarto eso no lo reviertes.

Luego cuanto mas consumo tenemos: gráficas más caras y complejas, más grandes y menos fiables.

Esto es como decir que por qué los camiones llevan motores diesel, que la gasolina sería mejor y que si consumen mucho más pues, pues que se joda la gente que yo quiero camiones a gasolina.

La evolución en electrónica e informática es igual a miniaturización. Para la miniaturización es imprescindible la eficiencia energética. Que las gráficas cada vez consuman más significa sin debate alguno que la tecnología se ha estancado, o incluso que hemos retrocedido.



Tengo la 380ti, 350 de consumo medio poco cambio frente a esos 400w que dices.
En cuanto tenga la fuente, obviamente me pillo la 4090, pero vamos, sin dudar, es una salto de rendimiento abismal vs la anterior tope de gama.
En la siguiente remesa de stock de las fe, para casa que se viene.

Todos los que tienen la 4090 de temperatura van dpm, y yo con la 3080ti no noto más calor en la habitación.
Se trata de tener una torre acorde bien ventilada.
654321 escribió:
d2akl escribió:xq os importa tanto que estas nuevas de AMD tengan menos W que las de nvidia?

Pq en el Apocalipsis Zombie que toca en 2023 la electricidad va a ser muy cara, necesitaras un generador, y algo para dar de comer al generador ;)


+1 [qmparto] [qmparto] [qmparto] [qmparto]
La energia ni se crea ni se destruye, solo se transforma.

Por muy bien ventilada o mal que este la torre, no es lo mismo disipar 300W que 70W.

A fin de cuentas, la torre expulsa el aire a una habitacion, que podriamos decir que es una Torre de PC mas grande en la que estamos nosotros tambien🤣

Hace unos meses cambie la TV del salon, la anterior la compre en 2011, tenia un consumo de 140W, te acercabas a ella y se notaba calor, la actual consume 32W y no da ese bofeton que si daba la anterior, notarse se nota cualquier aparato electronico que tenga un alto consumo🤣
Luego nos quejabamos de los plasmas que consumían 500w...XD XD

500w esta bien para un calefactor en su primera fase, 1000 en la segunda....y son electrodomésticos totalmente ineficientes

Para una GPU por mucho que rinda y por mucho que sea una todopoderosa 4090 es un despropósito.....el que se la quiera comprar?? Que lo haga...pero que no intenten hacer ver que es lo normal

Con un disipador de 4 slots, y del tamaño de una ps5 ya encima faltaría que se calentase XD XD

Que se calienta la gpu???? Naaaah tu echa cobre/aluminio hasta que sea fresquita....total las cajas actuales también son ridiculamente grandes ;)
dinamita4922 escribió:Luego nos quejabamos de los plasmas que consumían 500w...XD XD

500w esta bien para un calefactor en su primera fase, 1000 en la segunda....y son electrodomésticos totalmente ineficientes

Para una GPU por mucho que rinda y por mucho que sea una todopoderosa 4090 es un despropósito.....el que se la quiera comprar?? Que lo haga...pero que no intenten hacer ver que es lo normal

Con un disipador de 4 slots, y del tamaño de una ps5 ya encima faltaría que se calentase XD XD

Que se calienta la gpu???? Naaaah tu echa cobre/aluminio hasta que sea fresquita....total las cajas actuales también son ridiculamente grandes ;)

Me quedo con eso [qmparto] [qmparto] [qmparto]
Obviamente una buena caja con espacio y bien ventilada es fundamental ( querer una tarjeta gráfica que sea eficiente no es sinónimo de tener una caja "barata" ;) ). Pero el tema es que por aire es muy difícil disipar un aparato electrónico que de por si consuma mucho y genere mucho calor. Así que siempre será de agradecer tener una gráfica eficiente en todos los sentidos :) .



Saludos!!!
dinamita4922 escribió:Luego nos quejabamos de los plasmas que consumían 500w...XD XD

500w esta bien para un calefactor en su primera fase, 1000 en la segunda....y son electrodomésticos totalmente ineficientes

Para una GPU por mucho que rinda y por mucho que sea una todopoderosa 4090 es un despropósito.....el que se la quiera comprar?? Que lo haga...pero que no intenten hacer ver que es lo normal

Con un disipador de 4 slots, y del tamaño de una ps5 ya encima faltaría que se calentase XD XD

Que se calienta la gpu???? Naaaah tu echa cobre/aluminio hasta que sea fresquita....total las cajas actuales también son ridiculamente grandes ;)


+1 Yo no lo hubiera expresado mejor compañero [beer] [beer]
Yo los plasmas ni los olí [carcajad] [+risas]
josep345 escribió:
Nomada_Firefox escribió: Yo creo que en algun momento del futuro cercano van a tener que perder tiempo, ambos, uno más pronto que el otro, a mejorar los consumos porque esto cada dia se sale más de madre. Y en CPUs me parece que el problema es mayor, sino les va a crecer el RMA exponencialmente y alguien se quedara por el camino.


Esto ultimo no se muy bien a que te refieres ¬_¬

Si las graficas consumen más, se calentaran más, es regla de 3, a más calentura, más problemas. Seguramente requieran salir todos los chips perfectos y aún asi la tasa de fallos sera más alta porque iran rozando los limites. Sino mejoran los productos, van a ir mal. Que se lo digan a Nvidia con sus 4090.

Y lo que dice Antoniopua1 va en la linea, refrigerando por aire, aqui va a acabar habiendo problemas y tampoco es que todas las liquidas sean maravillosas.
Empezamos a llegar a unos limites donde cada vez será más y más difícil disipar el calor con una tamaño comedido de un monstruo en potencia y rendimiento. De hecho alguien hizo una broma diciendo que " las gráficas en un futuro, serán un mini PC al lado del PC principal" y eso lo veo una realidad no muy tardía ;) .
Yo busco no cambiar la fuente, que cumple de sobra para lo que juego, pero quiero un salto de rendimiento que sea como mínimo un x2 al de mi gráfica consumiendo lo mismo o menos y por debajo de los 600€. Sin gilipolleces de brillos, reescalados ni nada de eso. Únicamente rasterizado, no necesito ninguna otra tecnología.
Rvilla87 escribió:
d2akl escribió:Es que es al revés, el avance tecnológico, requiere más W o dicho se otra forma, más consumo, como
La escala de Kardashev básicamente.

Y dónde dejas la eficiencia? Si no ponemos límites mas o menos razonables en 5 años nos montamos con GPUs tope de gama domésticas que consumen 1500W, no?

Creo que en parte todos esos mensajes que dices lo que buscan es que la mejor tarjeta que presente AMD tenga una mayor eficiencia que la 4090. No creo que nadie con 2 dedos de frente espere de AMD una gráfica con más potencia que la 4090 y que consuma menos, pero quizás sí que podría ser una que tenga (me lo invento) un 15% menos de potencia pero consuma un 30% menos.

Luego, el tema de los precios de la electricidad (y con la crisis en parte por la guerra) también hay que tenerlo en cuenta. Aunque ya sé que parece raro decirle a alguien que se va a gastar 1000-2000€ en una gráfica que vaya con cuidado con el consumo eléctrico (no le vendrá de ahí digo yo), pero quizás puede ser también por esa sensación de que parezca que cuando la 4090 va al tope pienses que estás pagando las horas de juego como una máquina recreativa a 1€ por hora XD

El deseo de muchos es que saquen una 7900 tan potente como la 4090 ,consumiendo un 15-20% menos y costando 400-500€ menos.

Eso significaría que AMD va a por Nvidia y que una 7800XT sería la repolla con cebolla.

Pero como siempre digo,esto NO va a pasar.

Sigo diciendo y pensando que las que saque AMD serán similares a las de Nvidia en potencia consumiendo algo menos y costando un pelo menos.
Siempre hacen eso y por ahí.andará el tema.

Esperando estoy de ver si me dan motivos para cambiarme a una 7800XT.
Nomada_Firefox escribió: Si las graficas consumen más, se calentaran más, es regla de 3, a más calentura, más problemas.


Si a estas alturas de la peli cuentas lo que ya se sabe pues..[+risas] [+risas]

El resto de tu respuesta no lo tengo en cuenta por que me parece mas un desahogo/deseo que una realidad,o eso me a parecido [carcajad]

Sin animo de ofender compañero [beer] [beer]
El problema es el que comenta hh1, Amd no quiere competir en precios con Nvidia y al final saca productos parecidos a precios parecidos.

A ver si nos equivocamos y nos dan una alegria.
PepeC12 escribió:El problema es el que comenta hh1, Amd no quiere competir en precios con Nvidia y al final saca productos parecidos a precios parecidos.

A ver si nos equivocamos y nos dan una alegria.

Porque nunca le ha funcionado esa estrategia. Nvidia tiene un gran número de usuarios acérrimos que no comprarían otra cosa, ni aunque costasen la mitad. Al final que AMD baje precios sólo sirve para que esos acérrimos compren la tarjeta que siempre han querido pero más barata, al verse obligada Nvidia a bajar precios por la competencia. AMD es una empresa al fin y al cabo y busca su propio beneficio por encima de todo, por lo que si va a vender lo mismo por 600€ que por 900€ por decir algo, lo lógico es que elijan la segunda opción, en lugar de ponerlas más baratas, que Nvidia haga lo mismo, y al final el pastel se reparta igual que siempre.

Si la gente fuera más abierta de miras, igual se podrían plantear un escenario de precios agresivos en busca de una mayor cuota de usuarios y crear una fidelidad de marca, pero eso Nvidia lo tiene muy consolidado desde hace tiempo y es muy difícil arrebatárselo, por mucho que hagan burradas como la 4090 enormes y tragonas por 2000€ con conectores que se churrascan, la gente que no ve más allá le seguirá siendo fiel a Nvidia (y son una legión), ponga AMD precios agresivos o no.

Quién sabe, igual nos sorprenden, pero tiene pinta de que las 7900 van a ser bastante caras.
Viendo los benchmarks y pruebas AMD está muy por detrás en edición de video y demás cosas que mucha gente usa, tendrian que ser más baratas por narices aunque en juegos en potencia bruta aguanten excepto con RT. Estas nuevas tendrían que ir por el mismo camino...
gojesusga escribió:Viendo los benchmarks y pruebas AMD está muy por detrás en edición de video y demás cosas que mucha gente usa, tendrian que ser más baratas por narices aunque en juegos en potencia bruta aguanten excepto con RT. Estas nuevas tendrían que ir por el mismo camino...

Yo paso el dia editando videos y no me parece que haya ido para atras en ese aspecto. :)
PepeC12 escribió:El problema es el que comenta hh1, Amd no quiere competir en precios con Nvidia y al final saca productos parecidos a precios parecidos.

A ver si nos equivocamos y nos dan una alegria.

Ojalá....
Esa 7800xt como una 408016g a 1000€ pelados...
Pa casita se vendría.

Y que ya veamos 1000€ como algo bien de precio es para echarse a temblar.
Yo lo miro porque le resto la venta de la mía.Si no...
@hh1 si las 6800 XT ya están por 1000€ los modelos más baratos, e incluso más caras, dudo muchísimo que las nuevas 7800 XT cuesten 1000€ nada más, al menos aquí en España que hay que aplicar el IVA también, los MSRP que dan de las gráficas en EE.UU. son sin impuestos, pero ojalá esté equivocado y cuesten menos por nuestro bien, el de los usuarios.

Saludos.
javier español escribió:@hh1 si las 6800 XT ya están por 1000€ los modelos más baratos, e incluso más caras, dudo muchísimo que las nuevas 7800 XT cuesten 1000€ nada más, al menos aquí en España que hay que aplicar el IVA también, los MSRP que dan de las gráficas en EE.UU. son sin impuestos, pero ojalá esté equivocado y cuesten menos por nuestro bien, el de los usuarios.

Saludos.

Yo ya veo 6800XT a 750€.
Para cuando salga la 7800XT pueden estar por 700€ pelaos.

Que cierto es ,que solo 300€ más es poco para una 7800XT,lo cual corrobora lo que siempre digo: que van a estar por 1300-1400€ mínimo y que AMD va a sacar precios similares a Nvidia.
5143 respuestas