AMD RDNA3 "RX 7000" GPU.

Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).

Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses XD
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.
LorK escribió:Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).

Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses XD
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.



Tienes toda la razón, pero es que encima se celebra que las cosas se vuelvan mucho más complejas de programar que antes y costando mucho más. Siempre se ha sabido que lo que frena al hardware es el software, y todavía se celebra que el hardware dependa mucho más del software. [facepalm]
LorK escribió:Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).

Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses XD
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.

Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.
Totalmente de acuerdo con los comentarios sobre lo de normalizar ciertos precios, aquí ya hablamos de 1000 pavos como el que habla de 100, seamos sinceros si esto sigue así el mundo del PC gaming se va a la mierda y más cuando las consolas se venden por 500 o 600 euros, te garantizan al menos 6 o 7 años de vida sin trastear nada y gráficamente para el usuario medio que normalmente pasa de jerga técnica y contrar píxeles o FPS lo ven de escándalo, es un poco triste lo que está pasando y lo peor es que nosotros entramos al trapo en mayor o menor medida.

Yendo al tema de las nuevas gráficas AMD muy mal rendimiento deben tener para que salga a cuenta gastarse 2000 euros en una 4090 la verdad, son precios de locos pero más sensatos dentro del mercado actual, luego al final las pruebas ponen a cada uno en su sitio eso es una realidad pero si no eres de me da igual lo que cueste por qué quiero lo mejor está 7900 XTX puede ser una magnífica opción relación calidad vs euro pagado, insisto dudo mucho que haya una diferencia de rendimiento tan grande como para justificar el doble de precio, de todas formas el mayor golpe es a las 4080 sin lugar a dudas serán como 400 euros más y creo que en este caso el rendimiento de AMD será superior.
Pacorrr escribió:Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.


Todo eso tiene mucho que ver con el coste que tengas de fabricación. Porque aunque es cierto que la 2080Ti fue un golpe muy fuerte a nivel de precios, eso se solucionó con la generación siguiente con una 3080 a 719€ de salida en las founders y que daba sopa con hondas a la 2080Ti.
Pacorrr escribió:
LorK escribió:Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).

Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses XD
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.

Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.

Hay que tener en cuenta que todo ha subido se precio. Es normal que suban las GPUs. Mira los coches o la comida por ejemplo.
KailKatarn escribió:
Pacorrr escribió:Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.


Todo eso tiene mucho que ver con el coste que tengas de fabricación. Porque aunque es cierto que la 2080Ti fue un golpe muy fuerte a nivel de precios, eso se solucionó con la generación siguiente con una 3080 a 719€ de salida en las founders y que daba sopa con hondas a la 2080Ti.

Si bueno, pero te cobraba la 3090 a 1500$. Y esta gen la 4080 por 1200$...
Pacorrr escribió:Si bueno, pero te cobraba la 3090 a 1500$. Y esta gen la 4080 por 1200$...


Los 4nm en TSMC son ultracaros Pacorr, a eso hay que sumarle que un diseño monolítico en un proceso tan avanzado te obliga a tener que tirar muchos chips por oblea a la basura, y más al ser chips tan grandes.
Nomada_Firefox escribió:
Lyserg escribió:Que una compañía saque un producto superior a la generación anterior y con un precio igual o algo superior, es lo normal.

No, eso no es normal. Es que os habeis mal acostumbrado.


Entonces, que es lo normal? sacar algo nuevo al doble de precio? Seria ridículo.

Esto al fin y al cabo es oferta y demanda, se paga el i+d y el marketing a precio de oro, pues los componentes en si no valen nada (hace unos días se aproximó el precio de un 7950x a 60 y pico $)

Quieres lo mejor? pagas o esperas a que la demanda baje, tranquilo que las empresas tienen margen para bajar y si les toca 1 o 2 temporadas ganar menos $ por unidad, lo harán.

Ahora bien, lo de que Amd se marque un Nvidia con la xtx y la xt, todo por no sacar una 7800xt y una 7900xt y inflarles el precio, dando hueco a una supuesta 7950xt, en fin.

Todos aplaudiendo a Amd por ser simplemente mas baratas que Nvidia, siguiendo infladas como poco.

Espero equivocarme pero tanto amd como nvidia van a vender poco o muy poco y en steam seguiremos con el estandar de la serie 1000 como gpus más utilizadas durante los 2 proximos años

Esta gen a mi al menos no me van a pillar, seguiré desde la barrera con mis 1070 & 5700xt jaja
KailKatarn escribió:
Pacorrr escribió:Si bueno, pero te cobraba la 3090 a 1500$. Y esta gen la 4080 por 1200$...


Los 4nm en TSMC son ultracaros Pacorr, a eso hay que sumarle que un diseño monolítico en un proceso tan avanzado te obliga a tener que tirar muchos chips por oblea a la basura, y más al ser chips tan grandes.

No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.
JODER, repito, añadiendo el ajuste de la inflación de estos 2 años:

6900XT -> $999 USD Oct 2020 -> $1141 USD Nov 2022
7900XT -> $899 USD Nov 2022

25% de bajada de precio !!!
Saludos, con la presentación de AMD, me han quedado las cosas más claras, estamos en un momento de cambio, parecido al que se vivió con la llegada de los monitores 4k 60 y se decía no te compres una 1080ti para jugar a 1080p, es desperdiciarla, en efecto en ese momento yo hice el cambio de monitor y tv de full hd a 4k 60, ya que lo que yo valoro es la nitidez y definición de la imagen, y la 1080ti cumplió a la perfección, cundo salieron las rtx 3000 y las rx 6000, me decante por la 6800 xt, para darle un plus de solvencia al 4k 60 y en este punto estoy y en este punto me quedo, pues las nuevas gráficas, ya me ha quedado claro, de nada sirven si no das el paso a comprar un monitor o tv 4k 120.
Me siento más cercano al camino que ha tomado AMD, dando importancia al consumo, aumentando potencia sin obligar a nadie a cambiar de fuente, incorporando DP 2.1 y dejando claro en el evento que las nuevas graficas son para jugar en monitores 4k 120 como mínimo.

AMD FSR 3.0, sera compatible con la serie 6000?
Pacorrr escribió:No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.


Cierto, son 5nm me equivoqué al escribir. No obstante eso no cambia el diseño monstruoso a nivel de tamaño que tiene una 4090 donde las posibilidades de un fallo en el mismo hace mucho más cara la fabricación y la posibilidad de tener que tirar el chip completo a la basura. Porque depende de donde se produzca el fallo no lo puedes aprovechar para venderlo como una gama inferior.

AMD va a poder aprovechar mucho más las obleas, además las posibilidades de fallos disminuyen, pero a la vez se complican mucho a nivel de software. ¿Es más inteligente? pues a nivel de costes sin lugar a dudas, pero cuando eso te obliga a depender mucho más del software que un diseño monolítico no sé hasta que punto será así.

No obstante saldremos de dudas cuando se puedan ver las reviews en sitios serios.
Hago porra de los nuevos precios de amd xD

Nuevo Die con 6 chiplets, sacando 2 variantes por chiplet, xt y xtx o 7x50xt, donde la diferencia final de la gpu por chiplet/serie será de 100$:

7400xt -------------- 149$ ----- 249€
7400xtx/7450xt --- 199$ ----- 299€
7500xt -------------- 249$ ----- 349€
7500xtx/7550xt --- 299$ ----- 399€
7600xt -------------- 349$ ----- 549€
7600xtx/7650xt --- 399$ ----- 599€
7700xt -------------- 549$ ----- 749€
7700xtx/7750xt --- 599$ ----- 799€
7800xt -------------- 749$ ----- 949€
7800xtx/7850xt --- 799$ ----- 999€
7900xt -------------- 899$ ----- 1299€
7900xtx ------------- 990$ ---- 1399€
7950xtx ------------- 1199$ ----1599€
Imagen

La de referencia no llega ni a 30 cm de largo

Por cierto, no se si se ha dicho o no, la TUF que se presentó ayer es 3x8
KailKatarn escribió:
Pacorrr escribió:No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.


Cierto, son 5nm me equivoqué al escribir. No obstante eso no cambia el diseño monstruoso a nivel de tamaño que tiene una 4090 donde las posibilidades de un fallo en el mismo hace mucho más cara la fabricación y la posibilidad de tener que tirar el chip completo a la basura. Porque depende de donde se produzca el fallo no lo puedes aprovechar para venderlo como una gama inferior.

AMD va a poder aprovechar mucho más las obleas, además las posibilidades de fallos disminuyen, pero a la vez se complican mucho a nivel de software. ¿Es más inteligente? pues a nivel de costes sin lugar a dudas, pero cuando eso te obliga a depender mucho más del software que un diseño monolítico no sé hasta que punto será así.

No obstante saldremos de dudas cuando se puedan ver las reviews en sitios serios.

Cada una juega sus cartas, AMD ha decidido bajar el coste de producción dividiendo el chip en chiplets, para que sean más pequeños y aprovechar mejor las obleas, además de utilizar un proceso más barato para los chiplets de memorias. El caso es que ha presentado dos productos que deberían estar por encima de la 4080 sin problemas, siendo ésta última más cara.

Ambas marcas han puesto precios altos, pero lo de Nvidia es ya directamente una tomadura de pelo, en mi opinión al menos.
654321 escribió:JODER, repito, añadiendo el ajuste de la inflación de estos 2 años:

6900XT -> $999 USD Oct 2020 -> $1141 USD Nov 2022
7900XT -> $899 USD Nov 2022

25% de bajada de precio !!!



A ver, si, pero tiene truco, en su día la 6900XT era la tope de gama.
La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.
Pacorrr escribió:Cada una juega sus cartas, AMD ha decidido bajar el coste de producción dividiendo el chip en chiplets, para que sean más pequeños y aprovechar mejor las obleas, además de utilizar un proceso más barato para los chiplets de memorias. El caso es que ha presentado dos productos que deberían estar por encima de la 4080 sin problemas, siendo ésta última más cara.

Ambas marcas han puesto precios altos, pero lo de Nvidia es ya directamente una tomadura de pelo, en mi opinión al menos.


Entiendo lo que me dices pero yo no lo veo como tú. Yo prefiero un chip monolítico absolutamente, tanto en CPU como GPU, porque además tú sabes bien lo que está pasando con los Ryzens conformados por 2 CCDs porque te leo hablarlo con Fantasma abundantemente.

Cuando tienes un chip monolítico y bien grande te la estás jugando y mucho a nivel de fabricación, y más si lo haces en un nodo caro. Que aun así Nvidia está aprovechando para hacer el agosto? pues claro, no dejan de ser empresas. No obstante, como he dicho antes, de nada me sirve que me vendas un poco más barato si a la vez me lo complicas mucho a nivel de software.

Lo de las gráficas se está yendo de madre, pero está perjudicando seriamente a la gente que se ha flipado y mucho con el monitor, las cosas como son. La gente que se está defendiendo a 1080p está viendo todo esto desde la barrera y hasta con precios bastante competitivos en algunos modelos con rendimientos mucho mejores que antes, menores consumos y en chips monolíticos en ambas marcas.
DaNi_0389 escribió:La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.

Sí, ambas con el chip tope.

Pero vamos, que es mejor este truco que el de la RTX 4080 12GB, no ? [qmparto]

La cosas es que si haces la comparación con XTX, tambien es un 14% mas barata si ajustas la inflación.
654321 escribió:
DaNi_0389 escribió:La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.

Sí, ambas con el chip tope.

Pero vamos, que es mejor este truco que el de la RTX 4080 12GB, no ? [qmparto]

La cosas es que si haces la comparación con XTX, tambien es un 14% mas barata si ajustas la inflación.


Si tienen el mismo chip o no, no se sabe xd, pero vamos que si llevan lo mismo y acaban capando a la xt....
KailKatarn escribió:
Pacorrr escribió:Cada una juega sus cartas, AMD ha decidido bajar el coste de producción dividiendo el chip en chiplets, para que sean más pequeños y aprovechar mejor las obleas, además de utilizar un proceso más barato para los chiplets de memorias. El caso es que ha presentado dos productos que deberían estar por encima de la 4080 sin problemas, siendo ésta última más cara.

Ambas marcas han puesto precios altos, pero lo de Nvidia es ya directamente una tomadura de pelo, en mi opinión al menos.


Entiendo lo que me dices pero yo no lo veo como tú. Yo prefiero un chip monolítico absolutamente, tanto en CPU como GPU, porque además tú sabes bien lo que está pasando con los Ryzens conformados por 2 CCDs porque te leo hablarlo con Fantasma abundantemente.

Cuando tienes un chip monolítico y bien grande te la estás jugando y mucho a nivel de fabricación, y más si lo haces en un nodo caro. Que aun así Nvidia está aprovechando para hacer el agosto? pues claro, no dejan de ser empresas. No obstante, como he dicho antes, de nada me sirve que me vendas un poco más barato si a la vez me lo complicas mucho a nivel de software.

Lo de las gráficas se está yendo de madre, pero está perjudicando seriamente a la gente que se ha flipado y mucho con el monitor, las cosas como son. La gente que se está defendiendo a 1080p está viendo todo esto desde la barrera y hasta con precios bastante competitivos en algunos modelos con rendimientos mucho mejores que antes, menores consumos y en chips monolíticos en ambas marcas.

No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.
654321 escribió:
DaNi_0389 escribió:La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.

Sí, ambas con el chip tope.

Pero vamos, que es mejor este truco que el de la RTX 4080 12GB, no ? [qmparto]

La cosas es que si haces la comparación con XTX, tambien es un 14% mas barata si ajustas la inflación.



Lo de la 4080 fake no tiene nombre, era una mierda infame al precio que le pusieron.
Pacorrr escribió:No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.


No estoy para nada de acuerdo y mucho me temo que hasta AMD se ha pronunciado sobre ello cuando le echaban la culpa a Windows 11. Eso es algo que se está repitiendo hasta con los Ryzen 7000:

Imagen

AMD está diciendo que son los juegos, lo cual viene a decir que se vuelve a repetir que depende mucho más del software a la hora de utilizar CCDs correctamente. Es que además es de cajón, y es algo que ha sido así toda la vida. No hay razón para que un Ryzen 7700X y 7600X rindan más en 1080p en gaming que el 7900X y 7950X si no es por el uso de varios CCDs y el mal reparto de la carga.

Y eso te pasa utilizando GPUs Nvidia, nada de sólo con AMD y problemas con los drivers de los mismos.
Yo lo que no entiendo es a guerra entre nosotros, creo que nos beneficia a todos independientemente de lo que tengamos o vayamos a tener, que las compañías se aprieten entre ellas. Ojalá NVIDIA saque una 4080 16gb que sea un pepinazo y si deciden un extremis bajarle el precio motivados por este movimiento de AMD sería una victoria para todos.

Yo estoy pendiente de cambiar gráfica y nada me gustaría más que tener que vender mi 2080ti por 200 euros porque el mercado esté inundado de opciones potentes y baratas. Ojalá mi gráfica en un mes. Valga 100 pavos, sería la mejor noticia.
KailKatarn escribió:
Pacorrr escribió:No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.


Cierto, son 5nm me equivoqué al escribir. No obstante eso no cambia el diseño monstruoso a nivel de tamaño que tiene una 4090 donde las posibilidades de un fallo en el mismo hace mucho más cara la fabricación y la posibilidad de tener que tirar el chip completo a la basura. Porque depende de donde se produzca el fallo no lo puedes aprovechar para venderlo como una gama inferior.

AMD va a poder aprovechar mucho más las obleas, además las posibilidades de fallos disminuyen, pero a la vez se complican mucho a nivel de software. ¿Es más inteligente? pues a nivel de costes sin lugar a dudas, pero cuando eso te obliga a depender mucho más del software que un diseño monolítico no sé hasta que punto será así.

No obstante saldremos de dudas cuando se puedan ver las reviews en sitios serios.

Desde la ignorancia. En la subida de precio de la 3080 también encaja ese argumento?
Porque a los más terrenales, con lo que flipabamos era con esta, que trastoca la segmentación a la que estábamos acostumbrados, temiendo 4060 y 4070 con subida de precio y poco rendimiento extra respecto a sus predecesoras.
KailKatarn escribió:
Pacorrr escribió:No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.


No estoy para nada de acuerdo y mucho me temo que hasta AMD se ha pronunciado sobre ello cuando le echaban la culpa a Windows 11. Eso es algo que se está repitiendo hasta con los Ryzen 7000:

Imagen

AMD está diciendo que son los juegos, lo cual viene a decir que se vuelve a repetir que depende mucho más del software a la hora de utilizar CCDs correctamente. Es que además es de cajón, y es algo que ha sido así toda la vida. No hay razón para que un Ryzen 7700X y 7600X rindan más en 1080p en gaming que el 7900 y 7950X si no es por el uso de varios CCDs y el mal reparto de la carga.

Y eso te pasa utilizando GPUs Nvidia, nada de sólo con AMD y problemas con los drivers de los mismos.

Bueno, igual hablamos de cosas difrerentes, porque te repito que el usuario del que me hablabas, confirma que con drivers previos a los de las optimizaciones DX11 no le pasaba eso, funcionaba como debía, la carga al CCD1, es algo que han introducido a partir de entonces, los cambios que hayan hecho hacen que el scheduler se haga un lío o algo. Lo que tú comentas de los Zen 4 igual es otra cosa, ni idea. Y el caso de estas RDNA 3 no es igual, no se ha dividido el chip gráfico en dos como en los Ryzen, los chiplets son controladores de memoria y cache.

Y respecto a lo de los monitores, hombre, si te puedes comprar un 4K 160Hz por 450€, ya me dirás quién no va a caer en la tentación. Yo no al menos, y en la mayoría de juegos llego al menos a los 60 fps sin necesidad de reescalados, en otros más exigentes, pues sí, y necesito más potencia, por eso ando mirando estas [+risas]
KailKatarn escribió:
Pacorrr escribió:No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.


No estoy para nada de acuerdo y mucho me temo que hasta AMD se ha pronunciado sobre ello cuando le echaban la culpa a Windows 11. Eso es algo que se está repitiendo hasta con los Ryzen 7000:

Imagen

AMD está diciendo que son los juegos, lo cual viene a decir que se vuelve a repetir que depende mucho más del software a la hora de utilizar CCDs correctamente. Es que además es de cajón, y es algo que ha sido así toda la vida. No hay razón para que un Ryzen 7700X y 7600X rindan más en 1080p en gaming que el 7900X y 7950X si no es por el uso de varios CCDs y el mal reparto de la carga.

Y eso te pasa utilizando GPUs Nvidia, nada de sólo con AMD y problemas con los drivers de los mismos.

Hablas como si fuese algo habitual pero eso pasa en uno de cada 20 o 30 juegos, por lo que sí, es un problema de esos juegos en concreto.
Mendrolo escribió:Desde la ignorancia. En la subida de precio de la 3080 también encaja ese argumento?
Porque a los más terrenales, con lo que flipabamos era con esta, que trastoca la segmentación a la que estábamos acostumbrados, temiendo 4060 y 4070 con subida de precio y poco rendimiento extra respecto a sus predecesoras.


Todo lo que ha ocurrido después ha sido especulación pura y dura por parte de todos. No obstante hubo gente que pudo adquirir una Founders a MSRP de salida durante este tiempo. Pocos, sí, pero hay quien pudo. Ahora bien, no seré yo quien no defienda que estás en tu derecho de hacer el mayor dinero posible con tu producto, por mucho que duela a todos, porque yo hubiese hecho exactamente lo mismo.
RX 7900 XTX vs RTX 4090 Así podría llegar a rendir la RX 7900 XTX según los datos proporcionados por AMD[SIZE="7"][/SIZE]

[SIZE="6"]Primeras estimaciones de rendimiento de la RX 7900 XTX
[/SIZE]

AMD presentó el jueves las tarjetas gráficas Radeon RX 7900 XTX y RX 7900 XT RDNA3. Con ellas, la compañía afirma haber repetido su hazaña de aumentar el rendimiento en más de un 50% por vatio con respecto a la generación anterior.

Las afirmaciones de AMD sobre el rendimiento de la Radeon RX 7900 XTX sitúan a la tarjeta entre un 50% y un 70% más potente que el actual buque insignia de la compañía, la RX 6950 XT, cuando se prueba a resolución 4K UHD. Tras analizar estas afirmaciones y reunir la información pertinente de las notas finales, se ha podido establecer una comparación de rendimiento extrapolado entre la RX 7900 XTX, la RTX 4090 probada en el mundo real y los buques insignia de la generación anterior, la RTX 3090 Ti y la RX 6950 XT.

Los gráficos sitúan a la Radeon RX 7900 XTX muy cerca de la GeForce RTX 4090. En Watch_Dogs Legion, la RTX 4090 es un 6,4% más rápida que la RX 7900 XTX.

[SIZE="6"]RX 7900 XTX vs RTX 4090
[/SIZE]

Imagen

En Cyberpunk 2077 y Metro Exodus las dos tarjetas están igualadas, con una diferencia inferior al 1%.

Imagen

Imagen

La RTX 4090 es un 4,4% más rápida con Call of Duty: Modern Warfare II (2022).

Imagen

Teniendo en cuenta que hay que coger esto con pinzas, la RX 7900 acabaría estando entre el 5 y el 10% de la RTX 4090, pero el precio lo cambia todo. La RTX 4090 cuesta 1.959 euros (PVP), mientras que la RX 7900 XTX cuesta 999 dólares.

Suponiendo que la próxima RTX 4080 (16 GB) sea alrededor de un 10% más lenta que la RTX 4090, el principal enfrentamiento de esta generación será entre la RTX 4080 y la RX 7900. Incluso aquí, AMD se adelanta con el precio, ya que la RTX 4080 se anunció con un PVP de 1.469 euros. Con el anuncio del FSR 3.0 Fluid Motion, AMD también ha reducido la ventaja de rendimiento de NVIDIA en el aumento de fotogramas DLSS 3.

[url="https://elrefugio101.com/2022/11/04/rx-7900-xtx-vs-rtx-4090-asi-podria-llegar-a-rendir-la-rx-7900-xtx-segun-los-datos-proporcionados-por-amd/"]Fuente[/url]
Para comparar precios hay que comparar la inflación también.
Estamos hablando de que las 7900 son gráficas para muy entusiastas, son un capricho y tienen un precio elevado porque instalarlas en un PC es un lujo innecesario, es como tener un coche caro, lo tienes porque mola no porque haga falta, y aún así son precios mucho más realistas que los de Nvidia.
Luego hay que ver qué hacen con la 7800 para abajo, que es donde la mayoría pondrá la mirada.
Pacorrr escribió:Bueno, igual hablamos de cosas difrerentes, porque te repito que el usuario del que me hablabas, confirma que con drivers previos a los de las optimizaciones DX11 no le pasaba eso, funcionaba como debía, la carga al CCD1, es algo que han introducido a partir de entonces, los cambios que hayan hecho hacen que el scheduler se haga un lío o algo. Lo que tú comentas de los Zen 4 igual es otra cosa, ni idea. Y el caso de estas RDNA 3 no es igual, no se ha dividido el chip gráfico en dos como en los Ryzen, los chiplets son controladores de memoria y cache.


Hasta ver las reviews y que gente seria las pruebe de primera mano es evidente que adelantar cosas siempre es aventurado. No obstante, lo que no es aventurar para nada, es que siempre será mucho más sencillo de aprovechar y programar para un diseño monolítico, sin descontar que también son mucho más caros de producir. Y ojo, ojalá este movimiento a AMD le salga DPM porque la competencia nos beneficia a todos.

Yo sólo te puedo decir que tuve que deshacerme de los 2x 5950X que tenía por esto, porque ya me cansé de perder framerate porque los juegos no los estaban aprovechando bien. Y si saltara a un Ryzen 7000 tengo claro que lo haré a un modelo con un sólo CCD siempre y cuando el uso vaya a ser para juegos.
KailKatarn escribió:Yo, a pesar de tener 2x 6950XT con las que estoy ultra contento, no me voy a venir arriba con las 7000 como estoy leyendo en el hilo. Esto no es por el precio, aunque me las espero bastante caras en España, sino por el tema chiplets. Hoy por hoy todavía tenemos problemas con software en los Ryzen 5000 que están conformados por 2 chiplets, o lo que es lo mismo, arrastramos problemas a nivel de software 4 generaciones después, así que no sé que tal se van a llevar los juegos y los drivers con una GPU formada por 6.

Sinceramente, hasta ver reviews o poderlas probar por mi mismo, me voy a mantener al margen porque me espero lo peor a nivel de software y el nivel de soporte por parte de los juegos, preocupándome aún más los títulos ya existentes que nunca van a adaptar su motor a ese tipo de tecnología.

Espero que AMD haya tenido todo eso en cuenta, pero si todavía arrastramos problemas con los Ryzen a nivel de software no veo el motivo por el que no pase con estas gráficas. Siento ser el agorero del hilo, pero me hubiese gustado mucho más un diseño monolítico.

Yo igual, incluso esta gen skip directamente.
Hasta que no pulan el tema de los chiplets yo no tengo ganas de hacer de tester. Otra cosa sería si necesito una gráfica. Pero estoy bien como estoy y puedo permitirme esperar a la 8900XTX / RTX5090
KailKatarn escribió:
Pacorrr escribió:Bueno, igual hablamos de cosas difrerentes, porque te repito que el usuario del que me hablabas, confirma que con drivers previos a los de las optimizaciones DX11 no le pasaba eso, funcionaba como debía, la carga al CCD1, es algo que han introducido a partir de entonces, los cambios que hayan hecho hacen que el scheduler se haga un lío o algo. Lo que tú comentas de los Zen 4 igual es otra cosa, ni idea. Y el caso de estas RDNA 3 no es igual, no se ha dividido el chip gráfico en dos como en los Ryzen, los chiplets son controladores de memoria y cache.


Hasta ver las reviews y que gente seria las pruebe de primera mano es evidente que adelantar cosas siempre es aventurado. No obstante, lo que no es aventurar para nada, es que siempre será mucho más sencillo de aprovechar y programar para un diseño monolítico, sin descontar que también son mucho más caros de producir. Y ojo, ojalá este movimiento a AMD le salga DPM porque la competencia nos beneficia a todos.

Yo sólo te puedo decir que tuve que deshacerme de los 2x 5950X que tenía por esto, porque ya me cansé de perder framerate porque los juegos no los estaban aprovechando bien. Y si saltara a un Ryzen 7000 tengo claro que lo haré a un modelo con un sólo CCD siempre y cuando el uso vaya a ser para juegos.



Pero la 5950x, ¿no era monolitica? Vamos, creia que las primeras gpu con chiplets eran estas 7000.

Sea como fuere, imagino que la programación del soft es exactamente la misma, tanto en cpu como en gpu, independientemente de que sean chips monoliticos o por chiplets. Es en los propios drivers de la gpu, cpu y chipset donde se haria el "enrutamiento", aunque quizas este equivocado.
654321 escribió:
FranciscoVG escribió:ahora mismo claro solo esta el precio

El precio y el consumo ? Respecto a potencia, que esperais alguno, que este al nivel de la 6950XT [qmparto]

Y por muy kk que sea la 7800XT, tiene pinta que mejor que la 4080 de $1199 !!!!!!!


Guau que gracioso...., eres la prueba de cual es el problema aqui y de lo extremistas que podeis llegar a ser y todo dado por un simple numero, el precio no me gusta automaticamente todo es mierda, el dlls3 es una basura y lo que enseñen no vale para nada esperemos a pruebas reales, si pasa lo contrario y ese numero gusta automaticamente todo es increible el fsr es gloria bendita y el rendimiento que mostraron es perfectamente válido, un poquito de criterio chavales

Tanto os puede la euforia que la 7900xt que podria ser perfectamente una 7800xt renombrada teniendo en cuenta la pasada generacion y que va a costar facil un 65% mas que esta y estais haciendo palmas con las orejas...

Y por cierto actualmente tengo una gpu de amd y seguramente le he dado mas palos que tu a la 4080 asi que no me vengas con milongas
LinusTT ha recopilado toda la info posible acerca de los bench mostrados por AMD EN RASTER y los han comparado montando sistemas prácticamente idénticos:
Imagen
Imagen
Imagen
Wookiee escribió:Pero la 5950x, ¿no era monolitica? Vamos, creia que las primeras gpu con chiplets eran estas 7000.

Sea como fuere, imagino que la programación del soft es exactamente la misma, tanto en cpu como en gpu, independientemente de que sean chips monoliticos o por chiplets. Es en los propios drivers de la gpu, cpu y chipset donde se haria el "enrutamiento", aunque quizas este equivocado.


El 5950X es una CPU, concretamente el Ryzen 9 5950X de 16 cores y 32 hilos, y no, no depende sólo de drivers pues tiene que ser el software quien sepa aprovecharlos debidamente además de que el SO cuente con un Scheudle correcto para los mismos. De ahí que se pueda ver en la imagen que los Ryzen 7000 les pasa lo mismo con GPUs AMD o Nvidia y hasta la propia AMD se haya pronunciado dejando claro que ellos poco pueden hacer si los desarrolladores no adaptan bien sus motores gráficos.
Con los precios que han puesto de las gamas "Entusiastas"...que precio creéis que puede tener una futura 7600/XT? (300-350€?)
Lo que no parecen haber dicho es si el fsr3 es exclusivo de rdna3 o no...
garbaje_de_potanzos escribió:LinusTT ha recopilado toda la info posible acerca de los bench mostrados por AMD EN RASTER y los han comparado montando sistemas prácticamente idénticos:
Imagen
Imagen
Imagen


Los calculos aproximados que han estado haciendo en beyond3d sobre el raytracing:

Some preliminary numbers comparing 4090 vs 7900XTX based on published AMD numbers.

Cyberpunk 2077, native 4K:

4090: 40fps
3090Ti: 23fps
6900XT LC: 11fps
7900XTX: 17fps (50% faster than 6900XT LC)

The 4090 is 2.3X faster than 7900XTX, the 3090Ti is 35% faster.

Metro Exodus EE, native 4K:

4090: 87fps
3090Ti: 48fps
6900XT LC: 25fps
7900XTX: 37.5fps (50% faster than 6900XT LC)

The 4090 is 2.3X faster than 7900XTX, the 3090Ti is 28% faster.

Dying Light 2 native 4K:

4090: 44fps
3090Ti: 24fps
6900XT LC: 11fps
7900XTX: 20fps (56% faster than 6900XT LC)

The 4090 is 2.2X faster than 7900XTX, the 3090Ti is 20% faster

Hitman 3 native 4K:

4090: 43fps
3090Ti: 23fps
6900XT LC: 16fps
7900XTX: 26fps (85% faster than 6900XT LC)

The 4090 is 65% faster than 7900XTX
PHANTASIA escribió:Con los precios que han puesto de las gamas "Entusiastas"...que precio creéis que puede tener una futura 7600/XT? (300-350€?)

Pues facilmente sí, con Navi 33 ... con la de gente que hay deseando cambiar la 1060, se hincharian a vender si consiguen fabricar cantidades industriales.
Las custom van a rendir un cacho más, claro, consumiendo otro cacho más [+risas]

KailKatarn escribió:
Wookiee escribió:Pero la 5950x, ¿no era monolitica? Vamos, creia que las primeras gpu con chiplets eran estas 7000.

Sea como fuere, imagino que la programación del soft es exactamente la misma, tanto en cpu como en gpu, independientemente de que sean chips monoliticos o por chiplets. Es en los propios drivers de la gpu, cpu y chipset donde se haria el "enrutamiento", aunque quizas este equivocado.


El 5950X es una CPU, concretamente el Ryzen 9 5950X de 16 cores y 32 hilos, y no, no depende sólo de drivers pues tiene que ser el software quien sepa aprovecharlos debidamente además de que el SO cuente con un Scheudle correcto para los mismos. De ahí que se pueda ver en la imagen que los Ryzen 7000 les pasa lo mismo con GPUs AMD o Nvidia y hasta la propia AMD se haya pronunciado dejando claro que ellos poco pueden hacer si los desarrolladores no adaptan bien sus motores gráficos.



Sorry, pensaba que te referias a la serie 5000 de gpu... Mea culpa. Sobre el resto, poco se, unicamente me cuesta imaginar que en el mundo pc haya que programar de forma diferente dependiendo de la marca de cpu. Si es asi... pues valiente cagada.
Wookiee escribió:Sorry, pensaba que te referias a la serie 5000 de gpu... Mea culpa. Sobre el resto, poco se, unicamente me cuesta imaginar que en el mundo pc haya que programar de forma diferente dependiendo de la marca de cpu. Si es asi... pues valiente cagada.


Más que por la marca de CPU es por el diseño de la misma. Por ejemplo Intel tuvo problemas con Alder Lake por el tema de cores Perfomance y Efficient, pero se acabó arreglando de mejor forma de momento que usando AMD. Con AMD te ocurre únicamente si tu micro está formado por varios CCDs, mientras que los que sólo tienen 1 la cosa va de lujo.

Al final cuando acabas fabricando hardware que depende mucho más del software pues ocurren estas cosas y lo que más compensa es emplear hardware que dependa lo menos posible del software, porque siempre vas a depender del buen uso del programador en cuestión, así que cuanto menos dependas de ello mejor.
Pacorrr escribió:Las custom van a rendir un cacho más, claro, consumiendo otro cacho más [+risas]

Es que esas son las que habría que comparar con la 4090 ...
654321 escribió:
PHANTASIA escribió:Con los precios que han puesto de las gamas "Entusiastas"...que precio creéis que puede tener una futura 7600/XT? (300-350€?)

Pues facilmente sí, con Navi 33 ... con la de gente que hay deseando cambiar la 1060, se hincharian a vender si consiguen fabricar cantidades industriales.


Y cuanto tendremos que esperar para esas Gráficas? Finales de 2023?
PHANTASIA escribió:Y cuanto tendremos que esperar para esas Gráficas? Finales de 2023?

Pues sí, la 6600XT tardo 9 meses, la 6600 un año, la 6500XT año y pico ...
@LorK pues esa historieta empezó con las Gtx así que a ver si logramos en unos años se medio consiga normalizar y quedar en esos 1000€ que la otra ya va con idea de los 2000€ [ginyo]
Kavezacomeback escribió:@LorK pues esa historieta empezó con las Gtx así que a ver si logramos en unos años se medio consiga normalizar y quedar en esos 1000€ que la otra ya va con idea de los 2000€ [ginyo]

Ahora lo que hace falta es que el Euro vuelva a estar algo por encima del dolar, y así nos vuelven las conversiones que teniamos hace unos años.
@654321 es que es acojonante digan el precio es malo viendo hacia donde nos quier arrastrar nVidia con sus RTX.

No es ideal, pero marca un cambio de rumbo y el que no lo vea que vaya corriendo a pagar 2800€ por las 4090 custom o los 1800€ por las 4080.
Kavezacomeback escribió:@654321 es que es acojonante digan el precio es malo viendo hacia donde nos quier arrastrar nVidia con sus RTX.

No es ideal, pero marca un cambio de rumbo y el que no lo vea que vaya corriendo a pagar 2800€ por las 4090 custom o los 1800€ por las 4080.

Te dejas el cable extra de 60e y la fuente compatible de 300€ (y otra caja si en la tuya no cabe)
5143 respuestas