LorK escribió:Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).
Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.
LorK escribió:Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).
Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.
Pacorrr escribió:Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.
Pacorrr escribió:LorK escribió:Yo, como ha dicho un compañero más arriba, flipo con que la gente acepte más de 1000€ por una gráfica como algo normal y aceptable (y no, no se trata de que pueda o no pueda comprármela, que poder puedo).
Sinceramente, en unos pocos años creo que los veremos "llorando" porque no venden y el "mundo del pc" se vuelve nicho. Que casi lo prefiero, vivía más tranquilo hace 15-20 años cuando el pc "moría" cada 6 meses
No faltaban juegos y los precios eran más lógicos.
Peeero llegó el RGB-PRO-GAMING-pollagordeo para los niños y ala, todo a la mierda.
Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.
KailKatarn escribió:Pacorrr escribió:Es que ya llevamos tiempo con esta tendencia alcista... empezó Nvidia con la 2080Ti por 1200€, y de ahí ha ido escalando hasta el infinito con los 2000€ por la 4090. Claro, en comparación con eso, pues estas parecen hasta regladas, cuando ni de lejos lo son, son precios muy altos, aunque mucho más asequibles en comparación con la competencia.
Todo eso tiene mucho que ver con el coste que tengas de fabricación. Porque aunque es cierto que la 2080Ti fue un golpe muy fuerte a nivel de precios, eso se solucionó con la generación siguiente con una 3080 a 719€ de salida en las founders y que daba sopa con hondas a la 2080Ti.
Pacorrr escribió:Si bueno, pero te cobraba la 3090 a 1500$. Y esta gen la 4080 por 1200$...
Nomada_Firefox escribió:Lyserg escribió:Que una compañía saque un producto superior a la generación anterior y con un precio igual o algo superior, es lo normal.
No, eso no es normal. Es que os habeis mal acostumbrado.
KailKatarn escribió:Pacorrr escribió:Si bueno, pero te cobraba la 3090 a 1500$. Y esta gen la 4080 por 1200$...
Los 4nm en TSMC son ultracaros Pacorr, a eso hay que sumarle que un diseño monolítico en un proceso tan avanzado te obliga a tener que tirar muchos chips por oblea a la basura, y más al ser chips tan grandes.
Pacorrr escribió:No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.
KailKatarn escribió:Pacorrr escribió:No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.
Cierto, son 5nm me equivoqué al escribir. No obstante eso no cambia el diseño monstruoso a nivel de tamaño que tiene una 4090 donde las posibilidades de un fallo en el mismo hace mucho más cara la fabricación y la posibilidad de tener que tirar el chip completo a la basura. Porque depende de donde se produzca el fallo no lo puedes aprovechar para venderlo como una gama inferior.
AMD va a poder aprovechar mucho más las obleas, además las posibilidades de fallos disminuyen, pero a la vez se complican mucho a nivel de software. ¿Es más inteligente? pues a nivel de costes sin lugar a dudas, pero cuando eso te obliga a depender mucho más del software que un diseño monolítico no sé hasta que punto será así.
No obstante saldremos de dudas cuando se puedan ver las reviews en sitios serios.
654321 escribió:JODER, repito, añadiendo el ajuste de la inflación de estos 2 años:
6900XT -> $999 USD Oct 2020 -> $1141 USD Nov 2022
7900XT -> $899 USD Nov 2022
25% de bajada de precio !!!
Pacorrr escribió:Cada una juega sus cartas, AMD ha decidido bajar el coste de producción dividiendo el chip en chiplets, para que sean más pequeños y aprovechar mejor las obleas, además de utilizar un proceso más barato para los chiplets de memorias. El caso es que ha presentado dos productos que deberían estar por encima de la 4080 sin problemas, siendo ésta última más cara.
Ambas marcas han puesto precios altos, pero lo de Nvidia es ya directamente una tomadura de pelo, en mi opinión al menos.
DaNi_0389 escribió:La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.
654321 escribió:DaNi_0389 escribió:La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.
Sí, ambas con el chip tope.
Pero vamos, que es mejor este truco que el de la RTX 4080 12GB, no ?
La cosas es que si haces la comparación con XTX, tambien es un 14% mas barata si ajustas la inflación.
KailKatarn escribió:Pacorrr escribió:Cada una juega sus cartas, AMD ha decidido bajar el coste de producción dividiendo el chip en chiplets, para que sean más pequeños y aprovechar mejor las obleas, además de utilizar un proceso más barato para los chiplets de memorias. El caso es que ha presentado dos productos que deberían estar por encima de la 4080 sin problemas, siendo ésta última más cara.
Ambas marcas han puesto precios altos, pero lo de Nvidia es ya directamente una tomadura de pelo, en mi opinión al menos.
Entiendo lo que me dices pero yo no lo veo como tú. Yo prefiero un chip monolítico absolutamente, tanto en CPU como GPU, porque además tú sabes bien lo que está pasando con los Ryzens conformados por 2 CCDs porque te leo hablarlo con Fantasma abundantemente.
Cuando tienes un chip monolítico y bien grande te la estás jugando y mucho a nivel de fabricación, y más si lo haces en un nodo caro. Que aun así Nvidia está aprovechando para hacer el agosto? pues claro, no dejan de ser empresas. No obstante, como he dicho antes, de nada me sirve que me vendas un poco más barato si a la vez me lo complicas mucho a nivel de software.
Lo de las gráficas se está yendo de madre, pero está perjudicando seriamente a la gente que se ha flipado y mucho con el monitor, las cosas como son. La gente que se está defendiendo a 1080p está viendo todo esto desde la barrera y hasta con precios bastante competitivos en algunos modelos con rendimientos mucho mejores que antes, menores consumos y en chips monolíticos en ambas marcas.
654321 escribió:DaNi_0389 escribió:La 7900XT hoy es como la 6800XT en su momento, la segunda en rendimiento.
Sí, ambas con el chip tope.
Pero vamos, que es mejor este truco que el de la RTX 4080 12GB, no ?
La cosas es que si haces la comparación con XTX, tambien es un 14% mas barata si ajustas la inflación.
Pacorrr escribió:No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.
KailKatarn escribió:Pacorrr escribió:No son 4nm, son 5nm con optimizaciones, igual de caro que le sale a AMD... las obleas, porque en chips es cierto que los de AMD son mucho más pequeños y pueden vender más por cada oblea.
Cierto, son 5nm me equivoqué al escribir. No obstante eso no cambia el diseño monstruoso a nivel de tamaño que tiene una 4090 donde las posibilidades de un fallo en el mismo hace mucho más cara la fabricación y la posibilidad de tener que tirar el chip completo a la basura. Porque depende de donde se produzca el fallo no lo puedes aprovechar para venderlo como una gama inferior.
AMD va a poder aprovechar mucho más las obleas, además las posibilidades de fallos disminuyen, pero a la vez se complican mucho a nivel de software. ¿Es más inteligente? pues a nivel de costes sin lugar a dudas, pero cuando eso te obliga a depender mucho más del software que un diseño monolítico no sé hasta que punto será así.
No obstante saldremos de dudas cuando se puedan ver las reviews en sitios serios.
KailKatarn escribió:Pacorrr escribió:No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.
No estoy para nada de acuerdo y mucho me temo que hasta AMD se ha pronunciado sobre ello cuando le echaban la culpa a Windows 11. Eso es algo que se está repitiendo hasta con los Ryzen 7000:
AMD está diciendo que son los juegos, lo cual viene a decir que se vuelve a repetir que depende mucho más del software a la hora de utilizar CCDs correctamente. Es que además es de cajón, y es algo que ha sido así toda la vida. No hay razón para que un Ryzen 7700X y 7600X rindan más en 1080p en gaming que el 7900 y 7950X si no es por el uso de varios CCDs y el mal reparto de la carga.
Y eso te pasa utilizando GPUs Nvidia, nada de sólo con AMD y problemas con los drivers de los mismos.
KailKatarn escribió:Pacorrr escribió:No hay problemas con los ccds de los Ryzen... lo que comento con Fantasma es un bug que introdujeron a partir de los drivers con optimizaciones DX11, por el cual, la carga se le va al segundo CCD (más flojo) en lugar de al primero (más fuerte), y que él, al tener una cpu de dos CCDs, lleva reportando a AMD desde entonces. Eso, antes de esos drivers, no sucedía, y ya ves lo que debe costar hacer que la carga vaya al CCD que toca, lo que es un misterio es que se tomen tanto tiempo en solucionarlo (aunque según reporta el usuario, en algunos juegos ya lo han corregido). Y aquí lo que se ha dividido en chiplets no son las unidades de cómputo como en Ryzen, es el controlador de memoria y la cache. Habrá que esperar a ver qué tal salen en las reviews, pero aventurar que vayan a haber problemas de drivers ahora mismo, es muy precipitado, si fuera el chip gráfico el que se hubiera dividido si es mucho más posible lo que dices.
No estoy para nada de acuerdo y mucho me temo que hasta AMD se ha pronunciado sobre ello cuando le echaban la culpa a Windows 11. Eso es algo que se está repitiendo hasta con los Ryzen 7000:
AMD está diciendo que son los juegos, lo cual viene a decir que se vuelve a repetir que depende mucho más del software a la hora de utilizar CCDs correctamente. Es que además es de cajón, y es algo que ha sido así toda la vida. No hay razón para que un Ryzen 7700X y 7600X rindan más en 1080p en gaming que el 7900X y 7950X si no es por el uso de varios CCDs y el mal reparto de la carga.
Y eso te pasa utilizando GPUs Nvidia, nada de sólo con AMD y problemas con los drivers de los mismos.
Mendrolo escribió:Desde la ignorancia. En la subida de precio de la 3080 también encaja ese argumento?
Porque a los más terrenales, con lo que flipabamos era con esta, que trastoca la segmentación a la que estábamos acostumbrados, temiendo 4060 y 4070 con subida de precio y poco rendimiento extra respecto a sus predecesoras.
Pacorrr escribió:Bueno, igual hablamos de cosas difrerentes, porque te repito que el usuario del que me hablabas, confirma que con drivers previos a los de las optimizaciones DX11 no le pasaba eso, funcionaba como debía, la carga al CCD1, es algo que han introducido a partir de entonces, los cambios que hayan hecho hacen que el scheduler se haga un lío o algo. Lo que tú comentas de los Zen 4 igual es otra cosa, ni idea. Y el caso de estas RDNA 3 no es igual, no se ha dividido el chip gráfico en dos como en los Ryzen, los chiplets son controladores de memoria y cache.
KailKatarn escribió:Yo, a pesar de tener 2x 6950XT con las que estoy ultra contento, no me voy a venir arriba con las 7000 como estoy leyendo en el hilo. Esto no es por el precio, aunque me las espero bastante caras en España, sino por el tema chiplets. Hoy por hoy todavía tenemos problemas con software en los Ryzen 5000 que están conformados por 2 chiplets, o lo que es lo mismo, arrastramos problemas a nivel de software 4 generaciones después, así que no sé que tal se van a llevar los juegos y los drivers con una GPU formada por 6.
Sinceramente, hasta ver reviews o poderlas probar por mi mismo, me voy a mantener al margen porque me espero lo peor a nivel de software y el nivel de soporte por parte de los juegos, preocupándome aún más los títulos ya existentes que nunca van a adaptar su motor a ese tipo de tecnología.
Espero que AMD haya tenido todo eso en cuenta, pero si todavía arrastramos problemas con los Ryzen a nivel de software no veo el motivo por el que no pase con estas gráficas. Siento ser el agorero del hilo, pero me hubiese gustado mucho más un diseño monolítico.
KailKatarn escribió:Pacorrr escribió:Bueno, igual hablamos de cosas difrerentes, porque te repito que el usuario del que me hablabas, confirma que con drivers previos a los de las optimizaciones DX11 no le pasaba eso, funcionaba como debía, la carga al CCD1, es algo que han introducido a partir de entonces, los cambios que hayan hecho hacen que el scheduler se haga un lío o algo. Lo que tú comentas de los Zen 4 igual es otra cosa, ni idea. Y el caso de estas RDNA 3 no es igual, no se ha dividido el chip gráfico en dos como en los Ryzen, los chiplets son controladores de memoria y cache.
Hasta ver las reviews y que gente seria las pruebe de primera mano es evidente que adelantar cosas siempre es aventurado. No obstante, lo que no es aventurar para nada, es que siempre será mucho más sencillo de aprovechar y programar para un diseño monolítico, sin descontar que también son mucho más caros de producir. Y ojo, ojalá este movimiento a AMD le salga DPM porque la competencia nos beneficia a todos.
Yo sólo te puedo decir que tuve que deshacerme de los 2x 5950X que tenía por esto, porque ya me cansé de perder framerate porque los juegos no los estaban aprovechando bien. Y si saltara a un Ryzen 7000 tengo claro que lo haré a un modelo con un sólo CCD siempre y cuando el uso vaya a ser para juegos.
654321 escribió:FranciscoVG escribió:ahora mismo claro solo esta el precio
El precio y el consumo ? Respecto a potencia, que esperais alguno, que este al nivel de la 6950XT
Y por muy kk que sea la 7800XT, tiene pinta que mejor que la 4080 de $1199 !!!!!!!
Wookiee escribió:Pero la 5950x, ¿no era monolitica? Vamos, creia que las primeras gpu con chiplets eran estas 7000.
Sea como fuere, imagino que la programación del soft es exactamente la misma, tanto en cpu como en gpu, independientemente de que sean chips monoliticos o por chiplets. Es en los propios drivers de la gpu, cpu y chipset donde se haria el "enrutamiento", aunque quizas este equivocado.
garbaje_de_potanzos escribió:LinusTT ha recopilado toda la info posible acerca de los bench mostrados por AMD EN RASTER y los han comparado montando sistemas prácticamente idénticos:
Some preliminary numbers comparing 4090 vs 7900XTX based on published AMD numbers.
Cyberpunk 2077, native 4K:
4090: 40fps
3090Ti: 23fps
6900XT LC: 11fps
7900XTX: 17fps (50% faster than 6900XT LC)
The 4090 is 2.3X faster than 7900XTX, the 3090Ti is 35% faster.
Metro Exodus EE, native 4K:
4090: 87fps
3090Ti: 48fps
6900XT LC: 25fps
7900XTX: 37.5fps (50% faster than 6900XT LC)
The 4090 is 2.3X faster than 7900XTX, the 3090Ti is 28% faster.
Dying Light 2 native 4K:
4090: 44fps
3090Ti: 24fps
6900XT LC: 11fps
7900XTX: 20fps (56% faster than 6900XT LC)
The 4090 is 2.2X faster than 7900XTX, the 3090Ti is 20% faster
Hitman 3 native 4K:
4090: 43fps
3090Ti: 23fps
6900XT LC: 16fps
7900XTX: 26fps (85% faster than 6900XT LC)
The 4090 is 65% faster than 7900XTX
PHANTASIA escribió:Con los precios que han puesto de las gamas "Entusiastas"...que precio creéis que puede tener una futura 7600/XT? (300-350€?)
KailKatarn escribió:Wookiee escribió:Pero la 5950x, ¿no era monolitica? Vamos, creia que las primeras gpu con chiplets eran estas 7000.
Sea como fuere, imagino que la programación del soft es exactamente la misma, tanto en cpu como en gpu, independientemente de que sean chips monoliticos o por chiplets. Es en los propios drivers de la gpu, cpu y chipset donde se haria el "enrutamiento", aunque quizas este equivocado.
El 5950X es una CPU, concretamente el Ryzen 9 5950X de 16 cores y 32 hilos, y no, no depende sólo de drivers pues tiene que ser el software quien sepa aprovecharlos debidamente además de que el SO cuente con un Scheudle correcto para los mismos. De ahí que se pueda ver en la imagen que los Ryzen 7000 les pasa lo mismo con GPUs AMD o Nvidia y hasta la propia AMD se haya pronunciado dejando claro que ellos poco pueden hacer si los desarrolladores no adaptan bien sus motores gráficos.
Wookiee escribió:Sorry, pensaba que te referias a la serie 5000 de gpu... Mea culpa. Sobre el resto, poco se, unicamente me cuesta imaginar que en el mundo pc haya que programar de forma diferente dependiendo de la marca de cpu. Si es asi... pues valiente cagada.
Pacorrr escribió:Las custom van a rendir un cacho más, claro, consumiendo otro cacho más
654321 escribió:PHANTASIA escribió:Con los precios que han puesto de las gamas "Entusiastas"...que precio creéis que puede tener una futura 7600/XT? (300-350€?)
Pues facilmente sí, con Navi 33 ... con la de gente que hay deseando cambiar la 1060, se hincharian a vender si consiguen fabricar cantidades industriales.
PHANTASIA escribió:Y cuanto tendremos que esperar para esas Gráficas? Finales de 2023?
Kavezacomeback escribió:@LorK pues esa historieta empezó con las Gtx así que a ver si logramos en unos años se medio consiga normalizar y quedar en esos 1000€ que la otra ya va con idea de los 2000€
Kavezacomeback escribió:@654321 es que es acojonante digan el precio es malo viendo hacia donde nos quier arrastrar nVidia con sus RTX.
No es ideal, pero marca un cambio de rumbo y el que no lo vea que vaya corriendo a pagar 2800€ por las 4090 custom o los 1800€ por las 4080.