RX 8000 XT / RX 9000 XT, que se sabe o se rumorea.

Hay por ahí rulando fotos de una Asus 9070XT Tuf, menudo trasto
Pero el PCB es enano, le sobra casi la mitad de disipador [qmparto]
como la saquen a 500 y rinda como una 4080 se comen el mercado, lastima que no vaya a pasar.
Pacorrr escribió:
hh1 escribió:
Filver escribió:
Es que tengo la manía de que, como el PC lo uso mayormente para jugar, no quiero que consuma más que una consola, entonces para mí es un punto importante, y la única gráfica que me permite tener un consumo total de 200-250W a full es la 4060, hasta que no haya una gráfica que consuma similar y a su vez de un salto de al menos un 50-60% en raster sin IA ni milongas ni me planteo el salto, y visto lo visto se puede ir para 2-3 gen más 🤣

Bueno.
Te puedes ttincar una 4090 y bajándola a esos 250w palma sobre un 6% de rendimiento.
Sigue siendo mejor que una 4080S. [sonrisa]

Ojalá fuese como dices, pero no, palma bastante más de un 6%. De serie consume sus buenos 450W en 4K y juegos exigentes, es imposible rascar tanto (tengo una).

A un 60% que son 268w ,palma un 6,1%

https://elchapuzasinformatico.com/2022/ ... undervolt/

Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.

La 4090 es una auténtica locura haciendo undervolt.

@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca

500-550€ y a vender

El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos
Si ya existen incluso unidades ensambladas ¿por qué no hay datos más claros de su precio y rendimiento? Están jugando al despiste.
hh1 escribió:
Pacorrr escribió:
hh1 escribió:Bueno.
Te puedes ttincar una 4090 y bajándola a esos 250w palma sobre un 6% de rendimiento.
Sigue siendo mejor que una 4080S. [sonrisa]

Ojalá fuese como dices, pero no, palma bastante más de un 6%. De serie consume sus buenos 450W en 4K y juegos exigentes, es imposible rascar tanto (tengo una).

A un 60% que son 268w ,palma un 6,1%

https://elchapuzasinformatico.com/2022/ ... undervolt/

Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.

La 4090 es una auténtica locura haciendo undervolt.

@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca

500-550€ y a vender

El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos

Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).

Si es que en ese gráfico pone que de media consume 350W, me río en sus caras [qmparto] El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.
Pacorrr escribió:
hh1 escribió:
Pacorrr escribió:Ojalá fuese como dices, pero no, palma bastante más de un 6%. De serie consume sus buenos 450W en 4K y juegos exigentes, es imposible rascar tanto (tengo una).

A un 60% que son 268w ,palma un 6,1%

https://elchapuzasinformatico.com/2022/ ... undervolt/

Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.

La 4090 es una auténtica locura haciendo undervolt.

@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca

500-550€ y a vender

El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos

Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).

Si es que en ese gráfico pone que de media consume 350W, me río en sus caras [qmparto] El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.

A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.

Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.

Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.
hh1 escribió:
Pacorrr escribió:
hh1 escribió:A un 60% que son 268w ,palma un 6,1%

https://elchapuzasinformatico.com/2022/ ... undervolt/

Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.

La 4090 es una auténtica locura haciendo undervolt.

@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca

500-550€ y a vender

El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos

Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).

Si es que en ese gráfico pone que de media consume 350W, me río en sus caras [qmparto] El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.

A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.

Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.

Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.

Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.
Pacorrr escribió:
hh1 escribió:
Pacorrr escribió:Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).

Si es que en ese gráfico pone que de media consume 350W, me río en sus caras [qmparto] El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.

A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.

Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.

Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.

Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.

No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.

No puedes bajarle ese UV a 950mv con la misma frecuencia?

Aún así ,me parecen muchos 430w para ese voltaje.

Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..

Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo
hh1 escribió:
Pacorrr escribió:
hh1 escribió:A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.

Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.

Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.

Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.

No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.

No puedes bajarle ese UV a 950mv con la misma frecuencia?

Aún así ,me parecen muchos 430w para ese voltaje.

Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..

Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo

Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos [qmparto]

Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.
Ramsay escribió:como la saquen a 500 y rinda como una 4080 se comen el mercado, lastima que no vaya a pasar.

Ojalá, pero todos sabemos que se va a ir a los 700€ largos.

Necesito una GPU nueva (bueno, pc entero), porque mi GTX 1060 ya solo hace que darme pantallazos azules.

Voy a comprar a final de febrero, y ando con el ansia de saber rendimientos reales, precios y si habrá buen stock.

La idea era una 5070, pero si se va a +700€ con sus 12gb de RAM, le van a dar por culo.
A ver si AMD ajusta más los precios e igual voy a por una 9070 XT
Lo que sería ideal y que si no lo hace AMD volverá a cagarla en ventas como siempre:

- 9070 a 399 dólares, que en España se traduciría a 500 euros aproximadamente.

- 9070XT a 480-500 dólares y 600 euros en España.

No veo otro escenario donde AMD rompe el mercado con estos precios que he dicho o si no fracasa de nuevo AMD, porque la diferencia no sería significativa en precio...bueno, seamos sinceros, los precios de Nvidia son todos mentira 🤣...¿650 euros la 5070?...hablemos mejor de 800 euros cuando haya stock y todo el mundo la compré, hablemos de una 5070 TI que no baja de los 1000 euros....etc

Bien, si AMD la caga como siempre y no cumple el escenario que digo, la oportunidad de oro la tiene Intel.

Pueden lanzar una B770 a 350-400 dólares y follarse a AMD xd
ImagenMás noticias sobre los precios, por lo que parece AMD si busca precios agresivos, esta teniendo problemas con las negociaciones con los minoristas para el precio final en tienda. Hay un modelo de 9070XT por unos 549$, AMD busca igualar el precio de la 5070 con el de la 9070XT.
más información en el enlace, dejo unos recortes.
Techpowerup

A pesar de que las unidades físicas ya llegan a minoristas seleccionados, el lanzamiento parece retrasarse debido a las negociaciones de precios en curso.


Si bien las cajas con la marca RX 9070 se han visto en los canales minoristas, los desacuerdos sobre los costos han impedido un lanzamiento oficial. El problema principal se deriva del agresivo enfoque de precios de AMD para los modelos RX 9070 y RX 9070 XT


AMD podría ofrecer fondos de marketing o incentivos de devolución de dinero para cerrar la brecha de precios, aunque las negociaciones se han estancado. Recientemente informamos sobre el modelo AMD Radeon RX 9070 XT AIB que cuesta alrededor de $ 549


Saludos [oki] [oki]
Pacorrr escribió:
hh1 escribió:
Pacorrr escribió:Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.

No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.

No puedes bajarle ese UV a 950mv con la misma frecuencia?

Aún así ,me parecen muchos 430w para ese voltaje.

Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..

Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo

Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos [qmparto]

Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.

Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.

4k nativo, no te lo discuto.

Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.

Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo
hh1 escribió:
Pacorrr escribió:
hh1 escribió:No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.

No puedes bajarle ese UV a 950mv con la misma frecuencia?

Aún así ,me parecen muchos 430w para ese voltaje.

Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..

Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo

Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos [qmparto]

Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.

Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.

4k nativo, no te lo discuto.

Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.

Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo

Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).
@Duron600

549$ serían 660€ con el IVA.

El tema es a ver luego la tienda cuánto te mete de más.

Pero ese precio por una 9070 XT no me desagradaría.
Yunc4 escribió:@Duron600

549$ serían 660€ con el IVA.

El tema es a ver luego la tienda cuánto te mete de más.

Pero ese precio por una 9070 XT no me desagradaría.


Eso es lo que parece que esta retrasando el lanzamiento, las negociaciones con minoristas, para que no disparen los precios recomendados por AMD.

Si en rendimiento se acerca a la 5070ti que vas a encontrar entre 900€ y 1000€ en tiendas, es realmente un precio agresivo.

Saludos [oki] [oki]
Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.
Hola buenas,si sale la 9070xt al precio que se rumorea y rinde como una 4080 super,sin duda sera la gráfica para jubilar mi 6600 xt, aunque tengo un par de dudas.
A ver si alguien me puede responder.
Tengo un 5700x3d (am4) ¿Se quedara corto el procesador para esa gráfica?
Por otra parte,tengo esta fuente de alimentación:

https://www.pccomponentes.com/thermalta ... 0w-modular

¿Sera suficiente o se quedara corta?

Un saludo y gracias por adelantado.
Pacorrr escribió:
hh1 escribió:
Pacorrr escribió:Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos [qmparto]

Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.

Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.

4k nativo, no te lo discuto.

Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.

Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo

Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).

Dándote la razón , lo que yo decía inicialmente, es que sí es posible jugar connla 4090 con rendimiento top, p ridneoe un 6 ,estando en unos 250w.
Solo tiene que poner DLSS.
Es a lo que iba [beer]

Yo no sé cómo algunos piensa que AMD te va a sacar una 9079XT que lucha con la 5070Ti, si está a la altura de esta ,que vale de 900€ para arriba ,en 600 o 660€.

Parecéis nuevos.
Señores ,que es AMD ,especialista en cagarla .
No te la saca 240-300€ más barata ,ni de coña.
Vamos ,eso lo tengo clarísimo.
Duron600 escribió:ImagenMás noticias sobre los precios, por lo que parece AMD si busca precios agresivos, esta teniendo problemas con las negociaciones con los minoristas para el precio final en tienda. Hay un modelo de 9070XT por unos 549$, AMD busca igualar el precio de la 5070 con el de la 9070XT.
más información en el enlace, dejo unos recortes.
Techpowerup

A pesar de que las unidades físicas ya llegan a minoristas seleccionados, el lanzamiento parece retrasarse debido a las negociaciones de precios en curso.


Si bien las cajas con la marca RX 9070 se han visto en los canales minoristas, los desacuerdos sobre los costos han impedido un lanzamiento oficial. El problema principal se deriva del agresivo enfoque de precios de AMD para los modelos RX 9070 y RX 9070 XT


AMD podría ofrecer fondos de marketing o incentivos de devolución de dinero para cerrar la brecha de precios, aunque las negociaciones se han estancado. Recientemente informamos sobre el modelo AMD Radeon RX 9070 XT AIB que cuesta alrededor de $ 549


Saludos [oki] [oki]


te ha faltado una parte, el problema de la negociación es que los minoristas pagaron las gráficas aun precio superior al final, ya que AMD no tenía claro que haría Nvidia (las gráficas hace semanas que están ya en los almacenes) y ahora están negociando la devolución de la diferencia, lo cual AMD se ha cerrado en banda y ofrece "otras maneras" a lo que los minoristas a su vez se han negado a aceptarlas, por que pierden dinero.. ya veremos como acaba eso.
hh1 escribió:
Pacorrr escribió:
hh1 escribió:Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.

4k nativo, no te lo discuto.

Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.

Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo

Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).

Dándote la razón , lo que yo decía inicialmente, es que sí es posible jugar connla 4090 con rendimiento top, p ridneoe un 6 ,estando en unos 250w.
Solo tiene que poner DLSS.
Es a lo que iba [beer]

Yo no sé cómo algunos piensa que AMD te va a sacar una 9079XT que lucha con la 5070Ti, si está a la altura de esta ,que vale de 900€ para arriba ,en 600 o 660€.

Parecéis nuevos.
Señores ,que es AMD ,especialista en cagarla .
No te la saca 240-300€ más barata ,ni de coña.
Vamos ,eso lo tengo clarísimo.



Pues volverá a pasarle lo mismo q con la 4070 vs 7800xt (idem con 4070ti vs 7900xt, y 4080 vs 7900xtx). Por 100 euros mas, la gente preferira la tarjeta de nvidia con 12GB y mucho menos potente en raster, pq la de nvidia gana en los bench del ciberpunk a 1080p con RT a full + DLSS3 + FG.
Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.

Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.
hh1 escribió:
Pacorrr escribió:
hh1 escribió:Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.

4k nativo, no te lo discuto.

Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.

Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo

Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).

Dándote la razón , lo que yo decía inicialmente, es que sí es posible jugar connla 4090 con rendimiento top, p ridneoe un 6 ,estando en unos 250w.
Solo tiene que poner DLSS.
Es a lo que iba [beer]

Yo no sé cómo algunos piensa que AMD te va a sacar una 9079XT que lucha con la 5070Ti, si está a la altura de esta ,que vale de 900€ para arriba ,en 600 o 660€.

Parecéis nuevos.
Señores ,que es AMD ,especialista en cagarla .
No te la saca 240-300€ más barata ,ni de coña.
Vamos ,eso lo tengo clarísimo.

Hombre pero eso es de cajón, con DLSS está renderizando a una resolución inferior, cuanta más resolución más se le exige a al GPU y más consume. Pero vamos, dudo que haya alguien que prefiera usar un reescalado si en nativo sacas una tasa de frames decente, yo al menos, prefiero nativo siempre. Y ahí, la 4090, se chupa sus +400W, por algo Nvidia la sacó con ese consumo, porque lo necesita para rendir lo que rinde.
Lorena99 escribió:Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.

Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.


Ademas viendo lo que ha pasado con el 9800x3d que a mí en Coolmod me costó 668 euracos, si la 9700xt valiera 650 euros no habría stock y el precio se dispararía y si valiera más de inicio pues sería lo mismo.
Ya somos mayorcitos para creer que va a rendir casi como una 5070ti (mucho menos sin dlss4) y va a valer casi 300 euros menos. Esas dos condiciones si se dan no hay stock por lo que habría que pagar más como el 9800x3d y si hay stock es porque no vale 650 euros.
Es de sentido común. Ya lo veremos pero es demasiado bonito bueno y barato para ser verdad. Barato viendo los precios porque 650-700 euros es un dinero.
Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.

Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.
adriano_99 escribió:
Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.

Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.

Así es ,pro año a año, pierden la oportunidad.
Lo tuvieron a huevo con las 7000 y cagadita.

A ver en este.

También hay que ver el resto que corrren.
Ajustan una 9700XT a 600€ ya yendo con "poco" margen ,y ponte que Nvidia baja la 5070ti 700€ .
Es que los matan.

El.mango de la sartén ,mientras la AMD no sea mejor gráfica ,siempre lo va a llevar Nvidia.

Que ocurrió con la CPUs?
Que Intel dejó de llevar el mango en cuanto a potencia.
tonicab escribió:
Lorena99 escribió:Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.

Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.


Ademas viendo lo que ha pasado con el 9800x3d que a mí en Coolmod me costó 668 euracos, si la 9700xt valiera 650 euros no habría stock y el precio se dispararía y si valiera más de inicio pues sería lo mismo.
Ya somos mayorcitos para creer que va a rendir casi como una 5070ti (mucho menos sin dlss4) y va a valer casi 300 euros menos. Esas dos condiciones si se dan no hay stock por lo que habría que pagar más como el 9800x3d y si hay stock es porque no vale 650 euros.
Es de sentido común. Ya lo veremos pero es demasiado bonito bueno y barato para ser verdad. Barato viendo los precios porque 650-700 euros es un dinero.

El marketing de Nvidia os funciona muy bien a algunos en la cabeza, ya os han asentado la idea de que 650 euros es demasiado chollo y que no se lo cree nadie porque es "barato", en fin, si crees que no llega a una 5070 to es que no has visto que hace un mes ya la alcanzaba con drivers verdes, imagínate ahora.

Perfectamente pueden costar 200-300 euros menos, teniendo en cuenta que las Nvidia tendrán el impuesto estafa clientes que ponen siempre, no valdrá 800, valdrá 1000, a poco que la 9070xt salga a 600-650 euros ya es un precio más razonable que cobrar una basura como 1000 euros por ese rendimiento.
hh1 escribió:
adriano_99 escribió:
Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.

Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.

Así es ,pro año a año, pierden la oportunidad.
Lo tuvieron a huevo con las 7000 y cagadita.

A ver en este.

También hay que ver el resto que corrren.
Ajustan una 9700XT a 600€ ya yendo con "poco" margen ,y ponte que Nvidia baja la 5070ti 700€ .
Es que los matan.

El.mango de la sartén ,mientras la AMD no sea mejor gráfica ,siempre lo va a llevar Nvidia.

Que ocurrió con la CPUs?
Que Intel dejó de llevar el mango en cuanto a potencia.

No estoy de acuerdo.
Mucho antes de AMD estar por delante de forma clara en rendimiento en juegos ya les habian superado en ventas.
El ryzen 3600 es una de las CPU mas vendidas de la historia y no lo es por ser mejor lo es por tener un precio cojonudo.
Nvidia no va a bajar el precio de la 5070ti porque no lo ha hecho nunca.
Para eso tendrian que sacar la 5070ti super igual que hicieron con la 4080 super.
Pero si haces eso te cargas a la 5070 y te cargas a la 5080 que ya hoy dia tiene poco sentido por lo poco que ofrece respecto a la 5070ti.
adriano_99 escribió:
hh1 escribió:
adriano_99 escribió:Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.

Así es ,pro año a año, pierden la oportunidad.
Lo tuvieron a huevo con las 7000 y cagadita.

A ver en este.

También hay que ver el resto que corrren.
Ajustan una 9700XT a 600€ ya yendo con "poco" margen ,y ponte que Nvidia baja la 5070ti 700€ .
Es que los matan.

El.mango de la sartén ,mientras la AMD no sea mejor gráfica ,siempre lo va a llevar Nvidia.

Que ocurrió con la CPUs?
Que Intel dejó de llevar el mango en cuanto a potencia.

No estoy de acuerdo.
Mucho antes de AMD estar por delante de forma clara en rendimiento en juegos ya les habian superado en ventas.
El ryzen 3600 es una de las CPU mas vendidas de la historia y no lo es por ser mejor lo es por tener un precio cojonudo.
Nvidia no va a bajar el precio de la 5070ti porque no lo ha hecho nunca.
Para eso tendrian que sacar la 5070ti super igual que hicieron con la 4080 super.
Pero si haces eso te cargas a la 5070 y te cargas a la 5080 que ya hoy dia tiene poco sentido por lo poco que ofrece respecto a la 5070ti.

Pero porque ya en rendimiento se equiparaban muy bien a los Intel y eran algo más baratas las cpu AMD.

Por eso digo, que lo primero es tener un producto a la altura .No hace falta que sea mejor.
Y luego ,el precio.

Pero es que a AmD a veces de le va la "flapa" ,saca un buen producto ,cercano a su rival y le maete casi el precio de su rival.
Por ahí, va mal.
Para hacer eso ,es cuando te digo que debe ser mejor que el rival.
No hay anunció para presentación, esto tiene pinta que se retrasa hasta finales de febrero o principios de marzo , si este es el caso puede significar que a lo mejor va en serio lo de competir y van esperar los datos oficiales de NVidia para hacer comparativas con la serie RTX 5000 y no con las 4000.
Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.

Me parece un error garrafal.
Una vez mas, nvidia les da la oportunidad sacando una generación de mierda y AMD no lo aprovecha.
Si hacen eso yo ya he perdido por completo la fe en ellos.
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.


Yo lo veo así:
La 5070 custom en tienda van a estar cerca de 700€ y las 5070 ti 950€ / 1000€
Entre la 9070xt custom y la 5070ti custom la diferencia será de mas de 200€

Saludos [oki] [oki]
labestia72 escribió:¿Qué os parece (si se confirma)?

Hasta que no haya benchmarks fiables de ambas compañias, pues no se que me parece.
Duron600 escribió:
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.


Yo lo veo así:
La 5070 custom en tienda van a estar cerca de 700€ y las 5070 ti 950€ / 1000€
Entre la 9070xt custom y la 5070ti custom la diferencia será de mas de 200€

Saludos [oki] [oki]


¿Tienes idea de cómo va el tema de las "founders" de AMD?. Me pone palote hacerme con una 9070xt lo más barata posible.
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.

Eos lo dije yo hace mes y pico.
Que AMD se iba a marcar un AMD de manual.
Que cigetian las actuales ,siendo buenas gráficas , mirarían el precio de las Nvidia equivalentes ,bajarían más las suyas 50€ o poco más ,y arreando.

Nunca decepcionan...
@OK Computer
¿Tienes idea de cómo va el tema de las "founders" de AMD?. Me pone palote hacerme con una 9070xt lo más barata posible.


La verdad, no estoy seguro, pero creo que no va como en NVIDIA, en la serie 6000, eran las propias ensambladoras las que sacaban una Radeon "Founders AMD" con su marca pero diseño AMD.
Imagen


Parece que las marcas, sacaran custom y AMD al mismo tiempo.

Saludos [oki] [oki]
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.


Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.
Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.


Apuesto por lo mismo, AMD seguirá con la política de "nvidia - 50 o 100€".
almuela escribió:
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.


Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.

Pero compite en qué sentido? Porque si rinde lo que dicen los leaks, compite más con la 5070 TI, pero está por ver lo que rinde de verdad.
Si esos precios se cumplen puedo decir que...AMD expertos en cargarla, Intel calienta que sales 🔥
almuela escribió:
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.


Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.


XD no.

La 9070xt va competir donde su rendimiento bruto, todo lo demás en damage control de lo fanáticos de Nvidia.
HakiGold escribió:
almuela escribió:
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:

RX 9070 XT 599$
RX 9070 499$

Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€

¿Qué os parece (si se confirma)?

Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.

Se espera que entre mañana y el Viernes se presenten.


Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.


XD no.

La 9070xt va competir donde su rendimiento bruto, todo lo demás en damage control de lo fanáticos de Nvidia.

Totalmente, ahora resulta que si rinde lo mismo o más en raster no compite...no si quieres tiene que dar la misma cantidad de frames generados de paso.
Os voy a hacer spoiler, AMD va a tirar el precio de sus GPU por una sencilla razón, no es por Nvidia, es por INTEL.

Acordaos de mis palabras, un saludo.
@Jester_Box @HakiGold @Pacorrr

Para competir en raster contra la 5080 y 5070ti AMD solo tendría q tirar los precios de la 7900xtx.

Las 9070xt y 9070 no superan a la 7900xtx en raster. Asi que a parte de la mejora en eficiencia, y la equivalente subida en frecuencias, RDNA 4 solo aporta mejoras en RT e IA. Y por lo q se va filtrando, en RT, las 9070xt estan a nivel de las 5070.

Por eso digo q las 9070xt deben competir, y mejorar, en precio a las 5070.

Pq si no es para competir en RT y en rescalado por IA ¿para que va a sacar AMD una nueva gama que iguala en raster a las 7900xtx y 7900xt?
almuela escribió:@Jester_Box @HakiGold @Pacorrr

Para competir en raster contra la 5080 y 5070ti AMD solo tendría q tirar los precios de la 7900xtx.

Las 9070xt y 9070 no superan a la 7900xtx en raster. Asi que a parte de la mejora en eficiencia, y la equivalente subida en frecuencias, RDNA 4 solo aporta mejoras en RT e IA. Y por lo q se va filtrando, en RT, las 9070xt estan a nivel de las 5070.

Por eso digo q las 9070xt deben competir, y mejorar, en precio a las 5070.

Pq si no es para competir en RT y en rescalado por IA ¿para que va a sacar AMD una nueva gama que iguala en raster a las 7900xtx y 7900xt?

AMD no puede vender la 7900xtx a 600 dólares o menos porque su chip es INMENSO.
Lo que dices de que RDNA4 solo aporta RT e IA no es verdad desde el momento en que se consigue mas o menos el mismo rendimiento con un chip mucho mucho mas pequeño.
La 9070XT puede tener precios que generarían perdidas en una 7900XTX por eso.
De momento las filtraciones mas fiables colocan a la 9070XT al rededor de un 5% menos que la 7900XTX y eso la coloca en torno a un 3% por debajo de la 4080.
Más que suficiente para pelear con la 5070ti.
Jester_Box escribió:
tonicab escribió:
Lorena99 escribió:Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.

Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.


Ademas viendo lo que ha pasado con el 9800x3d que a mí en Coolmod me costó 668 euracos, si la 9700xt valiera 650 euros no habría stock y el precio se dispararía y si valiera más de inicio pues sería lo mismo.
Ya somos mayorcitos para creer que va a rendir casi como una 5070ti (mucho menos sin dlss4) y va a valer casi 300 euros menos. Esas dos condiciones si se dan no hay stock por lo que habría que pagar más como el 9800x3d y si hay stock es porque no vale 650 euros.
Es de sentido común. Ya lo veremos pero es demasiado bonito bueno y barato para ser verdad. Barato viendo los precios porque 650-700 euros es un dinero.

El marketing de Nvidia os funciona muy bien a algunos en la cabeza, ya os han asentado la idea de que 650 euros es demasiado chollo y que no se lo cree nadie porque es "barato", en fin, si crees que no llega a una 5070 to es que no has visto que hace un mes ya la alcanzaba con drivers verdes, imagínate ahora.

Perfectamente pueden costar 200-300 euros menos, teniendo en cuenta que las Nvidia tendrán el impuesto estafa clientes que ponen siempre, no valdrá 800, valdrá 1000, a poco que la 9070xt salga a 600-650 euros ya es un precio más razonable que cobrar una basura como 1000 euros por ese rendimiento.


Si ves al final digo que es barato viendo los precios que han puesto ahora, no porque yo crea que es barato una gráfica de 12gb al nivel de la 4070ti de hace 3-4 años, con menos vram.
1124 respuestas
119, 20, 21, 22, 23