RX 8000 XT / RX 9000 XT, que se sabe o se rumorea.

ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)

Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.

La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.

O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar [bye]


que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd

24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo

la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale
Imagen

Tras ver la entrevista que hace Michael Quesada a Frank Azor, responsable de marketing de AMD, en el CES, quiero pensar que en los primeros meses, van a centrar el FSR 4 en las RX9000, teniendo así un valor añadido a las nuevas GPU y hacerlas más atractivas, pero ya ha dejado caer, que se esta trabajando en un FSR 4, que funcionara en las demás graficas. Espero que se le de uso a los aceleradores IA de las rx7000 mas que para el anti lag 2. También menciono que FSR 3 no para de crecer llegando a más juegos, me imagino que saldrán nuevas versiones e ira mejorando. Rendimiento, pues muy cercano a las 7900XTX, con mejor RT e IA, nada mal. Precio más de 300 y menos de 1000$. Lo que nos da una horquilla de 700$, la mitad de la horquilla 350$ + el mínimo de 300$ nos da 650$, pura lógica [qmparto].
Yo con FSR 3 4k en calidad + FG + Anti lag 2, estoy bastante contento, quizás todos esos fallos que comentáis son en QHD calidad o 4k equilibrado. Pero espero que FSR4 llegue a las 7000.

Saludos [oki] [oki]
trandeira escribió:
ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)

Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.

La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.

O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar [bye]


que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd

24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo

la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale

Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.
Valkyrjur escribió:
trandeira escribió:
ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)

Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.

La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.

O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar [bye]


que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd

24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo

la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale

Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.


has leido mi comentario? lo dicho, que sigan colandonos juegos sin optimizar y que los pacos no se quejen jaja

DD2 es un juego optimizado como el putisimo culo
que es a lo que me referia,si un juego te consume mas de 8gb de VRAM es porque o esta optimizado como el culo o esta hecho en UE5 o incluso las 2 xD
(mensaje borrado)
Valkyrjur escribió:
trandeira escribió:
ziu escribió:El tema clave son los juegos que sacan que se tragan más de 12gb, después los megaparchean.
(Indy,Howard, outlaws, etc etc..)

Para jugar bien en 2k sin ir optimizando a los AAA necesitas 16 gigas de video. Y Nvidia lo más barato que tiene es la 4070ti por 900 pepinos.

La 5070 en 2k para arriba le va a pasar como la 4060 en 1080p se quedará corta de vram.la tecnología de Nvidia para ahorrar vram es un parche, los juegos AAA cada año q pasa necesitan más memoria de video no menos.es una ley natural.

O sea que si tenemos una 9070 de 16 gigas por 500-600 euros será mucha mejor inversión a la larga que la 5070 por muy potente q sea esta con el dssl4, no hace falta tantos FPS a partir de 120 lo importante es la vram para jugar [bye]


que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd

24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo

la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale

Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.


Dragons dogma 2 a 2K/max settings/RT tiene El pico de consumo en 11 gbs
Lorena99 no podrá escribir en este subforo hasta dentro de 1 hora
trandeira escribió:
Valkyrjur escribió:
trandeira escribió:
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd

24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo

la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale

Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.


has leido mi comentario? lo dicho, que sigan colandonos juegos sin optimizar y que los pacos no se quejen jaja

DD2 es un juego optimizado como el putisimo culo
que es a lo que me referia,si un juego te consume mas de 8gb de VRAM es porque o esta optimizado como el culo o esta hecho en UE5 o incluso las 2 xD


Que no tienes razón, que la 1070 llevaba 8 gbs de vram hace 8 años. Y no me verás a mi defender la mierda que es el UE5.
papatuelo escribió:
Valkyrjur escribió:
trandeira escribió:
que juego necesita 16 gb de ram grafica? black myth wokong a 2k y todo aal maximo 5.8 gb... path of exile 2 2k todo al maximo 3.3 gb todo lo que sea mas de eso...
si algun juego alguna vez requiere mas de 12GB de VRAM es para pegarle fuego al estudio, 8 ya me parece absurdo, como vas a necesitar tener mas de 8GB cargados en memoria para computar nada, locura la decadencia de los juegos
asi estamos, que un triste CoD y cualquier juego de mierda te ocupa 100GB para que os hagais una idea si un juego de 80GB necesitara 8GB de VRAM, quiere decir que estaria interactuando en cada fps con el 10% del contenido del juego, retraso maximo vamos xd

24/32+GB de VRAM solo es util para entrenar modelos de IA, que necesitas mantener en memoria el modelo en si, en gneeral los LLMs 7B ocupan unos 12-14GB, para eso son las gpus de 16GB, el gpt4 creo que son unos 405B que necesitarias unos 700GB de VRAM, por eso se entrenan en datacenters con gpus en paralelo

la diferencia de vram es solo para que te sigan colando juegos sin optimizar y como es lo normal, los pacos no se quejan.
por que chucha crees que cada vez que abres un juego te tiras 10 minutos compilando shaders, y va a peor con cada nuevo juego en UE5 que sale

Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.


Dragons dogma 2 a 2K/max settings/RT tiene El pico de consumo en 11 gbs

Ponte el space marine 2 a 4k con el parche de texturas 4k de 17 de vram no te baja 😂
Pues la vista...visto el panorama...o tiras a una 5090 (un pasturrial) y una 7900xtx, que tiene mucha más vram...¿que pensáis?

Pq gastarse 800€ para que te quedes corto en vram...
Ravnos87 escribió:Pues la vista...visto el panorama...o tiras a una 5090 (un pasturrial) y una 7900xtx, que tiene mucha más vram...¿que pensáis?

Pq gastarse 800€ para que te quedes corto en vram...



Yo creo que con 16GB es mas que suficiente, habrá algún juego que lo pase, pero seran muy escasos y mal optimizados.

Y yo fui muy critico con los 8gb de la 3070 y los 10 de la 3080, pero una cosa es eso y otra decir que ya los 16GB se quedan cortos.

si quieres jugar a super ultra mega resolucion con RT y todo a tope, entonces comprate la 5090 que para eso esta, pero el resto de graficas con 16GB en mi opinion estan bastante equilibradas.
La mayoría de juegos se optimizan muy mal en el uso de la VRAM.

Luego hay muchos juegos que cargan elementos en la VRAM pero no significa que necesiten tanta, solo los cargan en la VRAM por si es necesario utilizarlos, pero no pasaría nada por tener menos cantidad.

Hay multitud de settings que puedes tocar para ahorrar VRAM y que no aportan absolutamente nada. Opciones como la calidad de las sombras pasar de ultra a alto te bajan el consumo de VRAM y en la mayoría de juegos no cambian la calidad visual percibida al jugar. Configurando bien el juego te puedes ahorrar algunos gigas de VRAM.

Aquí tenéis un canal cojonudo para optimizar settings y ahorrar VRAM, además de sacar un extra de FPS sin perder calidad.

https://www.youtube.com/@benchmarking4386

Yo sigo diciendo que 8 GB para 1080p son suficientes, 12 GB para 1440p y 16 GB para 4K.

Otra cosa es que quieras utilizar VR o petar un juego a mods, eso ya es otro cantar.
Blackhand15 escribió:
papatuelo escribió:
Valkyrjur escribió:Justamente te esta poniendo unos cuantos qué ya consume mas de 12, añado in par mas, resident evil 2 y 3 y dragon's dogma 2 jugando a mas de 2k con RT activado consume mas de esos 12.


Dragons dogma 2 a 2K/max settings/RT tiene El pico de consumo en 11 gbs

Ponte el space marine 2 a 4k con el parche de texturas 4k de 17 de vram no te baja 😂




Seguro q no, pero hablaba del dragons dogma 2
Por lo menos aún hay alguna posibilidad de que FSR4 funcione en RDNA3, pero a saber cuando, nvidia se ha pasado 6 años mejorando la IA y ahora parece que meterán una buena mejora y si dicen que FSR4 debe mejorar para que se pueda usar en generaciones anteriores igual cuando lo consigan ya nadie se acuerda de RDNA3.
Es de sentido común que si AMD mejora la generación anterior nadie va a comprar la actual generación.

No son una ONG, como tampoco lo es Nvidia, que también tiene limitaciones en generaciones pasadas.
Pero tiene sentido si las gráficas son baratas, pero muchos no pueden dejarse tanto dinero en GPU y si te dejas 600€ o más en una GPU y te dicen que FSR4 no funciona en la tuya, jode bastante. Otra cosa sería que por 300€ ya tuvieras una de las mejores como pasaba antes.
Duron600 escribió:
Imagen

Tras ver la entrevista que hace Michael Quesada a Frank Azor, responsable de marketing de AMD, en el CES, quiero pensar que en los primeros meses, van a centrar el FSR 4 en las RX9000, teniendo así un valor añadido a las nuevas GPU y hacerlas más atractivas, pero ya ha dejado caer, que se esta trabajando en un FSR 4, que funcionara en las demás graficas. Espero que se le de uso a los aceleradores IA de las rx7000 mas que para el anti lag 2. También menciono que FSR 3 no para de crecer llegando a más juegos, me imagino que saldrán nuevas versiones e ira mejorando. Rendimiento, pues muy cercano a las 7900XTX, con mejor RT e IA, nada mal. Precio más de 300 y menos de 1000$. Lo que nos da una horquilla de 700$, la mitad de la horquilla 350$ + el mínimo de 300$ nos da 650$, pura lógica [qmparto].
Yo con FSR 3 4k en calidad + FG + Anti lag 2, estoy bastante contento, quizás todos esos fallos que comentáis son en QHD calidad o 4k equilibrado. Pero espero que FSR4 llegue a las 7000.

Saludos [oki] [oki]

Haces una interpretación muy optimista, yo también he visto la entrevista la cual que me gustó mucho porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.

La lectura que hice yo de lo que dijo es diferente a la tuya, mi lectura es que lo van a intentar pero que está complicada la cosa y es más probable que no lo consigan a que sí.

Veremos con el paso del tiempo cuál de las 2 interpretaciones ha sido la correcta.
gwallace escribió:
StudentOfLife92 escribió:Muy bien lo del fsr 4, ¿verdad? Yo no se si upgradearé mi ordenador este año, y no se si lo haría con una gráfica de amd. No son cosas que tampoco me haya planteado aún.

Pero valve fremont me gustaría pillarmela de cabeza si es una experiencia similar a la de la deck pero en sobremesa y con más potencia.

Y si acaban presentándola y sacandola, me imagino yo que a finales de este año o principios del que viene, en principio debería de montar arquitectura parecida a la de estas gráficas y podría estar muy bien tanto para juegos base como para vr, ¿no?

En verdad con una de estas si salen buenas te puedes hacer tu Fremont, basta con instalar SteamOS en cuanto terminen de liberarlo o incluso Bazzite que es similar y a gozar de la steam machine [looco]

yo estoy como loco por montar una gráfica AMD y poder hacer esto la verdad, incluso con mi pc con un 3600XT de procesador y solo 16gb de ram


Pues si, tienes toda la razón del mundo y no había caído en ello. Yo tengo un pc con una 3090 que va razonablemente bien para jugar, pero al final del día uso más la consola para los juegos multiplataforma, precisamente también por el modo reposo, por poder controlarlo todo (absolutamente todo) con un mando, y por separarlo del trabajo, que el pc suelo tenerlo para cosas productivas y me ralla un huevo jugar ahí todos los días. Si que juego, pero es algo menos habitual.

Es muy buena idea lo que tu comentas y si valve no dice nada de freemont, lo mismo me monto un pc que sea solo para jugar, con un ryzen 9800x3d, la gráfica esta de amd nueva, steam os y pues a jugar como en una consola. Estoy contento con la xbox, pero me gustaría tener también algo para jugar en mejores condiciones a los exclusivos de pc (que cada vez son más), la vr, y lo que por desgracia no llega a xbox.

Primero a ver si es tan bonito como lo pintan lo de steam os 3 xD.
dunkam82 escribió:porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.

Imaginate que mañana anuncian la Steamdeck y que no era broma !!! [qmparto]
dunkam82 escribió:
Duron600 escribió:
Imagen

Tras ver la entrevista que hace Michael Quesada a Frank Azor, responsable de marketing de AMD, en el CES, quiero pensar que en los primeros meses, van a centrar el FSR 4 en las RX9000, teniendo así un valor añadido a las nuevas GPU y hacerlas más atractivas, pero ya ha dejado caer, que se esta trabajando en un FSR 4, que funcionara en las demás graficas. Espero que se le de uso a los aceleradores IA de las rx7000 mas que para el anti lag 2. También menciono que FSR 3 no para de crecer llegando a más juegos, me imagino que saldrán nuevas versiones e ira mejorando. Rendimiento, pues muy cercano a las 7900XTX, con mejor RT e IA, nada mal. Precio más de 300 y menos de 1000$. Lo que nos da una horquilla de 700$, la mitad de la horquilla 350$ + el mínimo de 300$ nos da 650$, pura lógica [qmparto].
Yo con FSR 3 4k en calidad + FG + Anti lag 2, estoy bastante contento, quizás todos esos fallos que comentáis son en QHD calidad o 4k equilibrado. Pero espero que FSR4 llegue a las 7000.

Saludos [oki] [oki]

Haces una interpretación muy optimista, yo también he visto la entrevista la cual que me gustó mucho porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.

La lectura que hice yo de lo que dijo es diferente a la tuya, mi lectura es que lo van a intentar pero que está complicada la cosa y es más probable que no lo consigan a que sí.

Veremos con el paso del tiempo cuál de las 2 interpretaciones ha sido la correcta.


Yo también lo interpreto así.
El tema Vram, es mucho mas complicado, a parte de que los juegos estén peor optimizados o no, que es discutible.
Ya que la primera oleada de juegos que movía a 4k lo hacia con la 1080ti sin problemas, pero pensar que la mayoría eran juegos port de ps4, que de 4k en pc solo tenían la resolución de pantalla, las texturas 4k con alta resolución que buscan llegar al fotorrealismo, se han empezado a utilizar relativamente hace poco, sobre todo con motores como UE5, que si gasta mucha Vram, pero usa texturas de alta resolución y se nota.

Por otro lado, como alguien ha comentado, la Vram no es solo para texturas es para meter todos los datos que la gpu vaya a necesitar, tener más Vram, agiliza el sistema en general, evitando tener que estar cargando y descargando el cache de Vram con la ram, liberando un poco la carga de cpu.

Me acuerdo que la manera que tenia de distinguir las gamas bajas, medias y altas de GPU era por el bus, el ancho de banda y la cantidad de Vram. Quizás actualmente no sea la mejor manera de identificarlas, pero jamás me compraría una grafica con 192bits de bus y una de 256bits para mi no puede ser gama alta.

Yo creo que es un error no haber sacado la rx9070XT al menos con 20gb, no descarto para el 2026 una RX9080XT 24GB y una RX9090XTX 32GB., es la única que me interesaría por 1000€

Saludos [oki] [oki]
654321 escribió:
dunkam82 escribió:porque Quesada no se corta con las preguntas y el otro es muy honesto con las respuestas.

Imaginate que mañana anuncian la Steamdeck y que no era broma !!! [qmparto]

Bueno eso fue más una broma de Quesada que otra cosa.

Aunque la verdad ahora que va a ver más portátiles que van a poder llevar Seam OS la Steam Deck 2 deja de ser tan atractiva, vas a poder transformar las nuevas portátiles en tu Steam Deck personalizada y elegir la que más te guste de diseño, batería, pantalla, peso ... partiendo de la base de que las top llevarán todas el SOC Z2 Extreme de AMD.

[Alex] escribió:Yo también lo interpreto así.

Bueno entonces no soy el único loco que hace esa interpretación [beer]
Duron600 escribió:El tema Vram, es mucho mas complicado, a parte de que los juegos estén peor optimizados o no, que es discutible.
Ya que la primera oleada de juegos que movía a 4k lo hacia con la 1080ti sin problemas, pero pensar que la mayoría eran juegos port de ps4, que de 4k en pc solo tenían la resolución de pantalla, las texturas 4k con alta resolución que buscan llegar al fotorrealismo, se han empezado a utilizar relativamente hace poco, sobre todo con motores como UE5, que si gasta mucha Vram, pero usa texturas de alta resolución y se nota.

Por otro lado, como alguien ha comentado, la Vram no es solo para texturas es para meter todos los datos que la gpu vaya a necesitar, tener más Vram, agiliza el sistema en general, evitando tener que estar cargando y descargando el cache de Vram con la ram, liberando un poco la carga de cpu.

Yo creo que es un error no haber sacado la rx9070XT al menos con 20gb, no descarto para el 2026 una RX9080XT 24GB y una RX9090XTX 32GB., es la única que me interesaría por 1000€

Saludos [oki] [oki]


Pero por qué mantienes la nomenclatura RX9000?

Ya dijeron que RDNA4 no iba a subir a la gama alta.

Y luego pasan a UDNA.
@[Alex]
Serie RX9000 es la que han sacado, RX9060/70/70XT

¿Te refieres a RX9090XTX 32GB?
Porque si en un año AMD remonta en ventas y las RX9070XT vende bien, nada les impide sacar modelos superiores
Dijeron que en esta generación saldrían con gamas medias, no que en un futuro antes de UDNA no pudieran sacar una GPU gama alta y si no a esperar las UDNA.

Saludos [oki] [oki]
se saben ya precio y specs? o los de AMD siguen con cagalera
¿AMD también va a sacar sus modelos como NVIDIA con las founders edition?
Lo digo porque parece que los precios de las GPU NVIDIA de ensambladores se disparan
¿Los precios que pone AMD ya son precios PVP de ensamblador añadiéndoles el IVA y el cambio de moneda?
Si se anuncia la RX9070XT a 600$ se podría ver en tienda una Power color RX9070XT a (1 dólar 0,98€) total harán 1:1 + 21% IVA (121€) Total en España 721€, ¿Estos 721€ seria precio ensamblador custom?

Porque parece que las custom de Nvidia tienen carta blanca para pasarse los precios que pone NVIDIA por el forro.

Saludos [oki] [oki]
Duron600 escribió:¿AMD también va a sacar sus modelos como NVIDIA con las founders edition?
Lo digo porque parece que los precios de las GPU NVIDIA de ensambladores se disparan
¿Los precios que pone AMD ya son precios PVP de ensamblador añadiéndoles el IVA y el cambio de moneda?

Porque parece que las custom de Nvidia tienen carta blanca para pasarse los precios que pone NVIDIA por el forro.

Saludos [oki] [oki]


Normalmente saca modelos de referencia que se pueden comprar en la página de AMD.

Al menos saco con las vega, y la serie 6000. No recuerdo si las 5000 salieron no.
licordesoma escribió:se saben ya precio y specs? o los de AMD siguen con cagalera



No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.

A finales de mes salen a la venta y el 22 de enero se presentan.
tonicab escribió:
licordesoma escribió:se saben ya precio y specs? o los de AMD siguen con cagalera



No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.

A finales de mes salen a la venta y el 22 de enero se presentan.


Si es un poco superior si que es para prenderles fuego.

En teoría la mejora grande viene del lado del RT que es donde más cojos estaban,si sacan a 600 euros lo mismo un poco mejor van por el desfiladero.

A ver si hacen de una vez la presentación,tras la espantada del Ces necesitan algo o directamente abandonar el barco
Kubbatta escribió:
tonicab escribió:
licordesoma escribió:se saben ya precio y specs? o los de AMD siguen con cagalera



No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.

A finales de mes salen a la venta y el 22 de enero se presentan.


Si es un poco superior si que es para prenderles fuego.

En teoría la mejora grande viene del lado del RT que es donde más cojos estaban,si sacan a 600 euros lo mismo un poco mejor van por el desfiladero.

A ver si hacen de una vez la presentación,tras la espantada del Ces necesitan algo o directamente abandonar el barco



Lo interesante es que no es la comparación con generaciones pasadas (sean Nvidia o AMD) sino con las actuales 50 (en concreto con el modelo 5070).

Si es similar el rendimiento a la 5070 quizás tener más VRAM puede ser la diferencia. No obstante si la 5070ti termina costando en marcas más baratas como Zotac unos 800 euros, la 9070xt tendría que valer menos de 600 para que yo por ejemplo la comprara en detrimento de la 5070ti.
tonicab escribió:
Kubbatta escribió:
tonicab escribió:

No es oficial pero parece que la 9070xt puede valer unos 60-650 euros máximo y las especificaciones son como una 7900xt y en RT un poco superior a la 7900xtx. Lo que ya se sabía por otra parte.

A finales de mes salen a la venta y el 22 de enero se presentan.


Si es un poco superior si que es para prenderles fuego.

En teoría la mejora grande viene del lado del RT que es donde más cojos estaban,si sacan a 600 euros lo mismo un poco mejor van por el desfiladero.

A ver si hacen de una vez la presentación,tras la espantada del Ces necesitan algo o directamente abandonar el barco



Lo interesante es que no es la comparación con generaciones pasadas (sean Nvidia o AMD) sino con las actuales 50 (en concreto con el modelo 5070).

Si es similar el rendimiento a la 5070 quizás tener más VRAM puede ser la diferencia. No obstante si la 5070ti termina costando en marcas más baratas como Zotac unos 800 euros, la 9070xt tendría que valer menos de 600 para que yo por ejemplo la comprara en detrimento de la 5070ti.


Totalmente de acuerdo
@StudentOfLife92 yo también trabajo en la misma mesa y estoy más acostumbrado a jugar en consola, me he puesto una tele en el despacho ahora y he movido la play solo para poder cambiar, haré lo mismo con el pc si finalmente funciona un Linux y listo, para windosear ya tengo un portátil normal
@dunkam82
En un hilo de Reddit hablan de la entrevista y el FSR 4 en la serie 7000,
hay interpretaciones parecidas a la mía.

Que al principio FSR 4 necesita mucho aprendizaje y los aceleradores IA de las 7000 no son suficientes, pero que cuando FSR 4 este mas asentado y no necesite tanto aprendizaje sacaran una versión para la serie 7000

Saludos [oki] [oki]
Duron600 escribió:@dunkam82
En un hilo de Reddit hablan de la entrevista y el FSR 4 en la serie 7000,
hay interpretaciones parecidas a la mía.

Que al principio FSR 4 necesita mucho aprendizaje y los aceleradores IA de las 7000 no son suficientes, pero que cuando FSR 4 este mas asentado y no necesite tanto aprendizaje sacaran una versión para la serie 7000

Saludos [oki] [oki]

Ojalá que acabe siendo así y el mayor número de jugadores posible pueda acceder a FSR 4 y sus mejoras [beer]
Yo no creo en esta generación AMD saque gama -alta, la 9070xt será 400mm2 redondeando.

Yo creo que AMD va esperar UNDA para volver aventurarse en gama -alta y incluso top, estás gamas incluso en Nvidia vende una mierda y no muestran muchas ganancias, pero tener una arquitectura unificada como Nvidia que diseña un arquitectura base para Tesla, quadro y GeForce y va quitando cosas, hace que se pueda pensar en chip grande de serie y irlo adaptando en los diferentes mercados.

Yo creo volverá buscar eso con GCN y hoy con UNDA crear un chip grande y rentabilizarlo en servidores, profesional y gaming, el modelo actual de tener arquitecturas diferente para cada sector, era más trabajoso y caro para ellos, y no merecía diseñar chips grandes solo para gaming.
HakiGold escribió:Yo no creo en esta generación AMD saque gama -alta, la 9070xt será 400mm2 redondeando.

Yo creo que AMD va esperar UNDA para volver aventurarse en gama -alta y incluso top, estás gamas incluso en Nvidia vende una mierda y no muestran muchas ganancias, pero tener una arquitectura unificada como Nvidia que diseña un arquitectura base para Tesla, quadro y GeForce y va quitando cosas, hace que se pueda pensar en chip grande de serie y irlo adaptando en los diferentes mercados.

Yo creo volverá buscar eso con GCN y hoy con UNDA crear un chip grande y rentabilizarlo en servidores, profesional y gaming, el modelo actual de tener arquitecturas diferente para cada sector, era más trabajoso y caro para ellos, y no merecía diseñar chips grandes solo para gaming.


Realmente no es una estrategia nueva, ya pasó en la serie 5000 que no hubo gama alta, veníamos de las vega que eran caras de fabricar y no cumplieron las expectativas de rendimiento y luego pasamos a la serie 6000 que en rasterizacion competían con Nvidia y además eran más eficientes.

El problema de la serie 6000 y 7000 ha sido el raytracing y sobretodo el DLSS.

Si el RT se iguala más está generación y el FSR4 es comparable al DLSS la cosa se iguala.

El mfg de Nvidia me parece una chorrada, tiene los mismos problemas que el fg, no es algo que me haga comprar una gráfica porque para que funcione bien tiene que tener una buena base de fps, y si tiene una buena base casi que prefiero 60 sin input lag que 120 con retardo.
De hecho la Radeon RX 6600 fue considerada en su momento la mejor tarjeta en relación frames por euro, es una tarjeta que ha dado muy buen resultado sin tener que rascarse el bolsillo.

Pasa que nVidia marca el camino a seguir y eso siempre le da ventaja. Si ahora dicen que el RT es el mantra, ellos ya llevan tiempo trabajando en él y pilla a las demás con el pie cambiado. Lo mismo pasará con lo que venga detrás, jugarán con ventaja. Aquí están los motores para adaptarse a la diversidad del mercado y no convertir en obligatorio ningún "extra".
A mi la verdad que me da igual si AMD pasa de sacar gama alta, no pienso gastarme mas de 1000€ en una GPU nunca, y NVIDIA no hace mas que subir el precio de la gama alta, este año hasta unos 2400€ ...

Ojala AMD se centre en sacar tarjetas que tengan mejor relación rendimiento/precio que las tarjetas que NVIDIA saque por debajo de 1000€. Si la 9070XT rinde como la 5070Ti, y la 9070 como la 5070, pero mas baratas, eso es que AMD va por el buen camino, con eso, mejorar raytracing, y clavarla con FSR4, ya habrán hecho lo que tienen que hacer desde el punto de vista técnico.

Gastar recursos intentando competir con la 6090 que costará casi 3000€ me parecería estupido. Si de forma colateral al desarrollar la tarjeta de menos 1000 pavos ven la forma de sacar una de gama alta con poco coste de I+D, pues que la saquen.
654321 escribió:A mi la verdad que me da igual si AMD pasa de sacar gama alta, no pienso gastarme mas de 1000€ en una GPU nunca, y NVIDIA no hace mas que subir el precio de la gama alta, este año hasta unos 2400€ ...

Ojala AMD se centre en sacar tarjetas que tengan mejor relación rendimiento/precio que las tarjetas que NVIDIA saque por debajo de 1000€. Si la 9070XT rinde como la 5070Ti, y la 9070 como la 5070, pero mas baratas, eso es que AMD va por el buen camino, con eso, mejorar raytracing, y clavarla con FSR4, ya habrán hecho lo que tienen que hacer desde el punto de vista técnico.

Gastar recursos intentando competir con la 6090 que costará casi 3000€ me parecería estupido. Si de forma colateral al desarrollar la tarjeta de menos 1000 pavos ven la forma de sacar una de gama alta con poco coste de I+D, pues que la saquen.

Coincido con lo que dices, aunque yo voy a echar de menos que AMD no saque una tarjeta para competir con la gama alta (5080), porque la gama entusiasta (5090) con sus precios ya es una exageración, pero si AMD hubiera sacado una tarjeta a la altura de la 5080 pero por debajo de los 1000€ con un buen FSR 4 pues hubiera sido una opción muy interesante para mucha gente entre los que me incluyo.
AxelStone escribió:De hecho la Radeon RX 6600 fue considerada en su momento la mejor tarjeta en relación frames por euro, es una tarjeta que ha dado muy buen resultado sin tener que rascarse el bolsillo.

Pasa que nVidia marca el camino a seguir y eso siempre le da ventaja. Si ahora dicen que el RT es el mantra, ellos ya llevan tiempo trabajando en él y pilla a las demás con el pie cambiado. Lo mismo pasará con lo que venga detrás, jugarán con ventaja. Aquí están los motores para adaptarse a la diversidad del mercado y no convertir en obligatorio ningún "extra".

El RT es el nuevo Hair works y demas mierdas. Cuando la competencia este a la altura se inventaran otra mierda.
@dunkam82
Esta solo a una X para un modelo que mejore a la 9070XT, con un 15% más de rendimiento, 384 bits y 24gb ya te pones a la altura de la 5080.

Yo no descarto una futura 9070XTX

AMD es aficionada a potenciar modelos desde las RX500 hasta las RX 6950XT

Saludos [oki] [oki]
Si sacan una 9070XTX con 24GB de VRAM, tienen comprador asegurado, si el rendimiento queda similar a una 7900XTX con consumos moderados. No pido más, una gráfica asi por un máximo de 800€ se vendría a casa de salida.
dunkam82 escribió:pero si AMD hubiera sacado una tarjeta a la altura de la 5080 pero por debajo de los 1000€ con un buen FSR 4 pues hubiera sido una opción muy interesante para mucha gente entre los que me incluyo.

Ahi lo hubiesen petado, 200 pavos mas barata y con 24GB y lo parten !!!!!!
Duron600 escribió:@dunkam82
Esta solo a una X para un modelo que mejore a la 9070XT, con un 15% más de rendimiento, 384 bits y 24gb ya te pones a la altura de la 5080.

Yo no descarto una futura 9070XTX

AMD es aficionada a potenciar modelos desde las RX500 hasta las RX 6950XT

Saludos [oki] [oki]

Me temo que le haría falta bastante más de un 15% para estar a la altura de la 5080 o al menos según la tabla que han hecho en ChipHell, y si se me olvidó poner lo de los 24GB de VRAM a parte del precio.

Tabla:
Imagen
@VanSouls

Esos precios que se filtran cuando no hay stock , suelen ser bastantes más alto que los finales $600 puede ser una buena noticia, y que le veamos con precio final de $500 o menos en su salida.

Según eso parece que la 9070XT va a competir con la 5070 mas que nada ...

Encaja con las estimaciones que hacen en el foro chiphell:

Imagen
654321 escribió:Ojala AMD se centre en sacar tarjetas que tengan mejor relación rendimiento/precio que las tarjetas que NVIDIA saque por debajo de 1000€. Si la 9070XT rinde como la 5070Ti, y la 9070 como la 5070, pero mas baratas, eso es que AMD va por el buen camino, con eso, mejorar raytracing, y clavarla con FSR4, ya habrán hecho lo que tienen que hacer desde el punto de vista técnico.


Ya hemos visto varias veces cómo hacen la típica de ofrecer un poquito más que Nvidia a 50€ menos... y han fracasado una y otra vez.

Esperemos que esta vez sean agresivos de verdad.

La gente no mueve ficha para ahorrarse poca cosa.
954 respuestas