RX 8000 XT / RX 9000 XT, que se sabe o se rumorea.

Yo soy muy fan de las gamas medias y más en esta época de retornos desfavorables.

Que irónico que me compré una RX 5700XT (gama media y la más potente que ofrecía AMD en 2019) y voy a renovarla con una RX 9070XT (gama media y la más potente que ofrecerá AMD en 2025). Sinceramente, creo que es la compra más inteligente cuando compras con la cabeza y no con el corazón, porque cuando entras en gama alta cada % de rendimiento que se gana aumenta los costes de manera asintótica.

La verdad, tras la RX 5700XT estoy muy contento en general. Aparte de los drivers inestables al comienzo, la tarjeta ha rendido como una campeona y he jugado a juegos actuales con presets altos al menos a 60fps. Evidentemente, sin ray tracing porque ni siquiera tiene.

Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.
HakiGold escribió:
Nomada_Firefox escribió:
CositaES escribió:La 9060 ni cotiza que será refrito.

Cierto, no se sabe si sera una 7000 o una de las 8000 nunca lanzadas. Pero lo que si da una idea, es que las caracteristicas de FSR4 no seran compatibles con las anteriores 7000.


Creo que sabe de hace tiempo que las 9060 serán RDNA 4 con el Navi 48.

No seran refritos de RDNA 3.

Pues no se. Puedes mirar esto https://videocardz.com/pixel/amd-announ ... 070-series
Es donde hablaba de que solo las 9070 soportarian FSR4 y de como no se sabe que es la 9060 exactamente.
M@tu escribió:Yo soy muy fan de las gamas medias y más en esta época de retornos desfavorables.

Que irónico que me compré una RX 5700XT (gama media y la más potente que ofrecía AMD en 2019) y voy a renovarla con una RX 9070XT (gama media y la más potente que ofrecerá AMD en 2025). Sinceramente, creo que es la compra más inteligente cuando compras con la cabeza y no con el corazón, porque cuando entras en gama alta cada % de rendimiento que se gana aumenta los costes de manera asintótica.

La verdad, tras la RX 5700XT estoy muy contento en general. Aparte de los drivers inestables al comienzo, la tarjeta ha rendido como una campeona y he jugado a juegos actuales con presets altos al menos a 60fps. Evidentemente, sin ray tracing porque ni siquiera tiene.

Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.


Totalmente de acuerdo. Aún teniendo presupuesto de sobra, soltar como mínimo 1000 cucas por una puñetera GPU para jugar con los moñecos y que no me dure una buena pila de años, no entra en mi razonamiento.

Pensar que los 630€ que pagué con (mucho) dolor por una 1080Ti en 2018, hoy serían el chollo del siglo en una gama equivalente... Ésto se ha vuelto una cosa de locos [tomaaa]
M@tu escribió:Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.

No es por llevar la contraria pero en las 7000 habia gama alta y ahora no hay gama alta porque no llegan al nivel de gama alta, el cual no lo marca el nombre de la tarjeta, sino el rendimiento.

Digo esto porque AMD no es una ONG, es una empresa, no hace su estrategia para llenarnos de alegria cada mañana, la hace para ganar dinero y ya sabemos desde hace tiempo que no son la empresa del pueblo, cuando han podido, bien que cobran, todo lo que pueden y más.

Y ojo, que como se vendan como rosquillas, cosa que dudo porque costaran como una 5070 o incluso puede que más, pues seguramente eso hara que suba todavia más el precio.

Claro que el problema de los precios son las tiendas y no los fabricantes. Cierto Nvidia hace productos caros de por si pero es que luego en las tiendas suben una barbaridad y una grafica con un precio de venta recomendado de 620€, facilmente puede acabar costando 800€ o más en las tiendas.

Lo digo porque siempre veo meterse con los fabricantes, que esta bien, pero los grandes embaucadores al final son las tiendas.
Lorena99 no podrá escribir en este subforo hasta dentro de 1 hora
Bueno pues ya se ha filtrado practicamente todo, superior a una rtx 4070ti y ligeramente por debajo de una 4080 en juegos con rtx, y en raster puro y juegos sin rt por encima hasta de una 4080 super.

Si finalmente hablamos de 260w para la 9070 xt y 200 w para la 9070 siendo esta ultima no muy inferior, como pasaba con la 6800xt y no xt, hablamos de las mejores tarjetas potencia/precio/consumo desde la gtx 1070 fácilmente.

De los precios si que no se sabe nada claro aun.
Lorena99 escribió:Bueno pues ya se ha filtrado practicamente todo, superior a una rtx 4070ti y ligeramente por debajo de una 4080 en juegos con rtx, y en raster puro y juegos sin rt por encima hasta de una 4080 super.

Si finalmente hablamos de 260w para la 9070 xt y 200 w para la 9070 siendo esta ultima no muy inferior, como pasaba con la 6800xt y no xt, hablamos de las mejores tarjetas potencia/precio/consumo desde la gtx 1070 fácilmente.

De los precios si que no se sabe nada claro aun.



Dijeron que iban a superar los 300w, al menos las gráficas customs de 9070xt.

Estoy ya harto de especulaciones de estos meses y estoy deseando que salgan ya para comprar una.

Eso sí, yo no compro gráfica sin ver rendimientos objetivos ni tampoco sin estar todas en el mercado. Por eso las FE aunque pudiera (que dudo que se pueda) no me interesan.
AxelStone escribió:Pues lo que se ha dicho, necesidades artificiales creadas por las compañías. No diré ya ni familia 4000 y 7000 respectivamente, es que si tienes una buena 3000 o 6000, ¿De verdad juegas mal?

De momento las consolas marcan bastante el ritmo, para bien o para mal, y aunque los poseedores de GPU top las acusan de frenar el avance lo cierto es que traen un poco de coherencia.

Con todo y ellos el motor más popular del momento, el UE5, las está dejando atrás...
Duron600 escribió:Salvo que tengas una serie 6000 o 3000, en el caso de los que tienen una gama medio / alta de las series 4000 y 7000:
Me choca no leer mensajes comentando porque juego o juegos, van a cambiar de GPU, ni en el hilo de AMD ni en el de NVIDIA, también se puede cambiar de GPU por pasar de QHD a 4k o de 60 a 120 o 180 o 240, pero vamos, no me queda muy claro, cual es la urgencia de cambiar una 4090 o 4080 o 7900XT o 7900XTX ¿Cacharreo?

Pocos juegos van a exprimir las GPU hasta que no llegue la PS6.

Saludos [oki] [oki]

Os respondo a los dos y así mato 2 pájaros de 1 tiro.

En mi caso tengo una 3080 y juego en una pantalla OLED 55" 4K con VRR y 120 Hz de refresco a parte de ser usuario de unas Quest 3 y jugar a PCVR a parte de los juegos nativos de las Quest.

Para jugar a 4K la 3080 hay determinadas situaciones en las que se me va quedando corta, tengo que ir bajando algunas cositas por temas de VRAM a parte de rendimiento y luego juegos que bueno le falta el puntito de potencia para tener una mejor experiencia.

Por otro lado me gustaría disfrutar del Ray Tracing cosa que jugando con la 3080 en 4K pues no es muy recomendable activar en la gran mayoría de juegos por la caída de rendimiento que supone.

En cuanto a jugar a PCVR pues aquí tenemos 2 claves:
- Juegos PCVR nativos: en este caso lo ideal es hacer super sampling para mejorar la calidad y nitidez en las gafas, necesito más potencia para poner valores más altos de super sampling
- Juegos planos que se transforman en VR mediante mods: en este caso suele ser juegos muy demandantes de potencia para tener una buena experiencia de juego, más demandantes que jugarlos en plano

Y bueno de juegos que tengo en mi biblioteca que me gustaría aprovechar la mayor potencia de la nueva gráfica pues los primeros nombres que se me vienen a la cabeza pensando en jugarlos a tope con ray tracing y demás pues son el Indiana Jones, Silent Hill 2, The Last of Us, Spiderman Remastered, Control Ultimate Edition ...

En cuanto a VR pues hay cosas que ya juego a buena calidad pero me encantaría jugarlas a mayor calidad aún como el Half Life Alyx, el Asgard Wrath o el F1 a los que podría subirles más los niveles de detalle y el hacer más super sampling

Y luego tendría casos especiales como el Cyberpunk 2077 que me gustaría darle una 2ª vuelta (me lo pasé de lanzamiento en la Series X) y en este caso dudaría de si hacerlo en plano con Ray Tracing y Path Tracing todo a tope o de si olvidarme del Ray Tracing y jugarlo en VR con el mod de Luke Ross
Nomada_Firefox escribió:
M@tu escribió:Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.

No es por llevar la contraria pero en las 7000 habia gama alta y ahora no hay gama alta porque no llegan al nivel de gama alta, el cual no lo marca el nombre de la tarjeta, sino el rendimiento.

Claro, y con la RX 5700XT tampoco lo hubo y me ha durado casi 6 años. La verdad es que estoy contento con la compra y el uso que le he dado.

Nomada_Firefox escribió:Digo esto porque AMD no es una ONG, es una empresa, no hace su estrategia para llenarnos de alegria cada mañana, la hace para ganar dinero y ya sabemos desde hace tiempo que no son la empresa del pueblo, cuando han podido, bien que cobran, todo lo que pueden y más.

No me malinterpretes, no me caso con absolutamente nadie. Sí me gusta la filosofía de AMD por el movimiento de GPU Open y por apoyar tanto a la única API gráfica open source, Vulkan, pero tengo clarísimo que como toda empresa, si estuviese en la posición de NVIDIA, se marcaría un NVIDIA. Decido tirar de AMD porque juego en Linux y su apoyo al open source se nota en sus drivers, que son la hostia.

Nomada_Firefox escribió:Claro que el problema de los precios son las tiendas y no los fabricantes. Cierto Nvidia hace productos caros de por si pero es que luego en las tiendas suben una barbaridad y una grafica con un precio de venta recomendado de 620€, facilmente puede acabar costando 800€ o más en las tiendas.

Lo digo porque siempre veo meterse con los fabricantes, que esta bien, pero los grandes embaucadores al final son las tiendas.

En esto estamos de acuerdo. Mucho mamoneo en este mercado con proveedores y tiendas.
Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.
M@tu escribió:Yo soy muy fan de las gamas medias y más en esta época de retornos desfavorables.

Que irónico que me compré una RX 5700XT (gama media y la más potente que ofrecía AMD en 2019) y voy a renovarla con una RX 9070XT (gama media y la más potente que ofrecerá AMD en 2025). Sinceramente, creo que es la compra más inteligente cuando compras con la cabeza y no con el corazón, porque cuando entras en gama alta cada % de rendimiento que se gana aumenta los costes de manera asintótica.

La verdad, tras la RX 5700XT estoy muy contento en general. Aparte de los drivers inestables al comienzo, la tarjeta ha rendido como una campeona y he jugado a juegos actuales con presets altos al menos a 60fps. Evidentemente, sin ray tracing porque ni siquiera tiene.

Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.


Yo tengo tu grafica y me costo sobre 100€/120€ y fue para cambiar mi 1070gtx que la sigue usando mi hermano. Te das cuenta que la optimización de los juegos es de puta pena.
zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.

Eso seria casi el peor cambio del año. El peor que he visto, fue alguien comprando una grafica nueva de Nvidia hace poco.

Pero se da el caso que yo he tenido una 3060Ti y luego una RX 6800 no XT. Y la diferencia no es mucha en raster que se diga, por no decir nula y los 16GB de la RX no te van a servir de nada.

Yo la use en 1080p y en 1440p. Tambien acuerdo, incluso lo tengo grabado y publicado que la diferencia de la 3060 y la 3060Ti en 1080p era nula. Solo en 1440p la 3060Ti tenia más musculo pero no tanto. Pero si que para juegos triple A actuales sus 8GB a cualquier resolución son un problema.

Tambien eso me recuerda, que solemos recomendar la RTX 4060 por encima de la 3060 pero a la 4060, el generador de frames les sirve para limpiarse el ***** porque el simple hecho de usarlo, hace que gaste memoria grafica. Es algo que va a mejorar con el DLSS4 proximamente, pero creo que sus 8GB seguiran siendo insuficientes por eso mismo.

Que conste que yo la mande de vuelta a la tienda por que se sobrecalentaba. No me atreveria a comprar una RX 6800 de segunda zarpa por diversos motivos que no voy a decir en publico. Pero me la pagaron al 100% con un año de uso, asi que compre con poquito más una 4070Ti, fue como hacer un renting. :)

Si fuera tu, una 4070 de segunda mano. Tampoco te interesan los titulos más nuevos y claramente no el RT. No obstante sino necesitas más potencia ¿para que cambiar?

keverson303 escribió:Yo tengo tu grafica y me costo sobre 100€/120€ y fue para cambiar mi 1070gtx que la sigue usando mi hermano. Te das cuenta que la optimización de los juegos es de puta pena.

Me hace mucha gracia cuando lo escribis asi. Como si los unicos juegos que existen, sean los triple A. Pero hay muchos más juegos de PC, no tanto con titulos de acción, en las mal llamadas empresas Indie y en esos titulos una grafica de 6 años para aca o simplemente esa 1070, cualquiera de ellas, con esos titulos vuelan.

Y respecto a la optimización mala de los triple A, yo no pienso que sea mala, pienso que es deliberada. No les interesa que vuelen en el hardware de PC porque hay detras todo un negocio de venta de componentes. Cosa que en las consolas no hay.
no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.
XTC908 escribió:no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.

Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?
654321 escribió:Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?

Estamos llenos de clones.........usuarios de 200 mensajes creados hace dos dias. Que extraña coincidencia....... [facepalm]
zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.


Pues mira que no suelo estar de acuerdo con Nómada pero el cambio casi que es tontería.

Si no te vas a ir minimo a una 6800xt o una 7800xt yo ni me molestaría en hacer el cambio.
654321 escribió:
XTC908 escribió:no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.

Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?


El NDA terminaba el 22 de enero ahora se ha retrasado sine die
XTC908 escribió:
654321 escribió:
XTC908 escribió:no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.

Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?


El NDA terminaba el 22 de enero ahora se ha retrasado sine die


Fuente?
Cyborg_Ninja escribió:
zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.


Pues mira que no suelo estar de acuerdo con Nómada pero el cambio casi que es tontería.

Si no te vas a ir minimo a una 6800xt o una 7800xt yo ni me molestaría en hacer el cambio.


Pues no sé...si no merece la pena el cambio de 3060 ti (tampoco la iba a tirar, iría a un pc secundario) por una 6800 por la poca diferencia de rendimiento (no es lo que yo he bicheado por ahí, igual percepción errónea la mía...), tampoco tendría tanto sentido hacerlo por una 6800xt, ya que la diferencia con su hermana sí que es irrisoria, y a costa además de un 28 ó 30€ más de consumo.
Nomada_Firefox escribió:
Que conste que yo la mande de vuelta a la tienda por que se sobrecalentaba. No me atreveria a comprar una RX 6800 de segunda zarpa por diversos motivos que no voy a decir en publico. Pero me la pagaron al 100% con un año de uso, asi que compre con poquito más una 4070Ti, fue como hacer un renting. :)

Si fuera tu, una 4070 de segunda mano. Tampoco te interesan los titulos más nuevos y claramente no el RT. No obstante sino necesitas más potencia ¿para que cambiar?
.


Pues dimeló en privado XD .
He estado mirando 4070 por walla (que es donde encuentro), y ni de coña voy a pagar esos precios.

El comercial acaba de asegurar varias veces en el CES que no hay ningún tipo de retraso con el lanzamiento, ¿y ahora se dice que sí?

No sé Rick.
Yo no se chino, pero un usuario comenta en ese twit que lo que dicen en Chiphell es que AMD está esperando a tener información real del rendimiento de las NVIDIA para ver si suben o bajan el precio de las 9070.

Si es así espero que las NVIDIA sean la hostia, porque si me saca AMD la 9070 XT a 550 euros me pillo 2.
Yo tampoco sé chino pero el traductor de Chrome hace un buen trabajo.

Y en cuanto a los leaks, pues siempre se tiende a dar mayor verosimilitud a aquellos que concuerdan con nuestros gustos y/o intereses que a los que no lo hacen, o chocan directamente con nuestras opiniones o expectativas, aunque provengan del mismo leaker. Nada nuevo, semos asín.
M@tu escribió:

El comercial acaba de asegurar varias veces en el CES que no hay ningún tipo de retraso con el lanzamiento, ¿y ahora se dice que sí?

No sé Rick.

Lo que diga el comercial ...
Llega un mandamás ,dice ahora que hay que esperar ,y ya pueden decir lo que quieran...
zozito76 escribió:
Cyborg_Ninja escribió:
zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.


Pues mira que no suelo estar de acuerdo con Nómada pero el cambio casi que es tontería.

Si no te vas a ir minimo a una 6800xt o una 7800xt yo ni me molestaría en hacer el cambio.


Pues no sé...si no merece la pena el cambio de 3060 ti (tampoco la iba a tirar, iría a un pc secundario) por una 6800 por la poca diferencia de rendimiento (no es lo que yo he bicheado por ahí, igual percepción errónea la mía...), tampoco tendría tanto sentido hacerlo por una 6800xt, ya que la diferencia con su hermana sí que es irrisoria, y a costa además de un 28 ó 30€ más de consumo.


A ver, la 6800xt es un 15% más potente que la 6800, pero realmente lo que te quiero decir es que ya puestos a cambiar tirando "a lo bajo" mejor una 6800xt viniendo de una 3060ti que una 6800, no creo que haya una diferencia muy grande de precio y ya sería como pasar de una 3060ti a una 3080.

Al menos así ya hay un buen salto, con una 6800 el salto aunque existente sería más discreto.
Con las filtraciones que estan habiendo, ¿alguien me puede decir cual es la tarjeta (NVIDIA) equivalente a la futura 9070 XT y 9070?

No soy experto, a ver si los manitas me saben decir xD
Lemóniz escribió:Con las filtraciones que estan habiendo, ¿alguien me puede decir cual es la tarjeta (NVIDIA) equivalente a la futura 9070 XT y 9070?

No soy experto, a ver si los manitas me saben decir xD

A la espera de ver análisis oficiales de la serie 5000, parece que estará rondando entre el nivel de una 4070ti y una 4080 super, lo que en principio equivaldría a su vez a una 5070.
@Cyborg_Ninja

Voy a esperar a ver cómo evoluciona ésto, tenéis razón.
Slogan 2026, RTX6070 Rinde como la 5090 a 500€

Por otro lado:
La MSI 5090 Con 5 ventiladores y un extintor de regalo.

Imagen

Saludos [oki] [oki]
Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.

Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.

Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080


No es por nada pero el salto de RDNA3 a RDNA4 es mayor que el de la serie 5000 con respecto a la 4000

La serie 5000 tiene hasta el mismo proceso de fabricación, son las mismas gpu con mejoras en IA y raytracing, algo que tambien tiene RDNA4 respecto a RDNA3, RDNA4 al menos si tiene un proceso de fabricacion nuevo y mejoras en eficiencia
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.

Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080


La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.

Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.
Si no hay retrasos el anunció para el evento a más tardar lunes o martes, se debería dar conocer estos días.

Si no se anuncia ningun evento está semana , a lo mejor si hay retraso.
keverson303 escribió:
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.

Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080


La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.

Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.


Me refiero que a la gente le atraen más Nvidia que amd y por un poco más se cogen la 5070 con rendimiento 4090.

Además, el otro lastre que puede tener amd, es que van a tardar lo suyo en que juegos importantes tengan fsr4 y con los de Nvidia ya van de lanzamiento en muchos juegos. La billetera de Nvidia es muy larga
Gamer1974 escribió:
keverson303 escribió:
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.

Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080


La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.

Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.


Me refiero que a la gente le atraen más Nvidia que amd y por un poco más se cogen la 5070 con rendimiento 4090.

Además, el otro lastre que puede tener amd, es que van a tardar lo suyo en que juegos importantes tengan fsr4 y con los de Nvidia ya van de lanzamiento en muchos juegos. La billetera de Nvidia es muy larga


El problema de la 5070 es el de la VRAM. 8gb es ya insuficiente y 12gb en algunos juegos.
Gamer1974 escribió:
keverson303 escribió:
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.

Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080


La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.

Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.


Me refiero que a la gente le atraen más Nvidia que amd y por un poco más se cogen la 5070 con rendimiento 4090.

Además, el otro lastre que puede tener amd, es que van a tardar lo suyo en que juegos importantes tengan fsr4 y con los de Nvidia ya van de lanzamiento en muchos juegos. La billetera de Nvidia es muy larga


Lo de "por un poco más se cogen la 5070 con rendimiento 4090" lo dices de broma ¿no?.

Amd desde hace ya tiempo puede implementar por driver el Radeon Super Resolution, para reescalar cualquier juego , independientemente de que tenga implementado el FSR o no y el AMD Fluid motion frames 2 para generar frames .
tonicab escribió:El problema de la 5070 es el de la VRAM. 8gb es ya insuficiente y 12gb en algunos juegos.


Pero no hay anunciados modelos de 5070 con 8gb ¿no? Vamos ya sería el colmo. Y sí, 12Gb para una GPU de esa gama es bastante ridículo, es lo que equipa la Arc B580 siendo de una gama más baja pero consciente que para 1440p no podía equipar 8Gb.

Están los de nVidia con la memoria como Apple, que han estado vendiendo MacBook PRO con 8Gb hasta ayer como quien dice.
5070 con rendimiento de 4090 [qmparto] [qmparto] [qmparto]

Desde luego los de Nvidia son los reyes del humo ya que la gente siempre se queda en el titular y no leen el resto de la información y aún menos la letra pequeña.

La serie 5000 ya se ha dicho por activa y por pasiva que es un 20 o a lo mucho un 25% más potentes que la generación anterior. Eso deja a la 5070 con poco más de la mitad de potencia gráfica que una 4090.
Caniyan escribió:5070 con rendimiento de 4090 [qmparto] [qmparto] [qmparto]

Desde luego los de Nvidia son los reyes del humo ya que la gente siempre se queda en el titular y no leen el resto de la información y aún menos la letra pequeña.

La serie 5000 ya se ha dicho por activa y por pasiva que es un 20 o a lo mucho un 25% más potentes que la generación anterior. Eso deja a la 5070 con poco más de la mitad de potencia gráfica que una 4090.

Es que es de traca. [carcajad]
y triste a la vez. Esos titulares falsos cuajan y aún peor, hay quien los defiende como ciertos.

Nadie da duros a pesetas. Tenedlo claro.
Todo lo demás, es humo. ratataaaa
AxelStone escribió:
tonicab escribió:El problema de la 5070 es el de la VRAM. 8gb es ya insuficiente y 12gb en algunos juegos.


Pero no hay anunciados modelos de 5070 con 8gb ¿no? Vamos ya sería el colmo. Y sí, 12Gb para una GPU de esa gama es bastante ridículo, es lo que equipa la Arc B580 siendo de una gama más baja pero consciente que para 1440p no podía equipar 8Gb.

Están los de nVidia con la memoria como Apple, que han estado vendiendo MacBook PRO con 8Gb hasta ayer como quien dice.


No hay 5070 con 8gb pero sí artículos que dicen que es insuficiente ya 8gb.
12gb a corto plazo lo mismo por mucho que diga NVIDIA que ha reducido el consumo de VRAM, cuando la realidad es que lo ha reducido 500mb que es irrelevante ya que es menos de un 5%.
Ya hay juegos que consumen 12-13gb y si tienes 20gb pueden consumir hasta 16gb.
Mirad este video del CES con las gráficas reales de amd, de Asus, gigabyte, etc. Se ve que usan el conector antiguo para la fuente de alimentación. Minuto 9:54 es de las gráficas

Lemóniz escribió:Con las filtraciones que estan habiendo, ¿alguien me puede decir cual es la tarjeta (NVIDIA) equivalente a la futura 9070 XT y 9070?

No soy experto, a ver si los manitas me saben decir xD


piensa que han cambiado la nomeclatura para que sean fáciles de comparar con nvidia
@Gamer1974

El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.

En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.

Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.

La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.

Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.
keverson303 escribió:@Gamer1974

El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.

En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.

Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.

La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.

Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.



Si lo que esta claro es que necesitamos ver datos ya reales, tanto de precio como rendimiento de las graficas.

Creo que hay mucho marketing en el MFG, al final no deja de ser una chorrada, si no me equivoco sigue usando el frame actual y el anterior para calcular los del medio, sienod asi siempre va meter un input lag muy considerable (16ms a 60 fps, hablo de los fps previos al MFG), esto hace que lo puedas activar a 60 para poner 180 fps, pero yo prefiero jugar a 60fps y tener 16ms menos de input lag.

Más allá de eso, me parecen interesantes las tecnologías de reconstrucción de rayos, compresión por IA etc, pero desconozco la implementación real de las mismas, siendo empresas cerradas con software propietario no suele durar en el tiempo (por ejemplo tendrías que hacer un desarrollo ahdoc para Nvidia, siendo el referente las consolas).

Ahora bien, si la 9070xt rinde menos que la 5070ti y el precio no es significativamente menor, estamos en las mismas, por poco dinero mejor compro Nvidia que me ofrece más.
AMD si quiere aumentar cuota de mercado debe ofrecer al menos el mismo rendimiento que Nvidia por 100€ menos de diferencia o inferior
PepeC12 escribió:
keverson303 escribió:@Gamer1974

El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.

En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.

Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.

La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.

Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.



Si lo que esta claro es que necesitamos ver datos ya reales, tanto de precio como rendimiento de las graficas.

Creo que hay mucho marketing en el MFG, al final no deja de ser una chorrada, si no me equivoco sigue usando el frame actual y el anterior para calcular los del medio, sienod asi siempre va meter un input lag muy considerable (16ms a 60 fps, hablo de los fps previos al MFG), esto hace que lo puedas activar a 60 para poner 180 fps, pero yo prefiero jugar a 60fps y tener 16ms menos de input lag.

Más allá de eso, me parecen interesantes las tecnologías de reconstrucción de rayos, compresión por IA etc, pero desconozco la implementación real de las mismas, siendo empresas cerradas con software propietario no suele durar en el tiempo (por ejemplo tendrías que hacer un desarrollo ahdoc para Nvidia, siendo el referente las consolas).

Ahora bien, si la 9070xt rinde menos que la 5070ti y el precio no es significativamente menor, estamos en las mismas, por poco dinero mejor compro Nvidia que me ofrece más.

Pero la gente está comprando esa chorrada, me recuerda al capítulo de Los Simpson del monorraíl [qmparto]

Siendo puro software, dependes de que lo implementen en los juegos, y han aplicado un capado artificial sólo dejando que lo usen las gráficas que ellos quieran me parece una guarrada, pero depende de quién haga las guarradas importa o no según parece.
yo sere raro, pero me duele ver las cifras que piden por una 4090 por ejemplo.

tengo claro que la serie de gpu tanto amd como nvidia, no seré yo su cliente, tengo una 6950 XT, que no tengo intención de cambiar, y menos por las cifras que hablan.
AzagraMac escribió:yo sere raro, pero me duele ver las cifras que piden por una 4090 por ejemplo.

tengo claro que la serie de gpu tanto amd como nvidia, no seré yo su cliente, tengo una 6950 XT, que no tengo intención de cambiar, y menos por las cifras que hablan.



En cuanto salga la 5080 van a tener que bajarlas de 1000 euros.
@tonicab
tonicab escribió:En cuanto salga la 5080 van a tener que bajarlas de 1000 euros.


Muy por debajo de los 1000€ no creo que las bajen todavía, porque son una opción muy buena para inteligencia artificial gracias a la VRAM que llevan. En Nvidia han sido muy listos con cómo distribuyen la VRAM de sus gráficas.
Pacorrr escribió:
PepeC12 escribió:
keverson303 escribió:@Gamer1974

El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.

En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.

Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.

La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.

Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.



Si lo que esta claro es que necesitamos ver datos ya reales, tanto de precio como rendimiento de las graficas.

Creo que hay mucho marketing en el MFG, al final no deja de ser una chorrada, si no me equivoco sigue usando el frame actual y el anterior para calcular los del medio, sienod asi siempre va meter un input lag muy considerable (16ms a 60 fps, hablo de los fps previos al MFG), esto hace que lo puedas activar a 60 para poner 180 fps, pero yo prefiero jugar a 60fps y tener 16ms menos de input lag.

Más allá de eso, me parecen interesantes las tecnologías de reconstrucción de rayos, compresión por IA etc, pero desconozco la implementación real de las mismas, siendo empresas cerradas con software propietario no suele durar en el tiempo (por ejemplo tendrías que hacer un desarrollo ahdoc para Nvidia, siendo el referente las consolas).

Ahora bien, si la 9070xt rinde menos que la 5070ti y el precio no es significativamente menor, estamos en las mismas, por poco dinero mejor compro Nvidia que me ofrece más.

Pero la gente está comprando esa chorrada, me recuerda al capítulo de Los Simpson del monorraíl [qmparto]

Siendo puro software, dependes de que lo implementen en los juegos, y han aplicado un capado artificial sólo dejando que lo usen las gráficas que ellos quieran me parece una guarrada, pero depende de quién haga las guarradas importa o no según parece.


Pasate por el hilo de la 5000, hay un usuario vendiendo que la rasterizacion y Frames reales son cosas del pasado y ya no importa, que lo importante son las 4 tecnologías de IA que implementara Nvidia en los 5 juegos patrocinados por ellos XD.
954 respuestas
116, 17, 18, 19, 20