HakiGold escribió:Nomada_Firefox escribió:CositaES escribió:La 9060 ni cotiza que será refrito.
Cierto, no se sabe si sera una 7000 o una de las 8000 nunca lanzadas. Pero lo que si da una idea, es que las caracteristicas de FSR4 no seran compatibles con las anteriores 7000.
Creo que sabe de hace tiempo que las 9060 serán RDNA 4 con el Navi 48.
No seran refritos de RDNA 3.
M@tu escribió:Yo soy muy fan de las gamas medias y más en esta época de retornos desfavorables.
Que irónico que me compré una RX 5700XT (gama media y la más potente que ofrecía AMD en 2019) y voy a renovarla con una RX 9070XT (gama media y la más potente que ofrecerá AMD en 2025). Sinceramente, creo que es la compra más inteligente cuando compras con la cabeza y no con el corazón, porque cuando entras en gama alta cada % de rendimiento que se gana aumenta los costes de manera asintótica.
La verdad, tras la RX 5700XT estoy muy contento en general. Aparte de los drivers inestables al comienzo, la tarjeta ha rendido como una campeona y he jugado a juegos actuales con presets altos al menos a 60fps. Evidentemente, sin ray tracing porque ni siquiera tiene.
Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.
M@tu escribió:Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.
Lorena99 escribió:Bueno pues ya se ha filtrado practicamente todo, superior a una rtx 4070ti y ligeramente por debajo de una 4080 en juegos con rtx, y en raster puro y juegos sin rt por encima hasta de una 4080 super.
Si finalmente hablamos de 260w para la 9070 xt y 200 w para la 9070 siendo esta ultima no muy inferior, como pasaba con la 6800xt y no xt, hablamos de las mejores tarjetas potencia/precio/consumo desde la gtx 1070 fácilmente.
De los precios si que no se sabe nada claro aun.
AxelStone escribió:Pues lo que se ha dicho, necesidades artificiales creadas por las compañías. No diré ya ni familia 4000 y 7000 respectivamente, es que si tienes una buena 3000 o 6000, ¿De verdad juegas mal?
De momento las consolas marcan bastante el ritmo, para bien o para mal, y aunque los poseedores de GPU top las acusan de frenar el avance lo cierto es que traen un poco de coherencia.
Con todo y ellos el motor más popular del momento, el UE5, las está dejando atrás...
Duron600 escribió:Salvo que tengas una serie 6000 o 3000, en el caso de los que tienen una gama medio / alta de las series 4000 y 7000:
Me choca no leer mensajes comentando porque juego o juegos, van a cambiar de GPU, ni en el hilo de AMD ni en el de NVIDIA, también se puede cambiar de GPU por pasar de QHD a 4k o de 60 a 120 o 180 o 240, pero vamos, no me queda muy claro, cual es la urgencia de cambiar una 4090 o 4080 o 7900XT o 7900XTX ¿Cacharreo?
Pocos juegos van a exprimir las GPU hasta que no llegue la PS6.
Saludos
Nomada_Firefox escribió:M@tu escribió:Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.
No es por llevar la contraria pero en las 7000 habia gama alta y ahora no hay gama alta porque no llegan al nivel de gama alta, el cual no lo marca el nombre de la tarjeta, sino el rendimiento.
Nomada_Firefox escribió:Digo esto porque AMD no es una ONG, es una empresa, no hace su estrategia para llenarnos de alegria cada mañana, la hace para ganar dinero y ya sabemos desde hace tiempo que no son la empresa del pueblo, cuando han podido, bien que cobran, todo lo que pueden y más.
Nomada_Firefox escribió:Claro que el problema de los precios son las tiendas y no los fabricantes. Cierto Nvidia hace productos caros de por si pero es que luego en las tiendas suben una barbaridad y una grafica con un precio de venta recomendado de 620€, facilmente puede acabar costando 800€ o más en las tiendas.
Lo digo porque siempre veo meterse con los fabricantes, que esta bien, pero los grandes embaucadores al final son las tiendas.
M@tu escribió:Yo soy muy fan de las gamas medias y más en esta época de retornos desfavorables.
Que irónico que me compré una RX 5700XT (gama media y la más potente que ofrecía AMD en 2019) y voy a renovarla con una RX 9070XT (gama media y la más potente que ofrecerá AMD en 2025). Sinceramente, creo que es la compra más inteligente cuando compras con la cabeza y no con el corazón, porque cuando entras en gama alta cada % de rendimiento que se gana aumenta los costes de manera asintótica.
La verdad, tras la RX 5700XT estoy muy contento en general. Aparte de los drivers inestables al comienzo, la tarjeta ha rendido como una campeona y he jugado a juegos actuales con presets altos al menos a 60fps. Evidentemente, sin ray tracing porque ni siquiera tiene.
Yo la verdad no es por ser fanboy, pero la estrategia repetida de AMD de 2019 me pone contento, ya que creo que hay que potenciar más las gamas medias. El hiperconsumismo de tarjetas gráficas de alta gama de NVIDIA está haciendo daño al mercado, y por ende, al consumidor final.
zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.
keverson303 escribió:Yo tengo tu grafica y me costo sobre 100€/120€ y fue para cambiar mi 1070gtx que la sigue usando mi hermano. Te das cuenta que la optimización de los juegos es de puta pena.
XTC908 escribió:no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.
654321 escribió:Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?
zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.
654321 escribió:XTC908 escribió:no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.
Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?
XTC908 escribió:654321 escribió:XTC908 escribió:no me hagáis mucho caso se retrasan las RDNA 4 hasta no se sabe muy bien cuando.
Para retrasarse tendrían que haber dado fecha de lanzamiento, y que yo sepa no hay fecha oficial, no ?
El NDA terminaba el 22 de enero ahora se ha retrasado sine die
Cyborg_Ninja escribió:zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.
Pues mira que no suelo estar de acuerdo con Nómada pero el cambio casi que es tontería.
Si no te vas a ir minimo a una 6800xt o una 7800xt yo ni me molestaría en hacer el cambio.
Nomada_Firefox escribió:
Que conste que yo la mande de vuelta a la tienda por que se sobrecalentaba. No me atreveria a comprar una RX 6800 de segunda zarpa por diversos motivos que no voy a decir en publico. Pero me la pagaron al 100% con un año de uso, asi que compre con poquito más una 4070Ti, fue como hacer un renting.
Si fuera tu, una 4070 de segunda mano. Tampoco te interesan los titulos más nuevos y claramente no el RT. No obstante sino necesitas más potencia ¿para que cambiar?
.
M@tu escribió:
El comercial acaba de asegurar varias veces en el CES que no hay ningún tipo de retraso con el lanzamiento, ¿y ahora se dice que sí?
No sé Rick.
zozito76 escribió:Cyborg_Ninja escribió:zozito76 escribió:Pues yo, que tengo una 3060 ti, sólo por aprovechar el mercado ahora, creo que lo que más se adaptaría a mi uso e interés, sería una rx 6800 (no xt) a buen precio. No me merece la pena gastar más.
Pues mira que no suelo estar de acuerdo con Nómada pero el cambio casi que es tontería.
Si no te vas a ir minimo a una 6800xt o una 7800xt yo ni me molestaría en hacer el cambio.
Pues no sé...si no merece la pena el cambio de 3060 ti (tampoco la iba a tirar, iría a un pc secundario) por una 6800 por la poca diferencia de rendimiento (no es lo que yo he bicheado por ahí, igual percepción errónea la mía...), tampoco tendría tanto sentido hacerlo por una 6800xt, ya que la diferencia con su hermana sí que es irrisoria, y a costa además de un 28 ó 30€ más de consumo.
Lemóniz escribió:Con las filtraciones que estan habiendo, ¿alguien me puede decir cual es la tarjeta (NVIDIA) equivalente a la futura 9070 XT y 9070?
No soy experto, a ver si los manitas me saben decir xD
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.
Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080
Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.
Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080
keverson303 escribió:Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.
Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080
La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.
Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.
Gamer1974 escribió:keverson303 escribió:Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.
Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080
La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.
Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.
Me refiero que a la gente le atraen más Nvidia que amd y por un poco más se cogen la 5070 con rendimiento 4090.
Además, el otro lastre que puede tener amd, es que van a tardar lo suyo en que juegos importantes tengan fsr4 y con los de Nvidia ya van de lanzamiento en muchos juegos. La billetera de Nvidia es muy larga
Gamer1974 escribió:keverson303 escribió:Gamer1974 escribió:Yo he sido hasta hace poco usuario siempre en CPU de amd y alguna GPU de AMD. Pero en esta generación, AMD se va a dar un batacazo enorme con las gráficas. Hasta que no lancen la udna no empezara a ver qué pasa.
Yo a ver qué haré con mi rx 7900 xtx. Pero seguro que en esta generación pasaré a una 5080
La gente no gasta mas de 300€ en una gpu, lo que venden en portatiles y escritorios son las gamas 60/70.
Para AMD esta puede ser su rx580 si la lanza a un buen precio, si se fuman un porron con el precio que se den por perdidos.
Me refiero que a la gente le atraen más Nvidia que amd y por un poco más se cogen la 5070 con rendimiento 4090.
Además, el otro lastre que puede tener amd, es que van a tardar lo suyo en que juegos importantes tengan fsr4 y con los de Nvidia ya van de lanzamiento en muchos juegos. La billetera de Nvidia es muy larga
tonicab escribió:El problema de la 5070 es el de la VRAM. 8gb es ya insuficiente y 12gb en algunos juegos.
Caniyan escribió:5070 con rendimiento de 4090
Desde luego los de Nvidia son los reyes del humo ya que la gente siempre se queda en el titular y no leen el resto de la información y aún menos la letra pequeña.
La serie 5000 ya se ha dicho por activa y por pasiva que es un 20 o a lo mucho un 25% más potentes que la generación anterior. Eso deja a la 5070 con poco más de la mitad de potencia gráfica que una 4090.
AxelStone escribió:tonicab escribió:El problema de la 5070 es el de la VRAM. 8gb es ya insuficiente y 12gb en algunos juegos.
Pero no hay anunciados modelos de 5070 con 8gb ¿no? Vamos ya sería el colmo. Y sí, 12Gb para una GPU de esa gama es bastante ridículo, es lo que equipa la Arc B580 siendo de una gama más baja pero consciente que para 1440p no podía equipar 8Gb.
Están los de nVidia con la memoria como Apple, que han estado vendiendo MacBook PRO con 8Gb hasta ayer como quien dice.
Lemóniz escribió:Con las filtraciones que estan habiendo, ¿alguien me puede decir cual es la tarjeta (NVIDIA) equivalente a la futura 9070 XT y 9070?
No soy experto, a ver si los manitas me saben decir xD
keverson303 escribió:@Gamer1974
El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.
En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.
Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.
La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.
Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.
PepeC12 escribió:keverson303 escribió:@Gamer1974
El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.
En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.
Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.
La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.
Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.
Si lo que esta claro es que necesitamos ver datos ya reales, tanto de precio como rendimiento de las graficas.
Creo que hay mucho marketing en el MFG, al final no deja de ser una chorrada, si no me equivoco sigue usando el frame actual y el anterior para calcular los del medio, sienod asi siempre va meter un input lag muy considerable (16ms a 60 fps, hablo de los fps previos al MFG), esto hace que lo puedas activar a 60 para poner 180 fps, pero yo prefiero jugar a 60fps y tener 16ms menos de input lag.
Más allá de eso, me parecen interesantes las tecnologías de reconstrucción de rayos, compresión por IA etc, pero desconozco la implementación real de las mismas, siendo empresas cerradas con software propietario no suele durar en el tiempo (por ejemplo tendrías que hacer un desarrollo ahdoc para Nvidia, siendo el referente las consolas).
Ahora bien, si la 9070xt rinde menos que la 5070ti y el precio no es significativamente menor, estamos en las mismas, por poco dinero mejor compro Nvidia que me ofrece más.
AzagraMac escribió:yo sere raro, pero me duele ver las cifras que piden por una 4090 por ejemplo.
tengo claro que la serie de gpu tanto amd como nvidia, no seré yo su cliente, tengo una 6950 XT, que no tengo intención de cambiar, y menos por las cifras que hablan.
tonicab escribió:En cuanto salga la 5080 van a tener que bajarlas de 1000 euros.
Pacorrr escribió:PepeC12 escribió:keverson303 escribió:@Gamer1974
El tema de usar IA para inventar frames no es más que una estrategia porque saben que las mejoras con silicio y reduciendo los nanómetros en cada generación son cada vez más limitadas. Ahora solo consiguen mejoras leves, algo más del 20%, y con cada nueva generación estas serán menores.
En gamas bajas es casi un chiste, y en GPUs para portátiles prima más el consumo energético que las prestaciones reales del modelo. En mi caso, juego en 1080p, la resolución menos exigente para justificar tecnologías como estas, y realmente cualquier gráfica decente basta.
Como mencioné, para diferencias de precio de 50€ o incluso hasta 100€, optaría por NVIDIA por sus tecnologías y el “por si acaso” (como necesitar CUDA para editar vídeos algún día). Pero cuando la diferencia es mayor, AMD es la opción lógica. Por ejemplo, cuando compré mi RX 5700 XT, me costó 100€ y la diferencia con una 3060 era de casi 200€, algo totalmente injustificable.
La última gran serie de AMD con gran aceptación fue la RX 580, y siguen siendo funcionales hoy en día, al igual que las GTX 1060. Aunque veas en foros a gente gastándose el sueldo de un mes en gráficas, eso no representa la realidad del mercado para la mayoría.
Si te das cuenta, la 5070 es apenas una leve mejora respecto a la 4070, y encima mantienen los 12GB de VRAM. NVIDIA siempre hace la misma jugada con la VRAM, recortándola de forma ridícula para modelos que deberían ser superiores. Esto no es nuevo, ya lo hacían con la GTX 970, donde limitaban parte de la VRAM efectiva.
Si lo que esta claro es que necesitamos ver datos ya reales, tanto de precio como rendimiento de las graficas.
Creo que hay mucho marketing en el MFG, al final no deja de ser una chorrada, si no me equivoco sigue usando el frame actual y el anterior para calcular los del medio, sienod asi siempre va meter un input lag muy considerable (16ms a 60 fps, hablo de los fps previos al MFG), esto hace que lo puedas activar a 60 para poner 180 fps, pero yo prefiero jugar a 60fps y tener 16ms menos de input lag.
Más allá de eso, me parecen interesantes las tecnologías de reconstrucción de rayos, compresión por IA etc, pero desconozco la implementación real de las mismas, siendo empresas cerradas con software propietario no suele durar en el tiempo (por ejemplo tendrías que hacer un desarrollo ahdoc para Nvidia, siendo el referente las consolas).
Ahora bien, si la 9070xt rinde menos que la 5070ti y el precio no es significativamente menor, estamos en las mismas, por poco dinero mejor compro Nvidia que me ofrece más.
Pero la gente está comprando esa chorrada, me recuerda al capítulo de Los Simpson del monorraíl
Siendo puro software, dependes de que lo implementen en los juegos, y han aplicado un capado artificial sólo dejando que lo usen las gráficas que ellos quieran me parece una guarrada, pero depende de quién haga las guarradas importa o no según parece.