AMD RDNA3 "RX 7000" GPU.

@KailKatarn
Cierto, si quieres estar al día, con lo puntero al máximo, es probable que no haya más remedio que pasar por caja. Pero la ventaja del pc es poder ajustar las cosas a tu medida. Mientras alguien entienda que está comprando, por qué y las espectativas que hay con ello, yo no le veo problema. Claro que, si como dices, es que están pegando saltos de calidad visual, que no estan bien optimizados y vais todos corriendo, intentando ir al día con ellos. Yo personalmente no quiero participar en esa carrera, me espero a que se calme la cosa, pero quién lo haga entonces le toca correr y entiendo el mosqueo [+risas]. Suerte con ello.
Pero no es lo mismo el argumento que usabas al principio, ojo. [beer] Más que nada, intentar dar a entender bien las cosas, porque ahi no se sabe quién lee el tema, ni su situación o espectativas. De la forma que lo indicaste puede dar lugar a pánico, si no estas puesto con el tema.

@Nomada_Firefox
Bro, no te lo tomes a mal, pero por lo general, a medida que se avanza en años, la gente es más permisiva con los desacuerdos y fallas. Al menos, eso dicen los estudios. Ya cada uno luego es como es. Más que nada, tienes el gatillo muy rápido con el ignore. Las opiniones contrarias no hay que ignorarlas sinó intentar entenderlas.
Bueno, dejo el offtopic. Sigo por aquí para ver qué pasa con las 7000.
@KailKatarn ¿Videos?¿donde? en esta pagina no desde luego. :-?

@paconan yo no me quejo del plage tale, nunca lo jugaria. No me va la tematica, ni el estilo, ni nada de ese juego. El calisto creo que tampoco lo jugare porque no me van ese tipo de juegos. Soy más de repetir cosas ya jugadas y tengo pendientes otros, fijate que no he jugado ni una hora al Cyberpunk, si es que no tengo ni tiempo, ni ganas, ni na.

¿Y cuando soltais el ejemplo del farcry 6 y su pack de mega chachi texturas y las gráficas de 8 / 10 gigas?

Mirando los videos el plague se come el solo en ultra 11GB. [fiu] Ya dije hace varias respuestas que los juegos del futuro serian asi, que no traerian texturas HD opcionales, que las texturas HD vendrian de serie en la calidad maxima. Por supuesto, siempre podras bajar el detalle.

Pero tengo claro que usaran el directstorage para cargar texturas más rapido y que todas esas graficas de menos 12GB se van a *****

Pero solo en el top 20 todo lo más. En el mundo hay muchos más juegos. Hace apenas nada jugaba el Dune Spice Wars, pues es un juego de estrategia en modo acceso temprano que seguramente funcione perfectamente incluso con una grafica integrada. Tambien de acceso temprano esta el Sins of a Solar Empire 2, otro que con mucho menos va a funcionar. Esperaba tambien un juego de Star Wars de estrategia, no se sabe el titulo ni el como es pero no ha habido muchos juegos de estrategia tragones. Y eso es lo que más me gusta a mi jugar.

Yo se que por raro que parezca, podria haber seguido usando solo la GTX 1060 6GB. El Far Cry 6 todavia lo movia en ultra a más de 60fps. [sonrisa] Por eso digo que la 6800 me puede durar muchos años. Que la voy a cambiar antes, puede ser, hasta podria cambiarla dentro un año, aunque ya lo dije que seguramente me compre un Raptor Lake, si sacan el Refresh, mejor que mejor.

Y no señor KailKatarn, yo no podria comprar una 4090. Cada uno compra lo que puede. Yo nunca tuve una grafica de gama alta.

@Herionz Llevo navegando por internet desde que hay internet. Esa teoria tuya no se aplica a nadie. La gente es como es. Estan los mal tomados, los normales, los haters, los trolls, los flamers, los que tratan mal a todo el mundo y los que no les gusta que les lleven la contraria. Yo entro dentro de la gama normal desenfadada. Quizas porque soy Asturiano.

Tu seguramente entres como Kail en el no les gusta que les lleven la contraria. [beer]

Y lo de a más viejo, más noble. Es muy falso. Eso no es aplicable ni a los perros. Generalizar es falsear.

Por cierto, Sapphire no se mata mucho con el diseño.
Imagen
Lo que no veo en las fotos de https://videocardz.com/newz/sapphire-ra ... n-pictured es que traiga como la mia un conector de 3 pins para controlar con la placa base los led. Asi que igual esos led son de lo más inutiles.
@Nomada_Firefox
Tu seguramente entres como Kail en el no les gusta que les lleven la contraria.

Me parece curioso, que te tomes los comentarios de esta forma, y automáticamente intentes menospreciar a quien te los haga. Para que veas que no es así, un abrazo, y no pasa nada.
@Nomada_Firefox a parte del directstore (que hasta que los juegos lo implementen bien puede pasar un año...)
La velocidad de la vram también influye, cuanto más rápida menos se satura (hasta cierto punto) o al menos eso he visto con los años, mi 3080 los 21 o 21.5 los coge (3080 ftw3 ultra, las asus tb)
paconan escribió:a parte del directo store (que hasta que los juegos lo implementen bien puede pasar un año...
La velocidad de la vram también influye, cuanto más rápida menos se satura (hasta cierto punto) o al menos eso he visto con los años, mi 3080 los 21 o 21.5 los coge (3080 ftw3 ultra, las asus tb)

De donde no hay no puedes sacar........por más que tengas memoria GDDR6X, si te pide 11GB y tu tienes 10GB o 8 ¿que piensas que va a suceder? vas a tener unas caidas tremendas en la grafica de fps. Es lo que sucede con todas esas graficas de 8GB y eso a 1080p, a más resolución, la tragedia es peor.

Yo siempre he defendido que las RTX 30, eran mayormente graficas pensadas para minar, para ganar dinero vendiendolas sin gastar demasiado en ellas. Si hubiera habido una 3070 de 12GB, a mi me hubiera justado mucho.
Acabo de darme cuenta viendo los unboxing, que solo tienen dos salidas DP y un HDMI. Yo uso una configuración de triple monitor y necesito, al menos, 3 DP.
¿Todos los ensambles van a ser así?
@grimEol La Sapphire 7900 de esta imagen decia traer 2 DP y 2 HDMI. Dependera del modelo si traen más o menos.
Imagen
grimEol escribió:Acabo de darme cuenta viendo los unboxing, que solo tienen dos salidas DP y un HDMI. Yo uso una configuración de triple monitor y necesito, al menos, 3 DP.
¿Todos los ensambles van a ser así?


Esos son los modelos de referencia de AMD, los fabricantes pueden cambiar las salidas como ellos prefieran. Aunque siempre puedes tirar de un adaptador HDMI o USB-C a DP, que igual es más sencillo que encontrar algún modelo concreto con 3DP.


Salu2
No se si se ha puesto esto por aqui:

https://twitter.com/AMDGPU_/status/1600999844297859074

Si es correcto ni tan mal, 87% de rendimiento de una 4090
Me hace gracia que usen el mismo tipo de caja que las Nvidia FE.
Nomada_Firefox escribió:Yo entro dentro de la gama normal desenfadada.

[carcajad] [carcajad] [carcajad] Esto me ha hecho gracia. [hallow]

Haya paz, mejor echarnos unas bromas y unas risas q no estar a la greña. Pinchar vale, pero de buen rollo.
Leak 3dmark .

Resumiendo. En 4K se acerca a la 4080. Dependiendo del test. Y si ahí añadimos RT creo que la balanza, se inclina hacia la 4080. No tiene pinta que las 7900 supere la 4080 en raster puro

https://wccftech.com/amd-radeon-rx-7900 ... -rtx-4080/
La de canales chusta que hay en yt con supuestas pruebas de la 7900 y van ganando seguidores [carcajad]
(mensaje borrado)
Nomada_Firefox escribió:
paconan escribió:a parte del directo store (que hasta que los juegos lo implementen bien puede pasar un año...
La velocidad de la vram también influye, cuanto más rápida menos se satura (hasta cierto punto) o al menos eso he visto con los años, mi 3080 los 21 o 21.5 los coge (3080 ftw3 ultra, las asus tb)

De donde no hay no puedes sacar........por más que tengas memoria GDDR6X, si te pide 11GB y tu tienes 10GB o 8 ¿que piensas que va a suceder? vas a tener unas caidas tremendas en la grafica de fps. Es lo que sucede con todas esas graficas de 8GB y eso a 1080p, a más resolución, la tragedia es peor.

Yo siempre he defendido que las RTX 30, eran mayormente graficas pensadas para minar, para ganar dinero vendiendolas sin gastar demasiado en ellas. Si hubiera habido una 3070 de 12GB, a mi me hubiera justado mucho.
@Nomada_Firefox

A vera... Cuanta más rápida es la vram menos tiempo tarda la textura en procesarse (dejando hueco para las siguientes).
Que la vram se satura? Siii. Que noto bajones? Nooo. Una media de 9x "2k" muy estables.
Al igual es que mi ojo bionico es defectuoso.
O del gsyng
O que está todo el pc oceado hasta las trancas

Pero es eso, cuanta más vram chupa un juego más oc le tienes que cascar a la vram para que vaya fino.

y también no es lo mismo que te falten 3 gigas de vram para los 11 que 1 (que con oc se te pueda quedar en 0.6, 0.4).

Herionz escribió:@Nomada_Firefox
Tu seguramente entres como Kail en el no les gusta que les lleven la contraria.

Me parece curioso, que te tomes los comentarios de esta forma, y automáticamente intentes menospreciar a quien te los haga. Para que veas que no es así, un abrazo, y no pasa nada.


+1
Huele a chamusquina, por debajo de las 4080…. Vaya tela amd… y mira que tenia fe xD
@paconan Los bajones a los que yo me refiero, se traduciran en stuttering. El Gsync no arregla eso. El Gsync lo que hace es equilibrar los fps con los hz, ni más ni menos. Pero no evita los tirones de quedarte corto de memoria y no creo que por tener más ancho de banda lo arregles demasiado.

Me pregunto que haces en el tema de las RX7000 hablando de falta de vram y contando cosas que no tienen la mayoria de la gente con tu mismo equipo. :)
Ya están los resultados de 3dmark.

Imagen

En firestrike rinde por encima que la 4080 :-?

NIB1973 escribió:Leak 3dmark .

Resumiendo. En 4K se acerca a la 4080. Dependiendo del test. Y si ahí añadimos RT creo que la balanza, se inclina hacia la 4080. No tiene pinta que las 7900 supere la 4080 en raster puro

https://wccftech.com/amd-radeon-rx-7900 ... -rtx-4080/

Oops, tu también lo habías puesto. Sabes porque en firestrike da más la xtx?

Edito: me autorespondo, AMD parece saca mejores resultados en firestrike, por lo general.
No es que el 3Dmark vaya más lejos que los test de Geekbench pero bueno.
Imagen
Imagen
Esto es lo bueno de tener canal propio de discord, que puedes usarlo para postear imagenes en otros sitios.

Creo que estas graficas van a ser como siempre, un tanto por ciento inferiores a las de Nvidia y luego tendreis que descontar la diferencia del DLSS frente al FSR.
Pues si salen por 1000 pavos nada mal las AMD.
@Mendiola La cuestión es que no hay muchas posibilidades de pillarlas por 999€. Yo apostaria por más cerca de lo que cuestan las 4080, facilmente 1200 a 1300 pavos. Eso sino me quedo muy corto.
@Nomada_Firefox
Nomada_Firefox escribió:@paconan Los bajones a los que yo me refiero, se traduciran en stuttering. El Gsync no arregla eso. El Gsync lo que hace es equilibrar los fps con los hz, ni más ni menos. Pero no evita los tirones de quedarte corto de memoria y no creo que por tener más ancho de banda lo arregles demasiado.

Me pregunto que haces en el tema de las RX7000 hablando de falta de vram y contando cosas que no tienen la mayoria de la gente con tu mismo equipo. :)


Pues entonces será que tengo el ojo bionico jodio... Pero ya te digo que me va fino fino, ojalá en el valhalla tuviera ese frametime. (en ese Bench si noto suttering aunque no sature la vram)
Las 6800XT con OC pueden llegar hasta 22k en timespy y la 7900XTX se queda en 25k?

Me parece raro.
DaNi_0389 escribió:Las 6800XT con OC pueden llegar hasta 22k en timespy y la 7900XTX se queda en 25k?

Me parece raro.


Esperemos que sean con los drivers capados para evitar filtraciones y que no sean con los finales, porque esas puntuaciones son bastante decepcionantes.
DaNi_0389 escribió:Las 6800XT con OC pueden llegar hasta 22k en timespy y la 7900XTX se queda en 25k?

Me parece raro.

Ya tío, mira las 6900 xt, 28k oceadas, algo falla.
@paconan No se sabe ni que juego hablabas........ [fiu] Ni he dicho que no, has sido tu mismo el que ha dado por hecho que yo lo niego. Lo unico que afirmo es que no es lo mismo tu PC super oceado que el PC de alguien normal. ;)

@Pacorrr Hasta que no salgan las graficas no se puede creer demasiado nada. Ademas todos esos test sinteticos sin saber ni el origen no van a ningun lado.
@paconan como te veo entrando al trapo con Nomada_Firefox sobre el tema de VRAM, eres libre de dedicarle el tiempo que quieras, pero por si no lo sabías, somos varios los que que le hemos dado por imposible con ese tema de la VRAM (un ejemplo, y otro recopilando 4 mensajes siguiendo el tema con otras personas).

Para mi, mientras siga demostrando que no sabe leer creo que es inútil debatir nada de este tema de la VRAM con él.
@Kavezacomeback esa gráfica tiene que estar desactualizada, porque yo con una 6800Xt de referencia obtengo más de 20000 en el Graphics Score del TimeSpy :-|

Es cierto que cuando salió, con los drivers originales sí estaba sobre los 17K, pero con los últimos ha mejorado bastante la puntuación.

Si es puntuación total también afecta la CPU con la que esté emparejada. Yo con un 5800x3D tengo unos 17800, algo superior a lo que sale en esa gráfica también ;)


Salu2
@Kavezacomeback pues las puntuaciones siguen siendo bajas, así que algo raro hay [+risas]


Salu2
@Er_Garry desconozco si están bien o no, pero bajas si esperas alcanzar la 4090 y no la 4080 como indicaba AMD.

La 4080 rinde cerca de su hermana mayor an algunos juegos, pero en este test le da pal pelo y en general es notablemente más lenta al menos un 20% así que esperar que una xtx alcance a la 4090 en general es fantasear.
Kavezacomeback escribió:@Er_Garry desconozco si están bien o no, pero bajas si esperas alcanzar la 4090 y no la 4080 como indicaba AMD.

La 4080 rinde cerca de su hermana mayor an algunos juegos, pero en este test le da pal pelo y en general es notablemente más lenta al menos un 20% así que esperar que una xtx alcance a la 4090 en general es fantasear.


Obviamente que la XTX no va a alcanzar a la 4090, quien piense que sí vive en los mundos de Yuppie, la cosa es saber a cuanto se queda (o cuanto supera a la 4080).

Pero esas gráficas tiene pinta de que no se actualizaron desde que hicieron las reviews de las respectivas tarjetas, y al menos en AMD, los drivers con el tiempo hacen que se expriman bastante más el potencial de las mismas.

Además que tampoco dejan de ser tests sintéticos, luego habrá que ver como rinde de verdad en juego.

Porque si nos valiera con los test, mi 6800Xt rendiría como una 3090 según esto:
Imagen

Y ni de lejos XD


Salu2
Er_Garry escribió:
Kavezacomeback escribió:@Er_Garry desconozco si están bien o no, pero bajas si esperas alcanzar la 4090 y no la 4080 como indicaba AMD.

La 4080 rinde cerca de su hermana mayor an algunos juegos, pero en este test le da pal pelo y en general es notablemente más lenta al menos un 20% así que esperar que una xtx alcance a la 4090 en general es fantasear.


Obviamente que la XTX no va a alcanzar a la 4090, quien piense que sí vive en los mundos de Yuppie, la cosa es saber a cuanto se queda (o cuanto supera a la 4080).

Pero esas gráficas tiene pinta de que no se actualizaron desde que hicieron las reviews de las respectivas tarjetas, y al menos en AMD, los drivers con el tiempo hacen que se expriman bastante más el potencial de las mismas.

Además que tampoco dejan de ser tests sintéticos, luego habrá que ver como rinde de verdad en juego.

Porque si nos valiera con los test, mi 6800Xt rendiría como una 3090 según esto:
Imagen

Y ni de lejos XD


Salu2


Es del 18 de Noviembre.

Dices rinde más, ahora mira a ver que has ganado en fps en ese mismo test XD
Esos 3d Mark deben estar mal seguro, revisando puntuaciones mías he visto una de 22,8k en graphics, y las hay mejores.

https://www.3dmark.com/spy/25536192
Imagen
Kavezacomeback escribió:Imagen


Habeis visto lo infravalorada que esta la 3080 de 12Gb? Algunos la ven como una 3080 pero con mas VRAM cuando no tiene nada que ver una con la otra xD
Yo estoy atento para ver que tal rinden. Si son muy superiores a mi 3080Ti, voy a hacer el cambio.
@HaGeK supongo que no acompañara el precio. Lo cierto es que no me he fijado mucho en ella, pero no creo que supere a la Ti en juegos.
@Kavezacomeback con un modelo que tenga un chip pata negra y un perfil de afterburner bien hecho iguala a la 3080Ti de serie sin tocar nada, no digo mas. Lo del precio es otro cantar, yo la compre en oferta.
XTC908 escribió:El tema RDNA 3 empieza a pintar regular

https://www.hardwaretimes.com/amd-radeo ... 023-rumor/


También he leido justo lo contrario asi que a esperar quedan unos días para ver la realidad en esta época. Porque AMD como se sabe, saben exprimir muy bien sus gráficas y van mejorando el rendimiento más que Nvidia
Van saliendo datos, estos provienen de la base de datos de Blender, software de render 3D, se nota que ya las tienen las webs de referencia y están volcando datos 🤣. Ojo!!, puede que no sean resultados con los drivers adecuados.
Respecto al rendimiento, nada nuevo bajo el sol en lo que se refiere aplicaciones profesionales.

Por encima de la 3070, por poco.

https://www.neowin.net/news/amd-rx-7900 ... llure-you/

https://opendata.blender.org/benchmarks ... evice_name
BloodBlack está baneado por "clon de usuario baneado"
XTC908 escribió:El tema RDNA 3 empieza a pintar regular

https://www.hardwaretimes.com/amd-radeo ... 023-rumor/


Es curioso esa artículo porque abría que ver qué se refieren con "fallos" ,ya que todas las arquitectura tienen cosas que mejorar y pulir en posteriores interacciones, pero eso no es un fallo, si la arquitectura rinde lo que debe rendir según las estimaciones de sus ingeniero no seria ningún fallo, que hayan cosas que mejorar y pulir ,pues sería lo natural en un camino evolutivo de una arquitectura.

Por último el final me deja con dudas también, ya que dicen que AMD no tiene hardware real para usar dos instrucciones por clock, seria ver si se refieren al sheluder o a los CU, pero RDNA3 si tendría hardware real a nivel de CU para realizar dos instrucciones por ciclo, ya que han añadido una SIMD adicional de 32 ALU, por cual RDNA3 ahora tiene 128 ALU por CU ,en vez de 64 ALU.

Pero vamos la noticia te lo venden como rumor.
NIB1973 escribió:Van saliendo datos, estos provienen de la base de datos de Blender, software de render 3D, se nota que ya las tienen las webs de referencia y están volcando datos 🤣. Ojo!!, puede que no sean resultados con los drivers adecuados.
Respecto al rendimiento, nada nuevo bajo el sol en lo que se refiere aplicaciones profesionales.

Por encima de la 3070, por poco.

https://www.neowin.net/news/amd-rx-7900 ... llure-you/

https://opendata.blender.org/benchmarks ... evice_name


En blender siempre rinden muy por debajo, no es significativo del rendimiento en juegos, solo tienes que ver que esta muy por encima de la 6950 XT y esta en juegos (quitando ray tracing) esta muy por encima de la 3070
Es gracioso, como si déspues la gente usara Blender y quien lo usa que seguramente sea más para convertir modelos de juegos, con una RX 580 iba sobrado. [sonrisa]
Yo creo que es todo tema de drivers

Yo de momento,hasta no ver los análisis...
Nomada_Firefox escribió:Es gracioso, como si déspues la gente usara Blender y quien lo usa que seguramente sea más para convertir modelos de juegos, con una RX 580 iba sobrado. [sonrisa]


Esto va de conocer datos, números, rendimiento… para poder hacernos una idea del rendimiento en general de las 7900.

Quizás no sea igual de relevante blender que un 3dmark, pero es información que complementa al resto y facilita tener una visión más global del desempeño de la GPU.
NIB1973 escribió:
Nomada_Firefox escribió:Es gracioso, como si déspues la gente usara Blender y quien lo usa que seguramente sea más para convertir modelos de juegos, con una RX 580 iba sobrado. [sonrisa]


Esto va de conocer datos, números, rendimiento… para poder hacernos una idea del rendimiento en general de las 7900.

Quizás no sea igual de relevante blender que un 3dmark, pero es información que complementa al resto y facilita tener una visión más global del desempeño de la GPU.

Cierto pero a mi esos datos son poco relevantes porque lo que importa al final es el rendimiento en juegos.
5121 respuestas