RX 8000 XT / RX 9000 XT, que se sabe o se rumorea.

kalanndrakas escribió:Llevo casi 5 años con la AMD RX6800 XT juego en 3440*1440 y a día de hoy sigo jugando a tope con casi todos los juegos, incluido Indiana Jones, etc,,, y con fps altos....es una tarjeta que esta envejeciendo de maravilla, nunca me he sentido con la necesidad de los reflejos e iluminación del RT, nunca he tenido problemas con drivers....y por supuesto que si AMD saca una buena RX8800XT a un precio contenido, será la siguiente compra por mi parte....

+1, estoy pendiente de cambiar porque he estrenado oled y me molaria meterle rtx y esas cosas, pero es por lo unico, sigo jugando a todo 1440p e incluso 4k perfectamente, me la compre por un rma que me devolvieron la pasta de una 3070 por 599 y mega encantado.

A ver que sacan tanto los verdes como los rojos, si el salto es significativo para mi uso, doy el salto, sino la aguanto un tiempo mas
Duron600 escribió:El precio que se pone a un producto, no solo depende del coste de fabricación, no es baladí, recordar que el precio es una de las 4 p en marketing, AMD puede poner un precio muy agresivo de 550€, para situar su producto en el mercado en la gama alta frente a las 5070 normal y ti.


Muy cierto. No sabemos cual puede ser su estrategia comercial.

También podrían poner un precio inicial de 599 € y en función del precio que ponga Nvidia hacer una bajada en pocas semanas de 50-30 €.

Duron600 escribió:Por otro lado, alguien tiene información que arroje más luz al incremento del rendimiento en RT de un 45%, ¿es por usar más unidades de computo para RT?, ¿es por mejorar y optimizar el modo en que se calcula y aplica el RT?


Si tienes 4 CUs más, pues tienes 4 aceleradores de rayos extra, pero esa mejora es pequeña.

Es más por lo segundo que comentas, los aceleradores de rayos de tercera generación se optimizan mejor para ciertos calculos de RT. Son más eficientes en el manejo de estructuras BVH y en cálculos de intersección.

Duron600 escribió:Lo digo porque quizás, las RX7000 acaben beneficiándose de las optimizaciones en RT si en un % dependen de optimización de drivers y si finalmente el FSR4 acaba siendo compatible para las RX7000


No hay ninguna razón para que no sea compatible FSR 4 con las RX 7000. Tienen dos emisores de IA por cada CU, así que aunque sean de una generación anterior los "núcleos" de IA, deberían ofrecer compatibilidad con FSR 4, aunque seguramente de forma menos eficiente que con respecto a las RX 8000.

Las que sin duda se quedan fuera del FSR 4 son las RX 6000. Ya que no tienen unidades de procesamiento de IA dentro de las CUs. Probablemente por esa razón no han podido implementar PSSR en la GPU de PS5 basada en RDNA 2.

En el tema de la IA no debería haber un cambio significativo hasta las RX 9000. La combinación de la arquitectura RDNA y CDNA en UDNA, debería dar pie a tener verdaderos núcleos dedicados a la IA, como los Tensor Cores de Nvidia. Pueden meter algunos Matrix Cores de CDNA custom para su gama doméstica en la arquitectura UDNA.

Respecto al tema de que las RX 7000 puedan beneficiarse de una mejora en RT. Al no tener los aceleradores de rayos de tercera generación, no pueden sacar partido a las mejoras de la arquitectura RDNA 4.

Siempre puedes mejorar el rendimiento de las RX 7000 optimizando drivers y APIs, pero eso no cierra la brecha de una arquitectura a otra, es algo de lo que se benefician también las RX 8000.
@Sicopro

Gracias, muy interesante.
Contemplaba la posibilidad de que las instrucciones que usan los aceleradores de trazado de rayos, pudieran actualizarse con mejoras y optimizaciones. Vía actualizar BIOS de la GPU, por ejemplo.

Esa es otra cuestión que planteo, ¿por que no se actualizan las BIOS de las GPU? de forma oficial y con más frecuencia. Seguro que desde que salió mi placa hasta ahora, hay cabida para mejoras por BIOS. Afinar más el consumo por ejemplo.

Saludos [oki] [oki]
Duron600 escribió:Esa es otra cuestión que planteo, ¿por que no se actualizan las BIOS de las GPU? de forma oficial y con más frecuencia. Seguro que desde que salió mi placa hasta ahora, hay cabida para mejoras por BIOS. Afinar más el consumo por ejemplo.


Es más fácil hacerlo vía drivers y lo gestionas con software.

La mayoría de la gente ni siquiera se molesta en actualizar la BIOS de la placa base como para ponerles a actualizar la VBIOS. [carcajad]

Tienes poco que ganar con un nuevo firmware para la VBIOS, así que no merece mucho la pena. En una placa base puede tener más sentido por nuevas funcionalidades o incluso vulnerabilidades, pero una GPU en ese sentido es más simple, lo puedes gestionar vía drivers, incluso temas de consumo y rendimiento en general.

Tendría que haber algún problema gordo para que merezca la pena actualizar la VBIOS.

Duron600 escribió:Contemplaba la posibilidad de que las instrucciones que usan los aceleradores de trazado de rayos, pudieran actualizarse con mejoras y optimizaciones. Vía actualizar BIOS de la GPU, por ejemplo.


Lo que si puede ser posible es que metan unos nuevos drivers también para las RX 7000 al salir las RX 8000, y que quizás esa nueva versión de drivers contengan algunas optimizaciones para RT.

Pero a nivel de VBIOS no puedes hacer nada para aprovechar la arquitectura RDNA 4 desde una RX 7000. Hay una parte del hardware que físicamente no existe en RDNA 3.

Ahora bien, podrían vía drivers incluir algún aspecto de la arquitectura RDNA 4 en RDNA 3, pues tal vez, no es algo que se pueda descartar del todo, pero no he podido leer nada al respecto.

En cualquier caso, no sería algo significativo, hablamos siempre de aspectos menores que pudieran trasladarse de RDNA 4 a RDNA 3.

Te pongo un artículo que tiene bastante información sobre este tema:

AMD RDNA 4 info leak confirms RT performance is getting boosted but could fall short of a major hardware redesign

Por resumir un poco el artículo:

- RDNA 4 no parece tener ASICs como Nvidia. Es decir, núcleos dedicados como los RT Cores.

- El motor de doble intersección para RT es algo probablemente integrado en las unidades de aceleración de trazado de rayos dentro de las CUs. No es un ASIC, pero es un cambio a nivel de hardware en las unidades de aceleración de trazado de rayos. Seguramente sea la principal característica de los núcleos de tercera generación.

- Lo del motor de doble intersección se refiere probablemente al doble de cálculos de intersección de rayos. Pero también podrían ser dos unidades de trazado de rayos por cada CU (lo dudo).

- Todo lo anterior implica cambios en la estructura física y el diseño de las CUs.

Tal vez no veamos ASICs para RT hasta UDNA y las RX 9000. AMD tiene que recortar distancia en ese aspecto con Nvidia, así que RDNA 4 es un primer paso. El segundo paso debería ser recortar más distancia en el tema del RT y de la IA con UDNA, ahí deberíamos ver ya ASICs para RT e IA.
@Sicopro

- El motor de doble intersección para RT es algo probablemente integrado en las unidades de aceleración de trazado de rayos dentro de las CUs. No es un ASIC, pero es un cambio a nivel de hardware

Entiendo que el motor de doble intersección para RT, es el cambio más significativo, gracias al cual se obtiene un 45% más en rendimiento en RT con RDNA4,

Enlace puesto en el primer mensaje del hilo.
Enlaces
PC Gamer AMD RDNA 4 aumento del rendimiento en trazado de rayos

Saludos [oki] [oki]
Duron600 escribió:Entiendo que el motor de doble intersección para RT, es el cambio más significativo, gracias al cual se obtiene un 45% más en rendimiento en RT con RDNA4,


Así es, siempre y cuando ese leaker acierte, pero tiene todo el sentido.

Luego llegará el CES y todas las predicciones serán un fail (no creo). [carcajad]
Duron600 escribió:
javier español escribió:
Duron600 escribió:Mi apuesta:
RX8700XT con 16GB a 500€
RX8800XT con 20GB a 550€

Esperaremos a ver a qué precio salen finalmente las RX 8000 aquí en España, pero me da a mi que no va a haber una diferencia de solo 50€ entre la RX 8700 XT y la RX 8800 XT, cuando además de prestaciones hay una diferencia sensible en la cantidad de VRAM. Me parece bastante optimista lo que comentas, la verdad, que en el caso de que sea así, desde luego que RX 8700 XT venderán poquitas, pero poquitas, si solo hay 50€ de diferencia entre ambas.

Saludos.


Tienes razón, lo dejo así, ya veremos los precios oficiales.

RX8700XT con 16GB a 450€
RX8800XT con 20GB a 550€

Saludos [oki] [oki]


Suma de salida 100-150€ a cada una, malas reviews Day-1, y rebaja de 50€ al mes de salir.
La Top de RDNA 4, RX 9070 XT como se llamarían finalmente, tendría un rendimiento similar a la 4070Ti/7900GRE, bastante por debajo de una 4080 y 7900XT en raster según el Graphics Score de Time Spy que se ha filtrado, 22894 puntos. Mi 4070Ti con oc da algo más de 25000 puntos, o sea que con suerte rendiría similar en raster a la 5070 pero con 16GB. La nomenclatura que han escogido apunta a que será la que compita en prestaciones con la nueva 5070.

https://x.com/All_The_Watts/status/1870895368327536841
@Sicopro

Nvidia tampoco tiene un ASICS si te refieres a un chip o unidad específica para Ray Tracing, por diseño el Ray Tracing no se procesar con unidades dedicadas necesita de muchas otras unidades, no existe un ASICS para RT.

Sobre el papel el diseño tanto de Nvidia, Intel y AMD es casi igual , pequeñas unidades dentro, que calculan solo una parte del Ray Tracing, las diferencias de rendimiento entre marcas de GPU radica en la propia unidad.
XTC908 escribió:La Top de RDNA 4, RX 9070 XT como se llamarían finalmente, tendría un rendimiento similar a la 4070Ti/7900GRE, bastante por debajo de una 4080 y 7900XT en raster según el Graphics Score de Time Spy que se ha filtrado, 22894 puntos. Mi 4070Ti con oc da algo más de 25000 puntos, o sea que con suerte rendiría similar en raster a la 5070 pero con 16GB. La nomenclatura que han escogido apunta a que será la que compita en prestaciones con la nueva 5070.

https://x.com/All_The_Watts/status/1870895368327536841


Que buenas personas son en Amd, regalándole todo el pastel de gpus a nvidia. Si esta supuesta 9070XT es así, no la va a comprar nadie…
HakiGold escribió:Nvidia tampoco tiene un ASICS si te refieres a un chip o unidad específica para Ray Tracing, por diseño el Ray Tracing no se procesar con unidades dedicadas necesita de muchas otras unidades, no existe un ASICS para RT.


Me refiero a que los RT Cores no están integrados en las CUs como los aceleradores de RT de AMD. Es un tipo de circuito diseñado específicamente para RT. Te da igual que estén dentro del chip de la GPU, es un circuito exclusivo dedicado al RT. Por eso todo el mundo lo suele considerar un ASIC.

HakiGold escribió:Sobre el papel el diseño tanto de Nvidia, Intel y AMD es casi igual , pequeñas unidades dentro, que calculan solo una parte del Ray Tracing, las diferencias de rendimiento entre marcas de GPU radica en la propia unidad.


Yo no lo veo igual, los aceleradores de RT de AMD comparten recursos y los RT Cores no lo hacen, es un hardware dedicado al margen de los CUDA Cores y con su propio circuito especializado. En RDNA los tienes físicamente integrados en las CUs, compartiendo recursos con los shaders, memoria local, etc.

Solamente fíjate en el espacio que ocupa en el die los RT Cores y luego mira en RDNA. Estamos hablando de varias veces más espacio dedicado al RT. En AMD al estar integrado en las CUs casi no ocupa espacio del die.

Pero vamos, que no es que yo le haya bautizado como ASIC:

https://www.profesionalreview.com/2021/03/20/rt-cores/

Explicado de forma sencilla, los RT Cores son una pieza hardware que NVIDIA implementa en sus GPUs RTX para acelerar el Ray Tracing en tiempo real. El RT Core añade una pipeline dedicada (ASIC) al SM para calcular la intersección de rayos y triángulos, pudiendo acceder al BVH (un algoritmo).


https://www.titancomputers.com/What-Are-RT-Cores-in-Nvidia-GPUs-s/1208.htm?srsltid=AfmBOoog0v71njCgnBkd4h1R0dvvJfCYzzlkpXf2Rcjna0-vw_nSYYed

RT Cores are ASICs

RT cores are an example of an ASIC or application-specific integrated circuit. You may have heard of ASIC’s in the context of cryptocurrency, with microprocessors designed to only process the cryptography math of one specific crypto coin.


https://www.reddit.com/r/nvidia/comments/97qogl/former_nvidia_gpu_architect_what_is_rt_core_in/?show=original

Former NVIDIA GPU Architect: What is RT Core in Turing architecture?

The RT core essentially adds a dedicated pipeline (ASIC) to the SM to calculate the ray and triangle intersection. It can access the BVH and configure some L0 buffers to reduce the delay of BVH and triangle data access.


Si se te ocurre otro nombre para diferenciar ese diseño del otro, a mí me parece el más sencillo.
@Sicopro

Básicamente Nvidia no tiene CU porque le pone otro nombre lógicamente, así que efectivamente los RT core no están integrados en la CU, porque la CU es un nombre que usa AMD para referirse a sus arquitecturas, el equivalente al CU en nombres imagínate cual es? El SM....

Así que resumiendo Nvidia en cuanto nomenclatura no tiene CU, si no SM, pero en cuanto arquitectura El SM y CU es lo mismo, así que no tiene mucho sentido que una unidad es un ASICS o dedicada por como se pocisionen dentro del diseño de la arquitectura, pero es que irónicamente si se deci que en AMD no es un ASICS/Dedicada por esta posicionada en los CU, tampoco lo sería la de Nvidia por estar en los SM que es el equivalente al CU......

Y no, no hay un ASICS para RT, por como funciona el RT se necesita de la otras unidades de la GPU para funcionar, una Unidad o Chip dedicado no puede hacer por si sola todo el Ray Tracing, el diseño de unidades dedicada de las GPU se basa solo en calcular una parte de RT, que tú mismo lo describes acelerar BVH o interacciones de los rayos, pero eso solo es una parte del Ray Tracing, y eso lo hace tanto las unidades de Nvidia, Intel y AMD, por eso digo que el diseño es el mismo en en todas las marcas de GPU.
@HakiGold Lo que te estoy diciendo es que en el caso de AMD no es un circuito independiente especializado en RT, por eso no es un ASIC, decir que está integrado en las CUs es una forma de simplificar coloquialmente para que se pueda entender.

Un ASIC no necesariamente debe estar fuera de la GPU, lo importante es que es un circuito especializado para realizar una tarea concreta. En este caso los RT Cores de Nvidia son un circuito dedicado exclusivamente al cálculo de rayos y triángulos, lo que lo convierte en un ASIC dentro del chip de la GPU.

No entiendo porque piensas que un ASIC tiene que ser un chip independiente, imagínate la latencia que tendría.

En AMD los aceleradores no son circuitos dedicados a RT, sino que están integrados en las CUs y deben compartir recursos con los shaders. Eso significa que no tienen la misma especialización que los RT Cores de Nvidia, eso afecta al rendimiento directamente, ya que tienes que compartir recursos.

En Nvidia los RT Cores no comparten recursos con los CUDA Cores ni otros componentes del SM. Están integrados dentro del SM pero de forma independiente, por eso te decía antes que coloquialmente en AMD se habla de integrados en las CUs, y en Nvidia se habla más de un ASIC, aunque también este dentro del SM son independientes.

La diferencia como ves, está en que los RT Cores de Nvidia están dedicados exclusivamente al RT y no comparten recursos con otras unidades como los shaders. Al ser un circuito dedicado, es un ASIC. Los aceleradores de AMD deben compartir los recursos con otros componentes dentro de las CUs, eso limita su eficiencia en RT y es una diferencia clave, aunque a ti te parezca trivial.

En este contexto un ASIC no tiene que hacer todo el proceso de RT por sí solo. Los RT Cores de Nvidia no hacen todo el trabajo de RT, se encargan de una parte específica y especializada, como el cálculo de intersección de rayos y triángulos, lo cual es justo lo que hace un ASIC, una tarea concreta y optimizada.

Parece que para ti un ASIC es solamente un chip dedicado al RT, que se encarga por sí solo de todo el procesamiento, como si fuese una especie de GPU de RT independiente. Creo que vemos el término ASIC desde otro ángulo.

Pero bueno, sin acritud no voy a seguir con esta conversación de besugos, no vaya a ser que venga @Duron600 a decir que estamos ensuciando su hilo. [carcajad]

Lo digo por esto (le acaban de moderar el mensaje, así que igual no llegas a leerlo): https://www.elotrolado.net/hilo_ho-nvidia-geforce-rtx-5000_2507243_s1900#p1755546605

PD: Aunque no vaya a responder, te leo la réplica (en caso de que la hagas), pero prefiero no seguir desviando el hilo para que no haya mal rollo con otras personas.
XTC908 escribió:La Top de RDNA 4, RX 9070 XT como se llamarían finalmente, tendría un rendimiento similar a la 4070Ti/7900GRE, bastante por debajo de una 4080 y 7900XT en raster según el Graphics Score de Time Spy que se ha filtrado, 22894 puntos. Mi 4070Ti con oc da algo más de 25000 puntos, o sea que con suerte rendiría similar en raster a la 5070 pero con 16GB. La nomenclatura que han escogido apunta a que será la que compita en prestaciones con la nueva 5070.

https://x.com/All_The_Watts/status/1870895368327536841


Si AMD saca eso consumiendo 250w se acabó, estamos hablando de que una 6800xt/6900xt de hace 5 años tenía ese rendimiento con ese mismo consumo o un poco más. 0 progreso.
@Sicopro

Los RT core también comparte recurso con los shaders, la caché L1 y L2 estan conectadas ellos también alimentan a los cudas, pero es que para hacer Ray Tracing necesitas de los Cudas, el Ray Tracing no es un calculo unico el cual se pueda hacer de forma independiente de ahí que los RT core esten conectadas a los cudas por las caches.

Para entender todo esto debes saber primero como funciona el Ray Tracing y dos el diseño del hardware para acelerarlo, todos lo que comentas parace argumentos sacados del chapuza informático, sin ninguna base técnica y al azar.

Resumiendo tanto la unidades de Nvidia, AMD y Intel están diseñado con el mismo objetivo, que es acelerar BVH, que solo es un 50-60% del proceso del Ray Tracing, dentro de porcentajes puede haber optimizaciones y mejoras, pero ninguna GPU tiene unidades 100%dedicadas al Ray Tracing porque no se puede por como funciona el Ray Tracing.
Lorena99 escribió:
XTC908 escribió:La Top de RDNA 4, RX 9070 XT como se llamarían finalmente, tendría un rendimiento similar a la 4070Ti/7900GRE, bastante por debajo de una 4080 y 7900XT en raster según el Graphics Score de Time Spy que se ha filtrado, 22894 puntos. Mi 4070Ti con oc da algo más de 25000 puntos, o sea que con suerte rendiría similar en raster a la 5070 pero con 16GB. La nomenclatura que han escogido apunta a que será la que compita en prestaciones con la nueva 5070.

https://x.com/All_The_Watts/status/1870895368327536841


Si AMD saca eso consumiendo 250w se acabó, estamos hablando de que una 6800xt/6900xt de hace 5 años tenía ese rendimiento con ese mismo consumo o un poco más. 0 progreso.



Yo espero que mejoren algo, la 7800xt es prácticamente una 6800xt en rendimiento, si la nueva generación no mejora eso mal vamos.

Otra cosa es que saquen a 350€, entonces ni tan mal.
Lorena99 escribió:
XTC908 escribió:La Top de RDNA 4, RX 9070 XT como se llamarían finalmente, tendría un rendimiento similar a la 4070Ti/7900GRE, bastante por debajo de una 4080 y 7900XT en raster según el Graphics Score de Time Spy que se ha filtrado, 22894 puntos. Mi 4070Ti con oc da algo más de 25000 puntos, o sea que con suerte rendiría similar en raster a la 5070 pero con 16GB. La nomenclatura que han escogido apunta a que será la que compita en prestaciones con la nueva 5070.

https://x.com/All_The_Watts/status/1870895368327536841


Si AMD saca eso consumiendo 250w se acabó, estamos hablando de que una 6800xt/6900xt de hace 5 años tenía ese rendimiento con ese mismo consumo o un poco más. 0 progreso.


No tiene sentido. En CPU son unos máquinas y en GPU chapuceros, aquí hay algo raro
@HakiGold

Es muy sencillo, dile a la prensa y a los ingenieros de Nvidia que no le llamen ASIC. Te he pegado varios links para que veas que no es un término mío, ni tampoco del chapuzas informático. Por cierto, puedes ahorrarte las consideraciones despectivas.

HakiGold escribió:Los RT core también comparte recurso con los shaders, la caché L1 y L2 estan conectadas ellos también alimentan a los cudas, pero es que para hacer Ray Tracing necesitas de los Cudas, el Ray Tracing no es un calculo unico el cual se pueda hacer de forma independiente de ahí que los RT core esten conectadas a los cudas por las caches.


Lo cual no invalida que sea un ASIC para acelerar BVH, y la cache L1 y L2 no pintan nada aquí, pero es que además un ASIC no tiene porque ser un componente aislado del sistema. Lee la definición técnica de ASIC.

Ni siquiera viene a cuento mencionar la cache L1 y L2, eso es un recurso común de todo el sistema.

Estamos discutiendo sobre si es o no es un ASIC, que era la reclamación de tu primer post, no desvíes el tema hacia cuestiones generales que no vienen al caso.

HakiGold escribió:Resumiendo tanto la unidades de Nvidia, AMD y Intel están diseñado con el mismo objetivo, que es acelerar BVH, que solo es un 50-60% del proceso del Ray Tracing, dentro de porcentajes puede haber optimizaciones y mejoras, pero ninguna GPU tiene unidades 100%dedicadas al Ray Tracing porque no se puede por como funciona el Ray Tracing.


Lo primero es una perogrullada, si te parece están diseñadas para asar un pollo. Nadie ha dicho que ese sea el único proceso del RT, lo que te estoy diciendo es que Nvidia tiene unidades dedicadas y especializadas para RT, en concreto para acelerar BVH, y por definición ya es un ASIC.

Y el diseño de AMD no es igual, aunque el propósito pueda ser el mismo, y por supuesto los resultados tampoco son iguales. En RDNA están integrados en los shaders, comparten la memoria local con los shaders (esto no es cache L1 y L2, es LDS), comparten las ALUs, etc.
@Sicopro

Las AMD también dedican sus unidades calcular el BVH........... por algo se las llaman Unidades dedicadas o llamalo ASIC.

Yo no estoy discutiendo si es un ASICS o no, lo que estoy discutiendo es la mentira que las Unidades de Nvidia sea Unidades dedicadas/ASIC y lade AMD no, lo cual no tiene ninguna base técnica, los argumentos que están lo CU o que comparten recursos, son prácticamente inventandos o no se entienden bien el funcionamiento, pero es que esos argumentos se aplicarían a Nvidia porque prácticamente funcionan igual.

La razón por la cual Nvidia rinde mas en RT no tiene nada que ver con que una sea un ASICS y la otra no, radica más en la mejora de esa Unidad , pero si no manejas lo básico meterse ha como funciona los RT core peor.

En resumen para finalizar este tema, todas las GPU tienen Unidades dedicas (o ASIC si les gusta esta palabra) para Ray Tracing , tanto AMD, Nvidia y Intel, cualquiera que tenga esos argumentos tan simplificados de software o hardware, es que no sabe del tema (lo cual es válido) o está intentando vender una característica que no tiene ha modo de marketing para una marca.
@HakiGold

No tiene ninguna base técnica según tus huevos morenos, en serio vete a los ingenieros de Nvidia y se lo cuentas, y también a todos los medios especializados en hardware.

Entiendo que eres el que más sabe del tema del planeta, supongo que has utilizado Vulkan RT o DXR y lo has medido por ti mismo, por eso hablas con esa seguridad. Ilústrame con esos datos.

Por cierto, que ya te veo venir, no estoy diciendo que esa diferencia en arquitectura sea lo único que importa, aquí estamos hablando de que es uno de los factores que afectan a la diferencia de rendimiento entre AMD y Nvidia, no el único. Lo digo por si acaso vuelves con el tema otra vez.

Igual que te estoy diciendo que los RT Cores encajan con la definición de ASIC.

Nvidia Senior GPU Architect:

The RT core essentially adds a dedicated pipeline (ASIC) to the SM to calculate the ray and triangle intersection. It can access the BVH and configure some L0 buffers to reduce the delay of BVH and triangle data access. The request is made by SM. The instruction is issued, and the result is returned to the SM's local register. The interleaved instruction and other arithmetic or memory io instructions can be concurrent. Because it is an ASIC-specific circuit logic, performance/mm2 can be increased by an order of magnitude compared to the use of shader code for intersection calculation. Although I have left the NV, I was involved in the design of the Turing architecture. I was responsible for variable rate coloring. I am excited to see the release now.


Dile a los de MuyComputer que no engañen con los titulares y con datos técnicos falsos.

NVIDIA RTX y AMD Radeon: ¿Por que gana NVIDIA en trazado de rayos? La clave está en la arquitectura

Igual es que hablamos idiomas diferentes pero puedes corregirles todo lo que dicen en el artículo.

AMD y trazado de rayos: Una aproximación limitada

Empezamos con AMD. Cuando NVIDIA confirmó su apuesta por el trazado de rayos allá por 2018, la compañía de Sunnyvale decidió esperar a que dicha tecnología empezase a estandarizarse. Esto hizo que las Radeon RX 5000 llegasen al mercado sin hardware dedicado para acelerar trazado de rayos, lo que las colocó, desde una perspectiva tecnológica, en una posición de clara inferioridad frente a las RTX 20.

Las Radeon RX 6000 se convirtieron, por tanto, en la primera generación de tarjetas gráficas de AMD en contar con hardware dedicado para acelerar trazado de rayos. Cuando Microsoft habló de la tecnología que había detrás del SoC de Xbox Series X pudimos confirmar cómo había implementado AMD el hardware dedicado a trazado de rayos en su arquitectura RDNA 2, y desde entonces mis expectativas se redujeron de forma notable, y mis previsiones no fueron nada buenas. Al final acerté en casi todo lo que comenté en este sentido.

En la arquitectura RDNA 2, la base de las Radeon RX 6000, tenemos una unidad de aceleración de trazado de rayos por cada unidad de computación. Una unidad de computación tiene 64 shaders y 4 unidades de texturizado, pero dicha unidad de aceleración de trazado de rayos comparte recursos con los motores de texturizado, lo que significa que no pueden trabajar de forma simultanea.

A todo lo anterior, debemos añadir, además, otras dos limitaciones importantes que presentan esas unidades de aceleración de trazado de rayos. La primera, y la más importante, es que esas unidades de aceleración de trazado de rayos trabajan con las intersecciones rayo-triángulo y con las delimitadoras de cuadro, que son las más intensivas y las que más recursos consumen, pero las intersecciones transversales BVH, que son un paso previo a aquellas, corren a cargo de los shaders.

Es posible reducir el impacto de las intersecciones transversales BVH mediante optimizaciones concretas en juegos para reducir el tiempo de renderizado, pero no siempre resulta viable, y cuando no se hace, o no se ejecuta de forma adecuada, la pérdida de rendimiento es notable, ya que se consumen recursos muy valiosos que podrían haberse dedicado a tareas de sombreado. Su segunda limitación es que carecen de la capacidad de trabajar de forma asíncrona.

¿Y por qué ha utilizado AMD este diseño en sus Radeon RX 6000? Creo que porque era la más efectiva en términos de coste y de espacio en el chip. No debemos olvidar que RDNA 2 es una arquitectura que fue diseñada para convertirse en el pilar central de las consolas de nueva generación, y que estas utilizan APUs, una solución donde el espacio en el chip no solo es muy limitado, sino que además se reparte entre la CPU y la GPU.

Dedicar mucho espacio a integrar hardware especializado en trazado de rayos no era una opción viable, sobre todo cuando has doblado el máximo de shaders, y has decidido recurrir a la caché infinita para mejorar el ancho de banda sin tener que recurrir a buses de más de 256 bits, ni a memorias de más de 16 GHz. La caché infinita ocupa mucho espacio en el chip, aunque al mismo tiempo su presencia está justificada, no solo por lo que hemos dicho, sino también porque, bien utilizada, puede ayudar a mejorar el rendimiento en trazado de rayos, ya que ciertas cargas tienen una dependencia mínima de la capacidad, y una dependencia enorme del ancho de banda.


NVIDIA: Ampere consagró, e impulsó, las bases de Turing

La aproximación de NVIDIA es totalmente distinta a la de AMD. El gigante verde integró los núcleos RT como un tipo de hardware dedicado a descargar por completo a los shaders de las tareas del trazado de rayos. Esto quiere decir que cada núcleo RT calcula las intersecciones transversales BVH, las intersecciones rayo-triángulo, las intersecciones delimitadoras de cuadro y el sistema de colisiones. En el caso de los núcleos RT presentes en Ampere (RTX 30), estos calculan también la interpolación de cada triángulo en el tiempo.

Cada unidad SM tiene 64 shaders, 4 unidades de texturizado y un núcleo RT en Turing, y 128 shaders, 4 unidades de texturizado y un núcleo RT en Ampere. Estos núcleos no comparten recursos con los motores de texturizado, pueden trabajar de forma totalmente independiente y asíncrona, de manera que, cuando la unidad SM lanza un rayo, los núcleos RT se ocupan de sacar adelante todo el proceso de acierto fallo, así como las colisiones. Este trabajo se puede realizar de forma asíncrona, como hemos dicho, lo que permite al programador de tareas ordenar la realización de todo el trabajo relacionado con el trazado de rayos, las cargas de computación y gráficos y, si procede, el trabajo de los núcleos tensor, de forma simultánea.

En la arquitectura Ampere, renderizar un fotograma con trazado de rayos por software mediante los shaders requiere de 37 milisegundos. Con el apoyo de los núcleos RT, el tiempo se reduce a 11 milisegundos, y si aplicamos además los núcleos tensor el tiempo baja a 6,7 milisegundos. Son cifras verdaderamente impresionantes que confirman que NVIDIA ha logrado «domar» el trazado de rayos con Ampere, aunque creo que lo más interesantes está por venir, y que con las RTX 40 veremos un salto mucho más grande.

Os recuerdo, antes de terminar, que NVIDIA también utiliza los núcleos tensor para sacar adelante una parte importante de la carga de trabajo que representa el trazado de rayos, la reducción de ruido, uno de los pasos finales, y de los más importantes, que se realizan para completar el renderizado de cada fotograma. Sin este, las imágenes llegarían cargadas de ruido, y tendrían un aspecto sucio y deslucido. No debemos olvidar, además, que los núcleos tensor permiten activar la tecnología DLSS de NVIDIA, una técnica de reconstrucción inteligente que reduce el número de píxeles sin pérdida de calidad de imagen, y que aligera, de esta manera, la carga que supone el trazado de rayos.

AMD está trabajando en su propia alternativa, conocida provisionalmente como FidelityFX Super Resolution, aunque todavía no sabemos de qué será realmente capaz, y tampoco tenemos una fecha de lanzamiento confirmada, así que toca esperar. Con todo, y viendo lo que consiguió NVIDIA con la primera generación de DLSS, es probable que esa tecnología de AMD necesite de una revisión para terminar de madurar.


Dile a todos que venden la moto, por dios ilumínanos. :Ð

Es que es tan fácil como mirar el espacio que utilizan en el die los RT Cores, y ya ves una diferencia evidente. Te piensas que Nvidia va a dedicar más espacio del área del chip que AMD para RT, si según tú no tiene ningún impacto en el rendimiento y básicamente dices que son lo mismo.

Al igual que pone en MuyComputer, yo te he dicho que un hardware realmente dedicado tiene impacto en el rendimiento. Te lo he demostrado con fuentes al margen de mi opinión, de momento de tu lado solo he visto comentarios condescendientes y nada que respalde tus afirmaciones. Entiendo que ni siquiera tienes claro lo que es un ASIC.

https://www.pcgamer.com/hardware/graphics-cards/amd-rdna-4-info-leak-confirms-rt-performance-is-getting-boosted-but-could-fall-short-of-a-major-hardware-redesign/

To that end, AMD is adding some optimizations to improve things in this area, but the lack of information means it's impossible to determine how important they are. Most telling, though, is the dearth of any nod towards AMD using an ASIC (application-specific integrated circuit) to speed up the BVH traversals.

In RDNA 2 and 3, this is done via compute shaders running on the GPU's cores and if they're busy doing that, it means they can't be used for anything else, specifically the ray shaders themselves. On the biggest Navi GPUs, it's not a major problem—as the chips have a huge number of Compute Units (CUs) to throw at the problem—but as you move down the tiers, the lack of dedicated traversal units becomes more noticeable.


Ese cuello de botella te lo pasas por el forro verdad. Por cierto tienes que darles cátedra también a los de PC Gamer, según lo que me cuentas no tienen ni idea. Lee el artículo de MuyComputer y PC Gamer, y luego lee el último mensaje que me has mandado.
XTC908 escribió:o sea que con suerte rendiría similar en raster a la 5070 pero con 16GB.

Mas bien con la 4070 Super ... muy mala tendria que salir la 5070 para competir con ese Benchmark.

Esperemos que ese benchmark sea con drivers que no estaban a punto o algo así, no tiene sentido.
Me extraña bastante que una gráfica nueva, con tecnología nueva, rinda menos que una 7900xt, la cual también tienen más VRAM y se puede ya comprar en muchos sitios por menos de 700 euros (en BF incluso por menos de 650 se pudo ver la Gigabyte).

Aunque valga 600 euros y consuma menos, la gente eso le va a dar igual si su rendimiento y VRAM es más baja que una gráfica de la generación anterior.

Si AMD no quiere ir a la gama alta no es para ser peor que la 7900XTX porque para eso no saca nada y se queda como esta liquidando stock.

Se supone que su gráfica más alta sería superior al menos en rendimiento RT respecto a la 7900XTX

Todo esto son conjeturas. Ya se verá la realidad dentro de poco, porque yo quiero comprar una 9800 XT o bien la 5070ti, pero se supone que esta sería mucho más cara.

Descarto comprar algo de la generación anterior, sea de una marca u otra.
@tonicab

no parece el caso, la 8000 es de portatil y en torre es la 9070xt la mayor de potencia y no supera a la 7900xt, se queda en 4070TI

amd mejor olvidarse salvo que salga por 400€
yo estoy encantado con mi 7800xt [amor] [amor] y la próxima será otra AMD y esta la heredara mi hijo.
PSX22 escribió:@tonicab

no parece el caso, la 8000 es de portatil y en torre es la 9070xt la mayor de potencia y no supera a la 7900xt, se queda en 4070TI

amd mejor olvidarse salvo que salga por 400€



Das los rumores como hechos, luego las cosas no son así.

Está es la típica generación que no esperaba nadie de AMD y al final saca productos competitivos, o al menos eso espero.
PSX22 escribió:@tonicab

no parece el caso, la 8000 es de portatil y en torre es la 9070xt la mayor de potencia y no supera a la 7900xt, se queda en 4070TI

amd mejor olvidarse salvo que salga por 400€



Illo también por aquí dando por saco?

Deja de corregir a la gente como si supieras la verdad que ya cansas y encima todo el puñetero día en el foro. Con miles de mensajes y todos iguales.
Pichimore escribió:yo estoy encantado con mi 7800xt [amor] [amor] y la próxima será otra AMD y esta la heredara mi hijo.

La cosa es que si quieres mejorar tendras que ir a por una de las 7900, pq la nueva generacion parece que se van a marcar un Intel ... esperemos que sean falsos los rumores.
654321 escribió:
Pichimore escribió:yo estoy encantado con mi 7800xt [amor] [amor] y la próxima será otra AMD y esta la heredara mi hijo.

La cosa es que si quieres mejorar tendras que ir a por una de las 7900, pq la nueva generacion parece que se van a marcar un Intel ... esperemos que sean falsos los rumores.


Yo sólo digo que si AMD va a sacar una gráfica que no supera en nada a la 7900xt o xtx no tiene mucho sentido que saque nada, más que nada porque la xt tiene el precio similar al que va a sacar la nueva.

Se supone que cuando sacas algo nuevo y es el top (salvo que haya mentido y saquen otra gráfica más top que es posible) va a superara a lo top que tienes en el mercado, al menos en algunas tecnologías más modernas (ya sabemos que en VRAM no).

¿Para qué invertir en una nueva generación que rinde igual que una gráfica que ya tienes en el mercado? No se, pero es perder un poco el tiempo y el dinero.

NVIDIA por ejemplo tiene gráficas que van a ser inferiores a lo que tiene ahora, pero también superiores en cada segmento. Nunca una 5070 va a ser más lenta que una 4070, porque sino no sacas esa 5070. Luego tienes la top 5090 que las supera a todas y además de todo eso tienes nuevas tecnologías como el DLSS4.

Por eso creo que la nueva AMD quizás al principio en rendimiento bruto no supere a las 7900xt xtx (con drivers nuevos) pero creo que en nuevas tecnologías, en consumo, en calentamiento y con drivers más maduros (muchas veces a posta para que se venda lo nuevo) puede estar cerca en rendimiento bruto y supere en otras cosas.

Sino no tiene sentido de comprar una gráfica por 600 euros o más, estando la 7900xt que es superior en todo (según esos rumores, que yo no creo la verdad) por 650 euros, aunque tenga más años y generación anterior.
Imagen
Hasta que no se confirme, de todos los rumores que se han barajado, este ultimo de pasar de las RX8000 a la RX9000
de 700 a 70 y de 600 a 60 es de los rumores más débiles y abría que cogerlo con pinzas.

A un así, si finalmente todo lo referente a las RX9000 se confirma, siendo la RX 9070 XT la más potente, por debajo de la 7900xt, espero salgan por debajo de 600€, ya que serian las rx8700xt.

En todo caso abría cabida más adelante siguiendo esta distopia, para unas hipotéticas RX 9080 XT, que serian las RX8800XT que igualarían a las RX7900XTX en Raster y las superarían en RT, estando por debajo de los 800€

Os deseo una maravillosa noche Buena y felices fiestas
Saludos [oki] [oki]
Imagen

Leak de Port royal con RT rindiendo casi un 30% más que la 7800xt, y un 7% más que la 7900 xt.

Esto ya es otra cosa.
Ya pasó algo parecido con la RX 5700 XT, que era la top de AMD. Competía en rendimiento con una RTX 2070 y poco más.

También sacaron una Radeon VII, el último intento con memoria HBM2. No recuerdo que fuera algo interesante para los que juegan videojuegos.

Los que querían actualizar o montar un equipo desde cero, se fueron con nvidia.

Luego la serie RX 6xxx pienso que ha sido muy buena. Tenías de todo.

La serie RX 7xxx, en mi opinión, sólo las 7900 GRE / XT / XTX valían la pena para actualizar viniendo desde RX 6xxx.

¿?Ahora volvemos a las RX 9xxx. Se repetirá lo mismo cuando salió RX 5700. Fue cero interes.
Para los que actualizan cada generación va a ser un drama, se irán con nvidia. Para otros, que actualizamos cada varios años, nos dará igual.

Si quitamos de la ecuación todos esos reescalados, rayos y brillos por los que nos hacen comprar nuevas tarjetas gráficas... vaya aburrimiento sería en cambiar a algo superior.
@tonicab

pero si yo entro por la noche, el que se levanta bien pronto vispera de festivo no soy yo, y especialmente como no voy a postear si leo barbaridades como las 8000 tal, que no existen en Desktop, y cosas de la 9080xt ( que no existe tampoco)

es despues de mis post que veo que por fin se habla de la 9070xt ( maxima gama de amd)



amd decia que sacaria sucesora de 7800xt en gama media alta, y ha engañado, ha sacado la sustituta de la 7700xt , por eso le ha cambiado el nombre a 9700xt y para disimular le pone 9070xt, como si fuera la competencia de la 5070, totalmente manipulado su portfolio


Leed al usuario de justo arriba mio, tiene una AMD de las caras y os lo esta diciendo, cero interes... cero interes un usuario que se dejo miles de euros en AMD cuando hizo su PC. Por algo sera.




los datos filtrados :


Port Royal score is 14723

Which given the 7900XT is 12650, RTX 4070Ti is 14325, 4070Ti Super is 15700, and 7900XTX is 15800 the RX


9070XT is essentially a AMD 4070Ti in raster & raytracing with no Nvidia DLSS.


luego que si eran invenciones mias, sacado de alguien que la tiene: No supera a la gama media de 2022 de nvidia y sin DLSS. Tremendo. como le va a interesar a quien tiene una 6950? cero interes , arriba lo puso leedle, el no es fan de nvidia.


la fuente

https://x.com/All_The_Watts/status/1871185600310899030
tonicab escribió:¿Para qué invertir en una nueva generación que rinde igual que una gráfica que ya tienes en el mercado? No se, pero es perder un poco el tiempo y el dinero.

Si sacan algo que compite con la 5070 por 400€ lo petan ... la cosa es ver a que precio sale. Hay precios filtrados de la 9070XT ?
654321 escribió:
tonicab escribió:¿Para qué invertir en una nueva generación que rinde igual que una gráfica que ya tienes en el mercado? No se, pero es perder un poco el tiempo y el dinero.

Si sacan algo que compite con la 5070 por 400€ lo petan ... la cosa es ver a que precio sale. Hay precios filtrados de la 9070XT ?



si, son estimaciones entre 450-600 Dolares, aplica el cambio eurodolar y los impuestos por separado

seria muy muy dificil verla por debajo de 550-590€
Sigo insistiendo en que lo más importante es el precio.

Un rendimiento de 7900XT a 600€ es decepcionante evolución tras tanto tiempo desde la salida de esta.

¿A 400-450€? Dame una, que voy a jubilar mi 6700XT.
450 dolares son los 550-600 traducidos en españa en €
PSX22 escribió:si, son estimaciones entre 450-600 Dolares, aplica el cambio eurodolar y los impuestos por separado

Menuda horquilla ... es como no decir nada.

Es como si te digo que tengo un trabajo para ti con un sueldo entre 10.000 y 40.000€, uno esta bien, el otro es una mierda.
@e4ff00

La 5700XT no era top, era gama-media.

@PSX22

Lógicamente no tendrá DLSS , ya que es una marca de Nvidia...... Lo que si tendrá es FSR4 reescalado por IA.
@654321


Pero te sirve como minimo que seria 10.000

En este caso 450 dolares es el minimo o 600€ aqui

Pero podria ser 700€



@HakiGold


Ese es el punto tu pagarias 600€ por una 4070ti en 2025 sin dlss estando obligado al fsr?

Votaras con tu cartera, la vas a comprar?
PSX22 escribió:@654321


Pero te sirve como minimo que seria 10.000

En este caso 450 dolares es el minimo o 600€ aqui

Pero podria ser 700€



@HakiGold


Ese es el punto tu pagarias 600€ por una 4070ti en 2025 sin dlss estando obligado al fsr?

Votaras con tu cartera, la vas a comprar?



No te cansas de decir chorradas?

El precio no lo sabremos hasta enero, y el FSR 4 apunta a usar el mismo sistema que el DLSS, por lo que podemos esperar una calidad similar (o al menos con el tiempo).

Creo que sería mejor que no metieras mierda, puedes poner rumores como lo que son rumores.

Ahora te digo yo lo contrario, que pasa si AMD saca una gráfica a 399€ con 16 gb de VRAM y rindiendo como una 4070ti y con FSR4 por IA?

Sería o no sería una buena opción?

Al final para bien o para mal no hay malos productos sino malos precios.

Nvidia para mi tiene malos precios, y sus gráficas más vendidas no han evolucionado casi nada (3060 vs 4060), y pagar lo que piden por una 4070ti o 4080 es vergonzoso.

Hemos pasado de 720€ por una 3080 a 1200€ por una 4080 y no, no hay tanta diferencia de rendimiento. El problema es que Nvidia puso solo 10gb de VRAM en la 3080.
@HakiGold

Correcto, me expresé mal.
Era la "top" de la serie RX 5xxx ya que no había 5800, 5900. No la top en rendimiento. Se entiende que fue una gama media.

Ahora no me acuerdo, si era porque la arquitectura no daba para más y decidieron centrarse en RX 6xxx.

Van hacer lo mismo con la serie RX 9xxx. ¿? Para que malgastar recursos si saben que no da más de si.

Un Saludo.
PSX22 escribió:Votaras con tu cartera, la vas a comprar?

Yo ahora dependo de NVIDIA, LukeRoss ha sacado una mejora en su MOD VR que depende de los motion vectors que pasan los juegos al API DLSS ... hasta hace 2 dias que pasó esto estaba muy calentido por la 8800XT, 9070XT o como se llame [mamaaaaa]
A mi me desconcierta que se presenten 2 familias a la vez. ¿Por qué hay en el horizonte modelos 8000 y 9000?
AxelStone escribió:A mi me desconcierta que se presenten 2 familias a la vez. ¿Por qué hay en el horizonte modelos 8000 y 9000?

Si no me falla la memoria, las 8000 son las versiones APU Strix Halo y también para portátiles.

AMD Radeon™ RX 9070 Series Graphics
AMD Radeon™ RX 9060 Series Graphics
AMD Radeon™ RX 9050 Series Graphics
AMD Radeon™ RX 9040 Series Graphics
AMD Radeon™ RX 8060S Graphics
AMD Radeon™ RX 8050S Graphics
AMD Radeon™ RX 8040S Graphics
AMD Radeon™ RX 7750 Series Graphics
AMD Radeon™ RX 7650 Series Graphics
AMD Radeon™ RX 9070 XT Graphics
AMD Radeon™ RX 9070M XT Graphics
AMD Radeon™ RX 9070 Graphics
AMD Radeon™ RX 9070M Graphics
AMD Radeon™ RX 9070S Graphics
La verdad es que un poco decepcionante la información que se ha filtrado del rendimiento real, yo esperaba que el rendimiento estuviera entre la 7900XT y la 7900XTX a un precio de 550-600€ y no por debajo de la 7900XT y con un precio que estará por encima de los 700€ como parece que va a ser finalmente.

En fin tendremos que esperar a los anuncios oficiales.

Yo veo bien que AMD no compita por la 4090/5090 de NVIDIA pero hubiera estado bien que al menos compitiese con la gama 80 es decir haber sacado una sucesora de la 7900XTX con RDNA 4 y mucho mejor rendimiento en RayTracing que la 7900XTX junto con unos 24GB de VRAM a un precio de unos 900€ hubiera sido una opción muy interesante.

AxelStone escribió:A mi me desconcierta que se presenten 2 familias a la vez. ¿Por qué hay en el horizonte modelos 8000 y 9000?

Yo he leído 2 cosas diferentes:

1º Que las 8000 son para portátiles y las 9000 son para PCs de sobremesa

2º Que a la 8700 se le llamó así de rumores y demás, pero que en el último momento AMD ha decidido cambiar la nomenclatura para asimilarse de NVIDIA y que sepas la equivalencia en plan una 9070 es como una 4070 de NVIDIA

Igual que hicieron con las CPU Ryzen donde R3 = i3 de Intel, R5 = i5, R7 = i7 y R9=i9

Yo creo que es una mezcla de las 2 cosas.
Como dice el refrán: "Merluza grande que pese poco, no hay". ;)

Saludos.
Respecto a la filtración del rendimiento, hay que tener en cuenta que no hay drivers oficiales, el firmware puede ser inmaduro, etc.

En Port Royal ha sacado una puntuación bastante buena, y más si tenemos en cuenta lo que he mencionado antes. Supera a la RX 7900 XT y RTX 4070 Ti, no la veo demasiado lejos de lo que me esperaba.

Es posible que con el tiempo logre empatar con la RTX 4070 Ti Super en RT, hay que esperar un mes a que veamos los primeros benchmarks con drivers oficiales.

El salto en RT es evidente, estamos hablando de un chip de gama media (Navi48).

Tampoco sabemos que resultado van a dar con FSR 4, que recordemos va a ser un reescalado ML a lo DLSS. Ahí puede rascar un extra de rendimiento, aunque también puede salir con bastantes problemas, como pasó con la primera versión del DLSS.

Ya veremos si es una buena compra, todo depende del precio final y de lo que haga la competencia.
Sicopro escribió:Respecto a la filtración del rendimiento, hay que tener en cuenta que no hay drivers oficiales, el firmware puede ser inmaduro, etc.

En Port Royal ha sacado una puntuación bastante buena, y más si tenemos en cuenta lo que he mencionado antes. Supera a la RX 7900 XT y RTX 4070 Ti, no la veo demasiado lejos de lo que me esperaba.

Es posible que con el tiempo logre empatar con la RTX 4070 Ti Super en RT, hay que esperar un mes a que veamos los primeros benchmarks con drivers oficiales.

El salto en RT es evidente, estamos hablando de un chip de gama media (Navi48).

Tampoco sabemos que resultado van a dar con FSR 4, que recordemos va a ser un reescalado ML a lo DLSS. Ahí puede rascar un extra de rendimiento, aunque también puede salir con bastantes problemas, como pasó con la primera versión del DLSS.

Ya veremos si es una buena compra, todo depende del precio final y de lo que haga la competencia.

Pero los rumores de que el fsr4 seria solo para las amd serie 8000 como va al final?
dunkam82 escribió:La verdad es que un poco decepcionante la información que se ha filtrado del rendimiento real, yo esperaba que el rendimiento estuviera entre la 7900XT y la 7900XTX a un precio de 550-600€ y no por debajo de la 7900XT y con un precio que estará por encima de los 700€ como parece que va a ser finalmente.

En fin tendremos que esperar a los anuncios oficiales.

Yo veo bien que AMD no compita por la 4090/5090 de NVIDIA pero hubiera estado bien que al menos compitiese con la gama 80 es decir haber sacado una sucesora de la 7900XTX con RDNA 4 y mucho mejor rendimiento en RayTracing que la 7900XTX junto con unos 24GB de VRAM a un precio de unos 900€ hubiera sido una opción muy interesante.

AxelStone escribió:A mi me desconcierta que se presenten 2 familias a la vez. ¿Por qué hay en el horizonte modelos 8000 y 9000?

Yo he leído 2 cosas diferentes:

1º Que las 8000 son para portátiles y las 9000 son para PCs de sobremesa

2º Que a la 8700 se le llamó así de rumores y demás, pero que en el último momento AMD ha decidido cambiar la nomenclatura para asimilarse de NVIDIA y que sepas la equivalencia en plan una 9070 es como una 4070 de NVIDIA

Igual que hicieron con las CPU Ryzen donde R3 = i3 de Intel, R5 = i5, R7 = i7 y R9=i9

Yo creo que es una mezcla de las 2 cosas.

Yo tenía y tengo muy claro, que por algún lado ,AMD la caga.
Es que no falla.

O no rinden homk se seieran ,o no acompañan los precios ,o ambas cosas.

Tengo dudas 0.
Siempre hacen la misma los chimoancès que dirigen la sección de GPU.
@Blackhand15

Debería funcionar en RDNA 3 también, ya que tiene aceleradores de IA, y seguramente mejor aún en RDNA 4 con los aceleradores de segunda generación. El problema es con RDNA 2 (RX 6000), es posible que no puedan soportar FSR 4.

No tiene sentido que AMD haga la guarrada de hacer FSR 4 exclusivo de RDNA 4. Pero hay limitaciones técnicas que podrían hacerlo inviable en RDNA 2. De funcionar en RDNA 2 lo haría con peor rendimiento y calidad (tendrían que tirar de SIMD).

Con RDNA 3 (RX 7000) no debería haber ningún problema.
552 respuestas
13, 4, 5, 6, 712