AMD RDNA3 "RX 7000" GPU.

@PilaDePetaca Yo no le veo mayores problemas a la arquitectura RDNA2 o RDNA3, la evolucion es muy buena y son ligeramente más eficientes que la competencia.

Si es cierto que el rendimiento en raytracing no es tan alto como Nvidia pero entiendo que tardara unas generaciones en ponerse a la altura (nvidia va con una generación de ventaja en esto). Hay que tener en cuenta que el rendimiento general no es tan malo en raytracing y que apenas hay juegos que expriman dicha tecnología de manera que merezca la pena activarlo.

GCN tenia serios problemas que hacían que incluso chips más complejos y caros de fabricar como fueron la serie vega o la serie 580 no rindieran tanto como deberían.

Hoy por hoy, AMD esta en una situación cómoda, o eso parece si los datos que han soltado sobre RDNA3 son ciertos, tienen gráficas menos tragonas que su competencia y más baratas de fabricar gracias a los chiplets.

Para mi lo que tendría que hacer es poner precios agresivos para ganar cuota de mercado que claramente aquí Nvidia les gana por goleada.
Nomada_Firefox escribió:
hh1 escribió:Qué haríais?

Me quedaria con lo que tienes o esperaria a que saliera lo nuevo. Claro aqui vemos todos tu terror de no sacar suficiente por tu 3080Ti para volver a comprar una grafica sin poner demasiado dinero nuevo encima.

Y eso es por lo que decian que Nvidia subia los precios para fastidiar a la reventa de graficas. Era una noticia del chapuzas absurda. Ademas practicamente todos sabemos que haciendo eso se fastidian más asi mismos y tiene el efecto no deseado que es que como la gente no pueda pagar algo nuevo, van a comprar el de segunda mano.

Es que esa es la clave.
No suelto pastizales nunca.
Y ya 500€ es un esfuerzo.
Ahí está mi duda. [beer]

Es que si tengo que poner más ,ya no cambio.
Más pondría si realmente me hiciese falta.

@d2akl
@Kavezacomeback
@Fleishmann
Juego a 1440p 240fps.
Lo de los dos es relativo porque en la mayoría de juegos no me hacen falta tantos FPS
De hecho, capo la mayoría..

RT...si está bien implementado sí lo uso,si no ,no.
Y DLSS casi siempre que se puede poner ,pero en modo calidad la mayoría de las veces.

Gracias por las opiniones.
De momento esperaré [beer]
Chaquetero está baneado por "troll"
1° No son más eficientes que la competencia. En todo caso serán más eficientes que las mierdas de gráficas de gama baja renombradas a gama alta que va a sacar la competencia.

2° El diseño chiplet siempre va a ser un diseño peor que el monolítico, por algo el primero es más barato.

3° Si Nvidia saca productos de mierda, y AMD saca productos un poco menos de mierda, no significa en ningún caso que AMD saque buenos productos.

4° Ya os adelanto que, como con todo lo demás y sobretodo en esta industria, ser los early adopters de cualquier nueva tecnología conlleva problemas. Estas pioneras 7900 con diseño chiplet van a tener problemas sí o sí en comparación con el diseño "de toda la vida". Ya pasó con los ryzen. Veremos si son pocos problemas o si son muchos problemas.

5° Para todo aquel que se esté planteando comprar una nueva gráfica, que no lo haga, hay miles de rtx 3000, no tantas Rx 6000 porque AMD no le vende ni a su abuela, de 2° mano que se pueden, o se podrán muy pronto, conseguir tiradas de precio, y son mucha mejor opción que gastarse 1500 euros en una gráfica un poco menos mierda que la 4080 como son estas 7900.

6° Lo mejor que podría pasar, Nvidia a parte porque tienen todo el mercado comido, es que nadie comprara estas 7900, y AMD se viera forzada a sacar un BUEN PRODUCTO en la gama media como ya fue la Rx 6800. Ahí es donde AMD tendría que mostrar esa eficiencia de la que habla y sacar un chip monolítico que no consumiera más de 200w con buen ancho de banda y con al menos la potencia de una 6800xt/6900xt.
BloodBlack está baneado por "clon de usuario baneado"
654321 escribió:
BloodBlack escribió:Imagínate un dato que caiga en el GCD 2 y que una CU del GCD 1 necesite para procesar, esa CU va estar parada ,hasta que se vaya buscar al GCD 2 y se traiga.

Pero eso ya va a pasar con la 7900, no ? Una CU no tiene acceso a las 6 cachés imagino, solo a la que le corresponda.


La 7900 son 1 GCD.

Y sobre el tema de cache no es así, hay un Jerarquía de cache, AMD tiene 4 niveles o caches en sus GPU, las CU están conectadas a la cache L0 que es la que tienen a mano los CU, luego un nivel por encima esta la L1 quien conecta el array que alimenta CU,rops y motores de teselados, luego mas arriba está la L2 que es la cache a nivel global que alimenta todo la GPU y todas la unidades tienen acceso y por último un nivel más alto en forma de "L3" esta la infinite cache que está en los chiplets MCD, esta cache funciona como respeldao inmediato de la L2 antes que la L2 tenga que mover datos de la VRAM.
Me pregunto como hay cierto troll que siempre viene aqui a enmierdar y perjudicar a los que nos queremos informar de verdad que no esta baneado todavia.
BloodBlack escribió:La compatibilidad no es factor para decir que una arquitectura es un refrito y menos en PC que se trabaja con API aun nivel alto.

RDNA es una arquitectura nueva , no queda prácticamente nada de GCN, de los CU, rops, motores de geometría,teselados, sistemas de caches etc todo se rediseñado, lo único que queda inctacto de GCN son las unidades ACE. De ahí prácticamente todo se rediseñado.

Imagen


RDNA es una arquitectura híbrida, y no lo digo yo, lo dice AMD en los white papers. Tiene todo el back-end reformado (que con vega vii ya se vieron los primeros cambios) pero el front end es un híbrido.

Cuando tienes compatibilidad "por hardware" (ojo que no es software) con la arquitectura anterior, poco puedes decir de "nueva".
PepeC12 escribió:@PilaDePetaca Yo no le veo mayores problemas a la arquitectura RDNA2 o RDNA3, la evolucion es muy buena y son ligeramente más eficientes que la competencia.

Si es cierto que el rendimiento en raytracing no es tan alto como Nvidia pero entiendo que tardara unas generaciones en ponerse a la altura (nvidia va con una generación de ventaja en esto). Hay que tener en cuenta que el rendimiento general no es tan malo en raytracing y que apenas hay juegos que expriman dicha tecnología de manera que merezca la pena activarlo.

GCN tenia serios problemas que hacían que incluso chips más complejos y caros de fabricar como fueron la serie vega o la serie 580 no rindieran tanto como deberían.

Hoy por hoy, AMD esta en una situación cómoda, o eso parece si los datos que han soltado sobre RDNA3 son ciertos, tienen gráficas menos tragonas que su competencia y más baratas de fabricar gracias a los chiplets.

Para mi lo que tendría que hacer es poner precios agresivos para ganar cuota de mercado que claramente aquí Nvidia les gana por goleada.


El problema viene que AMD está gastanto toda su (poca) energía en hacer iteraciones de lo mismo con lo que ello conlleva (como en GCN). Van a ir poco a poco puliendo todas las cagadas y todos los problemas haciendo inversiones mínimas y cumpliendo sin mas. El problema es después, porque en GCN estaba el pedazo de muro que eran las 64 CU y su problema de no poder ir mas allá de eso, pero esto en RDNA no pasa, no hay límite de CU's (no son CU's, pero para que se entienda) por lo que llegará el punto que no podras sacar mas zumo de una castaña, y sólo te valdrá aumentar el número de CU's de tus tarjetas, haciéndolas mas caras que la competencia y mas tragonas (problema gordo el que han liado ahora porque no llega a los 3GHZ porque la cagaron con el diseño). La próxima generación de tarjetas va a ser revivir el momento de las Fury/X como sigan así, y ya vimos lo que pasó después de eso.
Jester_Box escribió:Me pregunto como hay cierto troll que siempre viene aqui a enmierdar y perjudicar a los que nos queremos informar de verdad que no esta baneado todavia.

Ignorar y reportar, funciona [oki]
aaayyy zeño kemocion koneste lansamiento [qmparto]
BloodBlack está baneado por "clon de usuario baneado"
@PilaDePetaca

No te entiendo muy bien la verdad, ninguna GPU es compatible por hardware, cuando tú desarrollas un juego nivel metal, con soló cambiar frecuencias se rompería el juego, para eso existen la API para dar compatibilidad con hardware atrás, eso no significa que una arquitectura sea refrito. Ya lo explicado AMD rediseñado prácticamente toda la arquitectura con RDNA.

Y en tu segundo párrafo(que va dirigido a otro usuario) lo que expones es justamente todo lo contrario lo que esta haciendo AMD con RDNA vs GCN. RDNA está pensando en términos de efeciencia y necesita menos CU para rendir mas, y es que también son más baratas de fabricar por lo mismo.

La Vega 64 era una GPU de 64CU (4096 SP), 494mm2, 300w que competía en rendimiento ante una GPU como GTX 1080 de 2560SP, 300m2 y 180w.

Si análizas RDNA vs Nvidia, es todo lo contrario a lo que fue GCN, ahora es al revés y es AMD quien compite con un chip más efecientes estamos hablando de 7900XTX(6144 SP, 300m2 y 340w) vs 4090 (16384 SP, 608mm2 y 450W). Y esto gran eficiencia en RDNA la han conseguido porque han rediseñado todo y poco les queda de GCN.

Es Nvidia quien parece que ha regresado a los tiempos de GCN y de dedicarse a meter shaders a saco en cada nuevo nodo, los papeles se han invertido totalmente y AMD goza actualmente de una arquitectura muchísimo mejor, mas efeciente en todos sus aspectos.
Eso iba a decir yo, si hay una arquitectura que cada vez se parece más a GCN es la de Nvidia, tirando de cómputo y fuerza bruta a costa de consumos altísimos. RDNA es bastante diferente de GCN, aun siguiendo compartiendo algunas similitudes.
BloodBlack escribió:@PilaDePetaca

No te entiendo muy bien la verdad, ninguna GPU es compatible por hardware, cuando tú desarrollas un juego nivel metal, con soló cambiar frecuencias se rompería el juego, para eso existen la API para dar compatibilidad con hardware atrás, eso no significa que una arquitectura sea refrito. Ya lo explicado AMD rediseñado prácticamente toda la arquitectura con RDNA.

Y en tu segundo párrafo(que va dirigido a otro usuario) lo que expones es justamente todo lo contrario lo que esta haciendo AMD con RDNA vs GCN. RDNA está pensando en términos de efeciencia y necesita menos CU para rendir mas, y es que también son más baratas de fabricar por lo mismo.

La Vega 64 era una GPU de 64CU (4096 SP), 494mm2, 300w que competía en rendimiento ante una GPU como GTX 1080 de 2560SP, 300m2 y 180w.

Si análizas RDNA vs Nvidia, es todo lo contrario a lo que fue GCN, ahora es al revés y es AMD quien compite con un chip más efecientes estamos hablando de 7900XTX(6144 SP, 300m2 y 340w) vs 4090 (16384 SP, 608mm2 y 450W). Y esto gran eficiencia en RDNA la han conseguido porque han rediseñado todo y poco les queda de GCN.

Es Nvidia quien parece que ha regresado a los tiempos de GCN y de dedicarse a meter shaders a saco en cada nuevo nodo, los papeles se han invertido totalmente y AMD goza actualmente de una arquitectura muchísimo mejor, mas efeciente en todos sus aspectos.


@Pacorrr

Los grandes cambios de la arquitectura vinieron tanto por todo el cambio que hicieron en el backend, sino que el front-end que llevaba siendo un cuello de botella muchisimo tiempo, lo "liberaron" por así decirlo. Sin embargo, dejaron instrucciones por hardware para que el front-end actuase como las antiguas GCN (por eso se dice que es una arquitectura híbrida), y todos estos datos estan en los white papers de AMD es lo que ha publicado ellos. Con esto AMD se ahorro, lo primero sacar drivers nuevos de cero (y aun así, con los parcheos las 5xxx tuvieron muchisimos problemas al principio), y lo segundo, creó compatibilidad entre las consolas de la antigua generación y las nuevas sin necesidad de emular nada, directo del hardware. El problema es que el front-end sigue siendo prácticamente el mismo desde RDNA1, y sólo han sacado parcheos para optimizar la arquitectura híbrida (primero para que subiesen de Ghz, luego el RT, ahora una especie de SMT con el dual-purpose que en realidad sólo son algunas instrucciones y au y arreglar la cagada de cuello de botella que hicieron con el RT anterior).

Podían haber roto eso y haber sacado la arquitectura completa y dejarse de arrastrar el muerto que es GCN, y de una vez enterrar el cáncer que es nVidia, pero van por el camino que van...
Me estaba preguntando una cosita hoy ¿son todos los juegos donde peor rinden las RX patrocinados por Nvidia? Cyberpunk 2077 claramente lo es. ¿Algun juego más? mientras haya cosas asi, siempre habra resultados dispares.
PilaDePetaca escribió:
BloodBlack escribió:@PilaDePetaca

No te entiendo muy bien la verdad, ninguna GPU es compatible por hardware, cuando tú desarrollas un juego nivel metal, con soló cambiar frecuencias se rompería el juego, para eso existen la API para dar compatibilidad con hardware atrás, eso no significa que una arquitectura sea refrito. Ya lo explicado AMD rediseñado prácticamente toda la arquitectura con RDNA.

Y en tu segundo párrafo(que va dirigido a otro usuario) lo que expones es justamente todo lo contrario lo que esta haciendo AMD con RDNA vs GCN. RDNA está pensando en términos de efeciencia y necesita menos CU para rendir mas, y es que también son más baratas de fabricar por lo mismo.

La Vega 64 era una GPU de 64CU (4096 SP), 494mm2, 300w que competía en rendimiento ante una GPU como GTX 1080 de 2560SP, 300m2 y 180w.

Si análizas RDNA vs Nvidia, es todo lo contrario a lo que fue GCN, ahora es al revés y es AMD quien compite con un chip más efecientes estamos hablando de 7900XTX(6144 SP, 300m2 y 340w) vs 4090 (16384 SP, 608mm2 y 450W). Y esto gran eficiencia en RDNA la han conseguido porque han rediseñado todo y poco les queda de GCN.

Es Nvidia quien parece que ha regresado a los tiempos de GCN y de dedicarse a meter shaders a saco en cada nuevo nodo, los papeles se han invertido totalmente y AMD goza actualmente de una arquitectura muchísimo mejor, mas efeciente en todos sus aspectos.


@Pacorrr

Los grandes cambios de la arquitectura vinieron tanto por todo el cambio que hicieron en el backend, sino que el front-end que llevaba siendo un cuello de botella muchisimo tiempo, lo "liberaron" por así decirlo. Sin embargo, dejaron instrucciones por hardware para que el front-end actuase como las antiguas GCN (por eso se dice que es una arquitectura híbrida), y todos estos datos estan en los white papers de AMD es lo que ha publicado ellos. Con esto AMD se ahorro, lo primero sacar drivers nuevos de cero (y aun así, con los parcheos las 5xxx tuvieron muchisimos problemas al principio), y lo segundo, creó compatibilidad entre las consolas de la antigua generación y las nuevas sin necesidad de emular nada, directo del hardware. El problema es que el front-end sigue siendo prácticamente el mismo desde RDNA1, y sólo han sacado parcheos para optimizar la arquitectura híbrida (primero para que subiesen de Ghz, luego el RT, ahora una especie de SMT con el dual-purpose que en realidad sólo son algunas instrucciones y au y arreglar la cagada de cuello de botella que hicieron con el RT anterior).

Podían haber roto eso y haber sacado la arquitectura completa y dejarse de arrastrar el muerto que es GCN, y de una vez enterrar el cáncer que es nVidia, pero van por el camino que van...

Una cosa no tiene nada que ver con la otra, RDNA es muy diferente de GCN aunque comparta muchas cosas como es obvio (cosa que hace Nvidia también), que era una arquitectura basada en la potencia bruta con exceso de recursos mal aprovechados. RDNA es todo lo contrario, una arquitectura adelgazada donde se saca rendimiento de los menos recursos posibles, primando la eficiencia. No sé dónde ves el problema, el aumento de frecuencias viene principalmente por el nodo donde fabriques, GCN se fabricaba en Global Foundries que tenían un nodo bastante menos avanzado que el que tenía TSMC en su época, este último permite alcanzar unas frecuencias muy altas desde los 7nm. De hecho el proceso de fabricación de RDNA 1 y RDNA 2 es diferente aun siendo ambos 7nm de TSMC. en RDNA 2 se usó un proceso más refinado que permitía mayores frecuencias que el que se usó para RDNA 1, para la que escogieron el que daba mayor eficiencia, porque el objetivo de RDNA era reducir el consumo de GCN rindiendo mucho más. Y eso lo han conseguido con creces.
(mensaje borrado)
En teoría está semana que entra ya saldrán las reviews de terceros, no?
Se sabe día?
NicOtE escribió:En teoría está semana que entra ya saldrán las reviews de terceros, no?
Se sabe día?

No reviews, datos entregados por amd.
nadie tiene la gráfica aún.
adriano_99 escribió:
NicOtE escribió:En teoría está semana que entra ya saldrán las reviews de terceros, no?
Se sabe día?

No reviews, datos entregados por amd.
nadie tiene la gráfica aún.

Ah! Ok, me había enterado mal entonces. Gracias! [oki]
Pacorrr escribió:Mucha info en este artículo de Tom's



Imagen
Imagen

Parece que conRT se sigue resintiendo mucho el rendimiento, pero en algún caso doble a la 6950XT.
Ha mejorado claramente.

En cuanto a rasterización, es bastante bestia la XTX .Se va a merendar a la 4080 .

Parece que la XTX va a ser algo intermedio entre la 4080 y la 4090.
Lo que suponíamos.
Yo si se confirma ese rendimiento (habrá que ver reviews), estaré con el F5 en al web de AMD el 13 de diciembre XD a ver si puedo pillar una XTX. La XT no merece la pena para nada, por un poco más te pillas la gorda que le saca entre un 15-20%.
Pacorrr escribió:Yo si se confirma ese rendimiento (habrá que ver reviews), estaré con el F5 en al web de AMD el 13 de diciembre XD a ver si puedo pillar una XTX. La XT no merece la pena para nada, por un poco más te pillas la gorda que le saca entre un 15-20%.


Ídem, la verdad es que tiene una pinta brutal esa XTX para rasterizado. A ver si le dan buen soporte para VR, aunque con ese DP 2.1 tiene pinta que sí :)


Salu2
A mi me gustaria probar la XTX Powercolor Red Devil, a ver si no se flipan con el precio XD
Pacorrr escribió:Mucha info en este artículo de Tom's



Imagen
Imagen

Estaba pensando en cambiar el PC al completo últimamente (tengo una GTX1080 y ya toca) y la gráfica, como siempre, es uno de los quebraderos de cabeza que tengo.
Voy a esperarme a ver como se porta esa XTX porque no pinta mal la verdad
BloodBlack está baneado por "clon de usuario baneado"
Con un 58% de media, esa 7900XTX se va quedar a lo mucho a aun 10% de la 4090, aunque habría que ver una batería de juegos más amplia. Esa 7900XT con un 30% lo mas probable iguale o supere ligeramente , y en RT el rendimiento es mejor de lo esperado en los juegos ms exigentes de Ray Tracing como el Cyberpunk y Dying Ligth, casi duplica rendimiento.

Yo creo con esto Nvidia tiene poco que hacer, relación crendimiento, consumo/precio les pasa por encima brutalmente.
No quiero renovar mi 6900XT pero si esto se cumple me lo van a poner muy muy difícil [qmparto]
Veo que la gente sigue liada con lo de "up to"... repito que siempre ponen "up to" porque es el escenario más favorable, no porque sean "frames máximos" como interpretan algunos. Ejemplo, diapositivas de AMD de la 6800XT, de nuevo poniendo "up to" porque en sus pruebas era lo que alcanzaban de media, no porque fuera un pico de frames, 62-63 fps es lo que sacaba en el bench de Borderlands 3 con mi 6800XT cuando la compré hace 2 años.

Imagen
Pues está mal explicado... tanto cuesta poner average o similar
gojesusga escribió:Pues está mal explicado... tanto cuesta poner average o similar

Es que todo depende de la interpretación, "up to" en este caso significa "hasta" ese rendimiento que muestran, ese es el mejor escenario de rendimiento para la tarjeta en los juegos que han seleccionado, no significa que esos son los máximos frames que obtiene. No tiene sentido medir en frames máximos, nunca se ha hecho en una presentación de gpu.
Deseando que le den bien duro a Nvidia.
Con ganas de verlas ya.
Pacorrr escribió:Mucha info en este artículo de Tom's



Imagen
Imagen


De momento se confirma lo que dije, estan parcheando o, mejor dicho, arreglando las cagadas de los malos parcheos por hacer las cosas a medio gas desde el principio. En fin, viendo que la filosofia de AMD con las GPU's va a ser ésta, ya sólo queda que las gamas medias/medias altas estén bien de precio para pillar alguna.
Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?
adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?

Si son buenas ,debería.
Solo con que la 7900XTX sea algo superior y más barata ..
Ya están tardando en sacar algo.
Y yo creo que va a estar entre medias de la 4089 y la 4090,siendo sobre un 15-20% más potente que la 4080.

A ver si es verdad
adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?


Creo que hay mucho hype.


AMD sabe perfectamente lo que hay y lo ha dicho. Va a competir contra la 4080 y creo que casi seguro la pequeña se podrá flashear y acabarán siendo una xtx con 20gb.

Esto es lo que yo creo y sería un punto, aunque de por sí parece no hay mucha diferencia entre ambas.
Ya estan las reviews de la 4080, si los datos que ha dado AMD de la 7900 XTX no son engañosos, se quedará mas o menos entre medias de la 4080 y la 4090. Teniendo en cuenta que la 4080 cuesta un 20% mas, todo pinta que AMD la va a petar !!!!!

Imagen
Kavezacomeback escribió:
adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?


Creo que hay mucho hype.


AMD sabe perfectamente lo que hay y lo ha dicho. Va a competir contra la 4080 y creo que casi seguro la pequeña se podrá flashear y acabarán siendo una xtx con 20gb.

Esto es lo que yo creo y sería un punto, aunque de por sí parece no hay mucha diferencia entre ambas.



De donde sacas lo del flasheo? porque hace muchos muchos años que no se flasea ninguna amd a la top, ni recuerdo la ultima que se podia flashear, pero creo que era ati.

Ni la vega, ni la 6800/6900 ni ninguna.
654321 escribió:Ya estan las reviews de la 4080, si los datos que ha dado AMD de la 7900 XTX no son engañosos, se quedará mas o menos entre medias de la 4080 y la 4090. Teniendo en cuenta que la 4080 cuesta un 20% mas, todo pinta que AMD la va a petar !!!!!

Imagen

Le saca sobre 25-30% a la 6950XT según review y según los datos de AMD la 7900XTX le saca un 55% a la 6950XT, falta ver si es cierto cuando salgan las reviews, pero en principio pinta bien para AMD, más baratas y mejor rendimiento en raster.
PepeC12 escribió:
Kavezacomeback escribió:
adriano_99 escribió:Creo que para las 3-4 deberían de estar las reviews de la 4080, creeís que a amd se le escpará misteriosamente algo de info para hacer la contra?


Creo que hay mucho hype.


AMD sabe perfectamente lo que hay y lo ha dicho. Va a competir contra la 4080 y creo que casi seguro la pequeña se podrá flashear y acabarán siendo una xtx con 20gb.

Esto es lo que yo creo y sería un punto, aunque de por sí parece no hay mucha diferencia entre ambas.



De donde sacas lo del flasheo? porque hace muchos muchos años que no se flasea ninguna amd a la top, ni recuerdo la ultima que se podia flashear, pero creo que era ati.

Ni la vega, ni la 6800/6900 ni ninguna.


De mis deseos, de que algunos modelos según dicen compartirán mismo diseño de pcb, no las de referencia, y de que se ha preguntado que creo, por lo que puedo creer lo que quiera :p

La última. creo que fue la 7950 o la Fury, no lo recuerdo. Mentira, las vega.
El capado para evitar mutaciones ya se perfecciono hace años.
Gromber escribió:El capado para evitar mutaciones ya se perfecciono hace años.


Esta claro que de ser es por qué así lo quieren.
BloodBlack está baneado por "clon de usuario baneado"
Con los datos de AMD y la review de TPU de la RTX 4080, las cosas quedarían así en rasterizacion a 4k:

Residente Evil 8
RTX 4080 = 159 FPS
7900XT = 157 FPS
7900XTX = 190 FPS

Cyberpunk 2077
RTX 4080 = 56 FPS
7900 XT = 60 FPS
7900 XTX = 72 FPS

Watch Legión
RTX 4080 = 83 FPS
7900XT = 85 FPS
7900 XTX = 100 FPS

Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299, AMD reclama 300w vs 320w de la 4080. En Ray Tracing 4k las cosas quedarían asi:

Cyberpunk 2077
RTX 4080 = 29 FPS
7900XT = 18 FPS
7900XTX = 21 FPS

Residente Evil 8
RTX 4080 = 120 FPS
7900XT = 115 FPS
7900 XTX = 135 FPS

Dying Ligth 2 (CumputerBase)
RTX 4080 = 43 FPS
7900XT = 21 FPS
7900XTX = 24 FPS
BloodBlack escribió:Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299

Creo que es $1199 la 4080 de precio oficial ... pero si, parece que van a andar parecidas esas 2, y mucho mas barato AMD.

En Euros puede que sean 400€ de diferencia, yo personalmente por ese precio, me quedo con la XT y peor raytracing.
BloodBlack escribió:Con los datos de AMD y la review de TPU de la RTX 4080, las cosas quedarían así en rasterizacion a 4k:

Residente Evil 8
RTX 4080 = 159 FPS
7900XT = 157 FPS
7900XTX = 190 FPS

Cyberpunk 2077
RTX 4080 = 56 FPS
7900 XT = 60 FPS
7900 XTX = 72 FPS

Watch Legión
RTX 4080 = 83 FPS
7900XT = 85 FPS
7900 XTX = 100 FPS

Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299, AMD reclama 300w vs 320w de la 4080. En Ray Tracing 4k las cosas quedarían asi:

Cyberpunk 2077
RTX 4080 = 29 FPS
7900XT = 18 FPS
7900XTX = 21 FPS

Residente Evil 8
RTX 4080 = 120 FPS
7900XT = 115 FPS
7900 XTX = 135 FPS

Dying Ligth 2 (CumputerBase)
RTX 4080 = 43 FPS
7900XT = 21 FPS
7900XTX = 24 FPS

Vamos ,que parece que la 4080 va a dar la cara solo con RT,siendo mejor que la 7900XT en eso ,y similar sin eso
Pero palmando claramente frente a la XTX en raster y ganando en algunos casos sí oy otros no, con RT.
.si todo esto se concreta ,salgo que se quiera RT por encima de todo,la XTX se la va a merendar pero bien calidad /precio.

Yo es que sigo sin verle tanto atractivo al RT ,y eso que voy con una 3080Ti y se lo activo a todos los juegos que lo llevan.
Suelo notar poca cosa ,y en algunos casos ,básicamente nada
Me parece puro marketing excepto en 3 juegos contados.

La única duda ,es si en esta gen el RT sí va a ser mejor y más común.
Si es así, pues puedes pensar un poco el tema.
Pero si sigue como ahora ,no veo motivo para que la gente compre esa 4080 a ese precio, la verdad.
BloodBlack escribió:Con los datos de AMD y la review de TPU de la RTX 4080, las cosas quedarían así en rasterizacion a 4k:

Residente Evil 8
RTX 4080 = 159 FPS
7900XT = 157 FPS
7900XTX = 190 FPS

Cyberpunk 2077
RTX 4080 = 56 FPS
7900 XT = 60 FPS
7900 XTX = 72 FPS

Watch Legión
RTX 4080 = 83 FPS
7900XT = 85 FPS
7900 XTX = 100 FPS

Creo que la 7900XT va ser el competidor de la 4080 costando $899 vs $1299, AMD reclama 300w vs 320w de la 4080. En Ray Tracing 4k las cosas quedarían asi:

Cyberpunk 2077
RTX 4080 = 29 FPS
7900XT = 18 FPS
7900XTX = 21 FPS

Residente Evil 8
RTX 4080 = 120 FPS
7900XT = 115 FPS
7900 XTX = 135 FPS

Dying Ligth 2 (CumputerBase)
RTX 4080 = 43 FPS
7900XT = 21 FPS
7900XTX = 24 FPS

Sí correcto, si los datos de AMD son de fiar, en raster la pelea será 7900XT vs 4080 y la 7900XTX quedaría a un 20-25% de ambas.

https://twitter.com/harukaze5719/status ... 2001572864

Imagen
La leche, yo la verdad es que voy a seguir muy de cerca la 7900xtx, si se puede comprar por poco mas de 1k en la salida va a ser una opcion muy a tener en cuenta.

Cuando se podran comprar?
Pero no tardarán en mostrar reviews por que si no la gente se harta y aplica aquello de pajaro en mano.
HaGeK escribió:La leche, yo la verdad es que voy a seguir muy de cerca la 7900xtx, si se puede comprar por poco mas de 1k en la salida va a ser una opcion muy a tener en cuenta.

Cuando se podran comprar?


Salvo sorpresa, mínimo 1.210€.
Si la XTX sale por 1000€ y es un 20% más potente que la 4080 AMD le va a dar un tortazo importante a Nvidia.
BennBeckman escribió:Si la XTX sale por 1000€ y es un 20% más potente que la 4080 AMD le va a dar un tortazo importante a Nvidia.


No va salir por 1000€... son 999 dolares que el paso al euro son 1:1 multiplicado por el IVA, es decir 1200€ el modelo de la web de AMD.

Visto lo visto, las custom tendrán un sobrecoste de unos 200€ mínimo, y eso implica que los veremos partir de los 1400€ hasta los 1500 o más en los modelos más top... es lo mismo que pasa en la compañia verde
Sobrecoste y que seguramente (muy a pesar) no superará a la 4080. No nos chupemos todavía las pollas hasta que veamos la realidad. Pero quien crea que por casi 1000€ menos va a tener una VGA que supere a la 4080 es que vive en los mundos de yupi XD (No por que AMD no pueda conseguir superar a la 4080, si no por el pensar que te la van a vender a casi 1000€ menos XD ).
5143 respuestas