[HO] Radeon RX 6000 Family

Es que antes normalmente las custom siempre un sistema de refrigeración mejor, si con estas decis que han mejorado bastante las founders... cómo te pueden cobrar 200€ o más solo por que sea custom. Por un poco más de OC que luego puedes hacer manualmente? No tiene ningún sentido, se están aprovechando de la situación y ya.

En mi caso puedo seguir esperando, incluso bajar el nivel porque veo que pagaré 650€ pero estas gráficas no van a durar tanto por el bajón de rendimiento con RT, incluso las 3080 están parecidas aunque vayan algo mejor. Me refiero a que no durarán tanto como la serie 10x0 de nvidia.
eric_14 escribió:Es que antes normalmente las custom siempre un sistema de refrigeración mejor, si con estas decis que han mejorado bastante las founders... cómo te pueden cobrar 200€ o más solo por que sea custom. Por un poco más de OC que luego puedes hacer manualmente? No tiene ningún sentido, se están aprovechando de la situación y ya.

En mi caso puedo seguir esperando, incluso bajar el nivel porque veo que pagaré 650€ pero estas gráficas no van a durar tanto por el bajón de rendimiento con RT, incluso las 3080 están parecidas aunque vayan algo mejor. Me refiero a que no durarán tanto como la serie 10x0 de nvidia.


Exacto, el Ray tracing a venido para quedarse nos guste o no y la única forma que tienen las actuales gráficas de poder correrlo adecuadamente es implementado el downgrade que aplica el DLSS.

En el caso de nvidia sabemos como funciona y que los resultados podrán criticables, pero al menos funciona perfectamente. Por contra, en AMD si aplicas el Ray tracing directamente tienes que olvidarte de jugar a 4k, salvo que quieras jugar con unos ftps muy pobres porque la solución de usar el DLSS es imposible, literalmente todavía no lo han desarrollado.

Si abusan de precios, la gran mayoría de usuarios se decatará por las NVIDA.
Bueno yo me refiero a las 30x0 también... no las veo muy sobradas tampoco cuando se activa el ray tracing, con dlss 4k en algunos casos se quedan justos y fuera de 4k no mejora tanto.

Igual estoy equivocado pero es la impresión que me da.
@eric_14 Pero es que en AMD, creo, es mucho peor. He pasado el Bench de Bright Memory RTX y en 1080p con RT activado me roza los 60 fps, con bajadas a 57 o 58.

Saludos.
Amd parece bastante peor con rt, pero también es verdad que funciona distinto a nvidia y todos los juegos actuales están implementados con el rt de nvidia en mente.

También os digo que aunque es cierto que es el futuro tanto amd como nvidia están muy verdes en rt, yo calculo que le faltan 2 o 3 generaciones al rt para tener unos resultados decentes.

Sinceramente yo creo que el rt es más marketing que otra cosa actualmente, el único juego que realmente merece la pena con rt es cyberpunk y se hunde el rendimiento.

El dlss lo veo genial para gamas medias y bajas para jugar a resoluciones altas o para activar el rt en 4k. En este último caso habría que ver si merece la pena activar el dlss con rt o simplemente quitar el rt.

Cyberpunk por ejemplo con dlss en imágenes estáticas se ve genial pero en movimiento se ven bastantes errores. No se si parará en otros juegos también.

Yo lo tengo claro, si nvidia presenta una 3070ti con 12 o 16gb voy a por ella, sino prefiero la 6800xt sobre la 3080 o 3070. Básicamente porque prefiero desactivar el rt a bajar calidad de texturas.
@pepec12

DLSS bien implementado es muy resultón en mi opinión.

De hecho creo que RT es inconcebible sin DLSS de la mano.

Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.
Gwyn escribió:@pepec12

DLSS bien implementado es muy resultón en mi opinión.

De hecho creo que RT es inconcebible sin DLSS de la mano.

Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.

Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.

Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.
Pacorrr escribió:
Gwyn escribió:@pepec12

DLSS bien implementado es muy resultón en mi opinión.

De hecho creo que RT es inconcebible sin DLSS de la mano.

Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.

Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.

Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.

Control , death stranding y wolfenstein youngblood se ven mejor en 4k dlss que 4k nativo. Puedes ver los análisis de digital foundry y verás qué es verdad.
No es cosa del marketing de Nvidia es una realidad que dlss muchas veces reconstruye información que no se ve en el 4k real .
Gsync se puede usar en gráficas AMD pero solo en monitores que tengan HDMI 2.1 y eso es porque por mucho que AMD llame a lo suyo freesync sigue siendo un estándar propietario ( solo que con una menor barrera de entrada para los fabricantes) y el usarlo en un HDMI 2.0 o inferior era propiedad de AMD y no deja que Nvidia ni nadie lo use.
Por eso hasta hace poco gsync solo se podía usar con display Port y no con HDMI
Pacorrr escribió:
Gwyn escribió:@pepec12

DLSS bien implementado es muy resultón en mi opinión.

De hecho creo que RT es inconcebible sin DLSS de la mano.

Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.

Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.

Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.


Totalmente de acuerdo en todo. Una lástima que sea algo propietario, sí.

Sobre la calidad de imagen, yo prefiero esa "aceptable" pérdida de nitidez antes que la caída de fps debido al RT.

---

NOTA: hablo sobre análisis vistos. Todavía no he tenido ni Turing ni Ampere para poder valorar en primera persona estas tecnologías.
adriano_99 escribió:
Pacorrr escribió:
Gwyn escribió:@pepec12

DLSS bien implementado es muy resultón en mi opinión.

De hecho creo que RT es inconcebible sin DLSS de la mano.

Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.

Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.

Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.

Control , death stranding y wolfenstein youngblood se ven mejor en 4k dlss que 4k nativo. Puedes ver los análisis de digital foundry y verás qué es verdad.
No es cosa del marketing de Nvidia es una realidad que dlss muchas veces reconstruye información que no se ve en el 4k real .
Gsync se puede usar en gráficas AMD pero solo en monitores que tengan HDMI 2.1 y eso es porque por mucho que AMD llame a lo suyo freesync sigue siendo un estándar propietario ( solo que con una menor barrera de entrada para los fabricantes) y el usarlo en un HDMI 2.0 o inferior era propiedad de AMD y no deja que Nvidia ni nadie lo use.
Por eso hasta hace poco gsync solo se podía usar con display Port y no con HDMI

No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).

Gsync no se puede usar en gráficas AMD no faltes a la verdad, lo que se puede usar es Gsync COMPATIBLE (monitores que no llevan el módulo gsync propietario de Nvidia) que es un nombre que se ha sacado de la manga Nvidia para llamar de otra manera al Freesync, que a su vez es un nombre que AMD se inventó para sus gráficas pero que es exactamente lo mismo que el standard de VESA adaptative sync.

El compañero de este hilo lo que tiene es un monitor Gsync con módulo propietario, por mucho que llevara HDMI tampoco podría usarlo en otra tarjeta que no fuera una Nvidia. AMD cumple el standard de VESA a rajatabla, no sé de dónde habrás sacado esa idea de que no permite usar HDMI 2.0 o inferior a otros fabricantes, si es un standard de VESA [facepalm]

@Gwyn te dejo dos capturas del famoso cyberbug 2077, izquierda DLSS calidad, derecha nativa, no hay mucho más que decir.

ImagenImagen
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).


Hombre, pero si quitas el TAA te encuentras con dientes de sierra de difícil solución si no tiras de por ejemplo downsampling y fxaa, en resumidas, rendimiento perdido a mansalva.
iaFx escribió:
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).


Hombre, pero si quitas el TAA te encuentras con dientes de sierra de difícil solución si no tiras de por ejemplo downsampling y fxaa, en resumidas, rendimiento perdido a mansalva.


Pues dependiendo de la resolución, los dientes de sierra apenas se notan. Y de todos modos, prefiero un poco de dientes de sierra, que un emborronamiento de la imagen.
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).

Gsync no se puede usar en gráficas AMD no faltes a la verdad, lo que se puede usar es Gsync COMPATIBLE (monitores que no llevan el módulo gsync propietario de Nvidia) que es un nombre que se ha sacado de la manga Nvidia para llamar de otra manera al Freesync, que a su vez es un nombre que AMD se inventó para sus gráficas pero que es exactamente lo mismo que el standard de VESA adaptative sync.

El compañero de este hilo lo que tiene es un monitor Gsync con módulo propietario, por mucho que llevara HDMI tampoco podría usarlo en otra tarjeta que no fuera una Nvidia. AMD cumple el standard de VESA a rajatabla, no sé de dónde habrás sacado esa idea de que no permite usar HDMI 2.0 o inferior a otros fabricantes, si es un standard de VESA [facepalm]

@Gwyn te dejo dos capturas del famoso cyberbug 2077, izquierda DLSS calidad, derecha nativa, no hay mucho más que decir.

ImagenImagen

Como ya te han dicho si quitas el taa te comes los dientes de sierra que son mucho más horribles.
Y respecto a gsync en gráficas amd: https://www.tomshardware.com/news/gsync ... %2Dforward.
"TFT Central confirmed with Nvidia that future G-Sync monitors will support HDMI-VRR and Adaptive Sync over HDMI and DisplayPort. Naturally, a new firmware will be required to bring the two new features to the G-Sync displays, and one for both the G-Sync v1 and v2 hardware modules is already in the works. Basically, this means that AMD graphics card and console owners will be able to use a G-Sync monitor with their setup."
Igual una búsqueda por google antes de acusar de faltar a la verdad a nadie no estaría de mas.
Pacorrr escribió:
iaFx escribió:
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).


Hombre, pero si quitas el TAA te encuentras con dientes de sierra de difícil solución si no tiras de por ejemplo downsampling y fxaa, en resumidas, rendimiento perdido a mansalva.


Pues depende de la resolución, los dientes de sierra apenas se notan. Y de todos modos, prefiero un poco de dientes de sierra, que un emborronamiento de la imagen.


El problema es que la nativa no está al mismo nivel, con DLSS no solo reduces los jaggies, que eso para muchos ya lo podría a la altura de la nativa en cuanto a calidad, sino que ganas rendimiento, vale que la nativa sin TAA te va a dar mas nitidez, pero aparte de dientes de sierra te comes una buena penalizacion de rendimiento al nivel de bajar una o dos gamas de gráficas, ya no digamos lo que chuparía quitarte los dientes de sierra sin el TAA.
adriano_99 escribió:
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).

Gsync no se puede usar en gráficas AMD no faltes a la verdad, lo que se puede usar es Gsync COMPATIBLE (monitores que no llevan el módulo gsync propietario de Nvidia) que es un nombre que se ha sacado de la manga Nvidia para llamar de otra manera al Freesync, que a su vez es un nombre que AMD se inventó para sus gráficas pero que es exactamente lo mismo que el standard de VESA adaptative sync.

El compañero de este hilo lo que tiene es un monitor Gsync con módulo propietario, por mucho que llevara HDMI tampoco podría usarlo en otra tarjeta que no fuera una Nvidia. AMD cumple el standard de VESA a rajatabla, no sé de dónde habrás sacado esa idea de que no permite usar HDMI 2.0 o inferior a otros fabricantes, si es un standard de VESA [facepalm]

@Gwyn te dejo dos capturas del famoso cyberbug 2077, izquierda DLSS calidad, derecha nativa, no hay mucho más que decir.

ImagenImagen

Como ya te han dicho si quitas el taa te comes los dientes de sierra que son mucho más horribles.
Y respecto a gsync en gráficas amd: https://www.tomshardware.com/news/gsync ... %2Dforward.
"TFT Central confirmed with Nvidia that future G-Sync monitors will support HDMI-VRR and Adaptive Sync over HDMI and DisplayPort. Naturally, a new firmware will be required to bring the two new features to the G-Sync displays, and one for both the G-Sync v1 and v2 hardware modules is already in the works. Basically, this means that AMD graphics card and console owners will be able to use a G-Sync monitor with their setup."
Igual una búsqueda por google antes de acusar de faltar a la verdad a nadie no estaría de mas.

Pues buena noticia, la desconocía, pero vamos que los que tienen un monitor actual gsync con módulo, dos piedras, sólo para los futuros que están por salir [qmparto]

@iaFx coñe es obvio, un reescalado te va a dar más rendimiento, sólo faltaba, ahora, allá cada cual si quiere perder calidad a costa de rendimiento. Es algo que ya hacían las consolas desde hace mucho tiempo (con menor calidad, eso sí) y que ha sido muy criticado, ahora de repente parece la repanocha, cuando no lo es, un buen añadido, pues sí, pero si puedo elegir nativa, en mi caso siempre lo haré.
Pacorrr escribió:@iaFx coñe es obvio, un reescalado te va a dar más rendimiento, sólo faltaba, ahora, allá cada cual si quiere perder calidad a costa de rendimiento. Es algo que ya hacían las consolas desde hace mucho tiempo (con menor calidad, eso sí) y que ha sido muy criticado, ahora de repente parece la repanocha, cuando no lo es, un buen añadido, pues sí, pero si puedo elegir nativa, en mi caso siempre lo haré.


Es que el perder calidad lo tienes que ver desde un punto subjetivo, que no te molesten los dientes de sierra no es algo que tiene porqué ser general, a mi me gustaría tener downsampling con fxaa pero eso es una locura y mas con el RT, pero siempre he tenido la balanza entre jaggies y perdida de nitidez con TAA y si ahora me dicen que encima mas nitidez que TAA y rendimiento gratis pues es de cajon.

Y el que se ha informado sobre DLSS sabe que no tiene que ver con las implementaciones de consolas mas allá de los vectores de movimiento, esto no es mas que una derivación de las tecnologías de Nvidia para Machine Learning.
iaFx escribió:
Pacorrr escribió:@iaFx coñe es obvio, un reescalado te va a dar más rendimiento, sólo faltaba, ahora, allá cada cual si quiere perder calidad a costa de rendimiento. Es algo que ya hacían las consolas desde hace mucho tiempo (con menor calidad, eso sí) y que ha sido muy criticado, ahora de repente parece la repanocha, cuando no lo es, un buen añadido, pues sí, pero si puedo elegir nativa, en mi caso siempre lo haré.


Es que el perder calidad lo tienes que ver desde un punto subjetivo, que no te molesten los dientes de sierra no es algo que tiene porqué ser general, a mi me gustaría tener downsampling con fxaa pero eso es una locura y mas con el RT, pero siempre he tenido la balanza entre jaggies y perdida de nitidez con TAA y si ahora me dicen que encima mas nitidez que TAA y rendimiento gratis pues es de cajon.

Y el que se ha informado sobre DLSS sabe que no tiene que ver con las implementaciones de consolas mas allá de los vectores de movimiento, esto no es mas que una derivación de las tecnologías de Nvidia para Machine Learning.


Los dientes de sierra a 4K y 1440 no son tan notorios como a 1080p, todo depende de la resolución, el emborronamiento para mí es peor, estás perdiendo información, o te crea problemas en la iluminación como pasa con el cyberpunk que te hace cosas raras el DLSS (en Control también vi cosas extrañas con el DLSS)

Yo no digo que el DLSS sea una tecnología mala, lo que digo es que está demasiado encumbrado y sobrevalorado.

Y yo por mi parte dejo el tema aquí, que parece esto ya el hilo de las RTX 3000 en lugar de las RX 6000 XD
Pacorrr escribió:


ImagenImagen


El pelo de Judy deja bastante que desear y hay demasiados personajes mujer con el pelo rapado de un lado. Estoy jugando al horizon mientras parchean el cyberp (horizon rinde entre 60 fps en poblado y fps disparados a 80 y mucho en exteriores o hasta 100+ en interiores, ultra 1440p) y el pelo de los personajes esta bastante mejor hecho no parecen tiras como en el cyberp:

Imagen
Lo del tema del gsync no os engañeis, nvidia tuvo que adoptar el vrr porque está en el estándar del hdmi y displayport.

Si no fuera por eso seguíamos con el hardware propietario de nvidia.

Ahora los fabricantes de monitores no tienen que meter hardware para ser gsync compatible, con seguir los standard de hdmi y displayport ya lo tienen.

Es una de las cosas que menos me gustan de nvidia, saca tecnologías propietarias cerradas.

Ya tuvimos physix, gsync dlss etc.

Que creéis que va pasar cuando haya una tecnología abierta que haga lo que hace el dlss? Que compañía va a apostar por dlss si existe una tecnología abierta que pueden usar todas las plataformas?
PepeC12 escribió:Lo del tema del gsync no os engañeis, nvidia tuvo que adoptar el vrr porque está en el estándar del hdmi y displayport.

Si no fuera por eso seguíamos con el hardware propietario de nvidia.

Ahora los fabricantes de monitores no tienen que meter hardware para ser gsync compatible, con seguir los standard de hdmi y displayport ya lo tienen.

Es una de las cosas que menos me gustan de nvidia, saca tecnologías propietarias cerradas.

Ya tuvimos physix, gsync dlss etc.

Que creéis que va pasar cuando haya una tecnología abierta que haga lo que hace el dlss? Que compañía va a apostar por dlss si existe una tecnología abierta que pueden usar todas las plataformas?


El mayor inconveniente que veo al DLSS es que debe ser implementado con entrenamiento para cada juego de manera específica.

Si pudiera ser algo menos costoso en tiempo y recursos, seguro que lo veríamos en más juegos.

Aunque, ¿esto no es algo que mejoró con el 2.0 o me lo estoy inventando?
@PepeC12 Por hacer un inciso xD, más bien es una curiosidad, pero el Physx no es de Nvidia, fue comprado por Nvidia que no es lo mismo. Ya que antes esta tecnología la desarrolló AGEIA y era una especie de tarjeta que podías poner en el PCI y era compatible con cualquier gráfica.

Cuando Nvidia compro AGEIA, al principio, dejaban usar otras gráficas aparte de la Nvidia pero al final, por drivers, caparon dicha opción. En mi opinión el Physx molaba mucho, el Borderlands 2 era un autentico espectáculo pero como siempre, entre que era propietario y que al igual que pasa con el RT en muchos juegos no está bien implementado, pues se quedó como siempre en el limbo.

Saludos.
Estoy teniendo un problema con la RX 6900 XT, no se si alguno lo ha experimentado, crashea el driver bajo carga en gpu. Me he bajado OCCT y puedo pasar sin problemas el test de PSU (admito que esta un poco limitada para la carga del sistema pero es buena, Enermax Platimax 600w). Sin embargo, si paso el test de vram me crashea directamente :/

Decir que al instalarla pude pasar el benchmark Superposition y estuve jugando un par de dias sin problemas relacionados con la gpu, pero empezo a haber fallos que asocie a la psu pero ya os digo, me viene oliendo más a GPU... He formateado, reinstalado drivers y tal y nada, mismos sintomas.
@iTek La marca no la conozco pero 600w me parece muy poquitos para una gráfica como la 6900xt. De hecho la misma AMD recomienda una de 750w.

Saludos.
AlterNathan escribió:@iTek La marca no la conzoco pero 600w me parece muy poquitos para una gráfica como la 6900xt.

Saludos.


Tengo pedida una Corsair de 750w platinium, el lunes/martes me llega pero ya te digo, he hecho pruebas de carga y me falla solo con usar la memoria de la grafica, lo cual me huele muy muy mal. Espero que no sea más que la fuente necesita un respiro...
Han salido drivers nuevos, y han añadido una utilidad para personalizar el logo Radeon que resulta que es RGB también en la 6800XT XD

https://www.amd.com/es/support/graphics ... rx-6800-xt
erderbi escribió:Ahora mismo hay stock de una 6800 por 720 y dos 6900 https://www.pccomponentes.com/tarjetas-graficas/amd-radeon-rx-6800/amd-radeon-rx-6900


Normal que haya stock jajajajaj
Lo del DLSS se nota un huevo, nos hemos pasado la generación anterior diciendo que las consolas usaban trucos para no mostrar la resolución nativa, y ahora lo hace pc y miramos para otro lado.
adri079 escribió:Lo del DLSS se nota un huevo, nos hemos pasado la generación anterior diciendo que las consolas usaban trucos para no mostrar la resolución nativa, y ahora lo hace pc y miramos para otro lado.

Comparar el dlss con los reescalados de ps4 y one es no tener ni idea o engañarse muy fuerte.
Y ahora mismo tengo una 1050 ti, no tengo ni eso ni ray tracing pero coñe , que hay decenas de análisis que demuestran cómo en según qué condiciones se ve mas nitido y con más detalle que la resolucion nativa.
Antoniopua está baneado por "saltarse el ban con un clon"
vergil escribió:
erderbi escribió:Ahora mismo hay stock de una 6800 por 720 y dos 6900 https://www.pccomponentes.com/tarjetas-graficas/amd-radeon-rx-6800/amd-radeon-rx-6900


Normal que haya stock jajajajaj

La 6900 XT tiene un sobreprecio de casi 300 Euros :O . Casi que te da para un Ryzen 5800 X y todo... No veas con la 1060, probrecica lo que le queda [carcajad] [+risas]
Antoniopua escribió:
vergil escribió:
erderbi escribió:Ahora mismo hay stock de una 6800 por 720 y dos 6900 https://www.pccomponentes.com/tarjetas-graficas/amd-radeon-rx-6800/amd-radeon-rx-6900


Normal que haya stock jajajajaj

La 6900 XT tiene un sobreprecio de casi 300 Euros :O . Casi que te da para un Ryzen 5800 X y todo... No veas con la 1060, probrecica lo que le queda [carcajad] [+risas]

Mi 1050ti esta tirando a 3400x1440 así que imaginate xD
Juegos sencillos obviamente ; minecraft, the binding of isaac, persona 4...
Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen


yo la dejaba, y mas adelante la pillaba
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen

Yo ni de coña pagaba 1200€ en una 6900XT.Es que ni los 999€ recomendados.Para eso espero a la 3080TI.
Tampoco me dejaba 500€ en un 5800X para jugar.Solo me iría a algo así para jugar 1080P.Me parece desorbitado para tener ventaja 0 con un 5600.
Menos ,si en un año nos metemos con los nuevos y las DDR5.
Es más, si pillas una 6900XT, será seguramente para 4K, donde la cpu pasa a ser algo muy secundario.Es más, te cascas una 3600 o un 10400F y en 4K, la diferencia es 0 con ese 5800
Como mucho muchísimo, me gastaba lo que vale el 5600X, auqnue yo esperaría a los nuevos Intel o al 5600 normal,y ya valoraría.
Y en gráfica, me iba a una 3080.Si tiene que ser AMD, pues una 6800XT, pero una 6900XT nunca, y menos con ese sobreprecio.
Y en la caja, estando muy bien esa, me ahorraba otro dinero pillando una Lianli Lancool MEsh II.De sobra , más barata y muy top en temperaturas.

Pero oye, cada uno con su dinero...
Los últimos drivers van muy bien, ya había notado mejora en los juegos a los que ando dando, probando con time spy se confirma, cada vez más cerca de los 20000 puntos de gráficos [sonrisa]

https://www.3dmark.com/3dm/55249757
Antoniopua está baneado por "saltarse el ban con un clon"
@ChristianRocky5 es un super pc... pero es que duele esos 300 Euros de más que cuesta la 6900 XT. Yo tengo solo para la gráfica un buen dinero, pero no soy capaz de regalar esos 300 Eurazos.
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen


Pues mira yo voy a ser la nota discordante, y si te lo puedes permitir y te apetece, adelante. Son precios inflados, pero ahora mismo es lo que hay, y aún suerte de poder pillar lo poco que se encuentra en stock.
hh1 escribió:
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen

Yo ni de coña pagaba 1200€ en una 6900XT.Es que ni los 999€ recomendados.Para eso espero a la 3080TI.
Tampoco me dejaba 500€ en un 5800X para jugar.Solo me iría a algo así para jugar 1080P.Me parece desorbitado para tener ventaja 0 con un 5600.
Menos ,si en un año nos metemos con los nuevos y las DDR5.
Es más, si pillas una 6900XT, será seguramente para 4K, donde la cpu pasa a ser algo muy secundario.Es más, te cascas una 3600 o un 10400F y en 4K, la diferencia es 0 con ese 5800
Como mucho muchísimo, me gastaba lo que vale el 5600X, auqnue yo esperaría a los nuevos Intel o al 5600 normal,y ya valoraría.
Y en gráfica, me iba a una 3080.Si tiene que ser AMD, pues una 6800XT, pero una 6900XT nunca, y menos con ese sobreprecio.
Y en la caja, estando muy bien esa, me ahorraba otro dinero pillando una Lianli Lancool MEsh II.De sobra , más barata y muy top en temperaturas.

Pero oye, cada uno con su dinero...

Mi idea en un principio era esperar a la 3080Ti, pero claro, supongamos que la presentan el dia 12, luego seguramente pasaran unas semanas hasta que este disponible, y viendo como esta el stock cuanto tendria que esperar? 3 meses? ya te plantas en Abril minimo.

Con el tema del procesador si llevas razon, pero me fui a por el 5800X por no quedarme corto en el futuro, sobre todo tambien porque le echo sus buenas horas al Football Manager y ese juego para el procesamiento de los datos tira mucho de CPU.

Con respecto a la caja me fui a la Phantecs por recomendacion pero me gusta mucho la que has dicho.

Antoniopua escribió:@ChristianRocky5 es un super pc... pero es que duele esos 300 Euros de más que cuesta la 6900 XT. Yo tengo solo para la gráfica un buen dinero, pero no soy capaz de regalar esos 300 Eurazos.


Se que duelen los 300€, a mi no me gusta regalar el dinero asi por que si, tampoco soy tonto. Pero mira cuanto hace que salieron las 3080 y a estas alturas seguimos teniendo precios inflados.

Todo el mundo dice esperad a que se regulen los precios pero... quien sabe cuando se regularan? lo mismo es en un par de meses o lo mismo es sepa dios cuando
Antoniopua está baneado por "saltarse el ban con un clon"
@ChristianRocky5 ya, si yo estoy igual. Yo tampoco sé qué hacer... la tuve varias veces en el carrito -la 6900 XT- y te seguro que tengo un presupuesto más que decente. Pero no soy capaz... Por cierto tengo ese Noctua y es bestial :) .



Saludos!!!
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen

Dispuesto a pagar sobreprecio me iba al 5900, dependiendo de tiendas puedes llegar a encontrarlo en 540€ con stock, no pagaba 480 por el 8/16 teniendo el 12/24 a poco mas la verdad
sadistics escribió:
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen

Dispuesto a pagar sobreprecio me iba al 5900, dependiendo de tiendas puedes llegar a encontrarlo en 540€ con stock, no pagaba 480 por el 8/16 teniendo el 12/24 a poco mas la verdad

En qué tienda lo has visto a 540€? Yo lo más bajo que lo vi fue a 569€ en el lanzamiento. Sé que algunas webs ponen precios más baratos cuando no tienen stock, pero al tener stock, esos precios no son los reales y los suben (caso de aussar por ejemplo).

EDITO

Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado
Pacorrr escribió:
Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado

wtf tiene que ser un error o algo... despues de tanto tiempo y aun asi me ha dejado pillarla
erderbi escribió:
Pacorrr escribió:
Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado

wtf tiene que ser un error o algo... despues de tanto tiempo y aun asi me ha dejado pillarla


Los ninjas no lo vieron venir XD

Enhorabuena ya contarás en qué estado te llega esperemos que esté perfecta [beer]
Antoniopua está baneado por "saltarse el ban con un clon"
La 6900 Xt son más de 400 Euros que una 6800 XT por 6% de mejora en juegos, y 2,4% más en otras tareas.
Pacorrr escribió:
erderbi escribió:
Pacorrr escribió:
Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado

wtf tiene que ser un error o algo... despues de tanto tiempo y aun asi me ha dejado pillarla


Los ninjas no lo vieron venir XD

Enhorabuena ya contarás en qué estado te llega esperemos que esté perfecta [beer]

como me llegue me parto los cojones de verdad y si me llega y te vienes por malaga algun dia te invito a algo ya de paso [beer] en fin ya ire contando.
ChristianRocky5 escribió:
hh1 escribió:
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?

PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.

Imagen

Yo ni de coña pagaba 1200€ en una 6900XT.Es que ni los 999€ recomendados.Para eso espero a la 3080TI.
Tampoco me dejaba 500€ en un 5800X para jugar.Solo me iría a algo así para jugar 1080P.Me parece desorbitado para tener ventaja 0 con un 5600.
Menos ,si en un año nos metemos con los nuevos y las DDR5.
Es más, si pillas una 6900XT, será seguramente para 4K, donde la cpu pasa a ser algo muy secundario.Es más, te cascas una 3600 o un 10400F y en 4K, la diferencia es 0 con ese 5800
Como mucho muchísimo, me gastaba lo que vale el 5600X, auqnue yo esperaría a los nuevos Intel o al 5600 normal,y ya valoraría.
Y en gráfica, me iba a una 3080.Si tiene que ser AMD, pues una 6800XT, pero una 6900XT nunca, y menos con ese sobreprecio.
Y en la caja, estando muy bien esa, me ahorraba otro dinero pillando una Lianli Lancool MEsh II.De sobra , más barata y muy top en temperaturas.

Pero oye, cada uno con su dinero...

Mi idea en un principio era esperar a la 3080Ti, pero claro, supongamos que la presentan el dia 12, luego seguramente pasaran unas semanas hasta que este disponible, y viendo como esta el stock cuanto tendria que esperar? 3 meses? ya te plantas en Abril minimo.

Con el tema del procesador si llevas razon, pero me fui a por el 5800X por no quedarme corto en el futuro, sobre todo tambien porque le echo sus buenas horas al Football Manager y ese juego para el procesamiento de los datos tira mucho de CPU.

Con respecto a la caja me fui a la Phantecs por recomendacion pero me gusta mucho la que has dicho.

Antoniopua escribió:@ChristianRocky5 es un super pc... pero es que duele esos 300 Euros de más que cuesta la 6900 XT. Yo tengo solo para la gráfica un buen dinero, pero no soy capaz de regalar esos 300 Eurazos.


Se que duelen los 300€, a mi no me gusta regalar el dinero asi por que si, tampoco soy tonto. Pero mira cuanto hace que salieron las 3080 y a estas alturas seguimos teniendo precios inflados.

Todo el mundo dice esperad a que se regulen los precios pero... quien sabe cuando se regularan? lo mismo es en un par de meses o lo mismo es sepa dios cuando

El FM lo tiro yo a 5 estrellas con 5 ligas activas con un 8400...
No te hace falta un 5800X para nada.

Y no entiendo regalar 200€ extra en la 6900xt más otros 200-300€ con respecto a una 6800Xt o una 3080.
Empiezas a sumar pasta y te estás dejando entre unas cosas u otras,500€ de más tranquilamente solo en GPU.
En CPU,otros 150-200€ extras pa na.
700€ en un momen.Cada uno...

Los precios y el stock van a tragar en regularse,y ahí ya entra lo que esté uno dispuesto a entrar por el aro.
Yo desde luego que no entro.
Por eso pillé una 3070 y a correr.Suficiente para darle a todo y ya cuando todo se regule,que me quiten lo bailadoo y ya veo si cambio o no.
Pero regalar dinero? Va a ser que no.
La 3070 más barata y a correr.Encima son las más sencillas de conseguir dentro de lo difícil que están.

Y si no se hubi se podido una 3070,me hubiese quedado como estaba y hubiese esperado.Simple.Que roben a otro.
Pues de momento no me ha llegado la 6800 XT de pcc de ayer... me la enviaron ayer por la tarde por gls, y unicamente se ha quedado en grabado [buuuaaaa] lo unico que me queda es esperar a mañana, que la fecha de entrega era entre hoy y mañana, pero me parece muy raro... en fin, espero que no la hayan perdido
adriano_99 escribió:
adri079 escribió:Lo del DLSS se nota un huevo, nos hemos pasado la generación anterior diciendo que las consolas usaban trucos para no mostrar la resolución nativa, y ahora lo hace pc y miramos para otro lado.

Comparar el dlss con los reescalados de ps4 y one es no tener ni idea o engañarse muy fuerte.
Y ahora mismo tengo una 1050 ti, no tengo ni eso ni ray tracing pero coñe , que hay decenas de análisis que demuestran cómo en según qué condiciones se ve mas nitido y con más detalle que la resolucion nativa.


Engañarse es decir que sabías de antemano algo que hasta que no salía DF nadie decía nada..., es así, en consolas hasta que no salía el análisis de DF no sabías si era checkerboard rendering( mira también tiene nombre molón no reescaaldo, que eso es lo que hacen en la retrocompatibilidad por ejemplo)

El dlss se nota, pero bueno, que para tarjetas como la 2060,3060...vale, pero es un chiste gráficas de 800 pavos y que hablemos de REESCALADOS
8701 respuestas