eric_14 escribió:Es que antes normalmente las custom siempre un sistema de refrigeración mejor, si con estas decis que han mejorado bastante las founders... cómo te pueden cobrar 200€ o más solo por que sea custom. Por un poco más de OC que luego puedes hacer manualmente? No tiene ningún sentido, se están aprovechando de la situación y ya.
En mi caso puedo seguir esperando, incluso bajar el nivel porque veo que pagaré 650€ pero estas gráficas no van a durar tanto por el bajón de rendimiento con RT, incluso las 3080 están parecidas aunque vayan algo mejor. Me refiero a que no durarán tanto como la serie 10x0 de nvidia.
Gwyn escribió:@pepec12
DLSS bien implementado es muy resultón en mi opinión.
De hecho creo que RT es inconcebible sin DLSS de la mano.
Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.
Pacorrr escribió:Gwyn escribió:@pepec12
DLSS bien implementado es muy resultón en mi opinión.
De hecho creo que RT es inconcebible sin DLSS de la mano.
Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.
Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.
Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.
Pacorrr escribió:Gwyn escribió:@pepec12
DLSS bien implementado es muy resultón en mi opinión.
De hecho creo que RT es inconcebible sin DLSS de la mano.
Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.
Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.
Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.
adriano_99 escribió:Pacorrr escribió:Gwyn escribió:@pepec12
DLSS bien implementado es muy resultón en mi opinión.
De hecho creo que RT es inconcebible sin DLSS de la mano.
Death Stranding y Control son buenos ejemplos de lo bien que puede funcionar.
Tiene un grandísimo inconveniente, no es un estándar, es una tecnología propietaria por lo que es muy difícil que se extienda su uso. Pasa lo mismo que con el Gsync, sólo lo puedes utilizar con tarjetas Nvidia, aquí tenemos el ejemplo de un compañero que con un monitor Gsync ha comprado una 6800XT y ya no puede usar dicha tecnología.
Por lo demás, es un buen añadido, pero que no mejora ni iguala la calidad de imagen de la resolución nativa (a igualdad de condiciones de filtros de nitidez, antialias etc...), por mucho marketing de Nvidia que haya detrás.
Control , death stranding y wolfenstein youngblood se ven mejor en 4k dlss que 4k nativo. Puedes ver los análisis de digital foundry y verás qué es verdad.
No es cosa del marketing de Nvidia es una realidad que dlss muchas veces reconstruye información que no se ve en el 4k real .
Gsync se puede usar en gráficas AMD pero solo en monitores que tengan HDMI 2.1 y eso es porque por mucho que AMD llame a lo suyo freesync sigue siendo un estándar propietario ( solo que con una menor barrera de entrada para los fabricantes) y el usarlo en un HDMI 2.0 o inferior era propiedad de AMD y no deja que Nvidia ni nadie lo use.
Por eso hasta hace poco gsync solo se podía usar con display Port y no con HDMI
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).
iaFx escribió:Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).
Hombre, pero si quitas el TAA te encuentras con dientes de sierra de difícil solución si no tiras de por ejemplo downsampling y fxaa, en resumidas, rendimiento perdido a mansalva.
Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).
Gsync no se puede usar en gráficas AMD no faltes a la verdad, lo que se puede usar es Gsync COMPATIBLE (monitores que no llevan el módulo gsync propietario de Nvidia) que es un nombre que se ha sacado de la manga Nvidia para llamar de otra manera al Freesync, que a su vez es un nombre que AMD se inventó para sus gráficas pero que es exactamente lo mismo que el standard de VESA adaptative sync.
El compañero de este hilo lo que tiene es un monitor Gsync con módulo propietario, por mucho que llevara HDMI tampoco podría usarlo en otra tarjeta que no fuera una Nvidia. AMD cumple el standard de VESA a rajatabla, no sé de dónde habrás sacado esa idea de que no permite usar HDMI 2.0 o inferior a otros fabricantes, si es un standard de VESA
@Gwyn te dejo dos capturas del famoso cyberbug 2077, izquierda DLSS calidad, derecha nativa, no hay mucho más que decir.
Pacorrr escribió:iaFx escribió:Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).
Hombre, pero si quitas el TAA te encuentras con dientes de sierra de difícil solución si no tiras de por ejemplo downsampling y fxaa, en resumidas, rendimiento perdido a mansalva.
Pues depende de la resolución, los dientes de sierra apenas se notan. Y de todos modos, prefiero un poco de dientes de sierra, que un emborronamiento de la imagen.
adriano_99 escribió:Pacorrr escribió:No es cierto, y en el propio hilo de las 3000 hay imágines del control donde se ve que en nativa se ve mejor. Lo que pasa es que el DLSS te quita el TAA (antialias que emborrona) y mete el filtro de nitidez, si haces lo mismo en nativa, se ve mejor. Otra cosa es que la gente se quede con los ajustes por defecto del juego y no haga una comparación más justa con ambos modos con las mismas ventajas (TAA off y nitidez).
Gsync no se puede usar en gráficas AMD no faltes a la verdad, lo que se puede usar es Gsync COMPATIBLE (monitores que no llevan el módulo gsync propietario de Nvidia) que es un nombre que se ha sacado de la manga Nvidia para llamar de otra manera al Freesync, que a su vez es un nombre que AMD se inventó para sus gráficas pero que es exactamente lo mismo que el standard de VESA adaptative sync.
El compañero de este hilo lo que tiene es un monitor Gsync con módulo propietario, por mucho que llevara HDMI tampoco podría usarlo en otra tarjeta que no fuera una Nvidia. AMD cumple el standard de VESA a rajatabla, no sé de dónde habrás sacado esa idea de que no permite usar HDMI 2.0 o inferior a otros fabricantes, si es un standard de VESA
@Gwyn te dejo dos capturas del famoso cyberbug 2077, izquierda DLSS calidad, derecha nativa, no hay mucho más que decir.
Como ya te han dicho si quitas el taa te comes los dientes de sierra que son mucho más horribles.
Y respecto a gsync en gráficas amd: https://www.tomshardware.com/news/gsync ... %2Dforward.
"TFT Central confirmed with Nvidia that future G-Sync monitors will support HDMI-VRR and Adaptive Sync over HDMI and DisplayPort. Naturally, a new firmware will be required to bring the two new features to the G-Sync displays, and one for both the G-Sync v1 and v2 hardware modules is already in the works. Basically, this means that AMD graphics card and console owners will be able to use a G-Sync monitor with their setup."
Igual una búsqueda por google antes de acusar de faltar a la verdad a nadie no estaría de mas.
Pacorrr escribió:@iaFx coñe es obvio, un reescalado te va a dar más rendimiento, sólo faltaba, ahora, allá cada cual si quiere perder calidad a costa de rendimiento. Es algo que ya hacían las consolas desde hace mucho tiempo (con menor calidad, eso sí) y que ha sido muy criticado, ahora de repente parece la repanocha, cuando no lo es, un buen añadido, pues sí, pero si puedo elegir nativa, en mi caso siempre lo haré.
iaFx escribió:Pacorrr escribió:@iaFx coñe es obvio, un reescalado te va a dar más rendimiento, sólo faltaba, ahora, allá cada cual si quiere perder calidad a costa de rendimiento. Es algo que ya hacían las consolas desde hace mucho tiempo (con menor calidad, eso sí) y que ha sido muy criticado, ahora de repente parece la repanocha, cuando no lo es, un buen añadido, pues sí, pero si puedo elegir nativa, en mi caso siempre lo haré.
Es que el perder calidad lo tienes que ver desde un punto subjetivo, que no te molesten los dientes de sierra no es algo que tiene porqué ser general, a mi me gustaría tener downsampling con fxaa pero eso es una locura y mas con el RT, pero siempre he tenido la balanza entre jaggies y perdida de nitidez con TAA y si ahora me dicen que encima mas nitidez que TAA y rendimiento gratis pues es de cajon.
Y el que se ha informado sobre DLSS sabe que no tiene que ver con las implementaciones de consolas mas allá de los vectores de movimiento, esto no es mas que una derivación de las tecnologías de Nvidia para Machine Learning.
Pacorrr escribió:
PepeC12 escribió:Lo del tema del gsync no os engañeis, nvidia tuvo que adoptar el vrr porque está en el estándar del hdmi y displayport.
Si no fuera por eso seguíamos con el hardware propietario de nvidia.
Ahora los fabricantes de monitores no tienen que meter hardware para ser gsync compatible, con seguir los standard de hdmi y displayport ya lo tienen.
Es una de las cosas que menos me gustan de nvidia, saca tecnologías propietarias cerradas.
Ya tuvimos physix, gsync dlss etc.
Que creéis que va pasar cuando haya una tecnología abierta que haga lo que hace el dlss? Que compañía va a apostar por dlss si existe una tecnología abierta que pueden usar todas las plataformas?
AlterNathan escribió:@iTek La marca no la conzoco pero 600w me parece muy poquitos para una gráfica como la 6900xt.
Saludos.
erderbi escribió:Ahora mismo hay stock de una 6800 por 720 y dos 6900 https://www.pccomponentes.com/tarjetas-graficas/amd-radeon-rx-6800/amd-radeon-rx-6900
adri079 escribió:Lo del DLSS se nota un huevo, nos hemos pasado la generación anterior diciendo que las consolas usaban trucos para no mostrar la resolución nativa, y ahora lo hace pc y miramos para otro lado.
vergil escribió:erderbi escribió:Ahora mismo hay stock de una 6800 por 720 y dos 6900 https://www.pccomponentes.com/tarjetas-graficas/amd-radeon-rx-6800/amd-radeon-rx-6900
Normal que haya stock jajajajaj
Antoniopua escribió:vergil escribió:erderbi escribió:Ahora mismo hay stock de una 6800 por 720 y dos 6900 https://www.pccomponentes.com/tarjetas-graficas/amd-radeon-rx-6800/amd-radeon-rx-6900
Normal que haya stock jajajajaj
La 6900 XT tiene un sobreprecio de casi 300 Euros . Casi que te da para un Ryzen 5800 X y todo... No veas con la 1060, probrecica lo que le queda
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
hh1 escribió:ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
Yo ni de coña pagaba 1200€ en una 6900XT.Es que ni los 999€ recomendados.Para eso espero a la 3080TI.
Tampoco me dejaba 500€ en un 5800X para jugar.Solo me iría a algo así para jugar 1080P.Me parece desorbitado para tener ventaja 0 con un 5600.
Menos ,si en un año nos metemos con los nuevos y las DDR5.
Es más, si pillas una 6900XT, será seguramente para 4K, donde la cpu pasa a ser algo muy secundario.Es más, te cascas una 3600 o un 10400F y en 4K, la diferencia es 0 con ese 5800
Como mucho muchísimo, me gastaba lo que vale el 5600X, auqnue yo esperaría a los nuevos Intel o al 5600 normal,y ya valoraría.
Y en gráfica, me iba a una 3080.Si tiene que ser AMD, pues una 6800XT, pero una 6900XT nunca, y menos con ese sobreprecio.
Y en la caja, estando muy bien esa, me ahorraba otro dinero pillando una Lianli Lancool MEsh II.De sobra , más barata y muy top en temperaturas.
Pero oye, cada uno con su dinero...
Antoniopua escribió:@ChristianRocky5 es un super pc... pero es que duele esos 300 Euros de más que cuesta la 6900 XT. Yo tengo solo para la gráfica un buen dinero, pero no soy capaz de regalar esos 300 Eurazos.
ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
sadistics escribió:ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
Dispuesto a pagar sobreprecio me iba al 5900, dependiendo de tiendas puedes llegar a encontrarlo en 540€ con stock, no pagaba 480 por el 8/16 teniendo el 12/24 a poco mas la verdad
Pacorrr escribió:
Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado
erderbi escribió:Pacorrr escribió:
Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado
wtf tiene que ser un error o algo... despues de tanto tiempo y aun asi me ha dejado pillarla
Pacorrr escribió:erderbi escribió:Pacorrr escribió:
Para el más rápido, 6800XT reaco a 643€ https://www.pccomponentes.com/xfx-amd-r ... ndicionado
wtf tiene que ser un error o algo... despues de tanto tiempo y aun asi me ha dejado pillarla
Los ninjas no lo vieron venir
Enhorabuena ya contarás en qué estado te llega esperemos que esté perfecta
ChristianRocky5 escribió:hh1 escribió:ChristianRocky5 escribió:Lo tengo ahora mismo en el carrito, que hariais? os lanzariais?
PD: Si, se que vais a decir lo del sobreprecio de la grafica, pero viendo que el tema del sobreprecio no se regula ya casi que sudo un poco del tema.
Yo ni de coña pagaba 1200€ en una 6900XT.Es que ni los 999€ recomendados.Para eso espero a la 3080TI.
Tampoco me dejaba 500€ en un 5800X para jugar.Solo me iría a algo así para jugar 1080P.Me parece desorbitado para tener ventaja 0 con un 5600.
Menos ,si en un año nos metemos con los nuevos y las DDR5.
Es más, si pillas una 6900XT, será seguramente para 4K, donde la cpu pasa a ser algo muy secundario.Es más, te cascas una 3600 o un 10400F y en 4K, la diferencia es 0 con ese 5800
Como mucho muchísimo, me gastaba lo que vale el 5600X, auqnue yo esperaría a los nuevos Intel o al 5600 normal,y ya valoraría.
Y en gráfica, me iba a una 3080.Si tiene que ser AMD, pues una 6800XT, pero una 6900XT nunca, y menos con ese sobreprecio.
Y en la caja, estando muy bien esa, me ahorraba otro dinero pillando una Lianli Lancool MEsh II.De sobra , más barata y muy top en temperaturas.
Pero oye, cada uno con su dinero...
Mi idea en un principio era esperar a la 3080Ti, pero claro, supongamos que la presentan el dia 12, luego seguramente pasaran unas semanas hasta que este disponible, y viendo como esta el stock cuanto tendria que esperar? 3 meses? ya te plantas en Abril minimo.
Con el tema del procesador si llevas razon, pero me fui a por el 5800X por no quedarme corto en el futuro, sobre todo tambien porque le echo sus buenas horas al Football Manager y ese juego para el procesamiento de los datos tira mucho de CPU.
Con respecto a la caja me fui a la Phantecs por recomendacion pero me gusta mucho la que has dicho.Antoniopua escribió:@ChristianRocky5 es un super pc... pero es que duele esos 300 Euros de más que cuesta la 6900 XT. Yo tengo solo para la gráfica un buen dinero, pero no soy capaz de regalar esos 300 Eurazos.
Se que duelen los 300€, a mi no me gusta regalar el dinero asi por que si, tampoco soy tonto. Pero mira cuanto hace que salieron las 3080 y a estas alturas seguimos teniendo precios inflados.
Todo el mundo dice esperad a que se regulen los precios pero... quien sabe cuando se regularan? lo mismo es en un par de meses o lo mismo es sepa dios cuando
adriano_99 escribió:adri079 escribió:Lo del DLSS se nota un huevo, nos hemos pasado la generación anterior diciendo que las consolas usaban trucos para no mostrar la resolución nativa, y ahora lo hace pc y miramos para otro lado.
Comparar el dlss con los reescalados de ps4 y one es no tener ni idea o engañarse muy fuerte.
Y ahora mismo tengo una 1050 ti, no tengo ni eso ni ray tracing pero coñe , que hay decenas de análisis que demuestran cómo en según qué condiciones se ve mas nitido y con más detalle que la resolucion nativa.