[HO] Radeon RX 6000 Family

@AlterNathan Para mi, la Vram es importantísima, porque tiendo a modear los juegos a lo bestia lo cual hace que necesite dicha Vram.

El RT me da igual y el HDR lo mismo, de hecho no lo uso porque ni si quiera me mola el rollo que da, le metes un ENB o un Reshade y consigues mejores resultados.

La 6800XT rinde igual o mejor que la 3080 en muchos juegos, pero con más Vram y más barata, eso es bajo mi entender, la clave.

Como digo, si la 3080 hubiese llevado un mínimo de 12 GB, hubiera cambiado mucho la cosa pero...la ratería es lo que tiene.

Otra cosa ya son los extras como el Nvidia Freestyle y todas las mejoras que ofrece pero nada que no puedas solventar con otros métodos y filtros.
@Metalyard El HDR es el efecto que le meten algunos juegos, está desde el Oblivion o así. No es el efecto de las TVs que hay ahora. Es más el HDR no se puede quitar, es uno de los efectos de post-procesado más utilizados, yo no tengo HDR en mi monitor y en el Fenyx se utiliza y ya te digo, desde oblivion se utiliza.

No hay ningún MOD que supere al RT bien utilizado, simplemente contrastan la imagen y poco más, que da un resultado bueno pues no te diré que no.

El problema que puede que llegue un día que el RT sea un efecto global y no lo puedas desactivar, porque por ahora puedes pero ya veremos dentro de 2 años, que a lo mejor sigue igual como ahora o no.

Me recuerdas a uno, que con los gráficos 8 bits se conformaba, luego fueron los 16 y así. Al final es mucho más graphicwhore que yo xD. Aunque no creo que seas uno de esos, no te veo muy extremista.

PS: Por cierto yo también modeo juegos a lo bestia y nunca he tenido problema con mis 8 gigas en la 1070.

Saludos.
@AlterNathan Yo me considero un graphicwhore en toda regla, de hecho me remito a mis showcases xD



Busco siempre obtener los mejores detalles y maximizar la estética de los juegos, pero no por ello voy a perder los estribos por unos reflejos que nadie ve en shooters o volando con telarañas xD

Me importa más el rendimiento bruto de toda la vida que me de capacidad para trastear a tope y en esto, AMD lo ha hecho genial ésta vez al meter esos 16GB a una grafica que, insisto, rinde igual o mejor que la 3080.

Una supuesta 3080 con 12Gb hubiera sido una triunfada pero no... XD

PD: No has tenido problemas con tus 8Gb hasta que modeas Skyrim con más de 1000 mods y texturizados en 8K [+risas] [+risas]
Antoniopua está baneado por "saltarse el ban con un clon"
La Vram es IMPORTANTÍSIMA dependiendo del uso. Pero es importante nos guste o no. @Metalyard yo también doy mucha importancia a los gráficos. La manera que tiene la realidad virtual de hacernos sentir "que estamos ahí" es así. Si no empezamos por creernos lo que vemos, mal vamos... En mi opinión y gustos/preferencias.



Saludos!!!
Que precio estimado hay para las 6700/XT?

He escuchado comentarios muy dispares al respecto...desde los 250€ hasta los 450€...
@Metalyard Tan GraphicWhore no serás si dices que el RT son brillos y au. Dejo la discursión contigo, pero yo también he metido miles de mods al Skyrim como tú dices, 8k y demás paraflenaria y oooh sorpresa, no he tenido problemas cn la VRAM.

Y por cierto en rendimiento bruto las AMD están un peldaño por debajo de las 3000 RTX que a 1080p funciona bien pero cuando necesitas ancho de banda, en resoluciones más altas AMD cojea.

@Antoniopua Ya la VRAM y ¿lo demás? Porque parece que el infinity cache es otra milonga de AMD, porque vamos tener llena la VRAM pero no poder pasar los datos porque no tienes suficiente ancho de banda, es tan importante la VRAM como el resto de la gráfica.

Como veis AMD tiene unas taras que ni con fuerza bruta funciona, así que no sé, en un futuro veremos lo que pasa pero AMD empieza bastante mal.

Saludos.
PHANTASIA escribió:Que precio estimado hay para las 6700/XT?

He escuchado comentarios muy dispares al respecto...desde los 250€ hasta los 450€...


Moore Law's y algunos otros predicen entre 300-400$ para esas tarjetas.
Antoniopua está baneado por "saltarse el ban con un clon"
AlterNathan escribió:@Metalyard Tan GraphicWhore no serás si dices que el RT son brillos y au. Dejo la discursión contigo, pero yo también he metido miles de mods al Skyrim como tú dices, 8k y demás paraflenaria y oooh sorpresa, no he tenido problemas cn la VRAM.

Y por cierto en rendimiento bruto las AMD están un peldaño por debajo de las 3000 RTX que a 1080p funciona bien pero cuando necesitas ancho de banda, en resoluciones más altas AMD cojea.

@Antoniopua Ya la VRAM y ¿lo demás? Porque parece que el infinity cache es otra milonga de AMD, porque vamos tener llena la VRAM pero no poder pasar los datos porque no tienes suficiente ancho de banda, es tan importante la VRAM como el resto de la gráfica.

Como veis AMD tiene unas taras que ni con fuerza bruta funciona, así que no sé, en un futuro veremos lo que pasa pero AMD empieza bastante mal.

Saludos.

También, también. De todas maneras no hay quien compre una ahora, así que tiempo es todo lo que tengo ahora mismo hasta pensar cual quiero [carcajad] [+risas]
@Antoniopua Ojala que en un futuro, se utilice más la VRAM que el ancho de banda y que el RT sean lo más parecidos entre Nvidia y AMD. Entonces AMD puede ser la ganadora, que es la gráfica que poseo. Ya sé que parece que me meto mucho con ella pero por el hecho de tenerla no significa que tenga que defenderla siempre.

Saludos.
Metalyard escribió:@AlterNathan Yo me considero un graphicwhore en toda regla, de hecho me remito a mis showcases xD



Busco siempre obtener los mejores detalles y maximizar la estética de los juegos, pero no por ello voy a perder los estribos por unos reflejos que nadie ve en shooters o volando con telarañas xD

Me importa más el rendimiento bruto de toda la vida que me de capacidad para trastear a tope y en esto, AMD lo ha hecho genial ésta vez al meter esos 16GB a una grafica que, insisto, rinde igual o mejor que la 3080.

Una supuesta 3080 con 12Gb hubiera sido una triunfada pero no... XD

PD: No has tenido problemas con tus 8Gb hasta que modeas Skyrim con más de 1000 mods y texturizados en 8K [+risas] [+risas]

Llamarte a ti mismo "graphicwhore" y decir que no te importa lo más mínimo el cambio más revolucionario en el modo de renderizar en 20 años es o no tener ni idea o necesitar muy fuerte hacer damage control xD
Ningunas texturas 8k ni 16k se acercan al impacto que tiene en el realismo unos reflejos o iluminación global con ray tracing, pero ni de lejos.
Antoniopua está baneado por "saltarse el ban con un clon"
AlterNathan escribió:@Antoniopua Ojala que en un futuro, se utilice más la VRAM que el ancho de banda y que el RT sean lo más parecidos entre Nvidia y AMD. Entonces AMD puede ser la ganadora, que es la gráfica que poseo. Ya sé que parece que me meto mucho con ella pero por el hecho de tenerla no significa que tenga que defenderla siempre.

Saludos.

A mi me parece totalmente legítima tu opinión, además de acertada. Es cierto que la velocidad de las memorias también es muy importante [oki]
Yo ya lo dije hace unos días, no se puede tener rayitos y buenos fps al mismo tiempo, Cyberpunk es la prueba de ello; por algo han retrasado el juego en varias ocasiones, esta rotísimo xD

Tened paciencia; yo al menos hasta el año que viene no pienso pillar gráfica, no voy a dejarme un sueldo en una grafica con los problemas de stock y sin ver que el modelo quiera comprar sea fiable y no tenga capacitadores mierder ni nada por el estilo...
adriano_99 escribió:
Metalyard escribió:@AlterNathan Yo me considero un graphicwhore en toda regla, de hecho me remito a mis showcases xD



Busco siempre obtener los mejores detalles y maximizar la estética de los juegos, pero no por ello voy a perder los estribos por unos reflejos que nadie ve en shooters o volando con telarañas xD

Me importa más el rendimiento bruto de toda la vida que me de capacidad para trastear a tope y en esto, AMD lo ha hecho genial ésta vez al meter esos 16GB a una grafica que, insisto, rinde igual o mejor que la 3080.

Una supuesta 3080 con 12Gb hubiera sido una triunfada pero no... XD

PD: No has tenido problemas con tus 8Gb hasta que modeas Skyrim con más de 1000 mods y texturizados en 8K [+risas] [+risas]

Llamarte a ti mismo "graphicwhore" y decir que no te importa lo más mínimo el cambio más revolucionario en el modo de renderizar en 20 años es o no tener ni idea o necesitar muy fuerte hacer damage control xD
Ningunas texturas 8k ni 16k se acercan al impacto que tiene en el realismo unos reflejos o iluminación global con ray tracing, pero ni de lejos.


Pues aplícatelo a ver si ese RT revolucionario hace que el spiderman se vea como un juego del 2035 [qmparto] [qmparto]

Al RT le queda mucho, mucho por mejorar para llegar al punto que nos enseñaron aquella demo de Star Wars donde SÍ se veía una diferencia realmente notoria.

Jugar al Battlefield con o sin RT te da lo mismo, así como el Spiderman de los coj..es xD

Sin embargo ahí tienes al SC, que estando en WIP, ya te está sacando unos reflejos que flipas...

Mil veces prefiero calidad de texturas, shaders y demás chuches junto con la fuerza de rasterizado en una grafica y buena VRam que el puñetero RT en 4 juegos contados... que os lo han metido hasta en la sopa y no os habéis ni dado cuenta.. Por favor, enséñame un juego donde el RT suponga un antes y un después en un juego [oki]

@AlterNathan No voy a entrar en quien la tiene más larga, (Y por cierto, no estoy discutiendo, sino debatiendo) simplemente te comento que le doy mucha importancia a los gráficos y que los juegos se vean lo más inmersivos posibles y que el RT no es algo que priorice a la hora de decidirme por una gráfica porque le queda bastante aún por mejorar y evolucionar y su activación en un juego que lo permite, no supone un cambio tan notorio, en cambio una buena Vram te da la capacidad necesaria para llevar al extremo tu modding, por ejemplo.

Quien diga que para llevar al extremo el modding, vale con 8Gb de ram, siempre estará bajo mi sospecha de que algo no anda bien, porque es más que conocido que con una VRam corta, tendrás como mínimo problemas de tartamudeo en la imagen por no poder cargar en un giro de cámara todo lo que se le exige a la gráfica. Vamos, que lo que digo no lo he inventado yo, es más que conocido por la comunidad en éste mundillo.

Incluso, saliéndonos de gráficas, 16GB de RAM se quedan cortos muy cortos, si llevas tu modding muy lejos.
Metalyard escribió:Pues aplícatelo a ver si ese RT revolucionario hace que el spiderman se vea como un juego del 2035 [qmparto] [qmparto]

Al RT le queda mucho, mucho por mejorar para llegar al punto que nos enseñaron aquella demo de Star Wars donde SÍ se veía una diferencia realmente notoria.

Jugar al Battlefield con o sin RT te da lo mismo, así como el Spiderman de los coj..es xD

Sin embargo ahí tienes al SC, que estando en WIP, ya te está sacando unos reflejos que flipas...

Mil veces prefiero calidad de texturas, shaders y demás chuches junto con la fuerza de rasterizado en una grafica y buena VRam que el puñetero RT en 4 juegos contados... que os lo han metido hasta en la sopa y no os habéis ni dado cuenta.. Por favor, enséñame un juego donde el RT suponga un antes y un después en un juego [oki]

@AlterNathan No voy a entrar en quien la tiene más larga, (Y por cierto, no estoy discutiendo, sino debatiendo) simplemente te comento que le doy mucha importancia a los gráficos y que los juegos se vean lo más inmersivos posibles y que el RT no es algo que priorice a la hora de decidirme por una gráfica porque le queda bastante aún por mejorar y evolucionar y su activación en un juego que lo permite, no supone un cambio tan notorio, en cambio una buena Vram te da la capacidad necesaria para llevar al extremo tu modding, por ejemplo.

Quien diga que para llevar al extremo el modding, vale con 8Gb de ram, siempre estará bajo mi sospecha de que algo no anda bien, porque es más que conocido que con una VRam corta, tendrás como mínimo problemas de tartamudeo en la imagen por no poder cargar en un giro de cámara todo lo que se le exige a la gráfica. Vamos, que lo que digo no lo he inventado yo, es más que conocido por la comunidad en éste mundillo.

Incluso, saliéndonos de gráficas, 16GB de RAM se quedan cortos muy cortos, si llevas tu modding muy lejos.

El battlefield tiene una aplicación irrisoria del ray tracing solo en los reflejos y encima ni si quiera usa los tensor cores para nada.
Luego el spiderman utiliza el rtx solo para algunos reflejos y lo hace con muy MUy poca resolución en dichos reflejos.
Has ido a poner los dos peores ejemplos que hay pero claro cyberpunk o control que son otro juego con RTX te los callas.
Claramente estás haciendo damage control para justificar tu elección, como los que se compran una consola y necesitan demostrar que esa es la mejor compra que se puede hacer y no la otra consola.
En fin, pasalo bien autoengañandote, yo paso.
@adriano_99 Que insistencia con el damage control ese xD

Te estoy justificando mis motivos, no tienes por qué enfadarte y decir que pasas por el hecho que no te de la razón.

De hecho te he dicho que me pongas un ejemplo donde el RT suponga un antes y un despues en un juego a ver si me haces recapacitar mi perspectiva.

Te dejo todo para que me hagas dudar de mi postura y me pongas comparativas pero pasas ( reforzando mi idea de que RT le queda mucho para suponer un gran cambio tenerlo activado o no para que parezca otro juego, cosas que si hacen los ENB, reshades y texturas 4 y 8K) y me tachas que hago control de daño o que se yo a que te refieres ;)

Pues un abrazo entonces [beer]
@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron [carcajad] )

Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.

Fotos:
Imagen
Imagen
Imagen
Pillada RX 6900 xt :D

Va a ser para configuracion triple monitor 1440p, 1440p a 165hz o 4k (120Hz), espero que no se note mucho para estas resoluciones la CPU que tengo ahora mismo, i7 4790 con 16gb de ram.

Me llega la semana que viene en teoria.
Eexee escribió:@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron [carcajad] )

Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.

Fotos:
Imagen
Imagen
Imagen


Ostras pues tenia también una msi 6800xt con fecha de entrega 16 de diciembre y no se ha movido
Hoy ha habido un "montón" (notese las comillas) de stock de 6900XT, justo después de la filtración de las 3080Ti.

Parece que van a ir normalizando stock, pero yo ya me esperaré a enero-febrero a ver las 3080Ti, a precio similar, prefiero verde que rojo...
Eexee escribió:@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron [carcajad] )

Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.

Fotos:
Imagen
Imagen
Imagen

Felicidades !!!! Eso tiene una pinta genial !!!
Yo aún espero la mía [snif]
Rezo para que sólo sean problemas en el transporte.
Que temperaturas pilla esa nitro+?
Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"

Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.
adriano_99 escribió:
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"

Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.

Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.

Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.

Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.

En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.
sartor23 escribió:
adriano_99 escribió:
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"

Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.

Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.

Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.

Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.

En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.

Si vas a jugar al cyberpunk en los próximos 2-3 meses yo te diria que nvidia si o si.
En teoria tendría que funcionar el gsync compatible pero habria que probar.
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"


Sólo los juegos patrocinados por Nvidia llevan DLSS. Veremos qué tal la solución de AMD al respecto, pero al final, es un reescalado, y esas diferencias tan brutales que habrás visto es con el preset rendimiento o ultra rendimiento (creo que se llama así) y no se ve igual de nítido que el dlss calidad, que da menos rendimiento obviamente.

Dejo cómo me va a mí el juego a 1440p en ultra, para ser un juego patrocinado por Nvidia, ni tan mal.

La fecha de la 6700 xt se sabe o todavia nada?,estoy entre esa y la 3060 ti...siempre he tenido amd,desde una 270x hasta ahora que tengo una 570 y contento siempre con el rendimiento...

Voy a jugar a 1080/60,no pido mas
@Pacorrr Pues nada mal te va esa 6800XT!

Oye tanto cyberpunk y tanta leche y luego donde está la IA de los NPCs? Vas en sentido contrario con el coche y se la suda a los demás coches xDDD

Aquí es donde Rockstar lo peta [toctoc]
sartor23 escribió:
adriano_99 escribió:
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"

Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.

Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.

Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.

Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.

En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.


Las LG CX son G-sync compatible, el panel de nvidia las detecta como pantallas G-sync directamente. Sin embargo, para usar Freesync en esas teles con tarjetas AMD hay que tocar cosas. Usarías mejor G-sync que Freesync si tienes nvidia.
Eexee escribió:@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron [carcajad] )

Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.

Fotos:
Imagen
Imagen
Imagen


Ostras qué chula queda la Nitro+ [amor]

@Metalyard pues el juego está plagado de bugs absurdos. Me he topado con un cigarro flotante, al lado de una tía fumando, un tío tocando la guitarra en un banco, llega otro tío y se sienta encima de él, traspasándolo, llamo a mi coche y cuando viene está atravesado por otro, se ponen los dos a levitar y como a chocarse entre ellos, hasta que bajan al suelo...

Y a nivel gráfico, tampoco es algo que impresione como lo fue en su día el Crysis. Pero a nivel jugable está muy bien, a ver si lo pulen algo más de todas maneras...
Tenéis ahora mismo la 6900xt gigabyte por 1200 euros en PCC
chorl escribió:
sartor23 escribió:
adriano_99 escribió:Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.

Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.

Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.

Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.

En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.


Las LG CX son G-sync compatible, el panel de nvidia las detecta como pantallas G-sync directamente. Sin embargo, para usar Freesync en esas teles con tarjetas AMD hay que tocar cosas. Usarías mejor G-sync que Freesync si tienes nvidia.


No hay que hacer tanto...

wario_F escribió:La fecha de la 6700 xt se sabe o todavia nada?,estoy entre esa y la 3060 ti...siempre he tenido amd,desde una 270x hasta ahora que tengo una 570 y contento siempre con el rendimiento...

Voy a jugar a 1080/60,no pido mas


En enero la 6700 y la 6700XT.
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"

Es es la pregunta del millón y porque la que yo me fui a Nvidia.Paso de esperar a ver qué hace AMD.Nada garantiza que esté a la altura del DLSS ni del RT de NVIDIA.
Aunque tampoco se sabe la cantidad de juegos que vendrán con DLSS.
Gwyn escribió:
chorl escribió:
sartor23 escribió:Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.

Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.

Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.

En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.


Las LG CX son G-sync compatible, el panel de nvidia las detecta como pantallas G-sync directamente. Sin embargo, para usar Freesync en esas teles con tarjetas AMD hay que tocar cosas. Usarías mejor G-sync que Freesync si tienes nvidia.


No hay que hacer tanto...



No todo el mundo quiere toquetear con el CRU, y es una tele que está certificada como G-Sync compatible (obviamente, no tiene módulo hardware).

La pregunta del compañero es esta:
"Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo." Y la respuesta obvia es que con una Nvidia lo puede hacer directamente, de hecho lo hace tanto el NCVP como la tele de manera automática.

Si fuera una TV Samsung, diría al revés, que debería funcionar con AMD de manera nativa. Pero, para esa tele, lo que funciona sin problemas es Nvidia.

¿Que si se compra una tarjeta AMD le va a funcionar? Pues sí, con todo eso que pones, y expuesto a un programa de terceros y configuraciones no oficiales.
Pacorrr escribió:
sartor23 escribió:Chicos, estoy con unas dudas de la leche.

Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...

¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"


Sólo los juegos patrocinados por Nvidia llevan DLSS. Veremos qué tal la solución de AMD al respecto, pero al final, es un reescalado, y esas diferencias tan brutales que habrás visto es con el preset rendimiento o ultra rendimiento (creo que se llama así) y no se ve igual de nítido que el dlss calidad, que da menos rendimiento obviamente.

Dejo cómo me va a mí el juego a 1440p en ultra, para ser un juego patrocinado por Nvidia, ni tan mal.



Gracias por el vídeo.

Acabo de encargar un ryzen 9 5900x y demás. Creo que me voy a esperar un poco con la gráfica pues tengo de momento una 1080 Ti. Sé que no es lo óptimo, pero supongo que por lo menos 60 FPS en 1080 sacaré...

adriano_99 escribió:
sartor23 escribió:
adriano_99 escribió:Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.

Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.

Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.

Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.

En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.

Si vas a jugar al cyberpunk en los próximos 2-3 meses yo te diria que nvidia si o si.
En teoria tendría que funcionar el gsync compatible pero habria que probar.


Voy a esperar a las 3080 Ti a ver que tal, a ver si se va normalizando el stock y todo el lío... De momento supongo que podré jugar algo con mi 1080 Ti.

chorl escribió:
Gwyn escribió:
chorl escribió:
Las LG CX son G-sync compatible, el panel de nvidia las detecta como pantallas G-sync directamente. Sin embargo, para usar Freesync en esas teles con tarjetas AMD hay que tocar cosas. Usarías mejor G-sync que Freesync si tienes nvidia.


No hay que hacer tanto...



No todo el mundo quiere toquetear con el CRU, y es una tele que está certificada como G-Sync compatible (obviamente, no tiene módulo hardware).

La pregunta del compañero es esta:
"Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo." Y la respuesta obvia es que con una Nvidia lo puede hacer directamente, de hecho lo hace tanto el NCVP como la tele de manera automática.

Si fuera una TV Samsung, diría al revés, que debería funcionar con AMD de manera nativa. Pero, para esa tele, lo que funciona sin problemas es Nvidia.

¿Que si se compra una tarjeta AMD le va a funcionar? Pues sí, con todo eso que pones, y expuesto a un programa de terceros y configuraciones no oficiales.


Ya veo, entonces quizás sería lo mejor desactivar el AMD Freesync de la configuración del HDMI al que tengo conectado el PC si es que finalmente me decanto por una tarjeta nvidia, ya que siempre funciona de forma nativa el Gsync....

El Freesync lo probé con juegos en la xbox series X y es una pasada. Por ejemplo, el star wars jedi fallen order es injugable en el modo de calidad sin el freesync, pero con el freesync da un resultado muy apañado y no me fuerza a tener que estar jugando en 1080.
Las consolas no tienen la opcion de vsync?

Porque para ir a 30 fps te da igual el vsync que freesync o lo que sea.
@PepeC12 Creo que la PS5 le iban a poner Freesync y bueno la PS4 y la One S pues creo que no llegan ni a 30 fps.

Saludos.
AlterNathan escribió:@PepeC12 Creo que la PS5 le iban a poner Freesync y bueno la PS4 y la One S pues creo que no llegan ni a 30 fps.

Saludos.


Las dos usan en realidad VRR, que es un subconjunto del estandar HDMI 2.1, y que es funcionalmente equivalente al FreeSync.

Y en modo rendimiento, las consolas pueden llegar a 60Hz y algunos juegos, a 120Hz. Por eso lo del VRR es tan necesario. Pero eso funciona en cualquier TV con puertos HDMI 2.1, aunque la Xbox lo marca como Freesync. La PS5 ni idea, pero también tiene soporte para rangos variables de frecuencia. Y anda que no hace falta en esta generación, que no llega a 4K60Hz ni de coña...
@chorl Me refiero que el Cyberpunk en las consolas PS4 y One S no llega ni a 30 fps xD. La PS4 pro y la One X no tengo ni idea, y en retrocompatibilidad tampoco tengo ni idea si el juego mejora en PS5 y Xbox Series S/X.

Y hablo de Freesync para que la gente no se confunda, porque entre el VRR, Freesync, el Freesync premium, Gsync compatible, la verdad es que tanto nombres para la misma cosa, digo Freesync y ale. Aunque tienes razón es VRR y cada compañía lo utiliza a su manera.

Saludos.
AlterNathan escribió:@chorl Me refiero que el Cyberpunk en las consolas PS4 y One S no llega ni a 30 fps xD. La PS4 pro y la One X no tengo ni idea, y en retrocompatibilidad tampoco tengo ni idea si el juego mejora en PS5 y Xbox Series S/X.

Y hablo de Freesync para que la gente no se confunda, porque entre el VRR, Freesync, el Freesync premium, Gsync compatible, la verdad es que tanto nombres para la misma cosa, digo Freesync y ale. Aunque tienes razón es VRR y cada compañía lo utiliza a su manera.

Saludos.


Ah, que era el Cyberpunk, perdón, no vi ese detalle.
Ese juego no debió salir para PS4 ni gen antigua, ha lastrado el juego, lo ha retrasado, y encima les ha salido como el culo...pero bueno, era un pastel muy grande como para no meter mano...
Alguien me puede explicar como va la mediciones de temperatura? Hay dos sensores, uno que marca menos y el de la temperatura de union, cual se supone que es el bueno ?
Jugando al cyberpunk el de la union me llega a 90ºC, mientras que el otro marca 77ºC o asi.

Y luego sobre la curva de ventiladores en lo de amd, que temperatura es la que coge para los ventiladores ?
erderbi escribió:Alguien me puede explicar como va la mediciones de temperatura? Hay dos sensores, uno que marca menos y el de la temperatura de union, cual se supone que es el bueno ?
Jugando al cyberpunk el de la union me llega a 90ºC, mientras que el otro marca 77ºC o asi.

Y luego sobre la curva de ventiladores en lo de amd, que temperatura es la que coge para los ventiladores ?


La temperatura más baja era la que se estaba midiendo hasta ahora, y la que pone "de la unión", es la temperatura del componente más caliente de la GPU. Según AMD puede llegar a 100 o 110°C, así que los 90°C son normales.

En teoría, esa temperatura la usa internamente para saber qué margen de maniobra tiene para subir automáticamente las frecuencias, ya que es el componentes más limitante.

Pero la temperatura que se usa en reviews y para comparar con otras tarjetas, es la baja.


Salu2
AlterNathan escribió:@chorl Me refiero que el Cyberpunk en las consolas PS4 y One S no llega ni a 30 fps xD. La PS4 pro y la One X no tengo ni idea, y en retrocompatibilidad tampoco tengo ni idea si el juego mejora en PS5 y Xbox Series S/X.

Y hablo de Freesync para que la gente no se confunda, porque entre el VRR, Freesync, el Freesync premium, Gsync compatible, la verdad es que tanto nombres para la misma cosa, digo Freesync y ale. Aunque tienes razón es VRR y cada compañía lo utiliza a su manera.

Saludos.

En Ps4 pro va como el ojal.
En Ps5 retocompatible mejora bastante la fluidez,los gráficos,un poco.
Series X se supone que pasa igual.
Lo que yo no veo es el rt en amd con el cyberpunk.

Sin dlss no se va poder jugar a una tasa de fps razonables, asi que o bien se lo ahorran o bien esperan a que amd impotente su versión de dlss.
PepeC12 escribió:Lo que yo no veo es el rt en amd con el cyberpunk.

Sin dlss no se va poder jugar a una tasa de fps razonables, asi que o bien se lo ahorran o bien esperan a que amd impotente su versión de dlss.



Creo recordar que aun no se puede activar con las Radeon.
Una ronda de benchs con oc en la 6800XT

Time Spy https://www.3dmark.com/3dm/54714432?

Time Spy Extreme https://www.3dmark.com/3dm/54727455?

Fire Strike https://www.3dmark.com/3dm/54728376?

Fire Strike Ultra https://www.3dmark.com/fs/24314462

Superposition 1080p Extreme

Imagen


Superposition 4K Optimized

Imagen
DaNi_0389 escribió:
PepeC12 escribió:Lo que yo no veo es el rt en amd con el cyberpunk.

Sin dlss no se va poder jugar a una tasa de fps razonables, asi que o bien se lo ahorran o bien esperan a que amd impotente su versión de dlss.



Creo recordar que aun no se puede activar con las Radeon.


Me referia a que no tiene sentido implementarlo con el rendimiento que tiene el juego.

No va funcionar decentemente ni a 1080p con la 6800xt.

Nvidia tampoco es que lo mueva sin el DLSS
Esta tarde después de más de tres semanas de espera me ha llegado la MSI AMD Radeon RX 6800. El Cyberpunk tira en ultra sobre los 70 fps o más a 1440p, con bajadas a 52 fps en una persecución con tiroteo, estos fps son en pasilleo y fuera de night city.

Otros juegos que he probado son:

A 1440p

Red dead redemption 2 en la ultra predeterminada del juego 65fps de media. (Benchmark del juego)
Death Stranding al máximo da sobre los 110 fps en exteriores.
AC Odyssey en ultra va regular con 58 fps de media y bajones hasta 22. (Benchmark del juego)
Final Fantasy XV la benchmark dice que se puede poner en muy alto y triplica la puntuación de mi vieja 580.
Rise of the tomb raider da una media de 82 fps pero varía mucho de un sitio a otro. (Benchmark del juego)
The division 2 en ultra da 92 fps y si subes todo al máximo por encima del ultra predeterminado usa o reserva 13 GB de vram.
Shadow of the tomb raider 99 fps, SMAAT2x y RT OFF (Benchmark del juego)

El equipo:
Ryzen 5 2600
MSI AMD Radeon RX 6800
MSI B350M Mortar
Crucial Ballistix 3200 MHz, 16GB (8GBx2), CL16
SSD Crucial MX500
Corsair RMX650 650W 80+ Gold
Monitor Samsung sin freesync, 144hz 1440p.
Antoniopua está baneado por "saltarse el ban con un clon"
timoney escribió:
Antoniopua escribió:
timoney escribió:Bueno el último monitor que tuve gama alta de 1000 euros y para mi un truño de monitor, no hay monitor que haya cambiado varias veces hasta conseguir una unidad algo decente pero aún con fallos, dime tú que monitor hay perfecto, si ves los comentarios de las páginas de ventas y la gente quejándose de fugas defectos.

Si una marca te salió "rana", no quiere decir que todos los monitores de igualdad de precios sean "truños". Eso no es tener experiencia... eso es hablar mal de todas las marcas porque a ti te fué mal con una. Y si yo tengo que decirte que marca es "perfecta" cuando pareces saberlo todo, mal vamos. Yo te diré que tengo uno sin fugas de luz ni nada [oki]. Te repito que generalizar por leer cosas de Internet, dónde siempre te encuentras los peores casos es un error. Siendo honesto, si se usa el buscador vemos que "en todos lados se cuecen habas...". Tanto en monitores como en tv. Pero de ahí a generalizar, mmmm... Si tu vecino tiene un Ferrari, pero está mal cuidado y te lo deja a ti, luego no podrías decir que todos los Ferraris son una mierda.

Saludos!!!

Vamos a ver, primero no soy experto como dices, aquí el que va de experto pareces ser tú
Yo hablo bajo mi punto de vista, de todos los monitores que he tenido todos tenían algo no sólo una marca, he he devuelto como 3 ips Asus, 4 aoc TN, un eizo que también tenía unas franjas a los lados, y este último Acer con una fuga a la derecha arriba, te repito todos los que he tenido, y no sigamos dándole vueltas tú tendrás tú punto de vista y yo el mío y hay que respetarlo, por tanto no voy a seguir está conversación
saludos.

Después de unas pruebas y un tiempo prudente, es cierto que hay que tener mucha vista -y suerte- para dar con un monitor decente sin problemas de fugas de luz. No es normal tener que gastar 1.000 Euros o más, para no tener este tipo de problemas. Yo no me caso con ninguna marca -para prueba una foto. Si me gasto más de 1.000 Euros en un monitor Premium, no entiendo este tipo de problemas con un pixel:


Imagen

Es como la punta de un alfiler... está a la derecha, y, sobre todo, se ve en fondo negro estático. Pero por este precio no debería tener ningún tipo de errores. Cierro offtopic [angelito]



Saludos!!!
Antoniopua escribió:
timoney escribió:
Antoniopua escribió:Si una marca te salió "rana", no quiere decir que todos los monitores de igualdad de precios sean "truños". Eso no es tener experiencia... eso es hablar mal de todas las marcas porque a ti te fué mal con una. Y si yo tengo que decirte que marca es "perfecta" cuando pareces saberlo todo, mal vamos. Yo te diré que tengo uno sin fugas de luz ni nada [oki]. Te repito que generalizar por leer cosas de Internet, dónde siempre te encuentras los peores casos es un error. Siendo honesto, si se usa el buscador vemos que "en todos lados se cuecen habas...". Tanto en monitores como en tv. Pero de ahí a generalizar, mmmm... Si tu vecino tiene un Ferrari, pero está mal cuidado y te lo deja a ti, luego no podrías decir que todos los Ferraris son una mierda.

Saludos!!!

Vamos a ver, primero no soy experto como dices, aquí el que va de experto pareces ser tú
Yo hablo bajo mi punto de vista, de todos los monitores que he tenido todos tenían algo no sólo una marca, he he devuelto como 3 ips Asus, 4 aoc TN, un eizo que también tenía unas franjas a los lados, y este último Acer con una fuga a la derecha arriba, te repito todos los que he tenido, y no sigamos dándole vueltas tú tendrás tú punto de vista y yo el mío y hay que respetarlo, por tanto no voy a seguir está conversación
saludos.

Después de unas pruebas y un tiempo prudente, es cierto que hay que tener mucha vista -y suerte- para dar con un monitor decente sin problemas de fugas de luz. No es normal tener que gastar 1.000 Euros o más, para no tener este tipo de problemas. Yo no me caso con ninguna marca -para prueba una foto. Si me gasto más de 1.000 Euros en un monitor Premium, no entiendo este tipo de problemas con un pixel:


Imagen

Es como la punta de un alfiler... está a la derecha, y, sobre todo, se ve en fondo negro estático. Pero por este precio no debería tener ningún tipo de errores. Cierro offtopic [angelito]



Saludos!!!

Antonio devuelvelo sin más, y prueba con otro a ver si hay suerte, yo creo que también el problema de los monitores puede ser los controles de calidad que sean casi inexistentes,
si gastas más de 1000 euros yo de ti pillaba la lg oled 48 te gustaría seguro y parte para ver peliculas y utilizar muchas app
saludos.
8701 respuestas