PHANTASIA escribió:Que precio estimado hay para las 6700/XT?
He escuchado comentarios muy dispares al respecto...desde los 250€ hasta los 450€...
AlterNathan escribió:@Metalyard Tan GraphicWhore no serás si dices que el RT son brillos y au. Dejo la discursión contigo, pero yo también he metido miles de mods al Skyrim como tú dices, 8k y demás paraflenaria y oooh sorpresa, no he tenido problemas cn la VRAM.
Y por cierto en rendimiento bruto las AMD están un peldaño por debajo de las 3000 RTX que a 1080p funciona bien pero cuando necesitas ancho de banda, en resoluciones más altas AMD cojea.
@Antoniopua Ya la VRAM y ¿lo demás? Porque parece que el infinity cache es otra milonga de AMD, porque vamos tener llena la VRAM pero no poder pasar los datos porque no tienes suficiente ancho de banda, es tan importante la VRAM como el resto de la gráfica.
Como veis AMD tiene unas taras que ni con fuerza bruta funciona, así que no sé, en un futuro veremos lo que pasa pero AMD empieza bastante mal.
Saludos.
Metalyard escribió:@AlterNathan Yo me considero un graphicwhore en toda regla, de hecho me remito a mis showcases xD
Busco siempre obtener los mejores detalles y maximizar la estética de los juegos, pero no por ello voy a perder los estribos por unos reflejos que nadie ve en shooters o volando con telarañas xD
Me importa más el rendimiento bruto de toda la vida que me de capacidad para trastear a tope y en esto, AMD lo ha hecho genial ésta vez al meter esos 16GB a una grafica que, insisto, rinde igual o mejor que la 3080.
Una supuesta 3080 con 12Gb hubiera sido una triunfada pero no...
PD: No has tenido problemas con tus 8Gb hasta que modeas Skyrim con más de 1000 mods y texturizados en 8K
AlterNathan escribió:@Antoniopua Ojala que en un futuro, se utilice más la VRAM que el ancho de banda y que el RT sean lo más parecidos entre Nvidia y AMD. Entonces AMD puede ser la ganadora, que es la gráfica que poseo. Ya sé que parece que me meto mucho con ella pero por el hecho de tenerla no significa que tenga que defenderla siempre.
Saludos.
adriano_99 escribió:Metalyard escribió:@AlterNathan Yo me considero un graphicwhore en toda regla, de hecho me remito a mis showcases xD
Busco siempre obtener los mejores detalles y maximizar la estética de los juegos, pero no por ello voy a perder los estribos por unos reflejos que nadie ve en shooters o volando con telarañas xD
Me importa más el rendimiento bruto de toda la vida que me de capacidad para trastear a tope y en esto, AMD lo ha hecho genial ésta vez al meter esos 16GB a una grafica que, insisto, rinde igual o mejor que la 3080.
Una supuesta 3080 con 12Gb hubiera sido una triunfada pero no...
PD: No has tenido problemas con tus 8Gb hasta que modeas Skyrim con más de 1000 mods y texturizados en 8K
Llamarte a ti mismo "graphicwhore" y decir que no te importa lo más mínimo el cambio más revolucionario en el modo de renderizar en 20 años es o no tener ni idea o necesitar muy fuerte hacer damage control xD
Ningunas texturas 8k ni 16k se acercan al impacto que tiene en el realismo unos reflejos o iluminación global con ray tracing, pero ni de lejos.
Metalyard escribió:Pues aplícatelo a ver si ese RT revolucionario hace que el spiderman se vea como un juego del 2035
Al RT le queda mucho, mucho por mejorar para llegar al punto que nos enseñaron aquella demo de Star Wars donde SÍ se veía una diferencia realmente notoria.
Jugar al Battlefield con o sin RT te da lo mismo, así como el Spiderman de los coj..es xD
Sin embargo ahí tienes al SC, que estando en WIP, ya te está sacando unos reflejos que flipas...
Mil veces prefiero calidad de texturas, shaders y demás chuches junto con la fuerza de rasterizado en una grafica y buena VRam que el puñetero RT en 4 juegos contados... que os lo han metido hasta en la sopa y no os habéis ni dado cuenta.. Por favor, enséñame un juego donde el RT suponga un antes y un después en un juego
@AlterNathan No voy a entrar en quien la tiene más larga, (Y por cierto, no estoy discutiendo, sino debatiendo) simplemente te comento que le doy mucha importancia a los gráficos y que los juegos se vean lo más inmersivos posibles y que el RT no es algo que priorice a la hora de decidirme por una gráfica porque le queda bastante aún por mejorar y evolucionar y su activación en un juego que lo permite, no supone un cambio tan notorio, en cambio una buena Vram te da la capacidad necesaria para llevar al extremo tu modding, por ejemplo.
Quien diga que para llevar al extremo el modding, vale con 8Gb de ram, siempre estará bajo mi sospecha de que algo no anda bien, porque es más que conocido que con una VRam corta, tendrás como mínimo problemas de tartamudeo en la imagen por no poder cargar en un giro de cámara todo lo que se le exige a la gráfica. Vamos, que lo que digo no lo he inventado yo, es más que conocido por la comunidad en éste mundillo.
Incluso, saliéndonos de gráficas, 16GB de RAM se quedan cortos muy cortos, si llevas tu modding muy lejos.
Eexee escribió:@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron )
Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.
Fotos:
Eexee escribió:@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron )
Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.
Fotos:
sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
adriano_99 escribió:sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.
sartor23 escribió:adriano_99 escribió:sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.
Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.
Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.
Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.
En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.
sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
sartor23 escribió:adriano_99 escribió:sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.
Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.
Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.
Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.
En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.
Eexee escribió:@yuffilandia
Me llegó hoy la Sapphire NITRO+ AMD Radeon RX 6800 XT OC SE, y no sólo esa, me llegó también la "MSI AMD Radeon RX 6800 XT" que llevaba un mes en el limbo. (decían que había fue un problema de stock, informático y que teníamos que cancelar los pedidos... Pues 3 semanas después la enviaron )
Ya he montado la Sapphire y aunque recomiendan una fuente de 850W me está funcionando la 650W que tenía.
Tampoco la he exprimido todavía, sólo he podido probarla en el DMC5 y sin tocar nada va de miedo.
Fotos:
chorl escribió:sartor23 escribió:adriano_99 escribió:Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.
Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.
Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.
Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.
En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.
Las LG CX son G-sync compatible, el panel de nvidia las detecta como pantallas G-sync directamente. Sin embargo, para usar Freesync en esas teles con tarjetas AMD hay que tocar cosas. Usarías mejor G-sync que Freesync si tienes nvidia.
wario_F escribió:La fecha de la 6700 xt se sabe o todavia nada?,estoy entre esa y la 3060 ti...siempre he tenido amd,desde una 270x hasta ahora que tengo una 570 y contento siempre con el rendimiento...
Voy a jugar a 1080/60,no pido mas
sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
Gwyn escribió:chorl escribió:sartor23 escribió:Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.
Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.
Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.
En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.
Las LG CX son G-sync compatible, el panel de nvidia las detecta como pantallas G-sync directamente. Sin embargo, para usar Freesync en esas teles con tarjetas AMD hay que tocar cosas. Usarías mejor G-sync que Freesync si tienes nvidia.
No hay que hacer tanto...
Pacorrr escribió:sartor23 escribió:Chicos, estoy con unas dudas de la leche.
Estaba bastante decidido por ir a por una Radeon 6900x pero he visto un vídeo de Cyberpunk corriendo bajo el DLSS de las tarjetas Nvidia y madre mía menuda diferencia de rendimiento...
¿Todos los juegos van a llevar DLSS en el futuro? Porque si es así las AMD salen perdiendo a pesar de ser más potentes en rendimiento "bruto"
Sólo los juegos patrocinados por Nvidia llevan DLSS. Veremos qué tal la solución de AMD al respecto, pero al final, es un reescalado, y esas diferencias tan brutales que habrás visto es con el preset rendimiento o ultra rendimiento (creo que se llama así) y no se ve igual de nítido que el dlss calidad, que da menos rendimiento obviamente.
Dejo cómo me va a mí el juego a 1440p en ultra, para ser un juego patrocinado por Nvidia, ni tan mal.
adriano_99 escribió:sartor23 escribió:adriano_99 escribió:Todos no aunque probablemente mas que ahora.
AMD tiene que sacar algo parecido al dlss pero falta ver que calidad da y cuanto rendimiento genera.
Sinceramente si quiere ray tracing y vas a jugar al cyberpunk yo iria a por nvidia.
Voy a jugar un poquillo a todo, aunque el cyberpunk me hace ilusión.
Otra cosa de la que me he dado cuenta es que tengo una LG OLED 65 CX, y tiene AMD Freesync incorporado, aunque tengo que activarlo.
Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo. En Series X es una pasada el cambio con el AMD Freesync pero tengo entendido que la consola tiene una tarjeta AMD.
En teoría la tele también tiene nvidia Gsync así que no sé si los efectos se potencian o se "pisan" y por lo tanto no necesito el freesync.
Si vas a jugar al cyberpunk en los próximos 2-3 meses yo te diria que nvidia si o si.
En teoria tendría que funcionar el gsync compatible pero habria que probar.
chorl escribió:
No todo el mundo quiere toquetear con el CRU, y es una tele que está certificada como G-Sync compatible (obviamente, no tiene módulo hardware).
La pregunta del compañero es esta:
"Aquí la duda que tengo es si necesito una tarjeta AMD para sacarle el potencial a esa tecnología o bien con una Nvidia puedo hacer lo mismo." Y la respuesta obvia es que con una Nvidia lo puede hacer directamente, de hecho lo hace tanto el NCVP como la tele de manera automática.
Si fuera una TV Samsung, diría al revés, que debería funcionar con AMD de manera nativa. Pero, para esa tele, lo que funciona sin problemas es Nvidia.
¿Que si se compra una tarjeta AMD le va a funcionar? Pues sí, con todo eso que pones, y expuesto a un programa de terceros y configuraciones no oficiales.
AlterNathan escribió:@PepeC12 Creo que la PS5 le iban a poner Freesync y bueno la PS4 y la One S pues creo que no llegan ni a 30 fps.
Saludos.
AlterNathan escribió:@chorl Me refiero que el Cyberpunk en las consolas PS4 y One S no llega ni a 30 fps xD. La PS4 pro y la One X no tengo ni idea, y en retrocompatibilidad tampoco tengo ni idea si el juego mejora en PS5 y Xbox Series S/X.
Y hablo de Freesync para que la gente no se confunda, porque entre el VRR, Freesync, el Freesync premium, Gsync compatible, la verdad es que tanto nombres para la misma cosa, digo Freesync y ale. Aunque tienes razón es VRR y cada compañía lo utiliza a su manera.
Saludos.
erderbi escribió:Alguien me puede explicar como va la mediciones de temperatura? Hay dos sensores, uno que marca menos y el de la temperatura de union, cual se supone que es el bueno ?
Jugando al cyberpunk el de la union me llega a 90ºC, mientras que el otro marca 77ºC o asi.
Y luego sobre la curva de ventiladores en lo de amd, que temperatura es la que coge para los ventiladores ?
AlterNathan escribió:@chorl Me refiero que el Cyberpunk en las consolas PS4 y One S no llega ni a 30 fps xD. La PS4 pro y la One X no tengo ni idea, y en retrocompatibilidad tampoco tengo ni idea si el juego mejora en PS5 y Xbox Series S/X.
Y hablo de Freesync para que la gente no se confunda, porque entre el VRR, Freesync, el Freesync premium, Gsync compatible, la verdad es que tanto nombres para la misma cosa, digo Freesync y ale. Aunque tienes razón es VRR y cada compañía lo utiliza a su manera.
Saludos.
PepeC12 escribió:Lo que yo no veo es el rt en amd con el cyberpunk.
Sin dlss no se va poder jugar a una tasa de fps razonables, asi que o bien se lo ahorran o bien esperan a que amd impotente su versión de dlss.
DaNi_0389 escribió:PepeC12 escribió:Lo que yo no veo es el rt en amd con el cyberpunk.
Sin dlss no se va poder jugar a una tasa de fps razonables, asi que o bien se lo ahorran o bien esperan a que amd impotente su versión de dlss.
Creo recordar que aun no se puede activar con las Radeon.
timoney escribió:Antoniopua escribió:timoney escribió:Bueno el último monitor que tuve gama alta de 1000 euros y para mi un truño de monitor, no hay monitor que haya cambiado varias veces hasta conseguir una unidad algo decente pero aún con fallos, dime tú que monitor hay perfecto, si ves los comentarios de las páginas de ventas y la gente quejándose de fugas defectos.
Si una marca te salió "rana", no quiere decir que todos los monitores de igualdad de precios sean "truños". Eso no es tener experiencia... eso es hablar mal de todas las marcas porque a ti te fué mal con una. Y si yo tengo que decirte que marca es "perfecta" cuando pareces saberlo todo, mal vamos. Yo te diré que tengo uno sin fugas de luz ni nada . Te repito que generalizar por leer cosas de Internet, dónde siempre te encuentras los peores casos es un error. Siendo honesto, si se usa el buscador vemos que "en todos lados se cuecen habas...". Tanto en monitores como en tv. Pero de ahí a generalizar, mmmm... Si tu vecino tiene un Ferrari, pero está mal cuidado y te lo deja a ti, luego no podrías decir que todos los Ferraris son una mierda.
Saludos!!!
Vamos a ver, primero no soy experto como dices, aquí el que va de experto pareces ser tú
Yo hablo bajo mi punto de vista, de todos los monitores que he tenido todos tenían algo no sólo una marca, he he devuelto como 3 ips Asus, 4 aoc TN, un eizo que también tenía unas franjas a los lados, y este último Acer con una fuga a la derecha arriba, te repito todos los que he tenido, y no sigamos dándole vueltas tú tendrás tú punto de vista y yo el mío y hay que respetarlo, por tanto no voy a seguir está conversación
saludos.
Antoniopua escribió:timoney escribió:Antoniopua escribió:Si una marca te salió "rana", no quiere decir que todos los monitores de igualdad de precios sean "truños". Eso no es tener experiencia... eso es hablar mal de todas las marcas porque a ti te fué mal con una. Y si yo tengo que decirte que marca es "perfecta" cuando pareces saberlo todo, mal vamos. Yo te diré que tengo uno sin fugas de luz ni nada . Te repito que generalizar por leer cosas de Internet, dónde siempre te encuentras los peores casos es un error. Siendo honesto, si se usa el buscador vemos que "en todos lados se cuecen habas...". Tanto en monitores como en tv. Pero de ahí a generalizar, mmmm... Si tu vecino tiene un Ferrari, pero está mal cuidado y te lo deja a ti, luego no podrías decir que todos los Ferraris son una mierda.
Saludos!!!
Vamos a ver, primero no soy experto como dices, aquí el que va de experto pareces ser tú
Yo hablo bajo mi punto de vista, de todos los monitores que he tenido todos tenían algo no sólo una marca, he he devuelto como 3 ips Asus, 4 aoc TN, un eizo que también tenía unas franjas a los lados, y este último Acer con una fuga a la derecha arriba, te repito todos los que he tenido, y no sigamos dándole vueltas tú tendrás tú punto de vista y yo el mío y hay que respetarlo, por tanto no voy a seguir está conversación
saludos.
Después de unas pruebas y un tiempo prudente, es cierto que hay que tener mucha vista -y suerte- para dar con un monitor decente sin problemas de fugas de luz. No es normal tener que gastar 1.000 Euros o más, para no tener este tipo de problemas. Yo no me caso con ninguna marca -para prueba una foto. Si me gasto más de 1.000 Euros en un monitor Premium, no entiendo este tipo de problemas con un pixel:
Es como la punta de un alfiler... está a la derecha, y, sobre todo, se ve en fondo negro estático. Pero por este precio no debería tener ningún tipo de errores. Cierro offtopic
Saludos!!!