[HO] Radeon RX 6000 Family

Asran escribió:
colchonerox escribió:Alguien que tenga una rx6800 y monitor con freesync le funciona bien ?

Yo tengo un monitor freesync a 165 hz y me funciona estupendamente ademas ya arregle el problema que tenia con el microprocesador.


Hola Asran, podrias dar mas detalles con lo del micro?
@valrond Por ahora casi todos los juegos de consola llevan RT, menos alguna excepción, así que se ve generalizar pronto o eso parece. Por suerte parece que los juegos de consola, como el Dirt 5, superan a Nvidia incluso con el RT activado.

Lo de la VRAM pues no sé si los juegos lo utilizan o no, mi 1070 tiene 8 gigas de VRAM y he notado tirones en el Borderlands 3 pero no me utiliza toda la VRAM, así que no sé. También la 6800xt tiene poco ancho de banda pero que según AMD se arregla con el infinity cache.

Yo tengo un mónito a 144 hz, así que imagina que estoy peor que tú, necesito más potencia bruta XD.

De todas maneras ya he elegido la 6800xt, en un futuro ya se dirá como funciona, ahora mismo solo puedo hacer especulaciones.

Saludos.
AlterNathan escribió:@valrond Por ahora casi todos los juegos de consola llevan RT, menos alguna excepción, así que se ve generalizar pronto o eso parece. Por suerte parece que los juegos de consola, como el Dirt 5, superan a Nvidia incluso con el RT activado.

Lo de la VRAM pues no sé si los juegos lo utilizan o no, mi 1070 tiene 8 gigas de VRAM y he notado tirones en el Borderlands 3 pero no me utiliza toda la VRAM, así que no sé. También la 6800xt tiene poco ancho de banda pero que según AMD se arregla con el infinity cache.

Yo tengo un mónito a 144 hz, así que imagina que estoy peor que tú, necesito más potencia bruta XD.

De todas maneras ya he elegido la 6800xt, en un futuro ya se dirá como funciona, ahora mismo solo puedo hacer especulaciones.

Saludos.


Es que los juegos de PC con RT hasta ahora, estaban utilizando la API de Nvidia y no la de DirectX, así que normal que funcionen mejor con tarjetas RTX (aprovechan mejor sus tensor cores).

Sin embargo, el Dirt5 o Godfall ya utilizan el RT del DirectX (que además es el que se usa en consolas), por lo que como ya es una API que soportan las 6000 de firma nativa, funcionan mejor.

Habrá que ver con qué APIs empiezan a venir los juegos a partir de ahora, pero imagino que salvo los que patrocine Nvidia, el resto vendrán con DirectX (te ahorras tiempo de Port a consola XD).



Salu2
ElVlado escribió:
Asran escribió:
colchonerox escribió:Alguien que tenga una rx6800 y monitor con freesync le funciona bien ?

Yo tengo un monitor freesync a 165 hz y me funciona estupendamente ademas ya arregle el problema que tenia con el microprocesador.


Hola Asran, podrias dar mas detalles con lo del micro?


Si era un bug que tenia con windows 10 que me estaba usando la mitad de cores e hilos y hasta que me di cuenta menuda buena rallada que me he pegado viendo que con una grafica de 600€ iba todo peor que con una de 300 >_<
@Er_Garry @AlterNathan tanto dirt5 como godfall son juegos patrocinados y/o promocionados por amd por lo que es muy lógico que rindan mejor. Es precisamente mismo caso que los juegos que promociona y/o patrocina nvidia.

La play no usa el RT del DirectX, precisamente porque el sistema de la play no usa librerias de microsoft, así como sí lo hace la xbox, utiliza las suyas propias.
Bueeeeeno bueno bueno

Solo os puedo decir una cosa, y es que os esperéis a las versiones custom porque la cosa se pone MUY interesante.

Pruebas con OC... no he querido darle mucha caña ni meterle voltaje ni nada.

Tras un par de pruebas intermedias, a lo máximo que he llegado es:

- Ryzen 3600 (OC 4.4Mhz) + RAM a 3600Mhz
- RX 6800 (Core a 2550Mhz y Memorias 2150)

A tener en cuenta que las memorias no me dejaba subirlas mas el programa (+150), la máxima frecuencia que me dejaba el programa era de 2600Mhz (pero me crasheaba), el voltaje el máximo permitido por el programa (el de stock, entiendo: 1025mv). Perfil de ventilador del 100% (sorprendentemente silencioso, hacía mucho mas ruido los Vardar a 2200rpms de la AIO). El PowerLimit a +15%, el máximo que me permite el programa.

Hay que reconocer que AMD esta haciendo un MUY buen trabajo, tocando voltaje o versiones custom mejor disipadas van a dar juego. Aún así, las temps estaban en torno a 70º. Yo personalmente las considero muy buenas para hablar de una versión de referencia oceada.

Por otro lado dejar claro que es un OC sin afinar y NO ES ESTABLE ya que aunque pasé todos los Benchs, el Port Royale me crasheaba a mitad de ejecutarse.

Resumen de la config:
Imagen


Los benchs:

- FireStrike -> 30776 puntos:
Imagen
https://www.3dmark.com/fs/24085257

- FireStrike Extreme -> 20057 puntos:
Imagen
https://www.3dmark.com/fs/24085299

- FireStrike Ultra -> 11005 puntos:
Imagen
https://www.3dmark.com/fs/24085319

- Time Spy -> 13469 puntos:
Imagen
https://www.3dmark.com/spy/15472764

- Time Spy Extreme -> 6448 puntos:
Imagen
https://www.3dmark.com/spy/15472888


- Port Royal a 2450Mhz (para tener una referencia anterior) -> 7860 puntos:
Imagen
https://www.3dmark.com/pr/526007


Creo que esta generación vamos a tener una buena guerra, tan pronto se normalice el stock y los precios bajen, sumado a que AMD tendrá que mover ficha y sacar un DLSS y un RayTracing decente (mas les vale sobretodo por tema consolas)... Yo que queréis que os diga, siendo un fanboy de nvidia me parece que me voy a quedar con AMD.

Con ganas de que salgan las custom, las veremos fácilmente en los 2500Mhz para 24/7 siendo fresquitas y silenciosas :)

Un abrazo!
Que precio creeis que tendran las custom? me ralla un poco el quizas haberme apresurado y no esperar a las custom.
@Asran Mira los casos de nvidia y pon ejemplos similares, según el oc de las custom, estas llegan a subir hasta 300 euros por encima del pvp base de la tarjeta.

@Dasten han hecho un trabajo de 10, yo he estado a punto, mira que además quería que fuese de la mano con el 5900x pero he valorado mucho el tema del rt y el dlss y al final pillé de nuevo nvidia, pero viendo como lo hacen esta gen igual para siguiente valoro y les doy mi dinero el día 1.
Asran escribió:Que precio creeis que tendran las custom? me ralla un poco el quizas haberme apresurado y no esperar a las custom.


Con el stock que van a tener? Caro, muy caro. Y si no, ya se encargarán las tiendas de subirlo.
Cuando salen las custom?
@xin-xan El día 25 de este mes.

Saludos.
AlterNathan escribió:@xin-xan El día 25 de este mes.

Saludos.


Gracias.

Esperemos que no pase como con nvidia y la escasez...
A mi el Time Spy con todo de stock me da estos resultados.a 1440p.

Imagen
Bueno, pues parece que Nvidia sigue ganando en realidad virtual a AMD. Tenía ganas de cambiar, pero volveré a jugar con el equipo verde.
xin-xan escribió:
AlterNathan escribió:@xin-xan El día 25 de este mes.

Saludos.


Gracias.

Esperemos que no pase como con nvidia y la escasez...


ya han avisado por paginas que seria peor, literalmente, el stock seria "terrible"...

de momento seguimos sin fecha de salida para la 6700xt - 6700verdad? será la que me pille para un equipo secundario seguramente
Lucas11 escribió:Bueno, pues parece que Nvidia sigue ganando en realidad virtual a AMD. Tenía ganas de cambiar, pero volveré a jugar con el equipo verde.


He encontrado algún análisis?

Pasa link plz
PepeC12 escribió:
Lucas11 escribió:Bueno, pues parece que Nvidia sigue ganando en realidad virtual a AMD. Tenía ganas de cambiar, pero volveré a jugar con el equipo verde.


He encontrado algún análisis?

Pasa link plz


https://babeltechreviews.com/vr-wars-th ... ked/?amp=1

Está claro que la calidad no se mide en Gb
neox3 escribió:
xin-xan escribió:
AlterNathan escribió:@xin-xan El día 25 de este mes.

Saludos.


Gracias.

Esperemos que no pase como con nvidia y la escasez...


ya han avisado por paginas que seria peor, literalmente, el stock seria "terrible"...

de momento seguimos sin fecha de salida para la 6700xt - 6700verdad? será la que me pille para un equipo secundario seguramente



No me digas...vaya bajón :(

Vaya mierda de añito llevamos...
Lucas11 escribió:
https://babeltechreviews.com/vr-wars-th ... ked/?amp=1

Está claro que la calidad no se mide en Gb


Pues leyendo esa review, los primeros resultados que ponen de la 6800XT para validar su configuración, los veo algo bajos en comparación con otras reviews que hay por ahí (sobre todo a 4K).

Habría que esperar a que las webs que se dedican más a la VR les metan mano y hagan más reviews, así podremos hacernos una idea mejor de su rendimiento.

Que visto la disparidad de números que hay, una sola muestra no es demasiado representativa :-|


Salu2
@Lucas11 bueno viendo la review no es tan malo.

Están bastante parejas.

Creo que es el mismo caso que en los juegos no vr. La tarjeta amd cae un poco por debajo de la 3080 cuando la resolución es muy alta, seguramente por usar memorias más lentas.

Con todo y con eso me quedaría con la amd para vr, esos 6gb extra de vram pueden notarse en el futuro, y perder unos pocos frames no notaría la diferencia hoy en día.

El lastre de estas navi sigue siendo el dlss y el rt.
PepeC12 escribió:El lastre de estas navi sigue siendo el dlss y el rt.

Pero podrian mejorarlo con el tiempo, no?
Pepe_13 escribió:
PepeC12 escribió:El lastre de estas navi sigue siendo el dlss y el rt.

Pero podrian mejorarlo con el tiempo, no?


El RT dependerá de las optimizaciones que lleve cada juego. En los patrocinados por Nvidia irá peor, y en los patrocinados por AMD mejor :-|

Y sobre el DLSS, pues ahora mismo sólo lo pueden tener las Nvidia, ya que es una tecnología propietaria. AMD está trabajando en algo similar apoyándose de las APIs de DirectX, pero que logré el mismo resultado que el DLSS... Está por ver.

Aunque que conste que el DLSS empezó a funcionar bien a partir de la versión 2.0, que en versiones anteriores la perdida de calidad se notaba mucho [+risas]


Salu2
Er_Garry escribió:
Lucas11 escribió:
https://babeltechreviews.com/vr-wars-th ... ked/?amp=1

Está claro que la calidad no se mide en Gb


Pues leyendo esa review, los primeros resultados que ponen de la 6800XT para validar su configuración, los veo algo bajos en comparación con otras reviews que hay por ahí (sobre todo a 4K).

Habría que esperar a que las webs que se dedican más a la VR les metan mano y hagan más reviews, así podremos hacernos una idea mejor de su rendimiento.

Que visto la disparidad de números que hay, una sola muestra no es demasiado representativa :-|


Salu2



Hombre dado que es uno de los mejores canales de VR y no un YouTuber random la veo bastante representativa. Tal vez para otras cosas estas amd salgan mejor, pero todo indica que para VR no
Lucas11 escribió:Hombre dado que es uno de los mejores canales de VR y no un YouTuber random la veo bastante representativa. Tal vez para otras cosas estas amd salgan mejor, pero todo indica que para VR no


No digo que los resultados sean erróneos, digo que sólo una review, con un solo equipo y con unos dirvers concreto (y en caso de las AMD la primera versión). No es un un dogma del rendimiento de una tarjeta.

Obviamente sirve para hacerse una idea de cómo va la cosa, pero si ya en reviews de juegos normales ves disparidad de números, en juegos VR hay muchas más opciones que tocar (y optimizar), visores con diferentes resoluciones y Hz... Por eso siempre es mejor tener más muestras.


Salu2
xin-xan escribió:
AlterNathan escribió:@xin-xan El día 25 de este mes.

Saludos.


Gracias.

Esperemos que no pase como con nvidia y la escasez...


Mi apuesta es que las custom de 6800xt estaran a partir de los 750 euros
Er_Garry escribió:
Pepe_13 escribió:
PepeC12 escribió:El lastre de estas navi sigue siendo el dlss y el rt.

Pero podrian mejorarlo con el tiempo, no?


El RT dependerá de las optimizaciones que lleve cada juego. En los patrocinados por Nvidia irá peor, y en los patrocinados por AMD mejor :-|

Y sobre el DLSS, pues ahora mismo sólo lo pueden tener las Nvidia, ya que es una tecnología propietaria. AMD está trabajando en algo similar apoyándose de las APIs de DirectX, pero que logré el mismo resultado que el DLSS... Está por ver.

Aunque que conste que el DLSS empezó a funcionar bien a partir de la versión 2.0, que en versiones anteriores la perdida de calidad se notaba mucho [+risas]


Salu2

Lo último que leí sobre DLSS que Nvidia quierenque el 3.0 se pueda utilizar en cualquier juego con TAA. No entiendo mucho, pero vamos, como sea así... No sé cuanto pueden tardar en sacar el 3.0 y si estos són los planes de Nvidia.
Es completamente natural que las Ampere sean mejor elección para VR que las de AMD, pues tienen mayor ancho de banda y la VR suele usar unas resoluciones bastante monstruosas. Por eso, independientemente de lo que diga esa review, si la VR es lo tuyo (y los visores cada vez traen más resolución), las de Nvidia deben ser tu elección.

Lo que parece claro es que ya hay varios motivos actuales en las que las Nvidia son superiores sin necesidad de esperar a ver cómo acaba afectando la VRAM. Y sí, también incluyo al RT, porque sigo pensando que los juegos en los que AMD gana por ahora son una anomalía y no están representando correctamente la distancia en tecnología de procesamiento de rayos entre ambas (ya se ven los “truquitos” de Watch Dogs o Dirt). Y esa distancia acabará siendo, con toda lógica, de una generación.
Por fin conseguí hacerla funcionar perfectamente gracias a cambiar la fuente de alimentación como indicasteis así que gracias por la ayuda y perdonad mi desconocimiento ni siquiera estaba al tanto de las fuentes de alimentación modulares, gran invento XD

Todavía no he podido probar mucho con mi nueva 6800XT, lo poco que he podido probar muy buen rendimiento en general excepto con un, a mi modo de ver, gran pero, con RT el rendimiento cae en picado, se nota en el Battlefield V es activar esta opción y caer la tasa de FPS a incluso menos de 30 en algunos puntos, cuando sin esa opción activada llega a los 100FPS fácilmente.

Juego a 5120 x 1440px, tengo un monitor 32:9 y a 120hz. Supongo que bajando detalles y resolución mejorará la cosa con RT, pero da bastante bajón que a estas alturas AMD consiga tan poco rendimiento con esta tecnología con la que es su tarjeta más poderosa en el mercado actualmente.
Pepe_13 escribió:Lo último que leí sobre DLSS que Nvidia quierenque el 3.0 se pueda utilizar en cualquier juego con TAA. No entiendo mucho, pero vamos, como sea así... No sé cuanto pueden tardar en sacar el 3.0 y si estos són los planes de Nvidia.


Por ahora todo eso son rumores y además bastante antiguos, que desde Junio no se ha vuelto a hablar del DLSS 3.0 :-|

La última novedad que hay, es que el SDK del DLSS 2.1 es compatible con VR, y esto del mes de septiembre.

Si los chicos de Nvidia lograrán que el DLSS fuera compatible con todos los juegos sin requerir programación específica... Sería un AMD Rip en toda regla (si la calidad es buena y AMD no tiene su solución claro XD).


Salu2
Er_Garry escribió:
Lucas11 escribió:
https://babeltechreviews.com/vr-wars-th ... ked/?amp=1

Está claro que la calidad no se mide en Gb


Pues leyendo esa review, los primeros resultados que ponen de la 6800XT para validar su configuración, los veo algo bajos en comparación con otras reviews que hay por ahí (sobre todo a 4K).

Habría que esperar a que las webs que se dedican más a la VR les metan mano y hagan más reviews, así podremos hacernos una idea mejor de su rendimiento.

Que visto la disparidad de números que hay, una sola muestra no es demasiado representativa :-|


Salu2


Esa review no se la cree ni el tato y huele a maletinada por parte de Nvidia.

Solo hay que ver los bench por YT de diferentes videos.
@Er_Garry en dlss hay que ver como se comportan las amd.

Tengo ciertas dudas de que funcione como el nvidia, mas que nada porque nvidia tiene los tensor cores y amd no tiene hardware dedicado.

Es posible que activar el dlss en amd no consiga una mejora sustancial como si pasa con nvidia.

La ventaja es que parece que amd es más rápida en bajas resoluciones así que es posible que se compense por ese lado.
Metalyard escribió:
Er_Garry escribió:
Lucas11 escribió:
https://babeltechreviews.com/vr-wars-th ... ked/?amp=1

Está claro que la calidad no se mide en Gb


Pues leyendo esa review, los primeros resultados que ponen de la 6800XT para validar su configuración, los veo algo bajos en comparación con otras reviews que hay por ahí (sobre todo a 4K).

Habría que esperar a que las webs que se dedican más a la VR les metan mano y hagan más reviews, así podremos hacernos una idea mejor de su rendimiento.

Que visto la disparidad de números que hay, una sola muestra no es demasiado representativa :-|


Salu2


Esa review no se la cree ni el tato y huele a maletinada por parte de Nvidia.

Solo hay que ver los bench por YT de diferentes videos.


Jajajaja el razonamiento de algunos es genial.
Que amd tiene más GB es mejor sin duda. Que hay una review de uno de los mejores canales de realidad virtual que la deja por debajo en RV, mienten.
[plas]
PepeC12 escribió:@Er_Garry en dlss hay que ver como se comportan las amd.

Tengo ciertas dudas de que funcione como el nvidia, mas que nada porque nvidia tiene los tensor cores y amd no tiene hardware dedicado.

Es posible que activar el dlss en amd no consiga una mejora sustancial como si pasa con nvidia.

La ventaja es que parece que amd es más rápida en bajas resoluciones así que es posible que se compense por ese lado.


Es que ahora mismo AMD no tiene NADA de eso, no se sabe si lo lograrán (se supone que si), y muchos menos su rendimiento [+risas]

Por eso mismo, si el DLSS es algo que ves fundamental, hoy en día sólo te puedes ir a NVIDIA.

Metalyard escribió:Esa review no se la cree ni el tato y huele a maletinada por parte de Nvidia.

Solo hay que ver los bench por YT de diferentes videos.


Maletinada no creo, pero los resultados en "plano" los veo algo bajos [+risas]

Además que con unos drivers poco pulidos, los resultados pueden cambiar mucho. Por lo que habrá que esperar a más reviews y que empiecen a pulir los drivers para VR (que ahí creo que el Infinity Caché puede ser bastante útil).


Salu2
Pepe_13 escribió:
Er_Garry escribió:El RT dependerá de las optimizaciones que lleve cada juego. En los patrocinados por Nvidia irá peor, y en los patrocinados por AMD mejor :-|

Y sobre el DLSS, pues ahora mismo sólo lo pueden tener las Nvidia, ya que es una tecnología propietaria. AMD está trabajando en algo similar apoyándose de las APIs de DirectX, pero que logré el mismo resultado que el DLSS... Está por ver.

Aunque que conste que el DLSS empezó a funcionar bien a partir de la versión 2.0, que en versiones anteriores la perdida de calidad se notaba mucho [+risas]


Salu2

Lo último que leí sobre DLSS que Nvidia quierenque el 3.0 se pueda utilizar en cualquier juego con TAA. No entiendo mucho, pero vamos, como sea así... No sé cuanto pueden tardar en sacar el 3.0 y si estos són los planes de Nvidia.

Eso al final era falso, fue un invent del canal moore's law is dead. Ese canal no ha dado una.
@Lucas11 Qué tiene que ver los GB con el rendimiento en bruto de una gráfica, me lo puedes explicar?

Si a ti te mola ser un fanboy de una fuente publicitaria, es tu problema...Yo prefiero no casarme con nadie, ni con ninguna empresa y si veo 100 reviews de gente que desconfirman lo que dice tu "fuente fiable", pues prefiero creer a muchos que no lo que diga uno solo [toctoc]
Lo del dlss y directml va a ser complicado. Como en pc los juegos solo traigan uno u otro según patrocinios, vamos a salir perdiendo todos.

El RT de una y otra marca necesitan esas tecnologías para ser mínimamente jugables.

DLSS es impresionante, pero de nada va a servir si lo van a traer juegos contados. Y las consolas van a implementar el de AMD.
Metalyard escribió:@Lucas11 Qué tiene que ver los GB con el rendimiento en bruto de una gráfica, me lo puedes explicar?

Si a ti te mola ser un fanboy de una fuente publicitaria, es tu problema...Yo prefiero no casarme con nadie, ni con ninguna empresa y si veo 100 reviews de gente que desconfirman lo que dice tu "fuente fiable", pues prefiero creer a muchos que no lo que diga uno solo [toctoc]


Mira he tenido tanto Nvidia como amd. Hasta ahora lo que he visto es nvdia más rendimiento y más precio en misma gama. Todavía no se sabe al 100% pero parece que esto continúa igual como indican los primeros análisis serios. Y ahora tú sales hablando de maletines sin pruebas, cual niño, y me llamas a mi fanboy. Claro que sí venga
NanakiXIII escribió:DLSS es impresionante, pero de nada va a servir si lo van a traer juegos contados. Y las consolas van a implementar el de AMD.


No tiene por qué. Death Stranding funciona con checkerboarding en PS4 Pro y en PC funciona fantástico con DLSS 2.0.

El rollo de que AMD tendrá más ventaja en juegos porque estarán programados para su hardware lo llevo viendo décadas: que ahora los juegos van a aprovechar más núcleos, que ahora los juegos funcionan en arquitectura x86, etc. Y al final, el rendimiento de un título determinado de consola en PC se resume en una ecuación sencilla: pasta + pasta = rendimiento en PC. Por eso los GTA y los Red Dead funcionan razonablemente bien en PC, h por eso los ports de Ubi suelen ser tan lamentables. Cuestión de prioridades económicas.

Vamos, que la promesa de RDNA2 y las consolas yo no me la trago para nada.
Bueno...tengo una duda...

Estoy pasando el Time spy y con la RX6800XT no paso de los 14500 puntos....es normal?
@Lucas11 No eres el único que ha tenido AMD y Nvidia eh?

De hecho aquí ando yo con una GTX 1080 (Anteriormente tuve una R9 290 mismamente) y esperando a una 3080Ti o si me puede el hype a una 6900XT.

Pero los benchmark que va sacando la gente ahí están, y los tienes por decenas en internet que desmienten la fuente a la que tu le pones tanta confianza.

Sabes que lo de los maletines es una forma de hablar pero que esa fuente con esos datos tan bajos y fuera de la realidad que pone de AMD en sus benchmark huele a que cuanto menos ya sabes por donde tira dicha fuente.
Metalyard escribió:@Lucas11 No eres el único que ha tenido AMD y Nvidia eh?

De hecho aquí ando yo con una GTX 1080 (Anteriormente tuve una R9 290 mismamente) y esperando a una 3080Ti o si me puede el hype a una 6900XT.

Pero los benchmark que va sacando la gente ahí están, y los tienes por decenas en internet que desmienten la fuente a la que tu le pones tanta confianza.

Sabes que lo de los maletines es una forma de hablar pero que esa fuente con esos datos tan bajos y fuera de la realidad que pone de AMD en sus benchmark huele a que cuanto menos ya sabes por donde tira dicha fuente.


Yo todavía no he comprado. De hecho tenía una vega 56 que iba muy bien, pero la cambié por una 1080ti que para RV era en su día lo mejor. Ahora estoy esperando a ver claramente que es mejor en RV y a que bajen los precios porque no tengo prisa. De momento pinta que nvdia y me sabe mal que desacredites canales profesionales que llevan haciendo esto un tiempo, mientras se tiene por válido a tipos random de youtube que no tienen ni acabado el bachillerato
kalanndrakas escribió:Bueno...tengo una duda...

Estoy pasando el Time spy y con la RX6800XT no paso de los 14500 puntos....es normal?

Esa puntuación es de gráficos o de total? Si es de gráficos te da muy poco, debería andar por los 17000, si es el total, depende de qué cpu tengas, puede ser correcto.
@Lucas11 Caes precisamente en lo que criticas.

Esos tipos de YT que hacen benchmarks, dedican única y exclusivamente su contenido a hacer "solo" eso, lo cual es un currazo de narices...y no soy colega de ninguno como para saber si tienen titulo de bachillerato o no, pero lo que hacen lo hacen bien desde hace mucho tiempo.

Muchos de esos canales tienen incluso decenas o cientos de miles de subs. Todos ellos no tienen el bachillerato :-| ?

Y aunque no lo tuvieran, me da igual, lo que hacen, lo hacen bien y siempre que lo he comprobado con mi equipo, coincide.

Y aquí lo curioso es que todos ellos sacan unos bench entre las dos tarjetas muy parecidos y tu fuente deja claramente por debajo a la de AMD en fuerza bruta...y eso, amigo, huele....mucho.


Pos si están medidos en las mismas condiciones, es una ventaja muy grande para Nvidia la verdad [+risas]

A ver si le pasan el mismo test a la 6800XT y así salimos de dudas XD


Salu2
Pacorrr escribió:
kalanndrakas escribió:Bueno...tengo una duda...

Estoy pasando el Time spy y con la RX6800XT no paso de los 14500 puntos....es normal?

Esa puntuación es de gráficos o de total? Si es de gráficos te da muy poco, debería andar por los 17000, si es el total, depende de qué cpu tengas, puede ser correcto.


17500 puntos gráficos..tyme spy
48661 puntos gráficos Fire Strike

Control con RT Alto = 40-45Fps
con RT Medio = 52-58 fps
sin RT = 98-105 fps

1440p.

Horizon Zero ultra = 105fps media

1440p

Esta tarde probaré con mi tv 4k sony xe9005 a ver que tal.


Aunque creo que puede ser correcto el análisis y que la 6800xt es un 33% más lenta en rt, los datos en los que se basa ese la 6800xt es de finales de agosto.

Habría que tener datos más actuales.

Yo sigo con mi dilema, o compro una 6800xt o espero a la 3070ti que se rumorea vendría con 16gb y un rendimiento muy cercano a la 3080.

Al final va depender del stock porque si veo una custom a buen precio la cojo y se acabó en problema.
hh1 escribió:
luizzinno escribió:Las 3080 a 800 y algo para arriba...

Y estos las venden las 6800 a precio de oro:

https://www.ldlc.com/es-es/buscar/6800%2016/

[flipa]

Los restos de stock (rtx 20x0 / rx 5700) a buen precio en black friday ¿?

Mi Asus 1060 de 3G, la compre por 239€ al final de 2017 y cuesta ahora en black friday 227€ [flipa]

Por cierto habrá que venderla... [fumando]

Las gráficas a penas bajan de precio siendo gamas bajas medias.
Mr niego lo que quieras que de la 6800 y la 3070 para abajo,dentro de dos años cuestan LO MISMO.
Cuánto más baratas,menos bajan.


La 1060 de 3G se lanzó en julio de 2016 a $199, una cosa es que no bajen mucho y otra esto...

Las 20x0 las sacaron carísimas... han hecho como con los iPhone, sacar lo nuevo más caro y lo viejo apenas baja... marketing... como lo de la escasez y los precios inflados actualmente, no deja de ser un negocio...

En 2011 te pillabas una gráfica tope de gama de la generación anterior por 240€...

Las 70/80 de las series 1000 y 2000 se van a devaluar más y antes que las 60 GTX. Las reinas van a ser la 6700 XT y la 3060 Ti que es lo que se comprará la mayoría de la gente, como mucho... antes gamamedia: $199, ahora: $400...
luizzinno escribió:
hh1 escribió:
luizzinno escribió:Las 3080 a 800 y algo para arriba...

Y estos las venden las 6800 a precio de oro:

https://www.ldlc.com/es-es/buscar/6800%2016/

[flipa]

Los restos de stock (rtx 20x0 / rx 5700) a buen precio en black friday ¿?

Mi Asus 1060 de 3G, la compre por 239€ al final de 2017 y cuesta ahora en black friday 227€ [flipa]

Por cierto habrá que venderla... [fumando]

Las gráficas a penas bajan de precio siendo gamas bajas medias.
Mr niego lo que quieras que de la 6800 y la 3070 para abajo,dentro de dos años cuestan LO MISMO.
Cuánto más baratas,menos bajan.


La 1060 de 3G se lanzó en julio de 2016 a $199, una cosa es que no bajen mucho y otra esto...

Las 20x0 las sacaron carísimas... han hecho como con los iPhone, sacar lo nuevo más caro y lo viejo apenas baja... marketing... como lo de la escasez y los precios inflados actualmente, no deja de ser un negocio...

En 2011 te pillabas una gráfica tope de gama de la generación anterior por 240€...

Mi 1080Ti la saqué por 660€ nueva.
Precio oficial con descuento 824€ y precio normal 929€.
En pocos meses despúes rondaba los 1100€...
Pasó un año y seguía sin bajar de 1000€....

Compré el i5 8400 de salida por 189€...
En unas semanas ya valía 239€ y se tiró así todo el primer año...

Este mundillo está loco.

Solo tienes que ver lo que vale la gama 2000 aún....
1000€ la 2080Ti cuando por 529€ tienes la 3070 que va igual y con más futuro...
Er_Garry escribió:
AlterNathan escribió:@valrond Por ahora casi todos los juegos de consola llevan RT, menos alguna excepción, así que se ve generalizar pronto o eso parece. Por suerte parece que los juegos de consola, como el Dirt 5, superan a Nvidia incluso con el RT activado.

Lo de la VRAM pues no sé si los juegos lo utilizan o no, mi 1070 tiene 8 gigas de VRAM y he notado tirones en el Borderlands 3 pero no me utiliza toda la VRAM, así que no sé. También la 6800xt tiene poco ancho de banda pero que según AMD se arregla con el infinity cache.

Yo tengo un mónito a 144 hz, así que imagina que estoy peor que tú, necesito más potencia bruta XD.

De todas maneras ya he elegido la 6800xt, en un futuro ya se dirá como funciona, ahora mismo solo puedo hacer especulaciones.

Saludos.


Es que los juegos de PC con RT hasta ahora, estaban utilizando la API de Nvidia y no la de DirectX, así que normal que funcionen mejor con tarjetas RTX (aprovechan mejor sus tensor cores).

Sin embargo, el Dirt5 o Godfall ya utilizan el RT del DirectX (que además es el que se usa en consolas), por lo que como ya es una API que soportan las 6000 de firma nativa, funcionan mejor.

Habrá que ver con qué APIs empiezan a venir los juegos a partir de ahora, pero imagino que salvo los que patrocine Nvidia, el resto vendrán con DirectX (te ahorras tiempo de Port a consola XD).



Salu2

Esto ya se ha dicho varias veces y es mentira, no existe una API de Nvidia, ni para Ray tracing ni para nada más.Todos los juegos que llevan rtx usan la API de DirectX con la excepción del quake , que usa vulkan y sus librerías para Ray tracing estaban en construcción por lo que Nvidia añadió unas personalizadas.
Por eso quake rtx directamente ni funciona en las AMD pero ni en ese caso es una API de Nvidia sino un set de librerías.
8701 respuestas