Eexee escribió:@battman80
Nvidia lo ha hecho mal y AMD peor.
¿Estás buscando tu RTX 3000? NVIDIA se la ha vendido a los mineros
https://hardzone.es/noticias/tarjetas-g ... k-mineros/
valrond escribió:Eexee escribió:@battman80
Nvidia lo ha hecho mal y AMD peor.
¿Estás buscando tu RTX 3000? NVIDIA se la ha vendido a los mineros
https://hardzone.es/noticias/tarjetas-g ... k-mineros/
¿Por qué peor? El lanzamiento ha sido igual de malo, pero al menos sus productos llegan a los jugadores, las consolas, los ryzen 5000 y las 6800. Esta vez los mineros se han ido xon nvidia y parece que esta se las ha vendido directamente.
erderbi escribió:Gente como veis este resultado en el superposition? viendo en algunas reviews me parece bajo...
la 6800, con el power limit al maximo del 15% que deja, la frecuencia a 2500Mhz,(aunque luego en el test no pasa de 2455Mhz, no se si es normal tambien), y las memorias a 2150Mhz y el voltaje a 1005, que a menos se queda capada en 60W.
AlterNathan escribió:@erderbi Creo que es normal en AMD, que automaticamente si ve que la temperatura está bien pues te sube más el reloj de la GPU. Mi gráfica el máximo es 2250 y sin tocar nada se me va a los 2500, a veces, y se queda tan ancha. Lo de lo voltaje no sé como va, me pasa como a ti, en la Nvidia todo era más fácil.
Saludos.
Miklan84 escribió:Creo que queda claro.
https://elchapuzasinformatico.com/2020/11/geforce-rtx-3080-vs-radeon-rx-6800-xt-en-17-revews/
Eexee escribió:Miklan84 escribió:Creo que queda claro.
https://elchapuzasinformatico.com/2020/11/geforce-rtx-3080-vs-radeon-rx-6800-xt-en-17-revews/
17 reviewers y 16 con cpu Intel y sin rage boost, claro está. xD
Miklan84 escribió:Eexee escribió:Miklan84 escribió:Creo que queda claro.
https://elchapuzasinformatico.com/2020/11/geforce-rtx-3080-vs-radeon-rx-6800-xt-en-17-revews/
17 reviewers y 16 con cpu Intel y sin rage boost, claro está. xD
Y sin dlss ni rt, que si meten esas cositas en los analisis la 6800xt queda por debajo de la 2070s
erderbi escribió:Gente como veis este resultado en el superposition? viendo en algunas reviews me parece bajo...
la 6800, con el power limit al maximo del 15% que deja, la frecuencia a 2500Mhz,(aunque luego en el test no pasa de 2455Mhz, no se si es normal tambien), y las memorias a 2150Mhz y el voltaje a 1005, que a menos se queda capada en 60W.
Asran escribió:Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.
Asran escribió:Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.
dohc1v escribió:Asran escribió:Que pesados jaja, yo quería una nvidia pero hay que reconocer que 720€ y 10 gb de vram es de cabrones, el dirt 4 ya consumes más de esos 10gb espera a los nuevos juegos, los que se compraron una 3080 en unos meses estarán cagandose en nvidia por sacar las ti con más ram y es normal q los juegos rindan más con raytracing en nvidia mas que nada porque los juegos usan la tecnología de nvidia, habría que esperar q los juegos usan la de amd para comprar digo yo no se y vuelvo a repetir yo quería una nvidia pero al final cayó una 6800.
Los que compran con mucha prisa (respetable) padecen de al menos 3 cosas:
[*]Depuracion de los fallos de juventud (errorres, bugs...).
[*]Ver como sacan revisiones ,mas eficientes/potentes (super,ti muchiflops+).
[*]Ver como se desploman los precios... Aunque ahora nos encontremos en una burbuja donde la demanda supera la oferta por x motivos, esta llegara a reventar y los precios se estabilizarán/bajarán .
Nada que no sepamos , ley de vida de la tecnología
AlterNathan escribió:@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.
De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.
Saludos.
Asran escribió:@Miklan84
Esos juegos que citas son la de generación pasada compañero, el dirt 4 ya consume más de 10, para ser exactos 10 y medio, godfall aunque sea una mierda de juego también. Que puedas jugar a los juegos que estaban echoos para ps4 Xbox no significa q los que van a salir van a consumir la misma vram, mas que nada porque las nuevas consolas que es por desgracia para las que se piensan los juegos tienen más de 10gb de vram amigo. Ya te digo no soy fan de ninguna casa yo quería una nvidia pero en unos meses sacaran las ti con más ram no lo digo yo lo dicen los expertos en el tema que nvidia hizo el rata con la vram.
AlterNathan escribió:@Miklan84 Pues no sé, la mayoria de gente piensa que 10 de VRAM es algo corta y algunas páginas aconsejan tener más de 8gb de VRAM para 4k, también veo que en el vídeo pone Optimized Settings, es decir no han puesto todo lo que da de sí el juego.
Supongo que también dependera del juego, un Dirt 5 no pedirá mucho pero un otro juego sí.
Saludos.
Pepe_13 escribió:AlterNathan escribió:@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.
De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.
Saludos.
No entiendo demasiado, pero AMD es una gran compañia y tendrá gente experta, si tiene una gráfica con una potencia bruta superior a Nvidia, no sacará AMD programas que puedas ayudar a mover el ray tracing? O un DLSS particular... Lo del DLSS no está en todos los juegos, no? Solo en aquellos que paga Nvidia para que lo pongan?
De aquí a finales del año que viene que es cuando pienso comprar la gráfica ya veré que hago, pero mi objetivo es 2k ultra con ray tracing...
adriano_99 escribió:Ojo con el tema de la vram que es mas complicado de lo que muchos creéis eh?
Si, la 6800xt tiene 16GB pero tiene un problema estructural y es su infinity cache.
Su rendimiento es mejor que el de las nvidia a 1080p y a 1440p porque según amd a esas resoluciones el 90% de las veces que la GPU necesita un asset lo tiene disponible en la cache, a 4k el volumen de los assets aumenta y el ratio de veces en que la gpu tiene lo que necesita en cache disminuye.
Eso quiere decir que cuando los juegos de nueva generación empezarán a hacer uso de mas de 10GB de vram el ratio de uso de la cache en las gpu navi se desplomará y con el se desplomará su rendimiento, ya que esos assets mucho mas grandes no cabrán en la cache y los sacara de la vram que es mucho mucho mas lenta.
Ahora mismo es toda una incógnita que graficas envejecerán mejor ya que hay demasiadas cosas que pueden pasar.
PepeC12 escribió:adriano_99 escribió:Ojo con el tema de la vram que es mas complicado de lo que muchos creéis eh?
Si, la 6800xt tiene 16GB pero tiene un problema estructural y es su infinity cache.
Su rendimiento es mejor que el de las nvidia a 1080p y a 1440p porque según amd a esas resoluciones el 90% de las veces que la GPU necesita un asset lo tiene disponible en la cache, a 4k el volumen de los assets aumenta y el ratio de veces en que la gpu tiene lo que necesita en cache disminuye.
Eso quiere decir que cuando los juegos de nueva generación empezarán a hacer uso de mas de 10GB de vram el ratio de uso de la cache en las gpu navi se desplomará y con el se desplomará su rendimiento, ya que esos assets mucho mas grandes no cabrán en la cache y los sacara de la vram que es mucho mucho mas lenta.
Ahora mismo es toda una incógnita que graficas envejecerán mejor ya que hay demasiadas cosas que pueden pasar.
No te creas.
El ratio de acierto de la cache es directamente proporcional al tamaño de la misma, y no al tamaño de la vram.
Me explico, la cache funciona a nivel de pagina, el tamaño de la pagina puede ser variable y nose exactamente que numero maneja la grafica pero es relativa al tamaño de la cache, vram etc, digamos que es de 1mb.
Esto te daria 16k paginas en vram y 128 en cache no?
cada vez que se lee informacion se transfiere en tamaños de la pagina, se pide a la vez tanto a la cache como a la vram. Si esta en cache perfecto, se devuelve y tarda menos, si no esta, se coge la informacion de la vram y se copia en la cache.
Como te puedes imaginar, cualquier aplicacion que use más de 128mb de vram no cabe en la cache y ya tendriamos el baile de información.
La gracia de la cache es que aunque la informacion se pide a nivel de pagina se usa normalmente datos que estaran en tamaños de 32, 64 o 128 bits.
Por lo que si divides ese 1mb entre los 32 bits te da el numero de aciertos que vas a tener en cache - 1 (la primera vez que accedes a la pagina falla).
Es un poco complicado pero basicamente, no tiene que ver que uses 4gB de vram o 16, la cache va funcionar igual de bien o de mal.
Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jds?t=376
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.
Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jgráficas
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.
Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Miklan84 escribió:Asran escribió:@Miklan84 Como me pasas un video de GodFall para decirme que no pasa de 9 de vram y me pasas el video del juego corriendo en una 3080.... claro que no va a pasar de 10 pero es porque no tiene..............
Dirt V 10480 Mb de Ram como he dicho esto acaba de empezar y ya hay juegos q usan toda la vram de la 3080.
https://youtu.be/BhtcT8ixpZg?t=1581
GodFall mas de 10 tambien por aqui
https://youtu.be/NhbbOp04Jgráficas
Para dentro de un año cuando las compañías hagan uso de los 12 gb como minimo de Vram que tendrán las consolas next gen hablamos.
Videos de alguien subvencionado por AMD que le regala las gráficas, no hay más ciego que quien no quiere ver, esta claro.
Te he mostrado 2 videos de los juegos que nombras a 4k y más de 60fps en ultra y ahora esos videos no valen.
No hay ningún juego que use toda la vram en las 3080, porque entonces habría videos de como se cae el rendimiento a 5-10 fps que es lo que pasaría si peta la vram.
Pero paso de perder más el tiempo contigo, es evidente que eres ingeniero y tú sabiduría esta desperdiciada y sin embargo los de NVIDIA no tienen ni puta idea de lo que hacen. Así de injusta es la vida, cuanto talento desperdiciado.
AlterNathan escribió:@Miklan84 Es que los tuyos no es que no valgan, es que al menos en el Dirt 5 parece que no utiliza la calidad máxima del juego. Yo también te puedo enseñar el Watchdogs 2 como me utiliza 10 gigas de VRAM a 1080p, así que imagina xD.
Y lo de subvencionado de AMD, no sé también podemos decir lo contrarios con los vídeos que has mostrado.
Saludos.
AlterNathan escribió:@Miklan84 Es que los tuyos no es que no valgan, es que al menos en el Dirt 5 parece que no utiliza la calidad máxima del juego. Yo también te puedo enseñar el Watchdogs 2 como me utiliza 10 gigas de VRAM a 1080p, así que imagina xD.
Y lo de subvencionado de AMD, no sé también podemos decir lo contrarios con los vídeos que has mostrado.
Saludos.
Asran escribió:Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.
valrond escribió:Pepe_13 escribió:AlterNathan escribió:@Miklan84 Ya se ha dicho varias veces, con los juegos que han salido hasta ahora perfecto, el problema son los juegos dentro de un tiempo cuando pidan texturas mejores, RT y más cosas. RDR2 no significa nada.
De hecho también pasa al contrario, veremos el RT del futuro si AMD lo puede aguantar.
Saludos.
No entiendo demasiado, pero AMD es una gran compañia y tendrá gente experta, si tiene una gráfica con una potencia bruta superior a Nvidia, no sacará AMD programas que puedas ayudar a mover el ray tracing? O un DLSS particular... Lo del DLSS no está en todos los juegos, no? Solo en aquellos que paga Nvidia para que lo pongan?
De aquí a finales del año que viene que es cuando pienso comprar la gráfica ya veré que hago, pero mi objetivo es 2k ultra con ray tracing...
Sí, el DLSS está en muy pocos juegos, básicamente los juegos patrocinados por nVidia. Usar RT y DLSS que se usa en una cantidad ínfima de juegos no tiene mucho sentido.
Aquí una lista de la "amplia" cantidad de juegos con DLSS y RT:
https://www.rockpapershotgun.com/2020/1 ... /#comments
PD: Yo tengo una EVGA 3080 FTW3 Ultra.
Miklan84 escribió:Asran escribió:Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.
Gracias por lo de chaval, hacia décadas que nadie me lo decía.
No soy fan de nadie, de hecho sopese comprar la 6800xt. Y diras tu que los 11gb de vram de la 1080ti han sido necesarios, claro que si jaja
AlterNathan escribió:@Asran Pues mira en eso no estoy tan de acuerdo. Las consolas tienen 16 gddr6 aunque según cual tienen un ancho de banda distinto, pero dudo que se utilice 12 solo para el vídeo, y luego solo 4 para el sistema, me extrañaría muchísimo.
Saludos.
Asran escribió:Miklan84 escribió:Asran escribió:Este chaval es un fan de Nvidia, pero yo no soy fan de ninguna ya que vengo de una 2060 y queria una 3080 pero venir a decir que nvidia no se ha quedado corta de Vram..... hasta las 1080 ti tenian mas.
Gracias por lo de chaval, hacia décadas que nadie me lo decía.
No soy fan de nadie, de hecho sopese comprar la 6800xt. Y diras tu que los 11gb de vram de la 1080ti han sido necesarios, claro que si jaja
Nunca fueron necesarios, pero ahora si lo serán, te vuelvo a repetir las consolas next gen tienen mínimo 12, que no te extrañe que en menos de un año empieces a ver juegos que usen minimo 12 de vram.
PD: yo tambien queria una nvidia pero... se fueron de listos he hicieron el rata, ahora en unos meses nuevas serie 3000 con minimo 12 de vram y si no me lo recuerdas.