[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Asran escribió:Tengo una Rx 6800 también de referencia.... una grafica que vale 599€ y la verdad que le da mil patadas en el culo a la de Nvidia en construcción, en algunos juegos pierdo 10/20 0 30 fps y en otros saca mas que la de Nvidia según quien esponsorice el juego y consumiendo 100W menos, pero a la hora de las temperaturas no hay puto color, 4 Gb mas
de Vram y si pasan de 75º es un milagro. Muy mal por Nvidia con sus 3080,3080ti y 3090... tener que ver Streamers a los que se les queman las memorias en directo jugando al diablo II remaster..... penoso.

Estás siendo bastante partidista con AMD. ¿Qué tal el DLSS y el Ray Tracing en tu AMD? Si comparas 2 cosas cuenta lo bueno y lo malo y no te quedes solo con lo bueno.

Por otra parte, lo del video de diablo, ¿puedes poner 2 ejemplos (hablas en plural)? Me extraña mucho que se carguen las gráficas jugando a tremendo "portento" gráfico... vamos es que si se les rompe con ese juego lo mínimo a pensar es que es un defecto de esas gráficas en concreto (la de esos usuarios, no me refiero al modelo) y eso pasa con gráficas nvidia, amd y con todo tipo de dispositivos. ¿O estás insinuando que las 3080+ no pueden con Diablo 2 remaster porque se queman? ¬_¬
Asran escribió:@Dracot
Yo tengo una 3080ti y afirmo lo que hice el amigo, consumen 100W mas que su homologo en amd, 8nm de samsung (nvidia) vs 7nm de TSMC(amd) en la seria 4000 nvidia va a volver a comprar los chips a TSMC y las memorias se calientas mucho mas entorno a 30 grados mas. Lo unico mejor que tienen estas 3000 con respecto a la competencia es el RTX, antes tenian el Dlss pero ahora amd saco su propia tecnologia que si veis videos es igual de buena y ademas es una teclnologia libre y no propietaria como la de nvidia, lo vas a poder usar tanto en amd como en nvidia hasta con intel... ah y se me olvida 6gb de vram mas que la 3080 y 4 gb mas que mi 3080 ti. Las cosas hay que decirlas como son yo tengo una 6800 y una 3080ti se de lo que hablo, probad las cosas he informaros antes de echar la lengua a pacer.

He pedido otros thermal Pads y lo volvere a intentar este viernes me llegaran y la vuelvo a abrir.


Que las RTX son tragonas no lo niega nadie. Pero NO EN AUSENCIA DE CARGA como decía el amigo

Mi rtx no puede consumir en ausencia de carga 100w más que AMD, porque sin carga, en entornos de escritorio y similar, consume 35w-40w según lo que esté haciendo (salvo que inicie vmware que le mete consumo aunque también esté ejecutando entornos poco pesados, y se me planta en 50w-60w)

Y jugando obviamente se dispara, pero dado que no suelo tener desbloqueados los fps y por lo tanto no suelo tenerla a tope, suelo tenerla en 150w-250w según juego y configuración. Las veces que la he puesto a tope, pues lo obvio, se va a los 350w que marcan sus specs.

Tampoco tengo ese "consumo excesivo de CPU por culpa de Nvidia", ni problemas de temperatura.

Una cosa es que consuma más que AMD o se caliente más (aunque aún no he visto ninguna temperatura que me lleve las manos a la cabeza) y otra generalizar que una Nvidia haga cosas absurdas que no hace para nada
Tampoco es necesario que se convierta esto en una guerra de fanboys, que el diseño de la 6800 xt es más eficiente es algo que tampoco se puede negar, luego en cuanto a experiencia sigo pensando que Nvidia sigue siendo mejor y he probado varias de amd incluidas de esta generación

El tema de darle toda la responsabilidad de esto a Nvidia tampoco le veo sentido por que esta más que demostrado que es cosa de la memoria gddr6x, he visto hablar de que la litografía de amd es mejor y no se que, pues que alguien me explique por qué una 3070 consume lo mismo que la 6700 xt y rinde más..., todo es cosa de las memorias, ahora bien a sido un error ponerlas, pues a saber, las memorias de la 3080 tienen un ancho de banda un 50% mayor que el de las 6800 xt y habría que ver cuanto afecta eso ahora y de cara al futuro, tampoco sabemos si amd va a seguir con su invento o se va a pasar a las gddr6x también, habrá que ver

El mayor problema como ya han dicho y llevo yo diciendo mucho tiempo es de las ensambladoras, esta gente sigue pensando que aún están las gddr5 esas que les bastaba con pegarles un chicle, ya con el salto a la gddr6 muchas Gpu tuvieron problemas y ahora estamos aún peor, lo que no puede ser es que cambiando los thermal pads bajes 30 grados las memorias que es lo que me pasa a mi mismo, yo con el undervolt y con overclock a las memorias (si con overclock) no me suelen llegar a 80 grados ni en los días más calurosos a full, no puede ser que se le dé tan poco importancia poniendo thermal pads tan chapuceros a algo que claramente deberían de controlar, tampoco creo que poner unos mejores les cueste mucho a ellos
Dfx escribió:Bueno, en lo único que puedo dar la razón es que la GDDR6X igual no ha sido tan buena elección, habiendo caminos de buses más grandes o el acercamiento de AMD con Infinity Cache. Pero también es verdad que el problema con la VRAM lo venimos arrastrando desde hace varias generaciones, los fabricantes se preocupan de refrigerar la GPU pero poco de la VRAM, reutilizan diseños de disipador si es posible y repiten errores.

La GDDR6X requiere de especial atención en el disipador y de thermalpads de calidad, cosa que cojean casi todos los ensambladores. Yo también pienso que el acercamiento de Infinity Cache era más inteligente, pero también hay que decir que 128MB es insuficiente y ya se ve venir en rumores de RDNA 3 que subirá bastante.


Se agradece leer a usuarios como tú, subes el nivel del hilo, nivel que algunos tiran por tierra.

Espero que la gente sepa diferenciar a los trolls y flames para no desinformarse.
PepeC12 escribió:Yo estoy deacuerdo, creo que la 6800xt es mejor gráfica.

Compite con la 3080, se calienta menos, tiene una construcción mejor y mucha más vram (veremos en los próximos años si importa esa vram o no).

Luego es verdad que en rt está al nivel de la 3070 y no hay dlss, auque el fsr es sorprendentemente bueno.

En cualquier caso lo que es una vergüenza es la gama baja, hardware unboxed lo decía ir twitter, tenemos el mismo precio/rendimiento en la gama baja que cuando salió la 580 (vale un 47% menos que la 6600xt y rinde el mismo porcentaje menos).

Nvidia tampoco se libra con la gama baja.



Exactamente, aquí ahora mismo los puteados son los que buscan un perfil de PC para jugar más económico. Con la generación PS4/One era perfectamente viable montarte un PC por 500-600 euros y tirar toda la generación a una calidad muy decente. Hoy día por 600 euros directamente no te montas un PC válido para jugar. No ya para competir con las consolas, simplemente para jugar, porque hace unos años te montabas una GPU de 200 pavos y se comia facilmente cualquier juego que le pusieras por delante. Ahora esas gráficas han desaparecido, no hay una gama baja-media decente, se puede decir que todo el que tenga una 3060/6600xt para arriba tiene un tarjetón. :-|
DarkMessiah escribió:
the_aeon escribió:
Jorginhone escribió:@the_aeon

Curioso tio,me molesto en mirar hasta un video para ayudarte a ti expresamente y ni respondes?,suerte en tu arreglo man.

@Vli

No sabia que un tornillo pueda valer de masa,tambien esta el caso contrario de esta gente que se dedica a electronica y tiene bandejas que estan dividas en diferentes compartimentos para separar todo el despiece y que no se pierda nada xD,el caso totalmente opuesto.

Perdona, ya he visto el vídeo yo también, ya he visto que va así, he pedido otros pads que me llegan mañana.

Gracias por el interés, se agradece


Qué tal fue?

Ya se lo que paso, la segunda vez que abrí la grafica chafe un poco los pads para que hicieran mejor contacto, fue un gran error, hizo que no tocaran el disipador.

Hoy he puesto los mismos pero de 2 mm y lógicamente el núcleo no toca con el disipador y calienta a tope, pero la solución ha sido chafarlos un poco y perfecto, solucionado!

Ahora la vram ha bajado mas que con los 1.5mm, van mejor los 2mm un poco chafados que los de 1.5mm, ahora la vram habrá bajado unos 10-12 grados jugando.

Igualmente yo para la 3080 FE compraría los Gelid de 2 mm, pero ahora mismo no hay stock, parece que dan mejores resultados, pero ahora mismo ya estoy contento y me he quitado el susto de encima.
JaviGabber escribió:
Dfx escribió:Bueno, en lo único que puedo dar la razón es que la GDDR6X igual no ha sido tan buena elección, habiendo caminos de buses más grandes o el acercamiento de AMD con Infinity Cache. Pero también es verdad que el problema con la VRAM lo venimos arrastrando desde hace varias generaciones, los fabricantes se preocupan de refrigerar la GPU pero poco de la VRAM, reutilizan diseños de disipador si es posible y repiten errores.

La GDDR6X requiere de especial atención en el disipador y de thermalpads de calidad, cosa que cojean casi todos los ensambladores. Yo también pienso que el acercamiento de Infinity Cache era más inteligente, pero también hay que decir que 128MB es insuficiente y ya se ve venir en rumores de RDNA 3 que subirá bastante.


Se agradece leer a usuarios como tú, subes el nivel del hilo, nivel que algunos tiran por tierra.

Espero que la gente sepa diferenciar a los trolls y flames para no desinformarse.


Creo que tampoco estamos acostumbrados a que ambas marcas hayan sido tan competitivas y el precio también va desvirtuando un poco el debate. Te agradezco el comentario.

Yo tengo la 3080 y como usuario "entusiasta" he visto el problema rápido, lo he solventado con thermalpad y ya está. Me molesta tocar una GPU que tiene menos de un mes y que cuesta lo que cuesta por un fallo del ensamblador, por mucho que digan que 100º entra dentro de los parámetros y no pasada nada. Si lo miras del lado usuario normal, el tema de establecer una protección a la memoria GDDR6X probablemente venia de cara a problemas futuros, porque si no ha pasado ni un año desde el lanzamiento y ya vemos tantos problemas, no me quiero imaginar en el periodo de pasada garantia (+2 años) esos thermalpad como estarán.

Yo tengo todo NVIDIA en mis PC principales y me gusta como marca sin llegar al fanatismo cerrado, por eso se reconocer que en esta generación RDNA 2 tiene sus puntos fuertes de eficiencia, VRAM e Infinity Cache, pero se ha quedado un poco corta en Ray Tracing y que realmente Infinity Cache igual se ha quedado algo corta para los juegos que vendrán, el camino es seguir engordando texturas.

En diseño AMD no se ha complicado la vida con el modelo de referencia, hemos dicho adiós a las turbinas, que ya era hora, pero a mi por ejemplo lo de NVIDIA con el pass-through, a pesar de que la mia Aorus XTREME también lo lleva, no me gusta en exceso. De hecho, ya he comentado en el hilo alguna vez que ahora que el multi-GPU ha muerto, ojalá algunos ensambladores comiencen a considerar diseños de triple-slot, pero 2+1, un diseño activo como siempre frontal y un backplate diseñado para refrigerar de verdad, que se ha demostrado infinidad de veces ya que un backplate bien hecho que refrigere aporta muchas ventajas. Esta idea tampoco es nueva, de hecho EKWB vende un bloque doble para las RTX para ambas caras de la GPU, que sinceramente, es la gloria.
the_aeon escribió:
DarkMessiah escribió:
the_aeon escribió:Perdona, ya he visto el vídeo yo también, ya he visto que va así, he pedido otros pads que me llegan mañana.

Gracias por el interés, se agradece


Qué tal fue?

Ya se lo que paso, la segunda vez que abrí la grafica chafe un poco los pads para que hicieran mejor contacto, fue un gran error, hizo que no tocaran el disipador.

Hoy he puesto los mismos pero de 2 mm y lógicamente el núcleo no toca con el disipador y calienta a tope, pero la solución ha sido chafarlos un poco y perfecto, solucionado!

Ahora la vram ha bajado mas que con los 1.5mm, van mejor los 2mm un poco chafados que los de 1.5mm, ahora la vram habrá bajado unos 10-12 grados jugando.

Igualmente yo para la 3080 FE compraría los Gelid de 2 mm, pero ahora mismo no hay stock, parece que dan mejores resultados, pero ahora mismo ya estoy contento y me he quitado el susto de encima.


Me alegro 👍🏻,que disfrutes tu grafica.

@dfx mi placa lleva backplate que es del tamaño de la placa,es enorme,para refrigerar el vrm y es 20 grados mas bajo en temperatura que la placa asus de mismo rango de precio,sin backplate y tambien el vrm es peor dicho de paso que me imagino influira.

En graficas hace poco vi un mod de una 3080 o ti con mini disipadores cuadrados de aluminio con aletas pegados al backplate y un ventilador encima "volando" para ayudar a extrae el calor ,los habia puesto estrategicamente encima de las memorias y mejoro temperatura pero no recuerdo el dato exacto😅,10 grados aprox,no lo recuerdo exactamente,lo cuento como una curiosidad basicamente

Coincido que el backplate deberia ser usado como disipacion,ademas con lo que valen las graficas si ven que hace falta algo mejor y tienen que invertir 10€ mas?,que lo hagan,no hay excusa seguro que aun asi es bastante rentable.
Rvilla87 escribió:
Asran escribió:Tengo una Rx 6800 también de referencia.... una grafica que vale 599€ y la verdad que le da mil patadas en el culo a la de Nvidia en construcción, en algunos juegos pierdo 10/20 0 30 fps y en otros saca mas que la de Nvidia según quien esponsorice el juego y consumiendo 100W menos, pero a la hora de las temperaturas no hay puto color, 4 Gb mas
de Vram y si pasan de 75º es un milagro. Muy mal por Nvidia con sus 3080,3080ti y 3090... tener que ver Streamers a los que se les queman las memorias en directo jugando al diablo II remaster..... penoso.

Estás siendo bastante partidista con AMD. ¿Qué tal el DLSS y el Ray Tracing en tu AMD? Si comparas 2 cosas cuenta lo bueno y lo malo y no te quedes solo con lo bueno.

Por otra parte, lo del video de diablo, ¿puedes poner 2 ejemplos (hablas en plural)? Me extraña mucho que se carguen las gráficas jugando a tremendo "portento" gráfico... vamos es que si se les rompe con ese juego lo mínimo a pensar es que es un defecto de esas gráficas en concreto (la de esos usuarios, no me refiero al modelo) y eso pasa con gráficas nvidia, amd y con todo tipo de dispositivos. ¿O estás insinuando que las 3080+ no pueden con Diablo 2 remaster porque se queman? ¬_¬


Otro que habla sin saber... has probado a jugar al diablo 2 y ponerlo en alto? yo si y a veces no me da los 144 fps, es un juego con el que se calienta un infierno la grafica porque aunque te parezca que no "porque sus graficos se ven feos" ese juego es exigente y sino te animo a que vayas y lo instales y compruebes con un programa de monitoreo si es verdad o no lo que te estoy diciendo.
El Dlss en las de Amd va muy bien se llama Fsr lo estan empezando a implementar en los juegos y da el mismo rendimiento que el dlss pero tambien te digo una cosa comprarme una grafica de 720€ o 1200 como en el caso de mi 3080ti para sacar pecho de una tecnologica de reescalado es para hacernoslo mirar, por ese dinero no tendria que hacer falta ninguna tecnologia que tenga que reconstruir una resolucion mas baja para darme fps extra, nos la meten por el culo con una tecnologia que no tendria que existir por el dinero que estamos gastanto y aun encima les aplaudimos. Por ese dinero tendrian que irnos los juegos todos como la seda. Ahi te va un video, si esque......... hablar por hablar.
https://youtu.be/zDJxBykV1C0?t=205
Asran escribió:
Rvilla87 escribió:
Asran escribió:Tengo una Rx 6800 también de referencia.... una grafica que vale 599€ y la verdad que le da mil patadas en el culo a la de Nvidia en construcción, en algunos juegos pierdo 10/20 0 30 fps y en otros saca mas que la de Nvidia según quien esponsorice el juego y consumiendo 100W menos, pero a la hora de las temperaturas no hay puto color, 4 Gb mas
de Vram y si pasan de 75º es un milagro. Muy mal por Nvidia con sus 3080,3080ti y 3090... tener que ver Streamers a los que se les queman las memorias en directo jugando al diablo II remaster..... penoso.

Estás siendo bastante partidista con AMD. ¿Qué tal el DLSS y el Ray Tracing en tu AMD? Si comparas 2 cosas cuenta lo bueno y lo malo y no te quedes solo con lo bueno.

Por otra parte, lo del video de diablo, ¿puedes poner 2 ejemplos (hablas en plural)? Me extraña mucho que se carguen las gráficas jugando a tremendo "portento" gráfico... vamos es que si se les rompe con ese juego lo mínimo a pensar es que es un defecto de esas gráficas en concreto (la de esos usuarios, no me refiero al modelo) y eso pasa con gráficas nvidia, amd y con todo tipo de dispositivos. ¿O estás insinuando que las 3080+ no pueden con Diablo 2 remaster porque se queman? ¬_¬


Otro que habla sin saber... has probado a jugar al diablo 2 y ponerlo en alto? yo si y a veces no me da los 144 fps, es un juego con el que se calienta un infierno la grafica porque aunque te parezca que no "porque sus graficos se ven feos" ese juego es exigente y sino te animo a que vayas y lo instales y compruebes con un programa de monitoreo si es verdad o no lo que te estoy diciendo.
El Dlss en las de Amd va muy bien se llama Fsr lo estan empezando a implementar en los juegos y da el mismo rendimiento que el dlss pero tambien te digo una cosa comprarme una grafica de 720€ o 1200 como en el caso de mi 3080ti para sacar pecho de una tecnologica de reescalado es para hacernoslo mirar, por ese dinero no tendria que hacer falta ninguna tecnologia que tenga que reconstruir una resolucion mas baja para darme fps extra, nos la meten por el culo con una tecnologia que no tendria que existir por el dinero que estamos gastanto y aun encima les aplaudimos. Por ese dinero tendrian que irnos los juegos todos como la seda. Ahi te va un video, si esque......... hablar por hablar.
https://youtu.be/zDJxBykV1C0?t=205


Es en serio lo del FRS este?, nunca había oido hablar de él

Funciona bien?
Claro que funciona bien, lo que pasa que acaba de salir y aun estan empezando a implementarlo en los juegos, lo bueno que tienes es que es muy facil de implementar porque no tienen que enseñarle a una IA y vale para todas las plataformas lo hizo amd pero funciona en amd, nvidia y en las apus de intel y en las proximas graficas de intel y esta por ver si lo usaran las nuevas consolas, ya que podrian tambien.
Acabara pasando como con el G.sync y el freeSync que la tendencia fue a que casi todos los monitores sean freeSync porque? porque freeSync no es una tecnologia propietaria, y gsync si. Pues con Fsr pasa igual que aunque sea de amd no ponen peros a que las compañias puedan usarla, no tienen que pedir permiso por asi decirlo como hace Nvidia con su Dlss ni hay que enseñarle a una IA a reconstruir los pixeles y me podeis llamar fanatico de Amd lo que os salga de los cojones, que vengo de una 2060 y tengo una 3080ti.
Jorginhone escribió:@dfx mi placa lleva backplate que es del tamaño de la placa,es enorme,para refrigerar el vrm y es 20 grados mas bajo en temperatura que la placa asus de mismo rango de precio,sin backplate y tambien el vrm es peor dicho de paso que me imagino influira.

En graficas hace poco vi un mod de una 3080 o ti con mini disipadores cuadrados de aluminio con aletas pegados al backplate y un ventilador encima "volando" para ayudar a extrae el calor ,los habia puesto estrategicamente encima de las memorias y mejoro temperatura pero no recuerdo el dato exacto😅,10 grados aprox,no lo recuerdo exactamente,lo cuento como una curiosidad basicamente

Coincido que el backplate deberia ser usado como disipacion,ademas con lo que valen las graficas si ven que hace falta algo mejor y tienen que invertir 10€ mas?,que lo hagan,no hay excusa seguro que aun asi es bastante rentable.


Pues hoy en día no es raro ver backplates en los disipadores de CPU para mejorar la presión y sostener el peso, en las GPU debería ser lo mismo y de paso, no un backplate plano con thermalpad que refrigera lo mínimo, que en el mejor de los casos le han hecho alguna perforación, sino un diseño con aletas, nada complicado, probablemente con aletas igual de altas y densas como las que tienen los disipadores de unidades M.2 más basicos. No es mucho pedir y el coste no es que fuera alto, más si hablamos de productos de 700€+.

No sé si os acordareis, pero con los disipadores M.2 también pasó esto cuando las placas los comenzaron a integrar y especialmente le ocurrió a MSI, que los integraba completamente planos y en vez de mejorar las temperaturas, incluso las empeoraba. Al final, MSI tuvo que rectificar.

El tema del backplate bien hecho, es la ayuda que tiene a la hora de refrigerar, que ojo, no digo solo para NVIDIA, sino también para AMD, que la bobaba de tener ese backplate en los modelos de gama alta, probablemente los que superan alegremente los 200W, sería un cambio brutal.
Se ha venido para casa una ASUS ROG STRIX 3070 POR 799€, ¿cómo veis este modelo?

https://www.coolmod.com/asus-rog-strix- ... ry_id=1521
ale210 escribió:Se ha venido para casa una ASUS ROG STRIX 3070 POR 799€, ¿cómo veis este modelo?

https://www.coolmod.com/asus-rog-strix- ... ry_id=1521

Para mí es el mejor modelo, pero ni loco pagaría 799€ por una 3070.
ViRuSz escribió:
ale210 escribió:Se ha venido para casa una ASUS ROG STRIX 3070 POR 799€, ¿cómo veis este modelo?

https://www.coolmod.com/asus-rog-strix- ... ry_id=1521

Para mí es el mejor modelo, pero ni loco pagaría 799€ por una 3070.


+1

Si te urge, 3060 Ti / 3070 de lo mejorcito, pero la 3070 cuesta 519 Eur la founders. Una Custom pues sería poco más.
Lo de AMD nunca va a conseguir lo que consigue el DLSS de Nvidia y es de cajón, uno va por software y el otro es por hardware... , por más qué la peña se empeñe, nunca va a llegar al nivel de Nvidia.
@DarkMessiah @ViRuSz

Obviamente tiene sobre precio...pero por lo que cuesta una FE que tienes que estar viviendo con el móvil pegado al partAlert y encima las temperaturas que tienen no son muy allá... no es una locura pillar una custom, pero vamos, que ni puta gracia me hace pagarlo.
Todopc-WII escribió:Lo de AMD nunca va a conseguir lo que consigue el DLSS de Nvidia y es de cajón, uno va por software y el otro es por hardware... , por más qué la peña se empeñe, nunca va a llegar al nivel de Nvidia.


Ehmm es bastante incorrecto eso que dices.

el DLSS se accelera por hardware dedicado (tensor cores) pero podria hacerse por shaders seguramente (con menor rendimiento supongo), o incluso en la cpu, yo mismo he usado redes neuronales como las que usa DLSS con cpus. el FSR se ejecuta en los shaders de la grafica, por lo que esta accelerado por hardware. Tambien te digo que el resultado de hacer algo por "software" vs "hardware" es simplemente la velocidad del resultado, no la calidad del mismo.

Tambien te digo que el FSR funciona muy bien, no usa redes de neuronas que son altamente ineficientes (aqui hay mucho marketing diciendo que si la IA, redes de neuronas etc, pero creerme que no es metodo más eficiente para hacer cualquier tarea), usa algoritmos mas especificos para amplicar la imagen e interpolar resultados.

Por ponerte un ejemplo y que quede medianamente claro, las redes de neuronas no es más que una herramienta que permite solucionar problemas, de hecho muchos tipos de problemas, por ejemplo podria hacer una red de neuronas que dado dos numeros los sume. Entrenaria esa red neuronal y para una entrada dada (2 numeros) me daria un resultado de la suma con un error dado. Para conseguir esa suma haria miles de operaciones y funciones matematicas para conseguir el resultado. El resultado seria bueno, pero es lo más optimo? obviamente no, porque tenemos unas ALUs que ya saben sumar y lo hacen en un ciclo de reloj, mientras que la red de neuronas necesitaria muchos miles y miles de operaciones.

Como consigue funcionar tan bien para medirse al DLSS? pues basicamente necesita una imagen original de mayor resolucion que el DLSS, pero compensa esa resolucion mayor con un proceso mas sencillo, por lo que el rendimiento del FSR y el DLSS son equivalentes (FSR ultra quality vs DLSS quality).

Donde más destaca DLSS sobre FSR es en calidades bajas (medium quality o performance), y en resoluciones bajas.

Analizando las dos tecnologias es obvio que el DLSS es ligeramente superior al FSR, sobretodo en calidades bajas y resoluciones bajas. Ahora bien, si le sumas que el DLSS necesita hardware dedicado (que quita espacio fisico en el chip a tener más shaders por ejemplo), que la implementacion es más costosa, es una tecnologia propietaria, y el hardware sobre el que puede correr es muy limitado... quiza no sea la mejor tecnologia.

FSR no sera tan bueno, pero funciona en cualquier hardware, es opensource, es muy facil de implementar y no requiere hardware dedicado y propietario. Ademas recordemos que es la primera version, seguramente será mejor con el tiempo. Yo creo que va estar presente en casi todos los juegos nuevos, cosa que dudo del DLSS.

Amd ha hecho una gran jugada con este FSR, y los beneficiados somos todos, tengamos la grafica que tengamos, incluidas las olvidadas de Nvidia como la gama 1000.

Ojala triunfe el FSR y el DLSS quede en el olvido, porque será mejor para todos, es que mismamente con el FSR podemos escalar cualquier cosa, videojuegos, videos, lo que sea.
ale210 escribió:@DarkMessiah @ViRuSz

Obviamente tiene sobre precio...pero por lo que cuesta una FE que tienes que estar viviendo con el móvil pegado al partAlert y encima las temperaturas que tienen no son muy allá... no es una locura pillar una custom, pero vamos, que ni puta gracia me hace pagarlo.



La 3070 FE (no Ti) tiene unas temperaturas cojonudas. Ahora mismo te estoy escribiendo con ella a 34 grados. Jugando, previo uv, no pasa de 62, y de stock unos 70. Ahora bien, la tuya deberia subir hz cosa mala.

Todopc-WII escribió:Lo de AMD nunca va a conseguir lo que consigue el DLSS de Nvidia y es de cajón, uno va por software y el otro es por hardware... , por más qué la peña se empeñe, nunca va a llegar al nivel de Nvidia.


Que triunfe uno u otro depende de los editores de soft. DLSS parece magia negra (FSR no lo he probado), pero para que funcione debe ser implementado en el soft. El laserdisc era muy superior al DVD, el Beta al VHS, y a pesar de eso, triunfó el formato que los editores de contenido decidieron utilizar y no "el mejor".
ale210 escribió:@DarkMessiah @ViRuSz

Obviamente tiene sobre precio...pero por lo que cuesta una FE que tienes que estar viviendo con el móvil pegado al partAlert y encima las temperaturas que tienen no son muy allá... no es una locura pillar una custom, pero vamos, que ni puta gracia me hace pagarlo.


Como te dicen, 3060Ti FE (419Eur) y 3070 FE(519Eur) van geniales de temperatura, sin tocar nada.

El problema es la 3080 FE que eso es un infierno, horno, volcán y toca cambiar los thermal pads, pero la 3070 FE... de lujo.
@Dfx

Suena bien desde luego 👍🏻👍🏻
eR_pOty está baneado por "GAME OVER"
Dfx escribió:
JaviGabber escribió:
Dfx escribió:Bueno, en lo único que puedo dar la razón es que la GDDR6X igual no ha sido tan buena elección, habiendo caminos de buses más grandes o el acercamiento de AMD con Infinity Cache. Pero también es verdad que el problema con la VRAM lo venimos arrastrando desde hace varias generaciones, los fabricantes se preocupan de refrigerar la GPU pero poco de la VRAM, reutilizan diseños de disipador si es posible y repiten errores.

La GDDR6X requiere de especial atención en el disipador y de thermalpads de calidad, cosa que cojean casi todos los ensambladores. Yo también pienso que el acercamiento de Infinity Cache era más inteligente, pero también hay que decir que 128MB es insuficiente y ya se ve venir en rumores de RDNA 3 que subirá bastante.


Se agradece leer a usuarios como tú, subes el nivel del hilo, nivel que algunos tiran por tierra.

Espero que la gente sepa diferenciar a los trolls y flames para no desinformarse.


Creo que tampoco estamos acostumbrados a que ambas marcas hayan sido tan competitivas y el precio también va desvirtuando un poco el debate. Te agradezco el comentario.

Yo tengo la 3080 y como usuario "entusiasta" he visto el problema rápido, lo he solventado con thermalpad y ya está. Me molesta tocar una GPU que tiene menos de un mes y que cuesta lo que cuesta por un fallo del ensamblador, por mucho que digan que 100º entra dentro de los parámetros y no pasada nada. Si lo miras del lado usuario normal, el tema de establecer una protección a la memoria GDDR6X probablemente venia de cara a problemas futuros, porque si no ha pasado ni un año desde el lanzamiento y ya vemos tantos problemas, no me quiero imaginar en el periodo de pasada garantia (+2 años) esos thermalpad como estarán.

Yo tengo todo NVIDIA en mis PC principales y me gusta como marca sin llegar al fanatismo cerrado, por eso se reconocer que en esta generación RDNA 2 tiene sus puntos fuertes de eficiencia, VRAM e Infinity Cache, pero se ha quedado un poco corta en Ray Tracing y que realmente Infinity Cache igual se ha quedado algo corta para los juegos que vendrán, el camino es seguir engordando texturas.

En diseño AMD no se ha complicado la vida con el modelo de referencia, hemos dicho adiós a las turbinas, que ya era hora, pero a mi por ejemplo lo de NVIDIA con el pass-through, a pesar de que la mia Aorus XTREME también lo lleva, no me gusta en exceso. De hecho, ya he comentado en el hilo alguna vez que ahora que el multi-GPU ha muerto, ojalá algunos ensambladores comiencen a considerar diseños de triple-slot, pero 2+1, un diseño activo como siempre frontal y un backplate diseñado para refrigerar de verdad, que se ha demostrado infinidad de veces ya que un backplate bien hecho que refrigere aporta muchas ventajas. Esta idea tampoco es nueva, de hecho EKWB vende un bloque doble para las RTX para ambas caras de la GPU, que sinceramente, es la gloria.

Para mi no compiten en absoluto, AMD esta 2 pasos/generaciones por detras de Nvidia mientras no tenga hardware dedicado para raytracing y el otro paso es que el FSR es un arma de doble filo que lo unico que hace es beneficiar a los usuarios que compren una nvidia mientras que el DLSS no beneficia a los usuarios de amd (y ya no entro en si uno es muchisimo mejor que el otro)

que AMD consume menos? pues ok, pagare gustosamente los 5€ de luz de mas a final de año, ya ves tu.

Pero lo que es evidente es que ya cansa ver a los mismos de siempre tirando flame a nvidia mientras banaglorian a AMD...creo que alguno se le olvida que esto es el hilo de Nvidia. y no estoy hablando de usuarios que opinan libremente, si no de los mismos fanboys asiduos al hilo de AMD que vienen aqui a tirar flame
PepeC12 escribió:Ojala triunfe el FSR y el DLSS quede en el olvido, porque será mejor para todos, es que mismamente con el FSR podemos escalar cualquier cosa, videojuegos, videos, lo que sea.


En mi opinión ojalá puedan convivir las 2, teniendo una RTX no me gustaría perderme la mejor técnica de reconstrucción de imagen que existe.
FSR es buena alternativa pero es inferior, tanto el resultado como forma de trabajar ya que por ejemplo no usa vectores de movimiento. Puestos a sacar la bola de cristal puede que dlss evolucione más y mejor.

Por otra parte no se si se abra actualizado la lista de juegos FSR por qué la que vi hace un tiempo era bastante pobre, personalmente no me interesa ninguno de esa lista [+risas]
Por contra DLSS ya lo he podido disfrutar en control, Metro Exodus, Death Stranding y RDR 2. Cyberpunk 2077 lo tengo pendiente y a la vuelta de la esquina está Battlefield 2042 que ya han anunciado que tendrá dlss y para mí es un juego clave.
Con AMD tengo la sensación que siempre se la defiende pensando en el futuro, envejecen mejor, los 16gb vram dentro de 4 años se notaran, FSR acabará imponiéndose,la gddr6x acabará quemándose [qmparto] etc..... Veo bien que haya gente que valore estas cosas pero hay que entender que muchos compranos GPUs para disfrutarlas a tope desde el día 1, dentro de 2 o 3 años a saber que GPU tendré o donde estaré [+risas]

AMD ha sacado unas GPUs muy competentes y entiendo que haya gente que prefiera una 6800xt a una 3080 pero eso no hace que las Nvidia sean una mierda como alguno parece indicar .
La pena de AMD es que llevo años viendo como siempre llega más tarde que su rival y encima con un producto no superior*. Ni en esta generación han sido capaces de superar a Nvidia utilizando un nodo de fabricación notablemente superior y así estamos viendo cómo continua desgraciadamente el monopolio de Nvidia en el mundo gamer.

* Si, en eficiencia le ha superado, algo esperado al usar los 7nm de tsmc y encima no tener ni RT cores ni tensor cores. En rasterizacion están a la par.
En Ray tracing está por detrás, en algunos juegos muy por detrás.
A ver, por puntos porque te has lucido:

Asran escribió:Otro que habla sin saber... has probado a jugar al diablo 2 y ponerlo en alto? yo si y a veces no me da los 144 fps, es un juego con el que se calienta un infierno la grafica porque aunque te parezca que no "porque sus graficos se ven feos" ese juego es exigente y sino te animo a que vayas y lo instales y compruebes con un programa de monitoreo si es verdad o no lo que te estoy diciendo.

Efectivamente, hablo del Diablo 2 resurrected sin saber porque no lo tengo ni he encontrado un video como los que dices. ¿Ves en cambio que haya afirmado algo al respecto? Dije "me extrañaría que se carguen las gráficas" así que no te pongas a la defensiva con ese "respetuoso" "Otro que habla sin saber".

¿Que deberías haber hecho para responderme? Pasarme los videos que te pedí. ¿Qué has hecho? Responder como un borde sin lo que te pedía. ¿Así te crees que me vas a convencer de lo que dices?

También te dije si estabas insinuando algo en concreto y no has dicho nada, sigues dejando la duda (y a otra persona le llamó la atención, no soy el único). Y aunque existan esos videos ya dije que el problema seguramente sea de esas gráfica en concreto y no del modelo, si no se estarían quemando Nvidias de forma generalizada (y si así fuera ya nos habríamos enterado). Sensacionalismo puro y duro ver unos pocos casos y pretender generalizarlo.

Asran escribió:El Dlss en las de Amd va muy bien se llama Fsr lo estan empezando a implementar en los juegos y da el mismo rendimiento que el dlss

Gracias por tu clase de FSR (spoiler: creo que ditifet sabe lo que es :Ð ), ¿te crees que no la conocía después de las veces que se ha puesto en este hilo? Te dije concretamente DLSS porque con una Nvidia tienes DLSS y FSR mientras que con una AMD solo tienes FSR. Y ya se verá a medio o largo plazo pero ahora mismo es mejor DLSS aparte que mas juegos son compatibles con DLSS. Y hablas de rendimiento... claro, porque de calidad no te interesa, no? No son pocos los análisis que dicen que DLSS tiene más calidad.

Asran escribió:pero tambien te digo una cosa comprarme una grafica de 720€ o 1200 como en el caso de mi 3080ti para sacar pecho de una tecnologica de reescalado es para hacernoslo mirar, por ese dinero no tendria que hacer falta ninguna tecnologia que tenga que reconstruir una resolucion mas baja para darme fps extra, nos la meten por el culo con una tecnologia que no tendria que existir por el dinero que estamos gastanto y aun encima les aplaudimos. Por ese dinero tendrian que irnos los juegos todos como la seda. Ahi te va un video, si esque......... hablar por hablar.
https://youtu.be/zDJxBykV1C0?t=205

Para hacerse mirar tu nula compresión lectora o tu forma de tergiversar mis palabras. ¿Sabes por qué dije lo de 3080+? Porque en tu mismo mensaje hacías referencia a esas tarjetas ("sus 3080,3080ti y 3090") con el tema de los streamers a los que se les queman gráficas, simplemente. No le busques mas motivos ni intenciones que yo no tuve. DLSS funciona con las nuevas 3000, incluso una 3060 Ti por 420€ (y no pongo la 3060 porque no hay founders). ¿Eso lo sabes, no? Y si lo sabes (que no lo sé), ¿por qué esa comparación tan absurda casi haciendo ver que o te gastas 720€ o no tienes DLSS? Hablar por hablar dices... sí pero dime quién lo hace :p

Y bueno, lo de que cuando compares 2 productos es importante destacar tanto lo bueno como lo malo... el Ray Tracing lo has preferido obviar, te entiendo.

Si ya empezaste a tope de revoluciones con tu respuesta terminaste el mensaje derrapando y estampándote contra un muro. Qué absurdo pretender hacer ver que yo quisiera sacar pecho del DLSS con una gráfica de +720€ cuando no lo hice pero ni remotamente.

No te tenía como troll pero después de este mensajito que te has marcado te lo estás ganando a pulso.
eR_pOty está baneado por "GAME OVER"
Asran escribió:@eR_pOty tienes razon la veo 2 generaciones por detras:
https://www.youtube.com/watch?v=Z21CPnd0ib8

chorrada de comparativa para pro-amderos que en el metro exodus no activa ni el DLSS ni el RTX , es decir, lo que estaba argumentando arteriormente por lo que va 2 generaciones atras.

https://www.youtube.com/watch?v=XngLsthZdck
Ultimo mensaje que dejo aqui, mientras haya **** de una sola marca en concreto los que perdemos somos nosotros los consumidores la serie 3000 no son malas graficas pero en algunos modelos han patinado y hay que reconocerlo, sino nos mean en la boca y nos lo tragamos tan ricamente, que tenga que abrir mi 3080ti porque las memorias se ponen a 110 grados y hagan thermal throttling es muy normal, espera pero como tienen mejor rtx tecnologia que esta implementada en el 1% de los juegos del mercado y me ofrecen una tecnologia de reescalado por IA ya esta puedo estar contento.
La generacion pasada no toque una sola grafica de amd, tuve una rtx 2060, esta generacion tengo una 6800 y le di la oportunidad a la 3080ti y me quedo con la 6800 de calle, menos ruido, mucho menos consumo, no hay que abrirla por posibles temperaturas excesivas de la Vram, sin usar tecnicas de reescalado pierdo 20 fps a lo sumo depende del juego en algunos incluso le gana a la 3080ti y vale exactamente la mitad de dinero.
https://hardzone.es/noticias/tarjetas-g ... ermal-pad/
Editado por metalgear. Razón: flame
¿Que tal las temperaturas de las 3070 al ser "solo" GDDR6?
Nunca me he preocupado por la mia. [ayay]
Asran escribió:Ultimo mensaje que dejo aqui, mientras haya lameculos de una sola marca en concreto los que perdemos somos nosotros los consumidores la serie 3000 no son malas graficas pero en algunos modelos han patinado y hay que reconocerlo, sino nos mean en la boca y nos lo tragamos tan ricamente, que tenga que abrir mi 3080ti porque las memorias se ponen a 110 grados y hagan thermal throttling es muy normal, espera pero como tienen mejor rtx tecnologia que esta implementada en el 1% de los juegos del mercado y me ofrecen una tecnologia de reescalado por IA ya esta puedo estar contento.
La generacion pasada no toque una sola grafica de amd, tuve una rtx 2060, esta generacion tengo una 6800 y le di la oportunidad a la 3080ti y me quedo con la 6800 de calle, menos ruido, mucho menos consumo, no hay que abrirla por posibles temperaturas excesivas de la Vram, sin usar tecnicas de reescalado pierdo 20 fps a lo sumo depende del juego en algunos incluso le gana a la 3080ti y vale exactamente la mitad de dinero.
https://hardzone.es/noticias/tarjetas-g ... ermal-pad/


Repitelo otra vez que aun no nos ha quedado claro.
Asran escribió:Ultimo mensaje que dejo aqui, mientras haya lameculos de una sola marca en concreto los que perdemos somos nosotros los consumidores la serie 3000 no son malas graficas pero en algunos modelos han patinado y hay que reconocerlo, sino nos mean en la boca y nos lo tragamos tan ricamente, que tenga que abrir mi 3080ti porque las memorias se ponen a 110 grados y hagan thermal throttling es muy normal, espera pero como tienen mejor rtx tecnologia que esta implementada en el 1% de los juegos del mercado y me ofrecen una tecnologia de reescalado por IA ya esta puedo estar contento.
La generacion pasada no toque una sola grafica de amd, tuve una rtx 2060, esta generacion tengo una 6800 y le di la oportunidad a la 3080ti y me quedo con la 6800 de calle, menos ruido, mucho menos consumo, no hay que abrirla por posibles temperaturas excesivas de la Vram, sin usar tecnicas de reescalado pierdo 20 fps a lo sumo depende del juego en algunos incluso le gana a la 3080ti y vale exactamente la mitad de dinero.
https://hardzone.es/noticias/tarjetas-g ... ermal-pad/


No merece la pena discutir con fanaticos, no vas a cambiarles de opinion.

Que cada uno haga lo que quiera, tampoco es que haya stock ni precios competentes en ningun sitio.

Yo desde luego tengo claro que iria a por una 6800 o 6800 xt por encima de las nvidia, por consumo y vram simplemente, pero porque el RT no me llama la atencion, prefiero apostar por FSR antes que DLSS y suelo alargar mucho la vida de las graficas por lo que la vram creo que va ser importante.

Al final parece que Nvidia y Amd han hecho un pacto de no agresion porque basicamente ofrecen lo mismo por el mismo precio, son productos super parecidos por mas que nos empeñemos en que esta es mejor o no.
@Asran vienes a despotricar contra nvidia al hilo de ampere y te quejas de lameculos? Diciendo que una 6800 gana a una 3080ti…que sus memorias se ponen a mas de 110°C…
Dime, cuantas graficas has tenido esta generacion? Segun tus mensajes la lista es larga: 6800, 6800xt, 3080, 3080ti y de varios ensambladores.
Me hueles a troll.
Asran escribió:Ultimo mensaje que dejo aqui [...]

Tanta paz lleves, como descanso dejas. Porque si escribes aquí que sea para debatir y no soltar tonterías y no responder a lo que se te pregunta.

PepeC12 escribió:Yo desde luego tengo claro que iria a por una 6800 o 6800 xt por encima de las nvidia, por consumo y vram simplemente, pero porque el RT no me llama la atencion, prefiero apostar por FSR antes que DLSS y suelo alargar mucho la vida de las graficas por lo que la vram creo que va ser importante.

Y es totalmente respetable. En tu caso dejas claro que RTX no te llama la atención y que prefieres apostar por FSR antes que DLSS (a mi me gustaría que ganase FSR, pero ya veremos). Tu elección parece bastante clara para AMD, pero lo que no se puede hacer es lo que hace Asran, atacar a Nvidia viendo solo sus puntos negativos y nada de los positivos y encima inventarse tonterías (que no demuestra). Para él parece que Nvidia es una basura absoluta y el tío listo va y se compra la 3080 Ti que es un timo en cuanto a calidad/precio (vaya ojo tiene).
Asran escribió:Ultimo mensaje que dejo aqui, mientras haya lameculos de una sola marca en concreto los que perdemos somos nosotros los consumidores la serie 3000 no son malas graficas pero en algunos modelos han patinado y hay que reconocerlo, sino nos mean en la boca y nos lo tragamos tan ricamente, que tenga que abrir mi 3080ti porque las memorias se ponen a 110 grados y hagan thermal throttling es muy normal, espera pero como tienen mejor rtx tecnologia que esta implementada en el 1% de los juegos del mercado y me ofrecen una tecnologia de reescalado por IA ya esta puedo estar contento.
La generacion pasada no toque una sola grafica de amd, tuve una rtx 2060, esta generacion tengo una 6800 y le di la oportunidad a la 3080ti y me quedo con la 6800 de calle, menos ruido, mucho menos consumo, no hay que abrirla por posibles temperaturas excesivas de la Vram, sin usar tecnicas de reescalado pierdo 20 fps a lo sumo depende del juego en algunos incluso le gana a la 3080ti y vale exactamente la mitad de dinero.
https://hardzone.es/noticias/tarjetas-g ... ermal-pad/


Lo que no entiendo es que haces comparando temperatura o consumo de Gpu de distinta gama, la 3080 ti es superior a la 6800 en todos los sentidos salvo obviamente en consumo, pero solo en eso

La rival de la 3080 ti es la 6900 xt, una Gpu que también supera los 300w y 100° en el TJuction

Yo como ya te dije antes hay cosas que te doy la razón, pero en otras se te ve el plumero claramente como poner el video comparativo que más te interesa, y luego venís hablando de fanboys...
@colado Pues no voy a despotricar sobre una grafica que tengo y de la cual hay aspectos que estan muy mal en otro hilo que no sea el propio de Nvidia no? o deberia de ir a decirlo a algun hilo de amd... menudo genio.

@Rvilla87 Yo no prefiero ni Fsr ni Dlss creo que son tecnologias que no deberian de existir por el precio que estamos pagando por una tarjeta grafica y eso de que Rtx no me llama la atencion lo dices tu, a mi me gusta obviamente pero es una tecnologia que esta lejos 1 de ser un estandar en la mayoria de juegos del mercado y 2 que esta muy verde aun y el coste de rendiminto por activarlo es aberrante y he probado el Cyberbug con RTX y dlss en la 3080ti lo que si que creo es que de aqui a unos años Fsr sera mas estandar que Dlss por el mismo motivo que FreeSync es mas estandar ahora que G-sync en monitores.

Lo que mas gracia me hace es saber que con los que estoy debatiendo no habeis probado una grafica de las nuevas de Amd en la puta vida y yo he testeado y requetesteado las 4 graficas de esta nueva gen que han pasado por mis manos, undervolt, Oc, medicion de temperaturas de rendimiento en todos los juegos que tengo es mas disfruto mas probando esas cosas y trasteando que jugando.

@Valhan todas las graficas de esta generacion: rtx 3060,rtx 3060ti,rtx 3070,rtx 3070ti,rx 6600xt, rx 6700xt, rx 6800, rx 6800xt, y rx 6900xt no tienen problemas de temperatura con las memorias, las que si lo tienen son: rtx 3080, rtx 3080ti y rtx 3090 y no en todas las ensambladoras, por ejemplo las founders todas tienene ese problema, pero la Ensambladora Palit por ejemplo sus 3080ti el maximo de temperatura de sus Vram son 82 grados depende de que thermalPads haya colocado cada emsambladora.

@FranciscoVG la competencia de la 6900xt es la 3090 no te confundas y la 6900 xt consume 50W menos que la 3080ti, el Tjuction de la 3080ti tambien llega a altas temperaturas si no le haces undervolt. El problema reside en las memorias que no les puedes hacer undervolt y lo unico que te queda por hacer es rezar para que algun dia no se te quemen si juegas mucho o abrirla y cambiar la chapuzada que hicieron con los thermal pad de mierda que les pusieron.

https://www.youtube.com/watch?v=boIIA9Ts3BQ&t=393s
6800Xt vs 3080ti 670€ vs 1199€
pero porque os rayais de esta manera,una cosa es hablar de hardware sanamente otra es hacer una guerra,que cada uno disfrute lo que tenga y fuera.
@Asran

Gracias por contestar, Asran. No le habia dado importancia hasta ahora, pero me quedo más tranquilo sabiendo que no entra entre las GPUs "calientes". [oki]
Asran escribió:@colado Pues no voy a despotricar sobre una grafica que tengo y de la cual hay aspectos que estan muy mal en otro hilo que no sea el propio de Nvidia no? o deberia de ir a decirlo a algun hilo de amd... menudo genio.

@Rvilla87 Yo no prefiero ni Fsr ni Dlss creo que son tecnologias que no deberian de existir por el precio que estamos pagando por una tarjeta grafica y eso de que Rtx no me llama la atencion lo dices tu, a mi me gusta obviamente pero es una tecnologia que esta lejos 1 de ser un estandar en la mayoria de juegos del mercado y 2 que esta muy verde aun y el coste de rendiminto por activarlo es aberrante y he probado el Cyberbug con RTX y dlss en la 3080ti lo que si que creo es que de aqui a unos años Fsr sera mas estandar que Dlss por el mismo motivo que FreeSync es mas estandar ahora que G-sync en monitores.

Lo que mas gracia me hace es saber que con los que estoy debatiendo no habeis probado una grafica de las nuevas de Amd en la puta vida y yo he testeado y requetesteado las 4 graficas de esta nueva gen que han pasado por mis manos, undervolt, Oc, medicion de temperaturas de rendimiento en todos los juegos que tengo es mas disfruto mas probando esas cosas y trasteando que jugando.

@Valhan todas las graficas de esta generacion: rtx 3060,rtx 3060ti,rtx 3070,rtx 3070ti,rx 6600xt, rx 6700xt, rx 6800, rx 6800xt, y rx 6900xt no tienen problemas de temperatura con las memorias, las que si lo tienen son: rtx 3080, rtx 3080ti y rtx 3090 y no en todas las ensambladoras, por ejemplo las founders todas tienene ese problema, pero la Ensambladora Palit por ejemplo sus 3080ti el maximo de temperatura de sus Vram son 82 grados depende de que thermalPads haya colocado cada emsambladora.

@FranciscoVG la competencia de la 6900xt es la 3090 no te confundas y la 6900 xt consume 50W menos que la 3080ti, el Tjuction de la 3080ti tambien llega a altas temperaturas si no le haces undervolt. El problema reside en las memorias que no les puedes hacer undervolt y lo unico que te queda por hacer es rezar para que algun dia no se te quemen si juegas mucho o abrirla y cambiar la chapuzada que hicieron con los thermal pad de mierda que les pusieron.

https://www.youtube.com/watch?v=boIIA9Ts3BQ&t=393s
6800Xt vs 3080ti 670€ vs 1199€


Sí claro, no te confundas dice xd, la 6900xt ya es inferior en rendimiento a la 3080 ti por que leches tengo que comprarla con la 3090....

En fin lo que yo decía, que has empezado aparentando neutralidad y ya se a visto que ni de lejos

Y por cierto deja de poner videos chorra de YouTube que a ese juego sabemos jugar todos, hardware unboxed ya hizo una comparativa de 30 juegos no hace mucho entre una 6800 xt y una 3080 y el resultado fue empate en 1440p y un 6% a favor de la 3080 en 4k, y respecto a la temperatura busca en Google 6800 xt TJuction y verás la fiesta, en la review de gamer nexus rozaba los 100° en una temperatura ambiente de 21°, increíble tecnología TSMC...

Al principio te podía tomar en serio por qué es algo que también he criticado yo pero en otras se ven claramente tus intenciones y te has convertido en lo que estás criticando, lo cual no entiendo pero bueno, si estás contento tampoco es necesario todo esto, yo solo veo autoconvencimiento por tu parte
Camoranesi está baneado por "clon de usuario baneado"
Jorginhone escribió:pero porque os rayais de esta manera,una cosa es hablar de hardware sanamente otra es hacer una guerra,que cada uno disfrute lo que tenga y fuera.


Porque aquí la gente se casa con las marcas, y no toleran que digan absolutamente nada malo de ellas. En este foro también pasa con los ryzen.

Absolutamente NADIE objetivo puede estar contento con las gddr6x. Pero es lo de siempre, el usuario medio con tal de sentirse parte de algo defenderá a capa y espada mentiras y cagadas en la boca de la marquita que lo acepte como cliente, así es el fanático.

He puesto ya en este hilo 4 veces la VERGUENZA que destapó hardware unboxed con la sobrecarga del gestor de tareas en las Nvidia, que pasa en todas por arquitectura, y que Nvidia no va a arreglar nunca porque según sus fanboys las rtx son perfectas en todo Y PUNTOOO.

Es lo que dice el forero de arriba al que están atacando todos los demás, que si como consumidores tuviéramos un MINIMO de criterio objetivo las cosas serían muy diferentes.
eR_pOty está baneado por "GAME OVER"
la 3060ti: no pasa de 86º con la vram al 94,6% core a 74º maximo

Imagen
Asran escribió:
https://www.youtube.com/watch?v=boIIA9Ts3BQ&t=393s
6800Xt vs 3080ti 670€ vs 1199€


Si se vendieran 6800xt a 679€, tendrías que compararlas con 3080FE de 719, ambos casos inexistentes hoy día.

O Si te vas a custom, 750 vs 820, queda lo normal en un mundo de stocks reales.

Y ahí, las AMD tienen unos puntos fuertes, y nvidia otros, y según tus gustos, escoges.

Pero no hay ninguna “mejor que otra en cualquier caso de uso”. En el tuyo a lo mejor es AMD, en el mío a lo mejor es Nvidia, y lo importante es saber que ofrece una y otra, y poder escoger con información.

Y tu haces flaco favor dando información sesgada. Así que, como ya han dicho antes, tanta paz lleves como descanso dejas.
@eR_pOty
https://external-preview.redd.it/Z2gnr6 ... 7601e6fbf7

Las 3060ti no tienen sensor para medir la temperatura del Vram, debajo de donde te pone Hot spot tenia que poner GPU Memory Junction temperature. Lo que tu estas viendo ahi es la temperatura de la grafica en general y la temperatura de la union del core, pero tu no puedes ver la temperatura de las memorias porque esa grafica no tiene ese sensor. Esa foto que ves ahi es de una 3080.

@Camoranesi nadie sabe que nvidia tiene un problema con sus drivers que hace que si tienes un cpu tirando a normalito/malo si tienes una grafica Nvidia el % de uso de ese cpu sera mucho mayor que si usas una grafica nvidia que una amd.
eR_pOty está baneado por "GAME OVER"
...
Editado por metalgear. Razón: offtopic
(mensaje borrado)
@Asran tú de nuevo? Mira que sabía que no te ibas a ir :Ð
No me conviene perder mas tiempo contigo, tienes una nefasta comprensión lectora (o más bien no sabes por dónde salir) y al principio dejé el beneficio de la duda (si me argumentabas la respuesta) pero ya es la 2º vez que no entiendes nada de lo que digo. La preferencia de FSR se lo dije a PepeC12 no a ti. A ti te nombre como ejemplo de cómo NO hacer criticas de algo (porque se te ve muy partidista a favor de AMD).

No he probado las nuevas AMD ni tampoco las Nvidia (tengo una 970 para tu información), pero eso no quita que pueda ver análisis de los medios que sí la han probado y por otra parte tenga la capacidad de, a veces, ver cuándo alguien dice tonterías. Te recomendaría que no metas a todo el mundo en el mismo saco, sobretodo si no los conoces. Y para conocerles primero tienes que entender lo que escriben, cosa que me has demostrado ya un par de veces que no has sabido hacerlo.

Si me quieres responder me respondes a lo que te pregunté (y has ignorado), de lo contrario seguiré leyendo tus mensaje como lo que son, parcialmente tonterías.
eR_pOty escribió:Para mi no compiten en absoluto, AMD esta 2 pasos/generaciones por detras de Nvidia mientras no tenga hardware dedicado para raytracing y el otro paso es que el FSR es un arma de doble filo que lo unico que hace es beneficiar a los usuarios que compren una nvidia mientras que el DLSS no beneficia a los usuarios de amd (y ya no entro en si uno es muchisimo mejor que el otro)


AMD tiene unidades dedicadas Ray Accelerator por cada CU, igual que NVIDIA tiene sus núcleos RT por cada SM. Lo que no tiene AMD son Tensors.

Yo mismo he dicho que el acercamiento de AMD con los Ray Accelerator ha sido tímido para ser la primera generación, pero aún así, bueno, han dado resultado. De todas maneras NVIDIA también viene quedándose corta en unidades RT, así que si estamos a dos generaciones por detrás es de una aplicación del Ray Tracing fluida y efectiva.
Asran escribió:@colado Pues no voy a despotricar sobre una grafica que tengo y de la cual hay aspectos que estan muy mal en otro hilo que no sea el propio de Nvidia no? o deberia de ir a decirlo a algun hilo de amd... menudo genio.


Claro que puedes venir a despotricar, pero con argumentos y sin faltar, que si lameculos, que si es una mierda. Dudo que la tengas, segun tus mensajes has tenido al menos 8 graficas de la ultima generacion de amd/nvidia. Y encima vas diciendo que una 3080ti es inferior a una 6800xt cuando todos los benchmarks y pruebas dicen que no.
Que se calienta la vram en las fe, si, pero si te pasan de 110°C es que tienes un horno de caja.
Repito, hueles a troll “genio”.

Respecto a @Camoranesi tu estas mas que retratado como troll con tus mensajes
colado escribió:
Asran escribió:@colado Pues no voy a despotricar sobre una grafica que tengo y de la cual hay aspectos que estan muy mal en otro hilo que no sea el propio de Nvidia no? o deberia de ir a decirlo a algun hilo de amd... menudo genio.


Claro que puedes venir a despotricar, pero con argumentos y sin faltar, que si lameculos, que si es una mierda. Dudo que la tengas, segun tus mensajes has tenido al menos 8 graficas de la ultima generacion de amd/nvidia. Y encima vas diciendo que una 3080ti es inferior a una 6800xt cuando todos los benchmarks y pruebas dicen que no.
Que se calienta la vram en las fe, si, pero si te pasan de 110°C es que tienes un horno de caja.
Repito, hueles a troll “genio”.

Respecto a @Camoranesi tu estas mas que retratado como troll con tus mensajes


https://imgur.com/a/TY5oGsa

Lo que tu digas maquina. Te vuelvo a repetir he probado 4 graficas de esta gen de diciembre a Agosto 3060ti, 3070, rx 6800 y rtx 3080ti no se yo quien sera el troll y tampoco tengo una caja poco ventilada

Ah espera que ahi te va otra y si te fijas muy muy bien, veras que tengo puesta la 6800 en vez de la 3080Ti porque literalmente jugando al diablo II se ponen las memorias a mas de 100 graditos ricos y eso que vivo en el norte que raramente pasamos de 20 grados de temp ambiente.
Sacaria muy gustosamente la Amd para poner la 3080 con el diablo para hacerte una rica captura y darte con ella en los morros, pero se acabo la Beta y no puedo entrar.
https://imgur.com/a/LIjMrHk
Asran escribió:
colado escribió:
Asran escribió:@colado Pues no voy a despotricar sobre una grafica que tengo y de la cual hay aspectos que estan muy mal en otro hilo que no sea el propio de Nvidia no? o deberia de ir a decirlo a algun hilo de amd... menudo genio.


Claro que puedes venir a despotricar, pero con argumentos y sin faltar, que si lameculos, que si es una mierda. Dudo que la tengas, segun tus mensajes has tenido al menos 8 graficas de la ultima generacion de amd/nvidia. Y encima vas diciendo que una 3080ti es inferior a una 6800xt cuando todos los benchmarks y pruebas dicen que no.
Que se calienta la vram en las fe, si, pero si te pasan de 110°C es que tienes un horno de caja.
Repito, hueles a troll “genio”.

Respecto a @Camoranesi tu estas mas que retratado como troll con tus mensajes


https://imgur.com/a/TY5oGsa

Lo que tu digas maquina. Te vuelvo a repetir he probado 4 graficas de esta gen de diciembre a Agosto 3060ti, 3070, rx 6800 y rtx 3080ti no se yo quien sera el troll y tampoco tengo una caja poco ventilada

Ah espera que ahi te va otra y si te fijas muy muy bien, veras que tengo puesta la 6800 en vez de la 3080Ti porque literalmente jugando al diablo II se ponen las memorias a mas de 100 graditos ricos y eso que vivo en el norte que raramente pasamos de 20 grados de temp ambiente.
Sacaria muy gustosamente la Amd para poner la 3080 con el diablo para hacerte una rica captura y darte con ella en los morros, pero se acabo la Beta y no puedo entrar.
https://imgur.com/a/LIjMrHk


No lo digo yo, lo dices tu, solo hay que mirar tu historial de mensajes, que si tengo una 6800, que si tengo una 6800xt merc, que si tengo una 6800xt de referencia, que si tengo una 3080 fe, que si de zotac, que si tengo una 3080ti… ahora ya una 3060ti (apuesto que la scalpeaste) y una 3070 (que lo mismo)… en fin, tu si que eres un “maquina”, pruebas mas graficas que Techpowerup, quien se queja de que no hay stock y de altos precios? Mirar a asran, mas de 10 graficas diferentes…
En los morros no me das campeon, por mi como si se te prende fuego en ese horno de caja.
Después de 1 hora jugando al Horizon con los ventiladores de la gráfica al 90%, he tenido estas temperaturas:

Imagen

Debo ser un suertudo por no tener 100 grados en las memorias como se dice por aquí.
31123 respuestas