[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

katatsumuri escribió:
elperrodelcura escribió:
katatsumuri escribió:ha habido drop o no?


Si

Qué han dropeado 3070? ¿O alguna más?


3080Ti y 3090, 3070 me da que es fake.
DarkMessiah escribió:3080Ti y 3090, 3070 me da que es fake.

En el chapuzas un user reportó que tuvo en la cesta la 3070 ti
jopasaps escribió:
DarkMessiah escribió:3080Ti y 3090, 3070 me da que es fake.

En el chapuzas un user reportó que tuvo en la cesta la 3070 ti


Puso captura?,no estaba revisando esa, pero de la 3070 es que ni salió.
katatsumuri escribió:
elperrodelcura escribió:
katatsumuri escribió:ha habido drop o no?


Si

Qué han dropeado 3070? ¿O alguna más?


Seguro 3080ti y 3090
HaGeK escribió:Yo tengo una zotac 3080 trinity OC y la verdad es que encantado, no pasa de 72 grados en full y en el hotspot 80, en las memorias no pasa de 92. Hice las pruebas con otro amigo que tenia una 3090 asus tuf y mis temperaturas de las vrm eran 10 grados inferiores asi que mala marca no es, por mucho que recomendeis comprar marcas de mas renombre.

Respecto al tema de la vram, esta claro que cuanta mas, mejor. Pero las consolas nuevas tienen 10gb usables por lo que parece, y luego esta el rollo este de usar los SSD Pcie4 como ampliacion de la VRAM, como es el RTX io y equivalentes, que tienen un ancho de banda brutal tambien.

No creo que nos muramos por tener 8 o 10 gb de vram, aunque en mi opinion, por lo menos deberiamos de tener 12, que llevamos muchos años con 8 para las graficas de gama media.


Hombre es una comparacion bastante injusta, la 3090 tiene mayor TDP , 24 chips de memoria y encima 12 por cada lado del PCB, a parte que depende mucho de las RPM del ventilador, temperatura ambiente, etc... La 3080 Asus Tuf "es mejor" modelo que la trinity, lo que no quiere decir que la Zotac sea mala opcion, pero las cosas como son.

Por otra parte he leido varias veces eso de que "el ssd nvme lo podremos utilizar de VRAM con el direct storage (RTX IO)" ¿de donde sale esa informacion? Si no me equivoco el ancho de banda de la memoria de la GPU es muchisimo mayor que la del PCIE 4.0.
Nvida ya contesto a esa pregunta diciendo:

¿RTX IO permite el uso de espacio SSD como VRAM? ¿O lo estoy entendiendo completamente mal?

[Tony Tamasi] RTX IO permite leer datos de SSD a una velocidad mucho más alta que los métodos tradicionales, y permite que la GPU almacene y lea los datos en un formato comprimido, para su descompresión y uso por parte de la GPU. No permite que el SSD reemplace la memoria del búfer de cuadros, pero permite que los datos del SSD lleguen a la GPU y a la memoria de la GPU mucho más rápido, con mucha menos sobrecarga de CPU.

https://www.nvidia.com/en-us/geforce/news/rtx-30-series-community-qa/

A mi no me queda claro
Hola!

Estoy configurando un PC nuevo entero desde PCC, y estoy un poco perdido respecto a las gráficas.
Estoy buscando una 3060ti, y he visto algunas comparativas que dicen que prácticamente todas las 3060ti tiene un rendimiento parecido, pero en cambio en otros lados he leído que hay algunas muy superiores a otras.

¿Me podéis aclarar un poco este tema?
He estado viendo un poco por encima las MSI RTX 3060 Ti GAMING Z TRIO, Asus ROGStrix RTX 3060 Ti OC y Gigabyte AORUS RTX 3060 Ti, y no se si la única diferencia es estetica y de ventiladores, o realmente hay diferencia de rendimiento. ¿Merece la pena pagar un poquito más e ir directamente a por la EVGA GeForce RTX 3070 XC3?

Tengo pensado montarla con un Intel 10700K y una placa Asus ROG STRIX Z490-E GAMING.

Muchísimas gracias de antemano
Tengo una fuente seasonic core de 650w con certificado gold. Estoy apunto de comprar una 3070 ti aorus máster, veo que la fuente recomendada es de 850, no es exagerado? En fin... Creéis que aguantará con la de 650?
xavi_bravo escribió:Tengo una fuente seasonic core de 650w con certificado gold. Estoy apunto de comprar una 3070 ti aorus máster, veo que la fuente recomendada es de 850, no es exagerado? En fin... Creéis que aguantará con la de 650?


La recomendada es 750W pero si sólo vas a usar la gráfica con un gasto normal del resto de componentes típicos para pc gaming, pues te da para ello.

EDIT: Aunque mejor ir algo más sobrado que no tan justo en cuanto puedas cambiar la fuente. Su TDP es de 290W.
DarkMessiah escribió:
xavi_bravo escribió:Tengo una fuente seasonic core de 650w con certificado gold. Estoy apunto de comprar una 3070 ti aorus máster, veo que la fuente recomendada es de 850, no es exagerado? En fin... Creéis que aguantará con la de 650?


La recomendada es 750W pero si sólo vas a usar la gráfica con un gasto normal del resto de componentes típicos para pc gaming, pues te da de sobra.

Ok gracias, si uso normal. Lo decía porque en PcComponentes pone PSU recomended 850w, solo en este modelo específico.
xavi_bravo escribió:
DarkMessiah escribió:
xavi_bravo escribió:Tengo una fuente seasonic core de 650w con certificado gold. Estoy apunto de comprar una 3070 ti aorus máster, veo que la fuente recomendada es de 850, no es exagerado? En fin... Creéis que aguantará con la de 650?


La recomendada es 750W pero si sólo vas a usar la gráfica con un gasto normal del resto de componentes típicos para pc gaming, pues te da de sobra.

Ok gracias, si uso normal. Lo decía porque en PcComponentes pone PSU recomended 850w, solo en este modelo específico.


Lo tendrán mal, debería ser 750W o que te quieren vender una más cara, porque sí [poraki]
Ese modelo de gráfica no consume más que otras RTX 3070 Ti de otros fabricantes, lo que sí lleva son 3 conectores PCIe, 2 de 8 pines y otro de 6 pines, si tu fuente tiene los suficiente conectores PCIe no deberías tener problemas.

Saludos.
Si los pines me bastan, y el espacio también, porque es bastante más gorda que la 3070 normal. Entonces ni jugando a 4k debería tener problemas con esta fuente? No voy a hacer ningún tipo de OC ni nada. Gracias por responder!
He hecho el cálculo y esto es lo que me da de consumo total
https://www.geeknetic.es/cfa/qqH5buJ1Kxf/
DarkMessiah escribió:
jopasaps escribió:
DarkMessiah escribió:3080Ti y 3090, 3070 me da que es fake.

En el chapuzas un user reportó que tuvo en la cesta la 3070 ti


Puso captura?,no estaba revisando esa, pero de la 3070 es que ni salió.

No puso ningún pantallazo. Comentaba que compró una 3090.
jopasaps escribió:
DarkMessiah escribió:
jopasaps escribió:En el chapuzas un user reportó que tuvo en la cesta la 3070 ti


Puso captura?,no estaba revisando esa, pero de la 3070 es que ni salió.

No puso ningún pantallazo. Comentaba que compró una 3090.


Pues entonces me da que lo de la 3070Ti se lo inventó [toctoc]
DarkMessiah escribió:Pues entonces me da que lo de la 3070Ti se lo inventó [toctoc]

Si. Pinta a eso sí. No cuadra mucho.
Se viene 3090 Super dejando a todo el vecindario sin luz? (+400W):

https://videocardz.com/newz/nvidia-gefo ... w-of-power
JaviGabber escribió:Por otra parte he leido varias veces eso de que "el ssd nvme lo podremos utilizar de VRAM con el direct storage (RTX IO)" ¿de donde sale esa informacion? Si no me equivoco el ancho de banda de la memoria de la GPU es muchisimo mayor que la del PCIE 4.0.
Nvida ya contesto a esa pregunta diciendo:

¿RTX IO permite el uso de espacio SSD como VRAM? ¿O lo estoy entendiendo completamente mal?

[Tony Tamasi] RTX IO permite leer datos de SSD a una velocidad mucho más alta que los métodos tradicionales, y permite que la GPU almacene y lea los datos en un formato comprimido, para su descompresión y uso por parte de la GPU. No permite que el SSD reemplace la memoria del búfer de cuadros, pero permite que los datos del SSD lleguen a la GPU y a la memoria de la GPU mucho más rápido, con mucha menos sobrecarga de CPU.

https://www.nvidia.com/en-us/geforce/news/rtx-30-series-community-qa/

A mi no me queda claro

Lógicamente siempre será mas rápido tener todo disponible en la propia VRAM que leyendo del SSD de una forma más rápida (en caso de PC, con DirectStorage y para las Nvidia el RTX IO se usa sobre él), pero si los desarrolladores usan bien el sistema (y deberían porque las consolas tienen ese sistema) lo harán de forma que el contenido que necesiten leer con la mayor velocidad lo tengan cargado en la VRAM y el que lo puedan leer a menos velocidad lo lean desde el SSD vía DirectStorage.

La explicación del DirectStorage que más me ha gustado buscando así rápidamente ha sido esta:
https://www.makeuseof.com/what-is-micro ... ng-faster/

En los 2 diagramas se ve clara la diferencia, básicamente se gana tiempo al hacer que en lugar de que la CPU descomprima los datos y los pase de nuevo a la RAM y de ahí a la VRAM se quita del sistema la CPU y por lo tanto del SSD va a la RAM y de ahí a la VRAM, la cual la GPU descomprime los datos y ya directamente los puede usar.

Lo que al final implica entre otras cosas que no se necesita muchos GB de VRAM para tener texturas (y otras cosas) cargadas ya en la VRAM para evitar cargarlas en tiempo real para evitar por ejemplo el típico efecto cutre de tener las texturas borrosas y al tiempo poder ver ya las texturas con calidad. Con el nuevo sistema se debería pedir en tiempo real muchas de las texturas y cargarlas suficientemente rápido sin pantallas de carga de muchos segundos.

Las consolas PS5 y XSX tienen 16GB GDDR6 unificada (RAM y VRAM), y según leo en XSX dijeron que 2,5GB era para el SO y aplicaciones con lo cual los 13,5GB restantes serían para el juego. Más que los 8GB de la 3080? Sí, pero la 3080 es GDDR6X... que desde luego leyendo ese artículo y diciendo que una de las ventajas es precisamente es mejor consumo y calor con lo que os leo por aquí, pues quizás no lo entiendo porque me daba la impresión de todo lo contrario XD

Personalmente no me creo nada hasta que vea análisis y comparativas de todo esto (vamos, para 2022).
Camoranesi está baneado por "clon de usuario baneado"
El Direct storage es humo. Que no os vendan la moto con que tenéis que renovar hardware por ello o pasaros a w11 porque es mentira, una más.

Y es humo porque ya está implementada en los últimos videojuegos, no hay más que comprobar los tiempos de carga en juegos de mundo abierto como GTA V o Fallout 4, juegos de hace unos 5-6 años, con los actuales. En unos las pantallas de carga van desde los 40 hasta los 3 minutos, en cambio en cyberpunk o horizon las pantallas de carga van desde los 5 segundos hasta los 30 como mucho. Haced la prueba.

Un mejor ejemplo, el remaster de mass effect. La mayor diferencia entre una y otra versión son los tiempos de carga, mientras en uno te puedes pasar 2 minuto en un ascensor, en el otro pueden ser como mucho 20-30 segundos.

Me imagino que es por lo que dice el de arriba, mayor y mejor utilización de la vram. Y tiene muy poco que ver con utilizar SSD o no, haced la prueba también.
De todas formas viendo el flujo, si no tienes el dato en memoria la latencia es alta, lo que va bajar notoriamente los fps, con direct storage o sin el, incluso puede ser peor en el caso de ir justo de vram ya que es la gpu quien se encarga de descomprimir.

Lo que si va mejorar bastante son los tiempos de carga.

@camoranesi la gracia esta en transferir la informacion comprimida y descomprimir con la gpu en vez de la gpu, que es mucho más rapida para esas tareas, desconozco si se esta haciendo asi ahora en algun juego, se puede perfectamente, direct storage simplemente lo simplifica, es una api. Tambien puede ser que estos remakes simplemente esten utilizando todos los nucleos de la cpu para descomprimir la memoria y de ahi la ganancia de tiempos de carga.
xavi_bravo escribió:Tengo una fuente seasonic core de 650w con certificado gold. Estoy apunto de comprar una 3070 ti aorus máster, veo que la fuente recomendada es de 850, no es exagerado? En fin... Creéis que aguantará con la de 650?


Sobra fuente

https://www.noticias3d.com/articulo.asp ... 257&pag=21

Y mas siendo una seasonic gold
DarkMessiah escribió:Se viene 3090 Super dejando a todo el vecindario sin luz? (+400W):

https://videocardz.com/newz/nvidia-gefo ... w-of-power


XD XD XD

De un pico de consumo me salta el térmico ;)
Camoranesi escribió:Y es humo porque ya está implementada en los últimos videojuegos, no hay más que comprobar los tiempos de carga en juegos de mundo abierto como GTA V o Fallout 4, juegos de hace unos 5-6 años, con los actuales.

Te podría medio debatir si es humo o no, pero lo resaltado en negrita es una tremenda barbaridad lo mires por donde lo mires. ¿Te vas a parar a leer lo que es el DirectStorage o vas a seguir diciendo tonterías sobre algo que claramente no conoces? Una cosa es que los juegos hayan pasado de creer que lo normal es un HDD a un SSD y otra cosa es el nuevo sistema de I/O.

Es imposible que estemos usando DirectStorage si nuestros PCs no están preparados (todavía) y ni siquiera los juegos lo están. Cuando se pueda probar veremos comparativas, y entonces podrás decir que es humo si no aporta suficiente mejora. De hecho habrá requisito de usar un disco NVMe SSDs y gráfica que soporte DirectX12 y ahora mismo puedes ver mejoras de tiempos de cargas (respecto a juegos de hace 5-6 años) teniendo un SSD SATA y una tarjeta que no soporte DirectX 12, así que ya me dirás cómo es posible que ya estemos usando DirectStorage.

Y por cierto, sobre lo de renovar hardware... dudo que sea algo que aplique a corto plazo de forma generalizada puesto que no se van a actualizar todos los PCs de un día para otro y los desarrolladores no van a hacer juegos que solo permitan el nuevo I/O porque los potenciales compradores quedarán reducidos a una pequeñísima parte de población gamer. Eso solo lo pueden hacer para los juegos exclusivos de consola... pero a la que quieran sacarlos en PC ya no lo pueden hacer así con lo cual casi ni con esas.


@PepeC12 es verdad, me olvidé decir eso, que como punto negativo entiendo que los FPS serían menores porque la GPU haría una tarea adicional pero desconozco ese detalle e incluso he leído que mejorará los FPS ("to load frames faster").

Pero lo de la latencia no tiene por qué ser así. Los datos que necesite al momento o a corto plazo ya se encargará de tenerlo preparado en la VRAM, pero la que pueda usar a medio plazo la puede ir cargando rápidamente para tenerla lista. Ahora mismo la de corto plazo y medio plazo la tiene que tener cargada ya en la VRAM porque si no es cuando, o se crean un tiempos de carga forzado (típica escena de ascensor o lo que sea), o se ven textura de mala calidad a la espera de cargar las de buena calidad.

Pero bueno, lo dicho, no me creé nada hasta que no lo vea y como pronto supongo que será para 2022 (y quizás lo veremos antes en una demostración mas que en un juego propiamente).
ditifet escribió:
xavi_bravo escribió:Tengo una fuente seasonic core de 650w con certificado gold. Estoy apunto de comprar una 3070 ti aorus máster, veo que la fuente recomendada es de 850, no es exagerado? En fin... Creéis que aguantará con la de 650?


Sobra fuente

https://www.noticias3d.com/articulo.asp ... 257&pag=21

Y mas siendo una seasonic gold

Muchas gracias, consumo total 528 veo, no esta mal.
Camoranesi escribió:El Direct storage es humo. Que no os vendan la moto con que tenéis que renovar hardware por ello o pasaros a w11 porque es mentira, una más.

Y es humo porque ya está implementada en los últimos videojuegos, no hay más que comprobar los tiempos de carga en juegos de mundo abierto como GTA V o Fallout 4, juegos de hace unos 5-6 años, con los actuales. En unos las pantallas de carga van desde los 40 hasta los 3 minutos, en cambio en cyberpunk o horizon las pantallas de carga van desde los 5 segundos hasta los 30 como mucho. Haced la prueba.

Un mejor ejemplo, el remaster de mass effect. La mayor diferencia entre una y otra versión son los tiempos de carga, mientras en uno te puedes pasar 2 minuto en un ascensor, en el otro pueden ser como mucho 20-30 segundos.

Me imagino que es por lo que dice el de arriba, mayor y mejor utilización de la vram. Y tiene muy poco que ver con utilizar SSD o no, haced la prueba también.


el direct storage no solo sirve para reducir los tiempos de carga si no también permite hacer juegos mas complejos , los tiempos de carga se pueden reducir en cualquier juego con un simple SSD
3080Ti y 3090 de nuevo disponibles LDLC, pero esto qué esssssss ratataaaa
Ya vuelve a funcionar partalart, más 3080ti y 3090
elperrodelcura escribió:Ya vuelve a funcionar partalart, más 3080ti y 3090

Otra vez las tochas si. Que raro. Deben de tener buenos palets llenos.
Entiendo que esas dos gráficas no son atractivas a las mineros no?
LilJEiK escribió:Entiendo que esas dos gráficas no son atractivas a las mineros no?

No. No son atractivas.
LilJEiK escribió:Entiendo que esas dos gráficas no son atractivas a las mineros no?


Para los aficionados no, los grandes le meten a lo que sea
Hay 3060ti FE? Y el PA Alert notifica de estas?
Gracias¡
tarheel escribió:Hay 3060ti FE? Y el PA Alert notifica de estas?
Gracias¡

Si. Notifica de todas las FE. Cuando funciona el bot. Ayer por cambios de Nvidia ni se enteró. Hoy parece volver a funcionar.
Yo he pillado hoy la 3080ti mediante el Pa Alert.

Sabeis cuanta fuente se necesita para tener la 3080 ti y una 1080 a la vez? Aprox.

Tengo una Corsair 850Ax, no se si aguantará las 2,...

Thanks
bessonet escribió:Yo he pillado hoy la 3080ti mediante el Pa Alert.

Sabeis cuanta fuente se necesita para tener la 3080 ti y una 1080 a la vez? Aprox.

Tengo una Corsair 850Ax, no se si aguantará las 2,...

Thanks

La 3080ti no tiene para Sli, ninguna 3000 lo tienen.
Igualmente, la 3080ti chupa unos 400w y la 1080 unos 220w, haz cuentas y sumale unos 120w del resto de componentes
Vli escribió:
bessonet escribió:Yo he pillado hoy la 3080ti mediante el Pa Alert.

Sabeis cuanta fuente se necesita para tener la 3080 ti y una 1080 a la vez? Aprox.

Tengo una Corsair 850Ax, no se si aguantará las 2,...

Thanks

La 3080ti no tiene para Sli, ninguna 3000 lo tienen.
Igualmente, la 3080ti chupa unos 400w y la 1080 unos 220w, haz cuentas y sumale unos 120w del resto de componentes

No ha dicho nada de sli y más sabiendo el nulo rendimiento de hoy en día con el sli es cuánto menos una soberana absurdez

Supongo que lo dirá para minar con una y jugar con la otra a la vez
Vli escribió:
bessonet escribió:Yo he pillado hoy la 3080ti mediante el Pa Alert.

Sabeis cuanta fuente se necesita para tener la 3080 ti y una 1080 a la vez? Aprox.

Tengo una Corsair 850Ax, no se si aguantará las 2,...

Thanks

La 3080ti no tiene para Sli, ninguna 3000 lo tienen.
Igualmente, la 3080ti chupa unos 400w y la 1080 unos 220w, haz cuentas y sumale unos 120w del resto de componentes
Te equivocas, las 3090 si tienen puerto para sli
Vli escribió:
bessonet escribió:Yo he pillado hoy la 3080ti mediante el Pa Alert.

Sabeis cuanta fuente se necesita para tener la 3080 ti y una 1080 a la vez? Aprox.

Tengo una Corsair 850Ax, no se si aguantará las 2,...

Thanks

La 3080ti no tiene para Sli, ninguna 3000 lo tienen.
Igualmente, la 3080ti chupa unos 400w y la 1080 unos 220w, haz cuentas y sumale unos 120w del resto de componentes

Una corrección, la 3090 sí tiene SLI creo (o eso recordaba leer):
https://hardzone.es/tutoriales/rendimie ... o-gpu-rtx/
https://www.servethehome.com/dual-nvidi ... sus-zotac/

PD: @ditifet bien visto, los que no somos mineros no se nos ocurren estas cosas XD
No se necesita sli para usar múltiples tarjetas a la vez para renderización o para ejecutar tareas cuda en general, muy usadas en la investigación, inteligencia artificial, redes neuronales y demás... Y por supuesto para minar.

De hecho en mi curro se usan para todo lo primero y, nota a parte, antes compro una de minado que una que se haya usado para investigar. [+risas]
Por cierto,para los que tengais una FE y una fuente be quiet,les he escrito preguntando si tenian cables de 12 pines para pedir y me han contestado que si les mandaba la factura de la FE me mandaban el cable gratis. No se si ya se sabía pero bueno lo comento por si le puede ayudar a alguien :)
...
Editado por metalgear. Razón: no hablar de mineria
D3N184 escribió:Por cierto,para los que tengais una FE y una fuente be quiet,les he escrito preguntando si tenian cables de 12 pines para pedir y me han contestado que si les mandaba la factura de la FE me mandaban el cable gratis. No se si ya se sabía pero bueno lo comento por si le puede ayudar a alguien :)


Cable modular especial para las founders? Joder y eso lo hace alguien más? Tengo corsair y Seasonic [+risas]
elperrodelcura escribió:
D3N184 escribió:Por cierto,para los que tengais una FE y una fuente be quiet,les he escrito preguntando si tenian cables de 12 pines para pedir y me han contestado que si les mandaba la factura de la FE me mandaban el cable gratis. No se si ya se sabía pero bueno lo comento por si le puede ayudar a alguien :)


Cable modular especial para las founders? Joder y eso lo hace alguien más? Tengo corsair y Seasonic [+risas]


Seasonic lei que mandaban el cable de manera gratuita a finales de 2020,lo mismo si les escribes ahora lo siguen haciendo. Corsair vende el cable por 20 euros directamente. Prueba por si acaso con Seasonic,no pierdes nada por probar!
...
Editado por metalgear. Razón: no hablar de mineria
D3N184 escribió:
elperrodelcura escribió:
D3N184 escribió:Por cierto,para los que tengais una FE y una fuente be quiet,les he escrito preguntando si tenian cables de 12 pines para pedir y me han contestado que si les mandaba la factura de la FE me mandaban el cable gratis. No se si ya se sabía pero bueno lo comento por si le puede ayudar a alguien :)


Cable modular especial para las founders? Joder y eso lo hace alguien más? Tengo corsair y Seasonic [+risas]


Seasonic lei que mandaban el cable de manera gratuita a finales de 2020,lo mismo si les escribes ahora lo siguen haciendo. Corsair vende el cable por 20 euros directamente. Prueba por si acaso con Seasonic,no pierdes nada por probar!


Lo he buscado y he visto que la promoción ya terminó, ahora mismo no lo necesito, pero tengo una factura de una 3070 a mi nombre y no me importaría tener un cable la verdad... por 20€ no lo necesito [+risas]
Pues he caído con una 3080 Ti por pura desesperación. Necesitaba gráfica urgentemente y he tenido que pagar 1.200 euros para comprar una gráfica. Qué locura!

Lejos de sentirme alegre por poder tener gráfica nueva me siento ligeramente estafado. Quería una simple 3080 founder, con eso me iba todo perfecto. Pero con esas gráficas a mayor coste que una Ti, y con la necesidad acuciante de tener que comprar sí o sí todavía puedo darme con un canto en los dientes de haber pillado una Ti FE :(

En fin.

No sé si tenéis alguna recomendación que darme respecto a esta tarjeta. ¿Hay que hacerle algo para que rinda bien o aguante bastante tiempo?
NO es para minar, es para desarrollo y jugar.

Un abrazo a todos.
gambapaketera escribió:Pues he caído con una 3080 Ti por pura desesperación. Necesitaba gráfica urgentemente y he tenido que pagar 1.200 euros para comprar una gráfica. Qué locura!

Lejos de sentirme alegre por poder tener gráfica nueva me siento ligeramente estafado. Quería una simple 3080 founder, con eso me iba todo perfecto. Pero con esas gráficas a mayor coste que una Ti, y con la necesidad acuciante de tener que comprar sí o sí todavía puedo darme con un canto en los dientes de haber pillado una Ti FE :(

En fin.

No sé si tenéis alguna recomendación que darme respecto a esta tarjeta. ¿Hay que hacerle algo para que rinda bien o aguante bastante tiempo?
NO es para minar, es para desarrollo y jugar.

Un abrazo a todos.

Pues mi consejo es que la disfrutes porque es un pepino de gráfica. Si acaso puedes hacerle algo de undervolt y tener una buena caja refrigerada porque esos bichos generan bastante calor.
Lo dicho a disfrutarla !
jopasaps escribió:Pues mi consejo es que la disfrutes porque es un pepino de gráfica. Si acaso puedes hacerle algo de undervolt y tener una buena caja refrigerada porque esos bichos generan bastante calor.
Lo dicho a disfrutarla !


Gracias por el consejo!! ¿Cuánto de undervolt puede estar bien? Realmente no conozco nada en cuanto a aspectos técnicos.
Imagino que haciendo undervolt perdería potencia, cierto¿?
De todos modos, si logro así alargar la vida útil de la tarjeta, acepto tu consejo de buena gana y así haré :)

Mil gracias!
gambapaketera escribió:Gracias por el consejo!! ¿Cuánto de undervolt puede estar bien? Realmente no conozco nada en cuanto a aspectos técnicos.
Imagino que haciendo undervolt perdería potencia, cierto¿?
De todos modos, si logro así alargar la vida útil de la tarjeta, acepto tu consejo de buena gana y así haré :)

Mil gracias!

Yo tengo una 3070 que aún no pude montar porque estoy esperando unos componentes,
Pero por ejemplo aquí tienes un ejemplo de undervolt. Todo es ir probando el undervolt y que tenga estabilidad.
Puedes usar Msi afterburner.
31123 respuestas