[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

jrdj escribió:@hh1 Quizá de 110 a 130-140 no lo note, ahí tienes toda la razón, pero puse un ejemplo bruto, por la cosa de tengo todo a tope en mi subconsciente jajajaja. Mas bien me refería a coño... te dejas una buena pasta 550 800 pabos en una grafica actual para tener que ir recortando ya cosas en 1080 en un juego con 2 años...a mi almenos me raya a eso me refería hablando de la 3070 3080, por eso fui a por la 3090 por que me gusta tener todo al máximo, soy un poco tiquismiquis...jeje.

Tema aparte....Sabéis si se puede poner otra BIOS para aumentar el TDP? Aun que sea de otro fabricante o estoy diciendo tontearías? [sonrisa]

Pero es que eso te va a ocurrir compres la gráfica que compres y en un porcentaje bajísimo,y no por la gráfica,sino por juego mal optimizado.
Eso no quiere decir que los venideros en un futuro cercano ,vayan a ser así.

Por ejemplo ,yo estoy a la espectativa de una 3080 20gb ,super o TI,pero ni convencido estoy de dar el cambio,por eso mismo.
En el 99% de los juegos me dan igual 100 que 144fps,que al final es lo que ganaré cambiando la 1080TI con la 3080.Y a veces hasta menos.
Vamos,que voy a notar 0 básicamente en eso Solo en tira el cambio por el Ray Tracing,y tampoco lo veo para tanto aún .
Si fuese para 4K,ya es otro tema y ahí sí veo que valga la pena un cambio
romero91 escribió:Deseando pillar la de 20GB ya. Ojalá y se adelanten a antes de diciembre. O me veré perjudicado a no jugar a CyberPunk un mes [snif]

Sigue soñando, con la escasez de las de 10gb y aún creyendo que vas a tener el siguiente modelo en la puerta de tu casa para este año... Y tienes a Nnvidia diciendote que te olvides de las de 10gb hasta 2021. xD
Yo, a parte de que he hecho una build nueva y la 2070 super va para mi mujer y ya no ibamos a comprar una de la serie 2000, por el precio, tengo claro que no voy a poder hacer 2k 144hz en todos los juegos a nivel alto.
De hecho, hasta ahora, llegaba a los 100-120 y con eso estaba más que ocntento. Si la serie 3000 me bumpea 10-15 fps, para mi ya es un win: El dinero lo iba a gastar igual.
Tambien entended una cosa:
QUe salga nueva gen de graficas no quiera decir que todos los juegos hasta la fecha los vayas a poder jugar a 4k 144hz ultra, eh?
Y el salto de 3080 a 3090 es muy pequeño para mi opinión.
Y las 3080 super o ti o de 20 gb ya no van a valer 720, que luego acaba siendo 800 en las 3080: Será 900 o 1000 y pico y vuelvo a decir: A ver qué memoria GDDR o GDDRX.
Xi0N escribió:Yo, a parte de que he hecho una build nueva y la 2070 super va para mi mujer y ya no ibamos a comprar una de la serie 2000, por el precio, tengo claro que no voy a poder hacer 2k 144hz en todos los juegos a nivel alto.
De hecho, hasta ahora, llegaba a los 100-120 y con eso estaba más que ocntento. Si la serie 3000 me bumpea 10-15 fps, para mi ya es un win: El dinero lo iba a gastar igual.
Tambien entended una cosa:
QUe salga nueva gen de graficas no quiera decir que todos los juegos hasta la fecha los vayas a poder jugar a 4k 144hz ultra, eh?
Y el salto de 3080 a 3090 es muy pequeño para mi opinión.
Y las 3080 super o ti o de 20 gb ya no van a valer 720, que luego acaba siendo 800 en las 3080: Será 900 o 1000 y pico y vuelvo a decir: A ver qué memoria GDDR o GDDRX.

En el tema precios de las futras Nvida, Amd juega un papel fundamental.
Lo mejor para todos es que sus gráficas estén a la altura.
Si lo hacen bien, Nvidia ni de coña puede dejar esos precios que dices tú y la mayoría, por la sencilla razón de que una posible 6900Xt de rednimiento similar a la 3080, y ya van diciendo que estará entre la 3080 y 3090, a unos 599€ que se va diciendo (sería la bomba) o incluso 699€ siendo más potente que la 3080 y con 6GB más de Vram, le va a quitar muchísimas ventas a Nvidia, y se va a tener que replantear sus precios sí o sí.
Vamos, deberían bajar la 3080 10gb de precio, por ende,también la 3070 y lanzar una Super con 20gb a precio razonable por debajo de los 900€.
También haría a Nvidia ponerse las pilas
Por eso, hay que esperar a AMD ,porquer ellos tienen la clave de todo esto.
hh1 escribió:
Xi0N escribió:Yo, a parte de que he hecho una build nueva y la 2070 super va para mi mujer y ya no ibamos a comprar una de la serie 2000, por el precio, tengo claro que no voy a poder hacer 2k 144hz en todos los juegos a nivel alto.
De hecho, hasta ahora, llegaba a los 100-120 y con eso estaba más que ocntento. Si la serie 3000 me bumpea 10-15 fps, para mi ya es un win: El dinero lo iba a gastar igual.
Tambien entended una cosa:
QUe salga nueva gen de graficas no quiera decir que todos los juegos hasta la fecha los vayas a poder jugar a 4k 144hz ultra, eh?
Y el salto de 3080 a 3090 es muy pequeño para mi opinión.
Y las 3080 super o ti o de 20 gb ya no van a valer 720, que luego acaba siendo 800 en las 3080: Será 900 o 1000 y pico y vuelvo a decir: A ver qué memoria GDDR o GDDRX.

En el tema precios de las futras Nvida, Amd juega un papel fundamental.
Lo mejor para todos es que sus gráficas estén a la altura.
Si lo hacen bien, Nvidia ni de coña puede dejar esos precios que dices tú y la mayoría, por la sencilla razón de que una posible 6900Xt de rednimiento similar a la 3080, y ya van diciendo que estará entre la 3080 y 3090, a unos 599€ que se va diciendo (sería la bomba) o incluso 699€ siendo más potente que la 3080 y con 6GB más de Vram, le va a quitar muchísimas ventas a Nvidia, y se va a tener que replantear sus precios sí o sí.
Vamos, deberían bajar la 3080 10gb de precio, por ende,también la 3070 y lanzar una Super con 20gb a precio razonable por debajo de los 900€.
También haría a Nvidia ponerse las pilas
Por eso, hay que esperar a AMD ,porquer ellos tienen la clave de todo esto.


Te imaginas que de verdad cumple AMD y va y nos sorprende y pega el golpetazo en la mesa y saca algo mejor que nVidia? Y encima, con stock de sobra?!??!????!!
Te imaginas lo que le pasaría a todas esas tiendas a las que les cancelarían la reserva de las 3080? Tener que devolver todo ese dinero de nuevo de golpe?
A algun que otro comercio le estaría bien empleado. Y a nVidia más.

Mira que AMD me da tirria y no creo que vaya a ser para tanto, pero ojalá me equivoque y team red les haga una de esas.
Me quitaría el sombrero.
@hh1 Yo opino que la 3080 20GB es la clave, pero bueno los cagaprisas como yo hemos ido a la 3090 jaja. Lo que no me parece ni medio normal es que te claven una 3080 10GB y saquen la 3070 con 16GB que se supone que es menos potente y debería usar menos VRAM...Ósea se han mofado la verdad nvidia con la 3080, han vendido un montón y ahora volverán a vender un montón cuando salgan. Mas bien debería haber sido alreves, 3070 10Gb y 3080 de salida con 16GB por que 20 tampoco hacen falta no se, es todo muy sinsentido.

Si alguien lee lo que puse sobre la bios porfa cnt, lo repito aqui... Se puede poner otra bios para aumentar TDP aun que sea otro fabricante?Gracias!!!!
@Xi0N yo espero y deseo que pase eso, lo tendria mas que merecido por que lo que a echo Nvidia es un cachondeo... Lo malo? como dije mas atras le pasa como a Play, se estan cachondeando de todos sus clientes pero como es Sony Playstation pues la gente lo compra igual...
Xi0N escribió:
hh1 escribió:
Xi0N escribió:Yo, a parte de que he hecho una build nueva y la 2070 super va para mi mujer y ya no ibamos a comprar una de la serie 2000, por el precio, tengo claro que no voy a poder hacer 2k 144hz en todos los juegos a nivel alto.
De hecho, hasta ahora, llegaba a los 100-120 y con eso estaba más que ocntento. Si la serie 3000 me bumpea 10-15 fps, para mi ya es un win: El dinero lo iba a gastar igual.
Tambien entended una cosa:
QUe salga nueva gen de graficas no quiera decir que todos los juegos hasta la fecha los vayas a poder jugar a 4k 144hz ultra, eh?
Y el salto de 3080 a 3090 es muy pequeño para mi opinión.
Y las 3080 super o ti o de 20 gb ya no van a valer 720, que luego acaba siendo 800 en las 3080: Será 900 o 1000 y pico y vuelvo a decir: A ver qué memoria GDDR o GDDRX.

En el tema precios de las futras Nvida, Amd juega un papel fundamental.
Lo mejor para todos es que sus gráficas estén a la altura.
Si lo hacen bien, Nvidia ni de coña puede dejar esos precios que dices tú y la mayoría, por la sencilla razón de que una posible 6900Xt de rednimiento similar a la 3080, y ya van diciendo que estará entre la 3080 y 3090, a unos 599€ que se va diciendo (sería la bomba) o incluso 699€ siendo más potente que la 3080 y con 6GB más de Vram, le va a quitar muchísimas ventas a Nvidia, y se va a tener que replantear sus precios sí o sí.
Vamos, deberían bajar la 3080 10gb de precio, por ende,también la 3070 y lanzar una Super con 20gb a precio razonable por debajo de los 900€.
También haría a Nvidia ponerse las pilas
Por eso, hay que esperar a AMD ,porquer ellos tienen la clave de todo esto.


Te imaginas que de verdad cumple AMD y va y nos sorprende y pega el golpetazo en la mesa y saca algo mejor que nVidia? Y encima, con stock de sobra?!??!????!!
Te imaginas lo que le pasaría a todas esas tiendas a las que les cancelarían la reserva de las 3080? Tener que devolver todo ese dinero de nuevo de golpe?
A algun que otro comercio le estaría bien empleado. Y a nVidia más.

Mira que AMD me da tirria y no creo que vaya a ser para tanto, pero ojalá me equivoque y team red les haga una de esas.
Me quitaría el sombrero.

Sería lo mejor que nos podría pasar.
Encima los especuladores,a comerse gráficas por listos.
También creo, que aún siendo más potente AMD y más barata. muchos no se cambian de Nvidia.

Si es que ,con que la 6900XT sea como la 3080 con 6 gb más y salga a 600€, ya pone en jaque a Nvidia.

Les estaría bien empleado a los especuladores,a los comercios y a Nvidia.

Pero el tema es que AMD siempre genera hype, mucho humo, y luego se queda en la mitad de lo que promete.
Y encima ahora ves que no están generando nada de eso, y ya da que pensar.
Puede ser que no lo genere porque van a ser chustilla, o que estén agazapados para darle la ostia a Nvidia por sorpresa.
También que Nvidia retrase la 3070 es algo a tener en cuenta.Justo a un día después de las AMD.Me da que se huelen que las AMD van a dar el callo y quieren ver qué sacar y qué precios, para ajustar algo la 3070 e incluso anunciar una 3080 super o algo similar.
Vamos, es que cuadra todo.
Y mucho me extraña que entre esas dos empresas, no sepan entresijos de una y otra y sepan por dónde van los tiros antes de lanzarlas.

¿por qué Nvidia lanzó antes las 3080?Porque sabían que AMD tenía preparadas las suyas.Y a todas luces se ha vvisto que las han lanzado de manera precipitada, sin stock y con fallos.Por algo es...

Vamos, que a mí me huele que lo de AMD es gordo y por eso Nvidia actúa así y los otros están calladitos para dar el leñazo.Eso es lo que pienso.y por lo que apuesto yo.
Pero claro, es AMD ,especialista en humo y cagadas.

@jrdj
Si te fijas, Nvidia ha conseguido que gráficas caras parezcan baratas.
Pero es que realmente, la que debió salir es la 3080 20Gb ,y su precio sería SUPERIOR al de la anterior gen con la 2080 (salvo que AMD lo remedie).
Si AMD no está a la altura, una 3080 super 20gb, seguro que se va a 900-1000€.Vamos, más cara que las 2080 Super.
Negocio redondo de Nvidia.
Les ha quedado de puta madre, porque la gente tiene la sensación de que son más baratas, cuando no lo son.
Eso sí, el salto de rendimiento es mayor.Si cogemos ese parátero,sí sería más barata en comparación, pero no tanto como nos quieren hacer creer.

@lunaty1
Es que es eso.La marquitis.
Salir de Nvidia, Intel o la "Play" para algunos, es difícil porque no ven más allá.Da igual que haya algo mejor y más barato, que no van a cambiar.
Pero bueno, AMD lo ha medio conseguido con Ryzen.Y ojo hoy que pueden meter nuevo bombazo a Intel.
Yo sigo siendo team intel y nvidia.
Que no es lo mismo que fanboy, ojo... en mononucleo, intel sigue siendo rey: Más caro, lo que quieras, pero mejor.
Los juegos suelen ir optimizados para nvidia más que para AMD, cosa que siempre dicen que "va a cambiar con la siguiente generación de cosnolas" que lleva siendo AMD desde hace un par de ellas, y de eso nada.
Pero si mañana sacan su competencia a DLSS, y RayTracing a un precio bueno y con stock disponible, no lo descartaría.
Me caso con el que más rendimiento de, me da igual el color.

Y respecto al humo: Eso pasó con a anterior generación de chips de AMD que en multicore y sintéticos le mean a intel.
Pero si te vas del 3Dmark a un juego de verdad, Intel sigue sacando más FPS.... 3? 10? 15?: Son más, y si tienes el dinero y no haces streaming, para mi ya sale ganando Intel (a parte de que el lanzamiento de estas CPU no se libraron de problemas tampoco).

Esta vez, tengo entendido que Lisa Su ha querido personalmente que nadie dijera nada de nada: Silencio sepulcral por parte de AMD....

Por que? Porque va a ser una chusta? Porque va a ser mejor? Porque no quieren hypear y luego defraudar?: No sabemos, pero pronto se sabrá.-
Xi0N escribió:Yo sigo siendo team intel y nvidia.
Que no es lo mismo que fanboy, ojo... en mononucleo, intel sigue siendo rey: Más caro, lo que quieras, pero mejor.
Los juegos suelen ir optimizados para nvidia más que para AMD, cosa que siempre dicen que "va a cambiar con la siguiente generación de cosnolas" que lleva siendo AMD desde hace un par de ellas, y de eso nada.
Pero si mañana sacan su competencia a DLSS, y RayTracing a un precio bueno y con stock disponible, no lo descartaría.
Me caso con el que más rendimiento de, me da igual el color.

Y respecto al humo: Eso pasó con a anterior generación de chips de AMD que en multicore y sintéticos le mean a intel.
Pero si te vas del 3Dmark a un juego de verdad, Intel sigue sacando más FPS.... 3? 10? 15?: Son más, y si tienes el dinero y no haces streaming, para mi ya sale ganando Intel (a parte de que el lanzamiento de estas CPU no se libraron de problemas tampoco).

Esta vez, tengo entendido que Lisa Su ha querido personalmente que nadie dijera nada de nada: Silencio sepulcral por parte de AMD....

Por que? Porque va a ser una chusta? Porque va a ser mejor? Porque no quieren hypear y luego defraudar?: No sabemos, pero pronto se sabrá.-

Intel seguía por delante para jugar pero cada vez menos .
Pero si miramos la calidad/precio,AMD ya h superado a Intel

Yo ,en mi caso,no pago ese extra de pasta de Intel,que suele ser placa ,CPU y disipador por unos meros fps más.

Tengo un 8400 porque tenía un IPC bestial para 189€ y a día de hoy sigue yendo prácticamente como un 3600X -3700X a QHD.
Pero si tuviese que comprar hoy,el único Intel con buena relación calidad /precio,es una vez más, un x400,el 10400.

Ese silencio pinta muy muy bien.
@hh1 Ojala Intel con cada generacion no tuvieramos que cambiar de placa (supongo que los fabricantes de placa estaran muy contentos con Intel)
esami escribió:@hh1 Ojala Intel con cada generacion no tuvieramos que cambiar de placa (supongo que los fabricantes de placa estaran muy contentos con Intel)

Esa es otra.Cambio casi cada gen y más caras que las AMD.
hh1 escribió:
esami escribió:@hh1 Ojala Intel con cada generacion no tuvieramos que cambiar de placa (supongo que los fabricantes de placa estaran muy contentos con Intel)

Esa es otra.Cambio casi cada gen y más caras que las AMD.


A mi me la metieron doblada con el 7700K que aun uso con mi SLI, 10 años Intel usando 4 / 8 y al poco de salir los Ryzen Intel lanza por fin un 6 / 12 mainstream, dejando el chipset Z270 abandonado el mismo año en que salio (2017).

Eso sin contar que se ponen a 100 grados si no dispones de un disipador gama alta y placa que permita bajar voltaje del CPU PLL.

Muy mal le tiene que ir AMD para que yo vuelva a Intel...
Pero es lo de siempre, una compañia la caga y otra se aprovecha, amd la cagó e intel se aprovecho, es logico y normal, que es lo que pasa? Que la gente desde ese entonces, a amd la ven como la mala, la que no tiene buemos procesadores y buenas graficas, yo antes pensaba asi sobre los procesadores, ya no, pero de lss graficas todavia tengo ese pensamiento, porque he tenido varias graficas amd y veia a los de nvidia con unos rendimientos bastantes superiores.. lo mismo esta pasando con las consolas, sony la esta cagando a lo grande y microsoft se esta aprovechando y cojiendo ese rebufo.. pero como decis, como amd salga y presente sus graficas y no rindan algo parecido a las tope de gama de nvidia.. nvidia va a empezar a sacar graficas a precios desorbitados.. una 3080nde 20gb minimo 950/1000€, una 3070 ti a 750€, una 3060 super a 450 euros.. nose la verdad, si amd se ponen las pilas hará que nvidia se calme.. si no hace lo contrario la va a liar nvidia pero bien..
Xi0N escribió:Yo la 3080 2k 144, o si llega a 12, pues 120....

Sobre el OC: MSI afterburner trae una funcionalidad para hacer OC Scan, que es un poco chusquero (no es lo mismoq ue un OC manual), pero ganas un par de FPS, lo hace automático y está avalado por los fabricantes (no te cargas la garantia, ni fuerzas la gráfica)

https://www.msi.com/blog/get-a-free-per ... oc-scanner


No vas a pasar de tener una 3080 a una 3090, pero si que testea los límites de tu gráfica y le da ese poquito de más que puede permitirte la lotería del silicio.

Compatible desde las series 2000 en adelante, aunque las 3000 deben de tener poco margen de OC.... lo recomiendo.
Esa funcion tambien va en pascal.
Gromber escribió:Esa funcion tambien va en pascal.


Lo retiraron en los penúltimos drivers. Como dice el otro compi, ya es solo compatible con Turing y Ampere. Lo bueno es que han añadido soporte a overclock automático a la memoria. Digamos que antes era un OC mas rudimentario y ahora va incluido en una API dentro de la GPU, por lo que el OC es más preciso. Lo explicó Unwinder, el creador de MSI AB y RTSS.
Eso está guapo porque no es un OC como tal, si no más bien un reajuste.
Cada silicio es distinto, esto testea como de bueno es el tuyo y te lo ajusta en función para aprovecharlo, me parece una cosa buena, aunque las ganancias no sean para echar cohetes, es potencia que si no, se queda ahí.
Y que ahora haga también de memoria me encanta: En la 2070 super le di +500 a ojo y ahi estuvo sin problemas.
yo lo acabo de hacer, pero solo me sube el core clock
las memorias no me las toca
Xi0N escribió:Eso está guapo porque no es un OC como tal, si no más bien un reajuste.
Cada silicio es distinto, esto testea como de bueno es el tuyo y te lo ajusta en función para aprovecharlo, me parece una cosa buena, aunque las ganancias no sean para echar cohetes, es potencia que si no, se queda ahí.
Y que ahora haga también de memoria me encanta: En la 2070 super le di +500 a ojo y ahi estuvo sin problemas.

Qué suerte tenéis.
Mi 1080TI Aorus Xtreme ya lleva Oc de fábrica, pero no me deja subirle una mierda de nada.
Enseguida se crashea con cualquier juego.La dejo con OC de fábrica y gracias.
Como mucho me deja subirle 100 la memoria y ya, y eso se nota 0.
Buenas, en este hilo se comenta que las fuentes Tacent no son buenas.

He mirado la mía y resulta que es una Tacens. Como de todas formas tenía que cambiarla porque quiero comprar la Asus ROG Strix 3090 OC, necesito 3 cables PCI-E de 8 patillas y la mía solo tiene 2.

Me he informado un poco y como quiero ir con margen para la próxima generación de hardware he pedido una Corsair AX1200i. Creo que con Corsair estáis contentos, no?

Todavía estoy a tiempo de cambiar el pedido.

¿Me podéis decir si es una adecuada?

Entiendo que con 1200w voy sobrado, recomiendan 750 pero como no quiero tener que cambiar de fuente otra vez dentro de 2 años pienso que no está demás ir un poco holgado.

Gracias
Aradan escribió:Buenas, en este hilo se comenta que las fuentes Tacent no son buenas.

He mirado la mía y resulta que es una Tacens. Como de todas formas tenía que cambiarla porque quiero comprar la Asus ROG Strix 3090 OC, necesito 3 cables PCI-E de 8 patillas y la mía solo tiene 2.

Me he informado un poco y como quiero ir con margen para la próxima generación de hardware he pedido una Corsair AX1200i. Creo que con Corsair estáis contentos, no?

Todavía estoy a tiempo de cambiar el pedido.

¿Me podéis decir si es una adecuada?

Entiendo que con 1200w voy sobrado, recomiendan 750 pero como no quiero tener que cambiar de fuente otra vez dentro de 2 años pienso que no está demás ir un poco holgado.

Gracias


Vamos, mas que sobrado.

Magnifica compra, yo tengo una rm1000x y tengo pendiente de recibir una zotac 3090 y ya te digo, que mas que de sobras y una gran fuente.

Saludos crack
leto escribió:han enviado alguna KFA2 los de CoolMod? Que tal? como son? Alguna prueba y alguna imagen?
[babas] [babas]


Con ella desde el viernes pasado, acompañada de 9700k @5.0, 32gb 3600mhz y Corsair HX850. Resolución 3840x1080p (samsung HG90)

Viniendo de una 1070ti he doblado los FPS en MS Flight Simulator.
Mi benchmark actual consiste en pausar el juego sobre Madrid de noche con clima nuboso. Gráficos bastante tuneados respecto a CPU thread load pero en efectos y memoria en High-ultra.

A más de 1000pies de altura sobre el Nudo de Manoteras mirando a Plaza de Castilla, he pasado de tenerte 40fps max a 80fps.
A la altura de los tejados del Bernabeu mirando hacia Atocha, he pasado de tener 20fps y un timimg de 50ms en la 1070ti a 45fps y 20ms.

Ayer empecé a hacer undervolting porque Hwinfo me cantaba continuamente GPU Power Limit cuando se pone al 100% (tiene 320w de TDP), estoy a ver si consigo que el Average se mantenga en NO durante las sesiones de vuelo.
Las pruebas que hice con la app Extreme Tuner fueron satisfactorias y es una gran ventaja poder hacerlo desde el móvil sin tener una ventana abierta en Windows. Haces el cambio, aplicas y se ve al instante en el juego/sistema.

Las luces RGB llaman mucho la atención con los ventiladores transparentes como en la AIO Cooler master ML360, la tengo sin conectar los leds y me entran ganas de liarme la manta a la cabeza para que se iluminen también.
Los RGB de la GPU esta conectado al header de la PCB ASUS y me muestra la temperatura de la CPU (verde amarillo rojo) No se como poner que la PCB muestre la temp de la GPU.

Una foto encapsulada, el radiador de la CPU está fuera de la caja, quien quiere ese calor ahí dentro?

Imagen
http://drive.google.com/file/d/1P-NBSID ... p=drivesdk
@Aradan para la strix 3090 asus recomienda 850w.
Aradan escribió:Buenas, en este hilo se comenta que las fuentes Tacent no son buenas.

He mirado la mía y resulta que es una Tacens. Como de todas formas tenía que cambiarla porque quiero comprar la Asus ROG Strix 3090 OC, necesito 3 cables PCI-E de 8 patillas y la mía solo tiene 2.

Me he informado un poco y como quiero ir con margen para la próxima generación de hardware he pedido una Corsair AX1200i. Creo que con Corsair estáis contentos, no?

Todavía estoy a tiempo de cambiar el pedido.

¿Me podéis decir si es una adecuada?

Entiendo que con 1200w voy sobrado, recomiendan 750 pero como no quiero tener que cambiar de fuente otra vez dentro de 2 años pienso que no está demás ir un poco holgado.

Gracias


Yo fuentes he probado mil y jamas he estado tan contento como la corsair ax1600i para mi una gran fuente

Imagen

Imagen

Imagen

Imagen

Imagen
medearu1986 escribió:
Aradan escribió:Buenas, en este hilo se comenta que las fuentes Tacent no son buenas.

He mirado la mía y resulta que es una Tacens. Como de todas formas tenía que cambiarla porque quiero comprar la Asus ROG Strix 3090 OC, necesito 3 cables PCI-E de 8 patillas y la mía solo tiene 2.

Me he informado un poco y como quiero ir con margen para la próxima generación de hardware he pedido una Corsair AX1200i. Creo que con Corsair estáis contentos, no?

Todavía estoy a tiempo de cambiar el pedido.

¿Me podéis decir si es una adecuada?

Entiendo que con 1200w voy sobrado, recomiendan 750 pero como no quiero tener que cambiar de fuente otra vez dentro de 2 años pienso que no está demás ir un poco holgado.

Gracias


Yo fuentes he probado mil y jamas he estado tan contento como la corsair ax1600i para mi una gran fuente

Imagen

Imagen

Imagen

Imagen

Imagen


Será maravillosa, pero para la mayoría de usuarios, esa fuente es un despilfarro.
A ver si me podéis resolver una duda porque en conexiones voy muy justito, me quiero pillar una 3070 y he visto que traen 2 conexiones de 8 pines, tengo ahora mismo una 2060 que utiliza una de 8 pines y del mismo cable sale otra de 8, es necesario que sean 2 cables distintos para alimentarla sin problemas o me vale con el que tengo?
Gracias
medearu1986 escribió:
Aradan escribió:Buenas, en este hilo se comenta que las fuentes Tacent no son buenas.

He mirado la mía y resulta que es una Tacens. Como de todas formas tenía que cambiarla porque quiero comprar la Asus ROG Strix 3090 OC, necesito 3 cables PCI-E de 8 patillas y la mía solo tiene 2.

Me he informado un poco y como quiero ir con margen para la próxima generación de hardware he pedido una Corsair AX1200i. Creo que con Corsair estáis contentos, no?

Todavía estoy a tiempo de cambiar el pedido.

¿Me podéis decir si es una adecuada?

Entiendo que con 1200w voy sobrado, recomiendan 750 pero como no quiero tener que cambiar de fuente otra vez dentro de 2 años pienso que no está demás ir un poco holgado.

Gracias


Yo fuentes he probado mil y jamas he estado tan contento como la corsair ax1600i para mi una gran fuente

Imagen

Imagen

Imagen

Imagen

Imagen


Yo tengo una EVGA de 1600wat también y la verdad que ahora nos va a venir de perlas xD
@Raizan Snake @medearu1986 @ram @djsote


Muchas gracias por vuestras respuestas. El pedido sigue adelante.

850W la Strix? Pues entonces he hecho bien. Mejor ir un poco sobrado que a falta.

Gracias.
hh1 escribió:
jrdj escribió:@hh1 Yo aqui tengo mis dudas...Yo tengo una 3090 TUF OC con +120 core +520 Memorias, pones el shadow of the tom raider en 1080 con todo atope y el Smaa x4 el filtro ese tocho y te va a unos 120 fps en zonas abiertas...En otras zonas cerradas si da mas claro pero estamos hablando de 1080 con una 3090 con OC, le metes una 3070 y no llegas ni de risa a los 144 hercios.

Siempre va a haber algún juego así,pero el 90% va a ir sobrada.
Le bajas dos mierdas que ni se notan y se te disparan los fps.en los demás no te hace falta.

Y puestos a hablar de fps ,de verdad notas en SotTR la diferencia de jugar a 120 o a 90?
No se nota.
En ese tipo de juegos puedes notar algo pasar de 60 fps a 90-100fps,pero llega un punto en que se nota 0.
Que a veces nos enmelonamos en los fps y la ultritis,cuando hay cosas que las bajas y no se perciben ,y los fps ,más de lo mismo.

Yo mismo he hecho la prueba en muchos juegos.
Bajos sombras,reflejos y demás un puntito,que ni se nota ni se percibe,y terminas ganado 15-20 fps (depende del juego)pasar de 100- 110 a 130 fps (por decir algo).
Luego miras bien y piensas todo,y ni se nota lo que has bajado h ni se percibe esa diferencia de fps.
Te hablo de un QHD 144hz que a lo que juego yo.

Es que quitando algún shooter y tal,no se nota nada.
Estamos muy cegados con estas cosas.Si quitásemos todos el Afterburner o el Fraps,no sabríamos si nos está yendo a 100fps o 144fps en la mayoría de juegos

Estoy jugando ahora a A Plague Tale con mi 1080 TI.
De serie,con todo en Ultra,si no recuerdo mal,fluctúa entre 80 y 120 fps ,depende de la zona.
Mira que me he puesto a bajar cosas un puntito.Visualmente lo veo IGUAL.
Ahora me va de 90 a 135 fps depende de la zona.Casi siempre por encima de 105fps.
Ni noto diferencia visual por la bajada de parámetros,ni noto mayor fluidez.
Así que,es lo que digo,mucha ceguera tenemos con estas cosas.

Por eso decía que una 3080 lo puedo entender en altos fps para darle competitivo,pero es que en la mayoría de juegos te dan exactamente igual 165,que 144,que 110 fps,porque no se notan.
Al menos si subes a QHD o 4K,lo vas a notar de otra forma.Pero a 1080?Me parece un desperdicio


Yo tenia un asus 2k IPS de 144hz y lo he vendido para comprarme el msi optix 1080p IPS y 240hz. Te pones a jugar a cualquier shooter y la diferencia se nota bastante. No es lo mismo jugar entre 110-130 fps que 180-230 a juegos como el BF5 o Call of duty. Evidentemente para jugar al the witcher pues se nota menos.
Tengo un 9900k y una 2080 ti y vaya que si aprovecharé la 3080 con mi monitor de 1080 p.
ram escribió:@Aradan te dejo el enlace de asus sobre las fuentes recomendadas.

https://dlcdnets.asus.com/pub/ASUS/Acce ... _TABLE.pdf


Muchas gracias @ram

Pues a ver si me voy a quedar corto para la próxima generación de procesadores. El consumo sube como la espuma en esta tabla.

No sé si ir a por los 1600W como @medearu1986
Después de esto va a haber todavía menos stock de las RTX 3000 [carcajad] [carcajad]

Imagen

Se queda bastante por debajo de la RTX 3080.
beatle escribió:Después de esto va a haber todavía menos stock de las RTX 3000 [carcajad] [carcajad]

Imagen

Se queda bastante por debajo de la RTX 3080.


Pues yo las reviews que he mirado es similar a la 3080, solo un pelín mas bajo.
La tope de gama de amd se decia que tendra 16Gb. Espero que la respuesta de nvidia sea sacar la 3080 de 20GB pronto.
ram escribió:@beatle según esa tabla compite con la 3080 .

https://www.guru3d.com/articles-pages/g ... ew,16.html


Si, pero Lisa no especificó si era la tope de gama o la gama media....

Puede que den la sorpresa o puede que no.

Un Saludo
Por la tabla 2 de 3 juegos están muy igualados con la 3080, si le meten 16 gb amd y ajustan precios , las 3080 de 10 gb serán las nuevas apestadas con la 2080ti xD.
Strophe escribió:Si, pero Lisa no especificó si era la tope de gama o la gama media....

Puede que den la sorpresa o puede que no.

Un Saludo


Seria raro que te pongan unas graficas del rendimiento de la gama media, ya que no impresionaría nada.
Que su tope de gama compita con la 3080 seria perfecto para el consumidor.
ram escribió:Por la tabla 2 de 3 juegos están muy igualados con la 3080, si le meten 16 gb amd y ajustan precios , las 3080 de 10 gb serán las nuevas apestadas con la 2080ti xD.


Wallapop va a estar que arde en unas pocas semanas solamente.
romero91 escribió:
ram escribió:Por la tabla 2 de 3 juegos están muy igualados con la 3080, si le meten 16 gb amd y ajustan precios , las 3080 de 10 gb serán las nuevas apestadas con la 2080ti xD.


Wallapop va a estar que arde en unas pocas semanas solamente.


Bueno al menos espero que no se insulte a la gente que las intente vender xD
ram escribió:@beatle según esa tabla compite con la 3080 .

https://www.guru3d.com/articles-pages/g ... ew,16.html


Según donde mires esta un poco por debajo o bastante por debajo:

Imagen
Mejor 10GB de VRAM a 19Gbps que 16 a la mitad, ya que montarán GDDR6 y no GDDR6X, que es una tecnología fabricada especificamente para NVIDIA.

Con 10 GB no va a haber cuello de botella en la cantidad de memoria en bastantes años pero con el ancho de banda si que lo hay en muchas situaciones.
ionesteraX escribió:
romero91 escribió:
ram escribió:Por la tabla 2 de 3 juegos están muy igualados con la 3080, si le meten 16 gb amd y ajustan precios , las 3080 de 10 gb serán las nuevas apestadas con la 2080ti xD.


Wallapop va a estar que arde en unas pocas semanas solamente.


Bueno al menos espero que no se insulte a la gente que las intente vender xD


No debería pasar eso hombre. Al menos no será mi caso. Yo tenía bien claro esperar a las de 20GB, y tras este mini avance, se intuye que llegarán antes de diciembre a este paso. Y veremos el tema precios..... Sabiendo todo esto, desde luego que no me dejaba más de 719€ por una RTX 3080 de 10GB.
Ojalá y la disfrutase yo desde ya, pero prefiero esperar unas semanas más.
Eso sí, a algunos que tenéis reservas para finales de noviembre o incluso diciembre.... las cancelaba, ya que podréis optar por una de 20GB. Mi opinión.
@beatle cierto, mientras no esten en reviews no se puede comparar.
ionesteraX escribió:
romero91 escribió:
ram escribió:Por la tabla 2 de 3 juegos están muy igualados con la 3080, si le meten 16 gb amd y ajustan precios , las 3080 de 10 gb serán las nuevas apestadas con la 2080ti xD.


Wallapop va a estar que arde en unas pocas semanas solamente.


Bueno al menos espero que no se insulte a la gente que las intente vender xD


Esperemos que no sea la misma gente que ha intentado especular con ellas...
Preveo lloros en 1 mes.
Veo que muchas nvidia 3080 y 3090 traen 3 DP y 2 HDMI, pero se pueden conectar 5 pantallas simultaneas?

Gracias
medearu1986 escribió:
Yo fuentes he probado mil y jamas he estado tan contento como la corsair ax1600i para mi una gran fuente

Imagen

Imagen

Imagen

Imagen

Imagen



Hasta que le metas una carga muy burra (que igual no lo haces nunca) y se te apague (al saltar la protección) y tengas que sustituirla por una T2 1600 que no limita el 12v.

La mejor fuente de 1600 es la T2, dicho por los mineros, que son los que testan bien las fuentes...




Vídeo del Crysis 3 a 3440x1440p settings al máximo con msaa 8x:

Aradan escribió:@Raizan Snake @medearu1986 @ram @djsote


Muchas gracias por vuestras respuestas. El pedido sigue adelante.

850W la Strix? Pues entonces he hecho bien. Mejor ir un poco sobrado que a falta.

Gracias.

en la pagina de Asus pone recomendada 750w
31123 respuestas