[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

Pues ojalá no suban, pero hasta que no estén en venta prefiero ser cauto.

Pero si al final quiero la 3080 yo no voy a pagar más de 750 por una custom, o esperar o si alguien comenta de alguna tienda de fuera donde le haya ibo bien por ese precio comprarla ahí.
Lemmiwinks escribió:
ionesteraX escribió:
pdriko31 escribió:@AlbertX si, igual me he explicado mal, lo que quise decir es que a mayor resolución, mayor carga tiene la gpu y a menor resolucion6, la gpu baja la carga y aumenta un "poco" la carga de la cpu, hay muchos videos que lo demuestran.


Al final tambien depende del juego pero como regla general es así, al estresar la gpu tanto subiendo la resolución ella se convierte en el cuello de botella por muy vieja que sea la cpu.

Por trastear yo he probado en mi ordenador viejo a juntar un 4770 con la 2080 y la ti, el resultado a 4K es que pilla los 120fps que admite la c9 en bastantes juegos como por ejemplo el Death Stranding, Youngblood, etc... si limitas a 60fps pues incluso va sobrada la cpu.

Por eso me hace mucha gracia cuando alguien pregunta si la cpu le hara cuello de botella con cpu's relativamente nuevas.

A ver si hoy levantan el embargo y tenemos benchs cawento

Entonces mi i56600k subido a 4,4ghz me va a funcionar perfecto cuando me pille la rtx3070??
Juego a 1440p 60hz

Me autocito a ver si alguien me puede dar su opinion
Pero las custom siempre han sido más caras, es normal que estén por encima de la FE.

@wargdevil Lo siento, no tengo ese juego :(
Lemmiwinks escribió:
Lemmiwinks escribió:
ionesteraX escribió:
Al final tambien depende del juego pero como regla general es así, al estresar la gpu tanto subiendo la resolución ella se convierte en el cuello de botella por muy vieja que sea la cpu.

Por trastear yo he probado en mi ordenador viejo a juntar un 4770 con la 2080 y la ti, el resultado a 4K es que pilla los 120fps que admite la c9 en bastantes juegos como por ejemplo el Death Stranding, Youngblood, etc... si limitas a 60fps pues incluso va sobrada la cpu.

Por eso me hace mucha gracia cuando alguien pregunta si la cpu le hara cuello de botella con cpu's relativamente nuevas.

A ver si hoy levantan el embargo y tenemos benchs cawento

Entonces mi i56600k subido a 4,4ghz me va a funcionar perfecto cuando me pille la rtx3070??
Juego a 1440p 60hz

Me autocito a ver si alguien me puede dar su opinion


En algun juego de mundo abierto donde la cpu tenga que hacer un gran trabajo tendrás problemas, un buen cuello de botella, por ejemplo en el nuevo assassins creed, en todos los demas seguramente te irá todo como la seda, yo tengo un i5, 9600k y le voy a meter la 3080 para 1440p, ahora bien, se que con los mundos abiertos me va a tocar bajar graficos, ya con el ac oddyssey tuve problemas de cpu usage...
Antoniopua está baneado por "saltarse el ban con un clon"
Bueno, pues iba a pillar la 3090 pero me habéis convencido... realmente, la 3080 para 4k es suficiente, y, a priori, el rendimiento de la 3090 frente a la 3080 no justifica que cueste el doble. Hablando para jugar. Está claro que para inteligencia artificial los 24 Gb de la 3090 serian crema. Yo voy a esperar un poquito, pues tengo la sensación de que saldrá la 3080 TI... también a ver que tal AMD y sobre todos a los BenchMark.
Vli escribió:Lanzo una duda que tengo: la 3080 pide una fuente de 750w, yo tengo una corsair de 650w 80+, según la calculadora de outervision me iría bien con el equipo que tengo más la 3080, supuestamente llegaría a los 570w de carga máxima. Pero igualmente no me fío, ¿debería de cambiarla por una de 750w?


Para el tema de la potencia lo importante es ver qué fuente tienes y de qué calidad, una bronce o una silver no te va aguantar los 650W (y ni siquiera los 600W), yo los cálculos que hice con mi equipo es que rondará los 597W, pero me he pillado una EVGA G3 80+ Gold Tier 1 de 750W para asegurar, pero sé que ni de broma va a llegar a eso, porque tengo un 3900 de bajo consumo
@francisco94
La paciencia siempre tiene premio. Si se terminan pronto no es recomendable comprar el primero, porque si tienes que tramitar RMA pasado el tiempo legal de desestimiento, te quedas sin dinero y sin tarjeta durante semanas.
Además, este año está la aparición de la gama de AMD, que por muy malo que sea, va a ser superior al de la 2080 ti y obligará a nvidia a sacar tarjetas con más vram o versiones super/ti.

Creo que si bien era sensato esperar a ver lo que nvidia tenía que sacar antes de ir a por una de la gama 20xx , también lo es aguantar un poco al movimiento de AMD.

Mi opción personal sería la 3080 rtx pero una vez se sepa cómo rinde en cada juego y sepamos si es fiable en tema averías o no, ya que ese proceso de fabricación de samsung es una incógnita. Esperemos que sea todo un éxito y que AMD tenga algo que compita seriamente en la gama media ya que eso va a hacerle ganar terreno donde realmente se factura.
Estoy pensando en comprarme un monitor de 49" ultrapanoramico de 5120x1440 (actualmente tengo 3 monitores 1080p) para trabajar y utilizarlo como monitor principal.

El equipo nuevo seguramente será un rizen de los nuevos. Creeis que con una 3080 será suficiente para jugar a 120fps o necesitaré la 3090?

Por otro lado, este año ha salido el monitor Samsung Oddysey G9 (5120x1440 a 240hz) para este entiendo que la 3090 sería lo suyo.... o no haría falta?

Muchas gracias.
Lemmiwinks escribió:
ionesteraX escribió:
pdriko31 escribió:@AlbertX si, igual me he explicado mal, lo que quise decir es que a mayor resolución, mayor carga tiene la gpu y a menor resolucion6, la gpu baja la carga y aumenta un "poco" la carga de la cpu, hay muchos videos que lo demuestran.


Al final tambien depende del juego pero como regla general es así, al estresar la gpu tanto subiendo la resolución ella se convierte en el cuello de botella por muy vieja que sea la cpu.

Por trastear yo he probado en mi ordenador viejo a juntar un 4770 con la 2080 y la ti, el resultado a 4K es que pilla los 120fps que admite la c9 en bastantes juegos como por ejemplo el Death Stranding, Youngblood, etc... si limitas a 60fps pues incluso va sobrada la cpu.

Por eso me hace mucha gracia cuando alguien pregunta si la cpu le hara cuello de botella con cpu's relativamente nuevas.

A ver si hoy levantan el embargo y tenemos benchs cawento

Entonces mi i56600k subido a 4,4ghz me va a funcionar perfecto cuando me pille la rtx3070??
Juego a 1440p 60hz

Juegas ahora perfecto a 1440p.60 FPS sin caídas de frames por culpa del procesador? Si tu respuesta es si, entonces te valdrá, pero si ves que no alcanzas los 60 FPS a esa resolución y la gráfica no está al 100% entonces tendrás que cambiar de micro, pero si quieres la respuesta corta, es SI, un i5 de de 4 núcleos a día de hoy está desfasado
@darkelphos
3080 es más que suficiente. Los monitores con refresco de pantalla variable, te dan fluidez de sobra mientras no baje del límite inferior que admita.
Antoniopua está baneado por "saltarse el ban con un clon"
¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?
Antoniopua escribió:¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?


Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%
descoat escribió:@darkelphos
3080 es más que suficiente. Los monitores con refresco de pantalla variable, te dan fluidez de sobra mientras no baje del límite inferior que admita.


Gracias! Actualmente solo juego en xbox x y los monitores del pc son unos ips baratunos de lg de hace 6 años... Asi que creo que notaré el cambio jejeje.
@Lemmiwinks El problema es que nadie sabe sobre los juegos futuros cuanto cpu van a usar, con todos los juegos salidos hasta el dia de hoy te digo si, los que salgan en 2021 imposible saberlo
Smoje escribió:
Antoniopua escribió:¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?


Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%


El RDR2 no alcanza el qué con qué?
@darkelphos llevo tiempo siguiendo ese monitor y no me acaba de convencer lo visto del hdr, ni los problemas con gsync y encima no es hdmi 2.1.


me esperare a modelos nuevos, encima una remesa la retiraron del mercado por fallos de montaje.
Antoniopua escribió:¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?


Siempre depende del juego, ya he dicho que con una 2080 superas esos 60fps en muchos.
descoat escribió:@francisco94
La paciencia siempre tiene premio. Si se terminan pronto no es recomendable comprar el primero, porque si tienes que tramitar RMA pasado el tiempo legal de desestimiento, te quedas sin dinero y sin tarjeta durante semanas.
Además, este año está la aparición de la gama de AMD, que por muy malo que sea, va a ser superior al de la 2080 ti y obligará a nvidia a sacar tarjetas con más vram o versiones super/ti.

Creo que si bien era sensato esperar a ver lo que nvidia tenía que sacar antes de ir a por una de la gama 20xx , también lo es aguantar un poco al movimiento de AMD.

Mi opción personal sería la 3080 rtx pero una vez se sepa cómo rinde en cada juego y sepamos si es fiable en tema averías o no, ya que ese proceso de fabricación de samsung es una incógnita. Esperemos que sea todo un éxito y que AMD tenga algo que compita seriamente en la gama media ya que eso va a hacerle ganar terreno donde realmente se factura.


Vale, entonces me toca seguir esperando... ¿Se sabe cuando van a anunciar las de AMD? ¿Mi Ryzen 3700x va de sobra para las nuevas gráficas y jugar a 2K/144fps?
Metalyard escribió:
Smoje escribió:
Antoniopua escribió:¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?


Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%


El RDR2 no alcanza el qué?

No alcanza los 60 fps en 4k con todo en ultra con la mejor gráfica que hay actualmente: 2080ti
@ionesteraX Por si te animas y te apetece, es de decarga gratuita. Así sé si poner a la venta mi 4790 o quedármelo con una de las nuevas gráficas.
@wargdevil Envíame el link de descarga por MP y lo instalo esta tarde.
el rdr2 es 1 castaña de optimizacion
la 3080 tp podra moverlo (basicamente pq ni con un nvlink de 2080ti se mueve a 60fps contanstes ultra)
la 3090 supongo q si
pero gastarse 1600e para mover a 60fps un juego q la ps4 lo corre a 30fps es de risa
ayran escribió:
Metalyard escribió:
Smoje escribió:
Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%


El RDR2 no alcanza el qué?

No alcanza los 60 fps en 4k con todo en ultra con la mejor gráfica que hay actualmente: 2080ti

Con assets gráficos rotos, a ver cuándo empezais a entender que la opción ultra (nightmare, insane o cómo la quieran llamar) no es significativo de calidad de imagen, por qué en la mayoría de las ocasiones meten filtros que no se notan y destrozan el rendimiento, mi consejo es ajustar siempre los gráficos de un juego sin perder calidad gráfica y sin dejarse llevar por el marketing del "ultra"
Para muestra un botón, en el Assassins Creed oddissey había una opción que eran "nubes volumétrica" si bajabas de ultra a medios, no solo no se notaba en nada (literalmente) si no que encima ganabas 20 FPS
---------------------------------------------------------------------------------

Por cierto ya que te cito y sin malos rollos, os emplazo a los más curiosos del hilo a que leáis mis mensajes de junio en la página 15 de éste foro
XD
Yo dije ese día que saldría la 3090 (pensé que se llamaría 3080ti a 1000€ 3080 a 700€ y 3070 a 500€, pero que han hecho, pues han sacado la 3090 (A.K.A TITAN AMPERE) 3080 700€ y 3070 500€ y se han guardado para julio la 3080ti que saldrá sobre los 900€ igualando en rendimiento a la 3090 ( guardaros este mensaje)
@kikomanco @elamos @AlbertX De momento me aguanta el tipo bien mi CPU, pero ya con la mueva generacion de consolas y viendo que su fuerte es la cpu, supongo que ya se me quedará muy cortos esos 4 nucleos, con los 8 de las consolas.
Aguantare hasta el año que viene, y ya me meto en renovar placa y cpu, este año el gasto esta destinado en la gpu.
Grcias por vuestras respuestas! XD
sobre el rdr2, tengo videos subidos a youtube y con la 2080ti 4k max settings, andaba entre 40 y 60 fps segun la zona.

asi que intuyo que la 3080 deberia estar cerca de los 60 estables, tambien el video lo grabe cuando salio el juego en pc, imagino que alguna optimizacion de drivers y del juego habra mejorado.


tigretong escribió:el rdr2 es 1 castaña de optimizacion
la 3080 tp podra moverlo (basicamente pq ni con un nvlink de 2080ti se mueve a 60fps contanstes ultra)
la 3090 supongo q si
pero gastarse 1600e para mover a 60fps un juego q la ps4 lo corre a 30fps es de risa


No te lo crees ni harto vino :-|

La 2080TI todo a Ultra en 4K lo podía mover a 45 fps de media, la 3080 va a ir más que sobrada para moverlo por encima de 60 fps tranquilamente
Tengo una duda,el adaptador que vendra para el nuevo tipo de conexion, ¿se conecta al extremo del cable,osea,une los dos de 8 pines en uno de 12 o será un cable que se conectará directamente a la fuente? Tengo ahora una 2070 y la fuente de 750w, estoy haciendo un pensamiento de cambiarme a la rtx 3080 y la duda que tengo es esa,porque las conexiones de la fuente las tengo un poco ocultas y me interesaria mas que fuera conexion al extremo,donde va conectada a la grafica ya
@ionesteraX

https://www.blizzard.com/es-es/apps/battle.net/desktop

Una vez instalado ese launcher, entras en el Call of duty Warzone y ya te deja instalarlo.

Muchísimas gracias tío, con foreros como tú da gusto!
tigretong escribió:el rdr2 es 1 castaña de optimizacion
la 3080 tp podra moverlo (basicamente pq ni con un nvlink de 2080ti se mueve a 60fps contanstes ultra)
la 3090 supongo q si
pero gastarse 1600e para mover a 60fps un juego q la ps4 lo corre a 30fps es de risa


Cuando leo estas cosas me dan ganas de arrancarme los ojos.

EL RDR2 es un juego muy bien optimizado, si para baremos usaras que la ps4 lo corre a 30fps, te digo que una r9 X270 underclocked del 2013 tambien lo mueve perfectamente a 1080p si colocas el juego con la misma configuracion de consola y a esa configuracion lo puedes correr tranquiamente a 4K 60fps con una 2080ti

El problema es que la gente quiere mover esa barrita hasta lo mas altos y esperar que no le afecte el rendimiento, habeis visto la burrada de cambias que hay entre nivel consola y nivel Ultra?

Hay mucha y aunque algunos parametros el cambio parece sutil lo que no terminan de entender es que para alcanzar un 20% mas de calidad visual a veces necesitas el doble de potencia.

Esto es como el raytracing, quizas la mejore visual que percibes no te parezca tan grande pero esa pequena diferencia grados de magnitud mas potencia

Aqui el RDR 2 corriendo a 30fps en la r9 270X https://youtu.be/ZxzDRkfeCxM?t=506
Drakenathan escribió:@lucer1 a por cual vas??


Iba a por una 3070 pero me para un poco los 8 gb y que no sea ddr6x, así que estiraré más el presupuesto.

Gwyn escribió:@lucer1 mejor que salga todo a la vez, no?

Menos riesgo de que se agote el stock.


Claro perfecto, a ver si van dejando reservar ya.

Saludos
Pep999 escribió:Pues me estoy planteando jubilar la 1060 y dar el salto a la 3070.
Entiendo que a no ser que saquen una tecnología nueva voy a ir sobrado para la nueva nextgen que se avecina (jugando a 1080).

Aunque podría esperarme la 3060.


Estoy exactamente ante el mismo dilema.
Actualmente con mi 1060 de 6GB, y quiero dar el salto para jugar a 1080, no se si la 3070 o esperar a la 3060 a ver que tal.. Cierto es que tengo un monitor @144Hz, pero con la 3060 o 3070 no creo que sea problema 1080@144Hz (me vale algo menos, no tienen que ser rocosos ni nada)

¿Alguna opinion?
@francisco94
Por norma general, el rendimiento de una tarjeta gráfica se ve afectada en gran medida por el juego que quieras mover. Así que según tus necesidades, has de configurar tu pc. No sólo es una tarea única de gpu y cpu, sino también la ram, los ssd, la fuente, placa ( pciexpress3.0 o 4.0, ddr4 o futura 5 ). Las nuevas consolas marcarán el suelo de la futura programación. Los Pc van a tener que actualizarse para garantizar ese mínimo y no estén descompensados. Así que toca cambio de generación y las nuevas nvidia 30xx están pensadas precisamente en eso.

Pero habrá un periodo de adaptación, así que aún no sabemos cuando la futura programación va a causar cuellos de botella y donde. Por ahora aún queda un año en esa transición, por lo que disfruta lo que tengas sin preocuparte.

Las AMD big navi saldrán a finales de año sin fecha de presentación, pero en breve sabremos algo.
Smoje escribió:
Antoniopua escribió:¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?


Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%

Que no los alcanza? Te lo sacas de la carita mágica? ( Escribí varita pero el magnífico corrector puso carita, veo que hasta el corrector quiere decir.... Que te lo sacas por la cara!!! )XD jajajaja
chrispro escribió:
Smoje escribió:
Antoniopua escribió:¿Cuantos fps creeis que podría poner en pantalla la 3080 a 4k? ¿Superará los 60 fps?


Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%

Que no los alcanza? Te lo sacas de la carita mágica? ( Escribí varita pero el magnífico corrector puso carita, veo que hasta el corrector quiere decir.... Que te lo sacas por la cara!!! )XD jajajaja


Habrá que bajar muuuchas cosas, porque en ultra 4k la 2080ti ni lleva a 40fps

https://youtu.be/Wl7stenIRgQ
ram escribió:@darkelphos llevo tiempo siguiendo ese monitor y no me acaba de convencer lo visto del hdr, ni los problemas con gsync y encima no es hdmi 2.1.


me esperare a modelos nuevos, encima una remesa la retiraron del mercado por fallos de montaje.


Si, yo también estoy siguiendo el tema, a ver si con la revisión lo arreglan o sale un modelo similar... Sino compraré el C49RG90 ya que el HDR no es tan importante para mi y el ahorro es considerable.

A ver si salen benchmarks de la 3080 con esas resoluciones y salimos de dudas :)
@rap_dora Con una 3070 irías muy sobrado.
@chrispro No llega no... creo que se queda de media en 57 FPS en la 3800 y 66 FPS en la 3090, que no son malos datos teniendo en cuenta los 40FPS de la 2080Ti
Strait escribió:
chrispro escribió:
Smoje escribió:
Teniendo en cuenta que al parecer el RDR2 no los alcanza pues... dependerá de cada juego de como esté optimizado y de como avancen los drivers, juegos como Cyberpunk seguramente sí les saque juego y los futuribles, pero los anteriores quizás tengan peor rendimiento porque no le saquen el 100%

Que no los alcanza? Te lo sacas de la carita mágica? ( Escribí varita pero el magnífico corrector puso carita, veo que hasta el corrector quiere decir.... Que te lo sacas por la cara!!! )XD jajajaja


Habrá que bajar muuuchas cosas, porque en ultra 4k la 2080ti ni lleva a 40fps

https://youtu.be/Wl7stenIRgQ

La 3080 le saca un 30-40% de rendimiento bruto a la 2080ti, no va a hacer falta bajar nada para mantener los 60Fps en 4K, al menos en el RDR2.
Smoje escribió:@chrispro No llega no... creo que se queda de media en 57 FPS en la 3800 y 66 FPS en la 3090, que no son malos datos teniendo en cuenta los 40FPS de la 2080Ti


Si una 3090 cuya área en metros cuadrados de la gráfica ocupa un tercio de mi casa jajajajaa

No es capaz de sacar 70 estables en ese juego en 4k.. una gráfica que presume de sacar 8 k 60hz en Destiny 2 sin dlss... y no sé cuántos juegos más.... eso me dirá claramente que antes de que acabe el año la gráfica no podrá con los juegos 4k a 60hz... Y dudo que eso sea así...

@Strait ese video corre con un 8700 que no es mal bicho pero con un 9900k .. el 10700k y adelante la 2080ti está un pelín arriba de ese video.

Por poner una media.. de 45 fps la 2080ti

Para llegar a los 60 , estamos hablando de un 25% de rendimiento.

Yo creo que la 3080 los maneja de sobra y la 3090 se la saca de 80 a 90...


@Vli este chaval piensa como yo
descoat escribió:@francisco94
Por norma general, el rendimiento de una tarjeta gráfica se ve afectada en gran medida por el juego que quieras mover. Así que según tus necesidades, has de configurar tu pc. No sólo es una tarea única de gpu y cpu, sino también la ram, los ssd, la fuente, placa ( pciexpress3.0 o 4.0, ddr4 o futura 5 ). Las nuevas consolas marcarán el suelo de la futura programación. Los Pc van a tener que actualizarse para garantizar ese mínimo y no estén descompensados. Así que toca cambio de generación y las nuevas nvidia 30xx están pensadas precisamente en eso.

Pero habrá un periodo de adaptación, así que aún no sabemos cuando la futura programación va a causar cuellos de botella y donde. Por ahora aún queda un año en esa transición, por lo que disfruta lo que tengas sin preocuparte.

Las AMD big navi saldrán a finales de año sin fecha de presentación, pero en breve sabremos algo.


El equipo me lo compré en Febrero, es bastante actual, Ryzen 3700x, 16 gb de ram a 3200, SSD etc...
Madre mia los terraplanistas diciendo que capan las graficas [carcajad] , es al contrario, las optimizan mas. He tenido la 980 cuando las 1000 estaban en el mercado y la 1070 cuando las 2000 estaban en el mercado, y ninguna de ellas ha rendido peor que antes sino que van iban mejor. Eso si, si sale un driver malo te lo comes un tiempo ya que tardan mas en actualizarlas al ser antiguas.




ayran escribió:
joanvicent escribió:
ayran escribió:De verdad que no hay ningún sitio donde te permitan reservar una?? Hay que esperar al 17 para comprarla en serio??


No prefieres esperar a ver benchmarks donde veamos las temperaturas , ruido, etc? igual nos encontramos con que las FE son la repera, o bien que no, o bien que hay fabricantes que rehacen su propio pcb para que sea más eficiente en cuanto a disipación del calor y son mejor apuesta.. porque por lo leído es un problema el tener que disipador esos pcbs tan pequeños, zotac va a sacar unas tarjetas preciosas, igual son una maravilla, ¿en serio no quieres esperar a ver qué tal son ? total van a ser unos días donde espero que veamos las pruebas reales. [beer]

No, me da igual que sean 5° más frías unas que otras o un poco más ruidosas unas que otras. No tengo gráfica y estoy sin ordenador y lo necesito.

PD: Estoy entre las founders y las zotac. Son las que más me gustan.


Te recomiendo la founder, las founder no son la basura que se hace creer por internet(quizas las antiguas de turbina si que eran malas, pero las actuales están muy bien), ademas que son mas baratas y tienen cierta exclusividad al ser limitadas, son mas bonitas, tienen mejores materiales y se reservan los mejores chips para ellas, ademas que las temperaturas no se alejan mucho de una custom(la 2080 rog strix llega a 66º y la founder 70º) .

Recien me pille una 2080 founder de 2º y nada que ver con las custom, la calidad de materiales es espectacular con aluminio y buenos materiales por todos lados mientras las custom son puro plastico baratucho, y las temperaturas son excelentes 60-70º a tope de carga y no hace mucho ruido. Tuve una 1070 tope de gama, la Asus rog strix y si, tenia muchos ventiladores y todo lo que quieras pero comparada con una founder 2000 nada que ver, y al comprar la 2080 tenia miedo por eso de ser founder porque todos decian que eran peores.




Por cierto para las risas, me lo encontre de repente [carcajad]

Segun las graficas que ha sacado nvidia la rtx 3090 rinde un 50-55% mas que la rtx 2080ti, y si la 3080 es un 30-40% mas que la 2080ti, la diferencia entre ambas es muy pequeña, asi que no merece la pena la 3090 al precio que esta.
Yo seguire creo con la 2080ti porque no me merece la pena pasar a la 3080.
Hay que reconocer que en tema de marketing los de nvidia son unos genios, la nvidia Titán nunca se ha vendido para gaming y ahora todo dios la quiere por qué le han cambiado el nombre y le han puesto RTX 3090, los que paguen 1600€ por ella veras que cara se les van a quedar cuando nvidia saque la 3080ti (que lo hará) por 900€ e iguale en rendimiento a la 3090 con 16 gigas de VRAM, es que lo estoy viendo venir, para mayo estará en la calle XD
@Ruben1001 la diferencia real entre la 3090 y la 3080 va a estar sobre el 12% +-
DavET está baneado por "Saltarse el ban con un clon"
La 3060 saldrá ??? o ... [fiu]
Meter una gráfica de estas nuevas en un equipo con una placa pci e 3.0 qué implicaría exactamente ???
Gracias.
@francisco94 vas bien. Como mucho, un cambio de ssd por los nuevos compatibles con IO ... pero siempre que lo necesites.
descoat escribió:@francisco94 vas bien. Como mucho, un cambio de ssd por los nuevos compatibles con IO ... pero siempre que lo necesites.


Con mi SSD voy bien, ¿Tendría algún problema con mi placa al no tener PCI 4.0? ¿Bajaría algo el rendimiento por esto?
DavET escribió:La 3060 saldrá ??? o ... [fiu]
Meter una gráfica de estas nuevas en un equipo con una placa pci e 3.0 qué implicaría exactamente ???
Gracias.

No implica nada, un PCI 3.0 no le hará cuello s la 3090/3080/3070/3060 tranquilo por eso, es más una 2080ti en un PCI 2.0 es un 2% más lenta que un un 3.0 la diferencia es marginal y eso que hay muchísima más diferencia en un 3.0 a un 2.0 que de un 3.0 a un 4.0
Por lo que leo entonces, absolutamente nadie recomienda comprar una 3090 para todo lo que dure la generación 30xx?
DavET está baneado por "Saltarse el ban con un clon"
kikomanco escribió:
DavET escribió:La 3060 saldrá ??? o ... [fiu]
Meter una gráfica de estas nuevas en un equipo con una placa pci e 3.0 qué implicaría exactamente ???
Gracias.

No implica nada, un PCI 3.0 no le hará cuello s la 3090/3080/3070/3060 tranquilo por eso, es más una 2080ti en un PCI 2.0 es un 2% más lenta que un un 3.0 la diferencia es marginal y eso que hay muchísima más diferencia en un 3.0 a un 2.0 que de un 3.0 a un 4.0


[oki]
Saltarías tú de 1060 a una 3070 o 3060 si es que sale ??? Me valdrá para jugar en alta 4K 60Hz o poco mas ???
Vas a pasar tú a una 3080 ???

A lo mejor nos esperamos a test de rendimiento fiables [jaja]

Perdona por la tanda y gracias.
@francisco94
Si quieres resoluciones muy altas y fps muy altos, entonces sí necesitarías un pciexpress mayor, pero tu procesador lo soporta. Como te digo, no deberías preocuparte nada y disfrutarás la experiencia final de sobra. Obviamente hay gente que quiere los 240 fps/hz a altas resoluciones con juegos de esports y eso ya sí que puede necesitar un ancho de banda que roce el límite del 3.0 pero es algo puntual.

No debemos dejarnos llevar por estar a la última, porque nadie va a programar para necesitar lo último sino la gama media.
31123 respuestas