[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

anavas44 escribió:
Strait escribió:
anavas44 escribió:
Eso es una falacia como la copa de un pino. En youtube hay cientos de videos probando drivers viejos con recientes en arquitecturas antiguas y no hay variación de rendimiento. Ejemplo:

https://www.youtube.com/watch?v=uEh6hT-nYZo


Hubo una época cuando salieron las 2000 que arruinaron los drivers para la serie 1000. Yo lo sufrí con mi 1070. La diferencia era real

https://youtu.be/mFSLro_OXLQ


Repito: es una falacia. En todo caso debió ser algún fallo puntual de esos drivers puesto que los siguientes (417.71) el rendimiento era igual de nuevo:

https://youtu.be/zKF8NHPOaGM

Y no sólo eso sino que comparando drivers de la época, no sólo no perdían sino ganaban rendimiento:

https://www.youtube.com/watch?v=6_61K2Irgpo

Y hablo por experiencia propia también, pues hasta principios de año tuve una 1080 Ti.


No es por nada, pero desde los 416.94 a los 417.71 pasaron casi 2 meses. 2 meses en los que los usuarios de las series 10 estuvimos con un rendimiento de mierda mientras los que se compraron de salida las 2000 no tenían estos problemas.
tigerscream escribió:Something amazing just arrived for review (and it's not related to any of the recent launches). That's about all I can say at this point. But daaaang initial impressions are fun.


Qué será? Tengo curiosidad

goku593 escribió:Vamos a ver, ¿en serio creéis que AMD va a presentar algo que siquiera se acerque a estos monstruos de Nvidia? AMD se va a quedar con la gama baja- media de tarjetas gráficas, y ni eso, porque cuando Nvidia saque la 3060 rindiendo como una 2080 ya verás tú. Nvidia con el DLSS 2.0 está demostrando el poderío de sus tecnologías, y la competencia ni está ni estará a la altura.


¿Fuente?

Veo muy osado ir soltando esas cosas sin tener un fundamento.

Y por el bien de todos los jugadores, esperemos que te equivoques. Mucho.
Parece que Nvidia por fin se ha sacado la chorra y la está paseando por el mercado.
Que barbaridad. La verdad es que hacía falta una sacudida así para ajustar precios y dar un salto de generación.

Me da pena la gente que se ha gastado hace nada mas de 1000 euros en un "pepino" que se ha visto superado de la noche a la mañana por una gráfica de casi la mitad de precio. Debería haber algun programa de devolución o compensación para todos ellos.

Las ventas de segunda mano han quedado literalmente destrozadas en un plisplas.
kikomanco escribió:
anavas44 escribió:
Strait escribió:
Yo discrepo un poco. Con la salida de las nuevas gráficas nvidia empezará a maltratar a generaciones antiguas como siempre, sacando drivers que empeoran el rendimiento en algunos juegos. Los desarrolladores desarrollarán sus juegos basandose en las gráficas actuales y no en las de generaciones anteriores. Seguramente nos quedaremos sin alguna función nueva que saquen en exclusiva para las RTX3000, y si no tiempo al tiempo.


Eso es una falacia como la copa de un pino. En youtube hay cientos de videos probando drivers viejos con recientes en arquitecturas antiguas y no hay variación de rendimiento. Ejemplo:

https://www.youtube.com/watch?v=uEh6hT-nYZo

Cada vez que alguien dice que nvidia capa por drivers sus gráficas de gamas anteriores muere un gatito, en fin, es un tema ya muy manido, mejor no hacerles caso


Yo creo que cada vez que alguien pone en duda eso sí que muere un ratito xD

No has visto noticias como la de Apple reconociendo que bajaba la potencia de los iPhone? Lo pillaron y reconoció pero apoyándose en que claro sus baterías son más viejas y por eso disminuía la potencia del procesador, para que durase más el dispositivo encendido.

En este mundo la obsolescencia programada es algo reconocido por todos y Nvidia no iba a ser menos.

Para ello está la prueba de los vídeos en la cual con los últimos drivers las gráficas de pasadas generaciones rinden menos que con los drivers de su generación...

No mueren tantos gatos según dices tú en...
@chrispro Por que no haces tu mismo las pruebas y nos dices?

Aqui estoy yo haciendo las mias, me encantaria tu ver tus resultados:

https://youtu.be/XkbTkwzeV2U
AlbertX escribió:@chrispro Por que no haces tu mismo las pruebas y nos dices?

Aqui estoy yo haciendo las mias, me encantaria tu ver tus resultados:

https://youtu.be/XkbTkwzeV2U


mas claro no se puede... [toctoc] [toctoc] [toctoc]


GDDR6X no era exclusivo de nvidia por ahora?
AlbertX escribió:
DaNi_0389 escribió:
AlbertX escribió:@chrispro Busca benchmarks entre una 2080ti y una rtx titan y la titan rinde si acaso 5% mas



Pero a ver, que la 3090 tiene un 20% mas de shaders, un bus mas grande y las memorias son un pelin mas rapidas que las de la 3080, es imposible que rindan lo mismo [+risas]


Revisa las especificaciones de la rtx titan



Que me cuentas de la titan si estoy hablando de la 3090 vs 3080 [+risas]

@Jexux

Es posible que pase lo que comentas, no lo niego, o quizá con buena refrigeración no ocurre, vete a saber.

En definitiva que lo que decía que la 3090 y la 3080 iban a rendir igual no tiene sentido ninguno.
ocihc escribió:Me da pena la gente que se ha gastado hace nada mas de 1000 euros en un "pepino" que se ha visto superado de la noche a la mañana por una gráfica de casi la mitad de precio. Debería haber algun programa de devolución o compensación para todos ellos.
.

Te vamos a dar el previo nobel de la paz. XD XD

A mi no me dan ninguna pena. Era esperable y es lo normal en informatica.
ocihc escribió:Parece que Nvidia por fin se ha sacado la chorra y la está paseando por el mercado.
Que barbaridad. La verdad es que hacía falta una sacudida así para ajustar precios y dar un salto de generación.

Me da pena la gente que se ha gastado hace nada mas de 1000 euros en un "pepino" que se ha visto superado de la noche a la mañana por una gráfica de casi la mitad de precio. Debería haber algun programa de devolución o compensación para todos ellos.

Las ventas de segunda mano han quedado literalmente destrozadas en un plisplas.


Nvidia lleva generación tras generación sacándose la chorra.. eso de por fin... Lleva haciéndolo años.

@wildchild_bcn @AlbertX

Buenas!! En su día lo hice con la 950 y pasaba descaradamente. Voy a instalarla y hago un video majete !!

Lo mismo la 1060 que precisamente no es una gráfica que rinda poco aguanta el tirón aún en este sentido. No me cabe duda
@DaNi_0389 Te hablo de la titan porque la 3090 es la nueva titan dicho por el propio CEO de nvidia.
Y la RTX titan aun con mas memoria mas ancho de banda y mas core apenas si rinde mas que una 2080ti

@chrispro Con que GPU te gustaria que lo hiciera,

Tengo disponible viejunas una GTX 580, una 970, una 750 ti y una 1050ti.

Espero busques juegos de la epoca y juegos actuales y compares siempre con la misma version del juego
@AlbertX si, igual me he explicado mal, lo que quise decir es que a mayor resolución, mayor carga tiene la gpu y a menor resolucion6, la gpu baja la carga y aumenta un "poco" la carga de la cpu, hay muchos videos que lo demuestran.
A ver @AlbertX

Ayer dijiste esto [rtfm]

AlbertX escribió:Empiezo a creer que la 3090 y la 3080 rinden exactamente igual y solo cambia La RAM.



Esto es imposible, la 3090 tiene más cudas, más bus, y memorias más rápidas que la 3080, olvídate de titanes de generaciones anteriores porque en este caso no es igual.

Ahora mismo es imposible que rindan igual.
battman80 escribió:De todos los que estais escribiendo por aqui, empiezo a pensar que ni el 50% va a comprar realmente una Ampere.
Entre eso y las cosas que lee uno por el hilo de la SX y el de la PS5, que por allí anda nuestro amigo "Nanite" animandoles la fiesta con los micropoligonos como si fuese el gurú de la ingenieria informatica (ya eso marca el nivel del usuario medio por esos hilos, que hay que ver la objetividad y las mesuras que utilizan [facepalm], pero dice el refran que en el pais de los ciegos el tuerto es el rey ...), uno empieza a perder de verdad la esperanza en la humanidad.

Lo digo porque me da la sensacion de que algunos, o muchos, estan por aqui por motivos que distan bastante de tener en la mano, o en la cartilla, 800 euros para ir a comprar el dia 17 una Ampere. O teniendolos, no tienen la mas minima posibilidad o intencion de ir a hacerlo. O eso o esque durante los proximos 12 meses Nvidia va a vender mas Amperes que Sony PS5s...
No se yo, no se [facepalm]

Una cosa es dudar del nivel de realismo y veracidad de Nvidia, otra dudar de si te vas a gastar el dinero y por el mismo dinero el año que viene va a salir algo un poco mejor y te van a cantar tonto pelao al salir de tu casa por no esperarte, como sino supiesemos que la tecnología avanza cada dia y a cada momento y por el mismo precio, en el futuro, siempre conseguiras mejores prestaciones. Ya ni siquiera las consolas son garantia de "durar" años sin que tu vecino tenga algo mejor que tu y eso no te deje dormir por las noches (que parece que es el verdadero problema de muchos...). Pero otra cosa es estar buscandole los tres pies al gato, o poniendo toda la fe y la esperanza, en que estas Ampere que parecen tan maravillosas, sean poco menos que un desastre, o una estafa, porque te jode que sean asi y Nvidia no se pegue un ostiazo de epoca frente a otras opciones, o simplemente sean tan carisimas que ni dios pueda comprarlas y quede claro que "tu opcion" es la mas chachi porque "por ese precio para todos tiene muxha potensia".

Me encanta esa gente que tiene la capacidad mental de convencerse asi mismo de que lo suyo es lo mejor, y sino lo es, igualmente ellos SÍ ven claramente que es lo mejor, y aunque les ofrezcas lo mejor, lo rechazan con tal de no dar su brazo a torcer (demencia, me parece que se llama), no se te ocurra intentar convencerlos con objetividad ni exactitud, pues la ciencia no tiene nada que hacer en el terreno de la fe, y la magia.

Lo siento, quienes comprendan de que hablo pues ya sabeis, y los que no, os pido disculpas, porque me canso ya de ciertas cosas.

Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio? Si sois el perfil de usuario de PC que le ha dado igual estar 9 años con una 960 o que se yo, que mas os da si la ampere de 500 o la de 700 rinda mas o menos? Aunque sea de carton os va a dar igual...salvo que penseis centraros "en serio" en el PC.

Los que no parais de decir que os vais a pillar una 3090, porque claro, a esa si que no podeis ponerle pega a la hora de defencer vuestro verdadero amor (enfermizo), porque se lo cepilla por todas partes...y ademas cumple el requisito de ser carisima y siempre podreis usar eso como argumento en contra, peeero, esa 3070 y esa 3080 tan "baratas" y tan "superiores"? Nahhh, esas seguro que no rinden, se quedan tiradas en dos años, o menos, no les caben los nanites dentro! A esos les digo que MIAU, uno ya es muy viejo, y antes que el cojo de un paso ya sabe que es cojo.

Y los que no sabeis si coger estas o esperar a ver si salen Tis o supers, porque al final os vais a comprar todo lo que vaya saliendo que sea un poco mejor, pues no lo dudeis tanto, pillar una de estas, y si despues sale una Ti, en un año, o en dos, cojones, ya habeis disfrutado todo ese tiempo, las revendeis, que siempre hay por debajo alguien interesado en pillar lo que a otros les sobra por el motivo que sea, y cogeis lo nuevo, y a seguir con la vida.

Y sino, pues a esperar hasta diciembre, por si AMD se saca la chorra, tiene gráficas que duplican el rendimiento (hablemos claros, los frames en los juegos tochos a 4k) de las nvidia por la mitad de dinero, y no pasa nada, ganamos todos, nos compramos Radeons, y a disfrutar de los videojuegos a todo tren. Eso si, asumid que si son AMDs de 500 euros, no les cabran dentro los nanites necesarios para los juegos "powa" a 4k y RT, para eso hará falta minimo una Radeon de 2000 euros, porque no van a tener tecnologia de micropoligonos con pesicola.


Bah, y perdon por no ser politicamente correcto, pero esque...esque... [facepalm]

Suerte a todos [beer]


Tienes razón en el contexto y hay que diferenciar a varios tipos de usuarios y logicamente partiendo en que cada uno se gasta su dinero en donde quiere y como quiere, yo por ejemplo ya peino canas y ya estaba caharreando con pcs y vga cuando seguro que la mayoria de aqui aun chupaban teta.

Yo vivi en primera fila profesionalmente cuando en el mercado de graficas habian s3, intel, 3dfx, ati, nvidia, he tenido la suerte de probar en mi casa la mayoria de graficas aceleradoras en 3d de aquella epoca y posteriormente graficas para la historia como las riva tnt2, las ultimas voodoo, ati all in wonder, la 1º gforce, etc.

En aquella época no había tanto mercado y variedad como ahora donde tienes menos fabricantes que no ensambladores pero mas gamas a elegir, y era muy poca gente si lo comparo con la época actual la que cogía una vga top para su pc y me pase mas de 6 años currando de ello, aunque mi clientela principalmente eran pymes.

Ahora la sociedad es puro consumismo y como hay gente que se cambia de mobil cada año la hay que se cambia de vga cada año, aunque solo sea para presumir de firma en un foro o sacar una puntuacion en un benchmark o presumir de que tengo lo ultimo en pc aunque no le saque provecho que de estos conozco a alguno.

Yo hubo una época que me desconecté casi totalmente al cambiar de sector laboral o había mas tregua en el mercado no lo recuerdo, pero si que recuerdo que cuando se me peto la única gráfica en mas de 20 años que fue una pny gt 8800 ultra y no saber que graficas había en el mercado y compre una gtx 285 y de ahi pase a una gtx 770, 980ti, 1080ti que es la que tengo actualmente y pasare a la 3080 en breve.
jacklolita escribió:https://twitter.com/RyanSmithAT/status/1301989463707365376?s=19


Puede que tengamos los primeros benchmarks al final del día pues?

@wildchild_bcn eso tenía yo entendido... :-?


Esto viene de un tuit que ya posteé en este mismo hilo ayer. Mal traducido además.

Ni se sabe si se va a llamar así. Y no va a ser X ni HBM2.

Será GDDR6.
pdriko31 escribió:@AlbertX si, igual me he explicado mal, lo que quise decir es que a mayor resolución, mayor carga tiene la gpu y a menor resolucion6, la gpu baja la carga y aumenta un "poco" la carga de la cpu, hay muchos videos que lo demuestran.


Al final tambien depende del juego pero como regla general es así, al estresar la gpu tanto subiendo la resolución ella se convierte en el cuello de botella por muy vieja que sea la cpu.

Por trastear yo he probado en mi ordenador viejo a juntar un 4770 con la 2080 y la ti, el resultado a 4K es que pilla los 120fps que admite la c9 en bastantes juegos como por ejemplo el Death Stranding, Youngblood, etc... si limitas a 60fps pues incluso va sobrada la cpu.

Por eso me hace mucha gracia cuando alguien pregunta si la cpu le hara cuello de botella con cpu's relativamente nuevas.

A ver si hoy levantan el embargo y tenemos benchs cawento
@DaNi_0389 Es imposible que rindan igual, pero una cosa es que rinda 5% mas y otra que rinda 20% 25% mas

Si bien tiene mas CUDA core estos tambien son mas lentos, ademas las escalabilidad no es lineal 18% mas de CUDA core no significa 18% mas de rendimiento.

La TItan RTX y la 2080ti no rinden EXACTAMENTE igual la titan es ligeramente mas rapida un 2 o 3% pero para mi costando 2 veces mas pues me parece basciamente lo mismo.

Te repito revisa las especificaciones de la 2080ti y la titan y en PAPEL deberia rendir mas de lo que lo hace ne realidad.

Aqui la mayor diferencia la veo en RTX CORES y TENSOR CORE, pero eso significa que la diferencia se vera solo usando raytracing y dlss.

Ahora si rinde un 20% y ya al menos podria ser la diferencia entre jugar a 60 estables o no.

Y si mi problema es la VRAM, no me importa lo que me digan, tengo toda la semana haciendo Benchmarks con la 2080ti y la VRAM ya se hace corta a mayor resolucion, si juegas a 1440p 10 seran mas que suficientes por un rato, pero al llevar el juego a 4K el consumo se dispara mucho.

Y aunque no tengo intenciones de jugar a 8K por mera curiosidad hice pruebas a 8K y curiosamente juegos que me iban a 60fps en 4K me iban a 2 y 5 fps en 8K (aun cuando es 4X la resolucion por lo que pensarias que al menos a 10fps te iria) Y el motivo era la VRAM apenas iniciaba el juego podias ver como tardaba mucho mas en cargar texturas como se paraba a hacer swapping etc.

Y si ya se que es una prueba extrema y nadie juega en 8K (creo yo) pero esto demuestra que la Vram puede ser un cuello importante.

Y como dije en un video, me joderia verme limitado no por la potencia de la gpu sino por la Vram y como Nvidia ni ninguna partner parece querer sacar la version de 20GB de salida pues la unica alternativa es la 3090, pero joder el doble de precio por solo 5% tampoco, un 20% 25% y bueno sabiendo como son los precios de los top de gama lo aguantaria.

EL EMBARGO QUE SE LEVANTA HOY NO ES EL DE LOS BENCHMARK ES LA INFORMACION TECNICA
Creo que el levantamiento del embargo de hoy es solo para información técnica.

No para benchs.
Creeis que la 3080 me hará cuello de botella con un i7 10700?

Ahora en serio, yo voy a meter semejante bestia junto con un i5 9600k a 4.6 y con el ventilador de stock de intel junto con 16 gb ddr4, SSD Sata de 1tb y una super psu be quiet de 700w 100% modular, todo esto conectado en una mortar b360M 1151 y metido en una caja Zalman Z1 de hace 5 años xD

Ahora bien, me parece que con la 3080 se viene la Cooler Master H500M, porque la zalman me parece que ya se calienta mucho con una 2070.

El año que viene cambio de placa socket 1200 con pci 4.0 + proce intel, la nueva gama que saquen, el mas tocho y esta vez si, un disipador de verdad, aunque he de admitir que el de intel da buenos resultados si no haces Overclock
@Dark No te da no... Tendrías que cambiar la fuente de más potencia para tener cierto margen
chrispro escribió:
Nvidia lleva generación tras generación sacándose la chorra.. eso de por fin... Lleva haciéndolo años.


No, no lleva años sacándose la chorra. Lleva años sin competencia y eso ha sido aprovechado para abusar con sus precios.

Este salto tan grande en potencia unido a la bajada extrema de precio no lo había hecho antes.

Un saludo

@Nomada_Firefox
Pues si, soy asi de "bueno" jejeje. Me pongo en la situación de alguien que se ha dejado más de 1000€ hace una semana y ahora tiene en el mercado algo a la mitad de precio con mas de un 50% de rendimiento y, puf. Eso tiene que doler.
pga escribió:
battman80 escribió:Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio?


Pero quien pregunta algo que tiene una respuesta tan obvia [360º]


Quién tiene que mejorar su ratio de uso del foro, para poder seguir usando el de compra venta.
Hola quería preguntar, las custons saldrán el mismo día que las FE?, el día 17.

Gracias
pdriko31 escribió:
wildchild_bcn escribió:
pdriko31 escribió:No y menos a esa resolución, si fuera a 1080p a lo mejor.

Es que es una obsesión de muchas personas lo del cuello de botella cuando ven una cpu que no es del año pasado o más nueva....

Si nos ponemos tontos, si dejamos los juegos sin cap de frames hasta un ryzen 3600 -que es tan querido- haria cuello de botella a 2k :/

Lo sabes bien pero para dejarlo claro para otros compis... Si vais a jugar a menos de 60 e incluso menos de 100fps muy antiguo tiene que ser el procesador para que no funcione bien.

Totalmente de acuerdo, solo hay que tener un poco de conocimiento para saber que a mayor resolución, menor consumo de cpu y mayor de gpu tiene.

para nada, a menor resolucion mas fps puede dar un sistema, pero a mayor resolucion e igualdad de fps mas uso de todos los recursos de un sistema.
una imagen con mayor resolucion es una imagen mas rica en detalles y esos detalles de mas no se los inventa la gpu.
ejemplo, un mismo juego a 1080p 144fps comparado con 4k 144fps puede darte 3 situaciones, que a 4k el uso de cpu sea casi el mismo, que a 4k el uso de cpu sea un poco mayor o que a 4k el uso de la cpu sea mucho mayor, dependera de cuanta riqueza de mas gane la imagen al subir la resolucion o del motor grafico, eso ya seria profundizar mucho y yo no lo sabria decir, pero para saber que a mayor resolucion mas uso del sistema en todos los sentidos basta con buscarlo en google o youtube.

saludos
De verdad que no hay ningún sitio donde te permitan reservar una?? Hay que esperar al 17 para comprarla en serio??
Jexux escribió:
pga escribió:
battman80 escribió:Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio?


Pero quien pregunta algo que tiene una respuesta tan obvia [360º]


Quién tiene que mejorar su ratio de uso del foro, para poder seguir usando el de compra venta.



Entiendo que el que pregunta muchas veces es por desconocimiento o por estar seguro de que el upgrade es razonable... no todos tienen tanto conocimiento.
sitosnk escribió:
pdriko31 escribió:
wildchild_bcn escribió:Es que es una obsesión de muchas personas lo del cuello de botella cuando ven una cpu que no es del año pasado o más nueva....

Si nos ponemos tontos, si dejamos los juegos sin cap de frames hasta un ryzen 3600 -que es tan querido- haria cuello de botella a 2k :/

Lo sabes bien pero para dejarlo claro para otros compis... Si vais a jugar a menos de 60 e incluso menos de 100fps muy antiguo tiene que ser el procesador para que no funcione bien.

Totalmente de acuerdo, solo hay que tener un poco de conocimiento para saber que a mayor resolución, menor consumo de cpu y mayor de gpu tiene.

para nada, a menor resolucion mas fps puede dar un sistema, pero a mayor resolucion e igualdad de fps mas uso de todos los recursos de un sistema.
una imagen con mayor resolucion es una imagen mas rica en detalles y esos detalles de mas no se los inventa la gpu.
ejemplo, un mismo juego a 1080p 144fps comparado con 4k 144fps puede darte 3 situaciones, que a 4k el uso de cpu sea casi el mismo, que a 4k el uso de cpu sea un poco mayor o que a 4k el uso de la cpu sea mucho mayor, dependera de cuanta riqueza de mas gane la imagen al subir la resolucion o del motor grafico, eso ya seria profundizar mucho y yo no lo sabria decir, pero para saber que a mayor resolucion mas uso del sistema en todos los sentidos basta con buscarlo en google o youtube.

saludos

Si por supuesto que ha mayor resolución, mayor carga en todo el pc en general será, pero en proporción se la lleva la gpu sin duda.
ayran escribió:De verdad que no hay ningún sitio donde te permitan reservar una?? Hay que esperar al 17 para comprarla en serio??


No prefieres esperar a ver benchmarks donde veamos las temperaturas , ruido, etc? igual nos encontramos con que las FE son la repera, o bien que no, o bien que hay fabricantes que rehacen su propio pcb para que sea más eficiente en cuanto a disipación del calor y son mejor apuesta.. porque por lo leído es un problema el tener que disipador esos pcbs tan pequeños, zotac va a sacar unas tarjetas preciosas, igual son una maravilla, ¿en serio no quieres esperar a ver qué tal son ? total van a ser unos días donde espero que veamos las pruebas reales. [beer]
joanvicent escribió:
ayran escribió:De verdad que no hay ningún sitio donde te permitan reservar una?? Hay que esperar al 17 para comprarla en serio??


No prefieres esperar a ver benchmarks donde veamos las temperaturas , ruido, etc? igual nos encontramos con que las FE son la repera, o bien que no, o bien que hay fabricantes que rehacen su propio pcb para que sea más eficiente en cuanto a disipación del calor y son mejor apuesta.. porque por lo leído es un problema el tener que disipador esos pcbs tan pequeños, zotac va a sacar unas tarjetas preciosas, igual son una maravilla, ¿en serio no quieres esperar a ver qué tal son ? total van a ser unos días donde espero que veamos las pruebas reales. [beer]

No, me da igual que sean 5° más frías unas que otras o un poco más ruidosas unas que otras. No tengo gráfica y estoy sin ordenador y lo necesito.

PD: Estoy entre las founders y las zotac. Son las que más me gustan.
Desconozco el motivo técnico pero me extraña mucho que cualquier ordenador gaming con 16 gigas de ram vaya sobrado para jugar pero las gráficas estén algunos diciendo que 10 es poco y se van a quedar cortos en dos dias
sergio1212 escribió:https://www.youtube.com/watch?v=EpDtqflQHgA

[+risas]


Como la vida misma [plas]
Como veis una 3080 o 3090 en una caja NZXT H700i?
@Neburanabel a día de hoy te sobra, pero como estamos ante una nueva gen de consolas que tienen 16gb...

Desde luego creo que si nvidia sacará la 3080 con 16gb la gente recomendaría esa.

Amd según apuntan los rumores van a por 16 también, lo cual le perjudica frente a nvidia ya que sus graficas serán más caras de producir.
@Tecmok no entiendo la pregunta en el manual de cada caja te viene cual es el tamaño máximo en longitud y anchura para las gráficas

En mi caso en una R6 son 300mm en el normal y hasta 465mm en la parte inferior con 150mm máximo de anchura y dudo que la h700i sea mucho menos
ionesteraX escribió:
pdriko31 escribió:@AlbertX si, igual me he explicado mal, lo que quise decir es que a mayor resolución, mayor carga tiene la gpu y a menor resolucion6, la gpu baja la carga y aumenta un "poco" la carga de la cpu, hay muchos videos que lo demuestran.


Al final tambien depende del juego pero como regla general es así, al estresar la gpu tanto subiendo la resolución ella se convierte en el cuello de botella por muy vieja que sea la cpu.

Por trastear yo he probado en mi ordenador viejo a juntar un 4770 con la 2080 y la ti, el resultado a 4K es que pilla los 120fps que admite la c9 en bastantes juegos como por ejemplo el Death Stranding, Youngblood, etc... si limitas a 60fps pues incluso va sobrada la cpu.

Por eso me hace mucha gracia cuando alguien pregunta si la cpu le hara cuello de botella con cpu's relativamente nuevas.

A ver si hoy levantan el embargo y tenemos benchs cawento


Te agradecería mil millones una prueba en Warzone con los gráficos al mínimo en 2k a ver cuantos fps saca la cpu.
ionesteraX escribió:
pdriko31 escribió:@AlbertX si, igual me he explicado mal, lo que quise decir es que a mayor resolución, mayor carga tiene la gpu y a menor resolucion6, la gpu baja la carga y aumenta un "poco" la carga de la cpu, hay muchos videos que lo demuestran.


Al final tambien depende del juego pero como regla general es así, al estresar la gpu tanto subiendo la resolución ella se convierte en el cuello de botella por muy vieja que sea la cpu.

Por trastear yo he probado en mi ordenador viejo a juntar un 4770 con la 2080 y la ti, el resultado a 4K es que pilla los 120fps que admite la c9 en bastantes juegos como por ejemplo el Death Stranding, Youngblood, etc... si limitas a 60fps pues incluso va sobrada la cpu.

Por eso me hace mucha gracia cuando alguien pregunta si la cpu le hara cuello de botella con cpu's relativamente nuevas.

A ver si hoy levantan el embargo y tenemos benchs cawento

Entonces mi i56600k subido a 4,4ghz me va a funcionar perfecto cuando me pille la rtx3070??
Juego a 1440p 60hz
ayran escribió:
joanvicent escribió:
ayran escribió:De verdad que no hay ningún sitio donde te permitan reservar una?? Hay que esperar al 17 para comprarla en serio??


No prefieres esperar a ver benchmarks donde veamos las temperaturas , ruido, etc? igual nos encontramos con que las FE son la repera, o bien que no, o bien que hay fabricantes que rehacen su propio pcb para que sea más eficiente en cuanto a disipación del calor y son mejor apuesta.. porque por lo leído es un problema el tener que disipador esos pcbs tan pequeños, zotac va a sacar unas tarjetas preciosas, igual son una maravilla, ¿en serio no quieres esperar a ver qué tal son ? total van a ser unos días donde espero que veamos las pruebas reales. [beer]

No, me da igual que sean 5° más frías unas que otras o un poco más ruidosas unas que otras. No tengo gráfica y estoy sin ordenador y lo necesito.

PD: Estoy entre las founders y las zotac. Son las que más me gustan.


Yo estoy como tú estoy sin gráfica y en cuanto salga la pillo, tenía pensada las founders porque pensaba que estaban primero pero si salen a la vez ahora ya tengo más dudas porque compramos a ciegas y un poco confiando en la marca.

Saludo
lucer1 escribió:
Yo estoy como tú estoy sin gráfica y en cuanto salga la pillo, tenía pensada las founders porque pensaba que estaban primero pero si salen a la vez ahora ya tengo más dudas porque compramos a ciegas y un poco confiando en la marca.

Saludo

De todas formas, supongo que días antes de su salida oficial se empezarán a ver benchmark.
Yo sigo con la mosca detrás de la oreja, por esos 14Gb de diferencia entre la 80 y la 90, iba a por la 3080 pero espero que AMD saque algo ya, que se supone que será de 16Gb, y entonces Nvidia saque la Ti/Super :p :p
Después de pasar el hype y la mente fría, como muchos de aquí, me espero bench reales, comparativas in-situ reales tanto 2080Ti Vs 3080/3070/ AMD y a ver que pasa, no me apetece gastarme 700€ ahora y en nada y menos ver una de 16Gb, no me gusta cambiar gpu cada 2 años, cuanto más dure mejor.
@lucer1 mejor que salga todo a la vez, no?

Menos riesgo de que se agote el stock.
Yo creo que con las custom se van a flipar todos con los precios y mínimo pedirán 800 (en tiendas españolas). Si no podéis esperar pillaría la FE de primeras porque se agotarán rápido y si luego no os gusta pues siempre se puede devolver y cambiar por una custom.

Si compráis a una tienda de fuera igual hay mejores precios para las custom.
eric_14 escribió:Yo creo que con las custom se van a flipar todos con los precios y mínimo pedirán 800 (en tiendas españolas). Si no podéis esperar pillaría la FE de primeras porque se agotarán rápido y si luego no os gusta pues siempre se puede devolver y cambiar por una custom.

Si compráis a una tienda de fuera igual hay mejores precios para las custom.

Ya hay varias tiendas españolas (Coolmod y PCComponentes por ejemplo) poniendo precios en diversos modelos, algunos pintan a placeholder, pero hay varios interesantes:

En coolmod está la 3080 MSI Ventus por 720€ y la Gaming X Trio por 800€, la Asus TUF por 720€ con descuento y la TUF OC por 760€ con descuento.
En PCComponentes 3/4 de lo mismo.

Yo creo que los precios no se van a mover mucho de donde están.

Lanzo una duda que tengo: la 3080 pide una fuente de 750w, yo tengo una corsair de 650w 80+, según la calculadora de outervision me iría bien con el equipo que tengo más la 3080, supuestamente llegaría a los 570w de carga máxima. Pero igualmente no me fío, ¿debería de cambiarla por una de 750w?
eric_14 escribió:Yo creo que con las custom se van a flipar todos con los precios y mínimo pedirán 800 (en tiendas españolas). Si no podéis esperar pillaría la FE de primeras porque se agotarán rápido y si luego no os gusta pues siempre se puede devolver y cambiar por una custom.

Si compráis a una tienda de fuera igual hay mejores precios para las custom.


Yo no pago un € más de los pvp anunciados xD

Si no es aquí, será importada. Y si no, más adelante o ya Big Navi.
Voy a comprar una RTX 3070/3080 (devolví mi RTX 2070 Super) y tengo varias dudas al respecto:

1.- Es mi equipo adecuado para esas gráficas (especialmente mi cpu)? Tengo un Ryzen 3700x/16gb ram y la fuente es una RM750x y todo montado en una B450 Tomahawk Max.

2.- He escuchado que va a haber falta de stock, por lo que habría que comprarla rápido, entonces me obligan a comprar a "ciegas" antes de poder ver benchmarks y opiniones (tanto comparando ambas gráficas, como para saber que ensamblador debo comprar)

3.- En cuanto al ensamblador, he mirado en pccomponentes y coolmod, ya aparecen ensambladores para esas gráficas como KFA2, zotac, msi etc... ¿merece la pena una custom o mejor una FE?

4.- Todavía falta hacer benchmarks aparte de los de Nvidia, pero si sabemos la memoria de ambas gráficas, una vendrá con 8GB y la otra con 10GB ¿la 3070 con 8gb se quedará corta de aqui a pocos años? ¿Mejor invertir 200 euros más en una 3080?

El monitor es 2K/144hz con Freesync, por lo que ese es mi objetivo.

Gracias, un saludo.
Antoniopua está baneado por "saltarse el ban con un clon"
Imagen
31123 respuestas