[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

@Antoniopua mi gtx 970 es vieja, pero compararla con una seat 600 [jaja]

GalForD69 escribió:
pga escribió:Yo voy a comprar un pc nuevo con una rtx 3080, mi gráfica actual es una gtx 970 g1, alguien sabría decirme mas o menos que porcentaje de mejora tiene la 3080 respecto a la 970?

¿Un 970%?.


Ya podría XD
@chrispro Busca benchmarks entre una 2080ti y una rtx titan y la titan rinde si acaso 5% mas
@Dark faltan muchos datos ahí... Qué cpu tienes? Qué fuente tienes?

No es lo mismo una de 650W Tier 1 Gold que una Tier 2 Silver o inferior
PilaDePetaca escribió:
Smoje escribió:Demasiado bueno tiene que ser lo de AMD para que mucha gente que ha sido fiel a Nvidia de repente se piensen en cambiar de marca, cuando muchos están salivando con la 3070 y 3080


El problema es que AMD ni va a tener para competir algo como el DLSS ni va a tener un RT al nivel de lo que tiene nVidia, así que ya puede ser muy buena (o muy barata) "Big Navi" para que sea un aliciente para su compra comparado con lo que ha mostrado nVidia.



Exacto solo pensar en cyberpunk con una 3080 y dlss se me Pone como el Cerrojo de un penal, sumale vampires 2, dying light 2, el remastered de crysis o el nuevo call of duty, death standing y a alguno mas que salgan con esa tecnologia con el doble de fps que una big navi, muy muy buena tiene que ser esa amd para superar eso
erhuerva escribió:
PilaDePetaca escribió:
Smoje escribió:Demasiado bueno tiene que ser lo de AMD para que mucha gente que ha sido fiel a Nvidia de repente se piensen en cambiar de marca, cuando muchos están salivando con la 3070 y 3080


El problema es que AMD ni va a tener para competir algo como el DLSS ni va a tener un RT al nivel de lo que tiene nVidia, así que ya puede ser muy buena (o muy barata) "Big Navi" para que sea un aliciente para su compra comparado con lo que ha mostrado nVidia.



Exacto solo pensar en cyberpunk con una 3080 y dlss se me Pone como el Cerrojo de un penal, sumale vampires 2, dying light 2, el remastered de crysis o el nuevo call of duty, death standing y a alguno mas que salgan con esa tecnologia con el doble de fps que una big navi, muy muy buena tiene que ser esa amd para superar eso


Horizon zero down 2 :D
Pues yo para jugar a 1440p60fps y querer aguantar 2 años más mi pc con un i7 4790k me voy a pillar la 3070,espero que aguante el tipo para los juegos venideros.
Drakenathan escribió:@Antoniopua La Zotac es muy bonita, que tal como ensamblador?

Muy buenas he leído varias Amp! Y muy bien, si menos ese modelo, buenas temperaturas, sonoridad.... Cero problemas.
Pero claro, podrían bajar calidades o que sé, en mi caso la elegí porque era más barata, quizás alguien con una kfa te diría lo mismo, todas las marcas pueden tener problemas pero puedes confiar en zotac .
@pga

Dificil pregunta, pero para hacerme una idea yo suelo guiarme por el rendimiento que marcan de cada GPU en...
https://www.videocardbenchmark.net/high_end_gpus.html

Metiendole un aumento de un 80% a la 2080 básica para aproximarnos a lo que deberia marcar la 3080, y dividiendo por los 9,64 que marca tu 970, según la web deberia estar sobre un 350% (con un maravilloso margen de error de +-150%). [360º]

Siendo más exactos debe estar entre "mucho más potente" y "mucho, muchísimo más potente".

Desde luego, cambio vas a notar.
Joder.. vaya palo le han dao a los que las venden de segunda mano..
pdriko31 escribió:Pues yo para jugar a 1440p60fps y querer aguantar 2 años más mi pc con un i7 4790k me voy a pillar la 3070,espero que aguante el tipo para los juegos venideros.



De todos los que estais escribiendo por aqui, empiezo a pensar que ni el 50% va a comprar realmente una Ampere.
Entre eso y las cosas que lee uno por el hilo de la SX y el de la PS5, que por allí anda nuestro amigo "Nanite" animandoles la fiesta con los micropoligonos como si fuese el gurú de la ingenieria informatica (ya eso marca el nivel del usuario medio por esos hilos, que hay que ver la objetividad y las mesuras que utilizan [facepalm], pero dice el refran que en el pais de los ciegos el tuerto es el rey ...), uno empieza a perder de verdad la esperanza en la humanidad.

Lo digo porque me da la sensacion de que algunos, o muchos, estan por aqui por motivos que distan bastante de tener en la mano, o en la cartilla, 800 euros para ir a comprar el dia 17 una Ampere. O teniendolos, no tienen la mas minima posibilidad o intencion de ir a hacerlo. O eso o esque durante los proximos 12 meses Nvidia va a vender mas Amperes que Sony PS5s...
No se yo, no se [facepalm]

Una cosa es dudar del nivel de realismo y veracidad de Nvidia, otra dudar de si te vas a gastar el dinero y por el mismo dinero el año que viene va a salir algo un poco mejor y te van a cantar tonto pelao al salir de tu casa por no esperarte, como sino supiesemos que la tecnología avanza cada dia y a cada momento y por el mismo precio, en el futuro, siempre conseguiras mejores prestaciones. Ya ni siquiera las consolas son garantia de "durar" años sin que tu vecino tenga algo mejor que tu y eso no te deje dormir por las noches (que parece que es el verdadero problema de muchos...). Pero otra cosa es estar buscandole los tres pies al gato, o poniendo toda la fe y la esperanza, en que estas Ampere que parecen tan maravillosas, sean poco menos que un desastre, o una estafa, porque te jode que sean asi y Nvidia no se pegue un ostiazo de epoca frente a otras opciones, o simplemente sean tan carisimas que ni dios pueda comprarlas y quede claro que "tu opcion" es la mas chachi porque "por ese precio para todos tiene muxha potensia".

Me encanta esa gente que tiene la capacidad mental de convencerse asi mismo de que lo suyo es lo mejor, y sino lo es, igualmente ellos SÍ ven claramente que es lo mejor, y aunque les ofrezcas lo mejor, lo rechazan con tal de no dar su brazo a torcer (demencia, me parece que se llama), no se te ocurra intentar convencerlos con objetividad ni exactitud, pues la ciencia no tiene nada que hacer en el terreno de la fe, y la magia.

Lo siento, quienes comprendan de que hablo pues ya sabeis, y los que no, os pido disculpas, porque me canso ya de ciertas cosas.

Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio? Si sois el perfil de usuario de PC que le ha dado igual estar 9 años con una 960 o que se yo, que mas os da si la ampere de 500 o la de 700 rinda mas o menos? Aunque sea de carton os va a dar igual...salvo que penseis centraros "en serio" en el PC.

Los que no parais de decir que os vais a pillar una 3090, porque claro, a esa si que no podeis ponerle pega a la hora de defencer vuestro verdadero amor (enfermizo), porque se lo cepilla por todas partes...y ademas cumple el requisito de ser carisima y siempre podreis usar eso como argumento en contra, peeero, esa 3070 y esa 3080 tan "baratas" y tan "superiores"? Nahhh, esas seguro que no rinden, se quedan tiradas en dos años, o menos, no les caben los nanites dentro! A esos les digo que MIAU, uno ya es muy viejo, y antes que el cojo de un paso ya sabe que es cojo.

Y los que no sabeis si coger estas o esperar a ver si salen Tis o supers, porque al final os vais a comprar todo lo que vaya saliendo que sea un poco mejor, pues no lo dudeis tanto, pillar una de estas, y si despues sale una Ti, en un año, o en dos, cojones, ya habeis disfrutado todo ese tiempo, las revendeis, que siempre hay por debajo alguien interesado en pillar lo que a otros les sobra por el motivo que sea, y cogeis lo nuevo, y a seguir con la vida.

Y sino, pues a esperar hasta diciembre, por si AMD se saca la chorra, tiene gráficas que duplican el rendimiento (hablemos claros, los frames en los juegos tochos a 4k) de las nvidia por la mitad de dinero, y no pasa nada, ganamos todos, nos compramos Radeons, y a disfrutar de los videojuegos a todo tren. Eso si, asumid que si son AMDs de 500 euros, no les cabran dentro los nanites necesarios para los juegos "powa" a 4k y RT, para eso hará falta minimo una Radeon de 2000 euros, porque no van a tener tecnologia de micropoligonos con pesicola.


Bah, y perdon por no ser politicamente correcto, pero esque...esque... [facepalm]

Suerte a todos [beer]
AlbertX escribió:@chrispro Busca benchmarks entre una 2080ti y una rtx titan y la titan rinde si acaso 5% mas



Pero a ver, que la 3090 tiene un 20% mas de shaders, un bus mas grande y las memorias son un pelin mas rapidas que las de la 3080, es imposible que rindan lo mismo [+risas]
chicos unas dudas, que vosotros sabreis seguro despejarmelas, me dan por mi aorus rtx 2080 xtreme 375€, esta bien vendida por ese precio, es esa ni la super ni la ti.

Por otro lado, notare la diferencia en los juegos, con todo ultra, tengo monitor 144hz, es que las specs dicen que es mejor que una 2080 ti, pero no se si es poco mas o mucho mas respecto a lo que tengo.

En definitiva que hariais jeje. es comprando la 3070, lo que digo.
Valhan escribió:@pga

Dificil pregunta, pero para hacerme una idea yo suelo guiarme por el rendimiento que marcan de cada GPU en...
https://www.videocardbenchmark.net/high_end_gpus.html

Metiendole un aumento de un 80% a la 2080 básica para aproximarnos a lo que deberia marcar la 3080, y dividiendo por los 9,64 que marca tu 970, según la web deberia estar sobre un 350% (con un maravilloso margen de error de +-150%). [360º]

Siendo más exactos debe estar entre "mucho más potente" y "mucho, muchísimo más potente".

Desde luego, cambio vas a notar.


Gracias, no esta nada mal, teniendo en cuenta como esta el mercado de segunda mano cuanto me darían por una 970, no se si merece la pena venderla, si es que hay alguien que quiera comprarla [jaja]
Una pregunta que se me pasa por la cabeza, tengo un pc con un 2600(ryzen) y una gtx 1060, sería mejor para usar un monitor 1440p 165hz :
Comprar una rtx2080
O bien
Comprar una rtx2070 y una cpu 3060/3700 ?

Actualmente con la 1060 a 1440p me van los juegos sobre 50-60fps, ni idea de las calidades,como viene por defecto, por ejemplo está tarde mi hijo con el fornite a 50fps
battman80 escribió:Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio?


Pero quien pregunta algo que tiene una respuesta tan obvia [360º]
pga escribió:
battman80 escribió:Los que decis que teneis GPUS de hace dos generaciones (de gpus) o tres, y preguntais por si vais a notar mejora...joder, en serio?


Pero quien pregunta algo que tiene una respuesta tan obvia [360º]

Necesitan lavar su conciencia, necesitan que alguien les diga,"si, gasta el dinero tranquilo que lo notarás", así se quedan más tranquis
Gwyn escribió:


Aquí:

https://www.pcmrace.com/2020/09/03/nvid ... lex-y-mas/

hay algo más de información y en castellano, aunque tu enlace está muy completo. Se confirma que RTX IO no necesita si o si pcie 4.0, cualquier NVMe se beneficiará de ello (obviamente, los gen 4.0 se beneficiarán más).

No sé si se ha dicho en el hilo, pero Nvidia dará soporte en Reflex a las gráficas de la serie 900 para adelante.
De cara al futuro y considerar las 30xx como una inversión, merece la pena cogerse una 3090 para no cambiarla en 4-5 años?Es decir, si ahora te compras una 3090 lo mas seguro es que te cubra frente a una futurible 3080 Ti con mas VRAM por ejemplo? un Ryzen 7 3700x puede hacerle cuello de botella?

Estas preguntas que he hecho son una chorrada?
pdriko31 escribió:Pues yo para jugar a 1440p60fps y querer aguantar 2 años más mi pc con un i7 4790k me voy a pillar la 3070,espero que aguante el tipo para los juegos venideros.


yo estoy con un i7 7700k y una vega 56 + 16GB de ram.
en mi caso voy a esperar un tiempo a ver que evolucion tienen los requisitos, estas nuevas consolas el mayor salto lo traen en la cpu, la ram es poco mas, la gpu es mejor pero no un salto enorme, pero pasar de un jaguar a un ryzen 8/16 es un salto muy muy grande.
no se como aguantara el i7, por lo que prefiero esperar y luego ya vere si actualizo algo o cambio todo el equipo.

saludos
oliver230791 escribió:De cara al futuro y considerar las 30xx como una inversión, merece la pena cogerse una 3090 para no cambiarla en 4-5 años?Es decir, si ahora te compras una 3090 lo mas seguro es que te cubra frente a una futurible 3080 Ti con mas VRAM por ejemplo? un Ryzen 7 3700x puede hacerle cuello de botella?

Estas preguntas que he hecho son una chorrada?


Yo me compraría la 3080, si se te queda corta dentro de 2 años (en función de tus exigencias) la vendes y con lo que saques y poniendo algo más te compras la 4080 que será mejor que la 3090 y en computo global habrás gastado menos de 1500€ que es lo que vale la 3090.

Yo por ejemplo llevo con una 970 casi 5 años, ahora voy a comprar la 3080 y espero que me dure otros 5 años, cada uno pone su propio nivel de exigencia en los gráficos.
@Delkham SPL Es un buen precio teniendo en cuenta el panorama actual

"Solo" tienes que añadir unos 150€ más para pillarte una 3070 con un sobre 35% más de rendimiento

@joanvicent Las dos combinaciones que propones se te quedan cortas para 1440p 165hz.

Mejor 1080p 144hz para esas combinaciones

También hablo de juegos triple A y en ultra.

Si eso tanto te da puede que si te llegue bien.
Delkham SPL escribió:chicos unas dudas, que vosotros sabreis seguro despejarmelas, me dan por mi aorus rtx 2080 xtreme 375€, esta bien vendida por ese precio, es esa ni la super ni la ti.

Por otro lado, notare la diferencia en los juegos, con todo ultra, tengo monitor 144hz, es que las specs dicen que es mejor que una 2080 ti, pero no se si es poco mas o mucho mas respecto a lo que tengo.

En definitiva que hariais jeje. es comprando la 3070, lo que digo.


Ya estas tardando en quitartela de encima si puedes pagar la diferencia para una 3070 o para financiar una 3080, que es la que te durará mas
calloudiano escribió:
pdriko31 escribió:Pues yo para jugar a 1440p60fps y querer aguantar 2 años más mi pc con un i7 4790k me voy a pillar la 3070,espero que aguante el tipo para los juegos venideros.




No y menos a esa resolución, si fuera a 1080p a lo mejor.
ionesteraX escribió:Imagen

Lo que yo no entiendo es por qué hacen ese PCB tan pequeño cuando luego meten ese pedazo de tanque de disipador? No será mejor un PCB del tamaño del disipador donde los componentes estén más holgados y tengan menos calor concentrado? Vamos hablo desde la total ignorancia.
jiujinkai escribió:
ionesteraX escribió:Imagen

Lo que yo no entiendo es por qué hacen ese PCB tan pequeño cuando luego meten ese pedazo de tanque de disipador? No será mejor un PCB del tamaño del disipador donde los componentes estén más holgados y tengan menos calor concentrado? Vamos hablo desde la total ignorancia.


Por lo que leí esta forma de PCB y su reducido tamaño es debido a que han querido implementar el sistema de ventilación bidreccional, para lo cual tenían que dejar ese espacio libre por fuerza y le han dado esa forma triangular precisamente para intentar aprovechar al máximo el poco espacio que les ha quedado. Solo lo han usado en la 3080 y la 3090, la 3070 han usado un sistema tradicional pues vendría a ser casi lo mismo que una 2080Ti tanto en potencia, como TDP, etc etc. Las 3080 y 3090 en cambio tienen mucha más potencia y eso les ha llevado a ese laberinto, primero supongo comprobaron que para llegar a la potencia que querían los sistemas tradicionales no les acababan de convencer (algo extraño porque los modelos custom si usarán sus modelos tradicionales de ventilación), también puede ser cabezonería de alguien en usar ese sistema de ventilación en lugar del tradicional. Al ponerse manos a la obra con ese sistema se encontraron muchos problemas, el primero que obliga a reducir el tamaño del PCB mucho para dejar libre un espacio para el ventilador gigante que soplará el aire hacia el lado opuesto de la placa. Eso conlleva a otro problema mayor, y es el sobrecalentamiento de muchos componentes como las memorias y los VRM que están super amontonados y pegados unos con otros. Por consiguiente, acabas teniendo que poner un disipador enorme que sea capaz de dispar todo ese calor, por eso ha quedado un disipador gigante frente un PCB diminuto... la verdad que no tiene mucho sentido y supongo será cabezonería pura por parte del diseñador o del mismo Huang. Bonito ha quedado, innovador también, ahora falta por ver si ese camino es un éxito y a partir de ahora muchos siguen el mismo camino o por el contrario se convierte en diseño para el olvido porque hace que se calienten demasiado las memorias y VRM, abulta demasiado, encarece y encima sobrecalienta la zona de la RAM y la CPU.
@tigerscream es que parece que un PCB tan pequeño tiene una pinta de ser un cremalleras crematorio que flipas. A mi me da un poco de respeto eso, ver todos los componentes tan juntos unos de otros. En principio es la tarjeta que voy a coger pero voy a esperar hasta que empiecen a salir las verdaderas pruebas y ver cómo resisten. Aún así me imagino que si lo sacan a la venta es por qué ya le han dado un trote bueno y están seguros de que no van a fallar, digo yo.
jiujinkai escribió:@tigerscream es que parece que un PCB tan pequeño tiene una pinta de ser un cremalleras crematorio que flipas. A mi me da un poco de respeto eso, ver todos los componentes tan juntos unos de otros. En principio es la tarjeta que voy a coger pero voy a esperar hasta que empiecen a salir las verdaderas pruebas y ver cómo resisten. Aún así me imagino que si lo sacan a la venta es por qué ya le han dado un trote bueno y están seguros de que no van a fallar, digo yo.


Ya lo dije en su momento que a mi habían varias cosas que aún no me acaban de convencer, y también dije que no era la VRAM lo que más me preocupaba, si no el consumo y temperaturas. En la 3070 hay un precio bueno y un consumo aceptable (mucho mayor que el que tenían la 970 o 1070 por ejemplo, 220W Vs 145/150W , pero mucho más contenido comparado con la 3080 y 3090, 320/350W).

En ese punto yo tenía la siguiente encrucijada:

A.- Precio. Mi tope eran los 500, para personas que no tienen un tope fijado en una GPU, estupendo, pero yo para lo que juego al cabo de 1 año, creo que 500 es ya mucha pasta. En esas premisas te plantas que afortunadamente esta serie 3000 no ha seguido el de la 2000 y se han contenido un poco los precios (al menos en las gamas donde se prevee que AMD les haga un poco de competencia) pero solo puedes optar a la 3060 (Diciembre?) o la 3070 por 519 en Octubre (a falta de ver precio de las custom y disponibilidad).

B.- Aquí entra el segundo factor. Tiempo. Yo llevaba 3 meses desde que vendí mi 1080Ti por lo mismo que me ha costado ahora la 2080Ti. 3 meses esperando son bastantes, así que me apretaba un poco ya y me puse el tope en Noviembre. Al ver que lo que había presentado nVidia ahora no me convencía del todo y quería esperar a ver que pasaba con los benchs y con AMD y una posible salida pronta de revisiones Ti / Super... pues como pronto iba a poder comprar en Octubre una 3070 o comprar ya una 2000 porque AMD no creo las venda antes de finales de Noviembre y las revisiones de nvidia no creo las hagan públicas antes de final de año. Eso unido a la situación actual (posible nuevo confinamiento, posible falta de stocks, sobredemanda por hype, etc... etc...) me hacía pensar que como en veces anteriores (y esta vez más agravado) será difícil pillar alguna FE o custom a su precio de aquí a Noviembre/Diciembre que son meses de Black Friday y Navidad, donde suele pasar lo mismo, que casi no hay stocks porque la gente compra más de lo normal. Entonces por todo ello me veía esperando hasta Enero o Febrero a comprar la que realmente me convenciera (una 3070 Ti mayormente creo que será la que me acabe convenciendo más).

C.- Como tercer factor comenté el tema de las temperaturas y TDP. Me parece que 320W para la 3080 son demasiados. No lo digo por decir, o sea, con una 750W tienes para poderla hacer funcionar sin problemas y si me apuras, con una buena configuración puedes incluso usar una 650. Pero es que no me apetece consumir el doble de energía y que las temperaturas sean mucho mayores mientras juego o uso la GPU para edición. No solo por el gasto de luz, que será más o menos importante para cada cual, es que ya comenté que a partir de ciertas temperaturas, TODO EL PC SUFRE, me explico, no es lo mismo tener un PC con unos consumos promedio/pico de 500W en una fuente de 650/750 que tener un PC con un un promedio/Pico de 600W en una fuente de 650/750, no solo por la fuente, es que la placa base también tiene que gestionar la CPU y demás componentes y si todo el conjunto encima va subiendo a temperaturas de 70-80 grados, pues ya me dirás, volvemos atrás como los cangrejos. Si algo me gustaba de nVidia en los últimos años era su eficiencia y bajas temperaturas / TDP, pero últimamente eso se ha descontrolado y hasta parece que ahora AMD irá mejor en este apartado (por lo que se rumorea al menos de las RDNA2).

D.- Finalmente la famosa VRAM. Ya he argumentado mi postura, por mi con 8GB seguro iba a ser suficiente, pero me plantea dudas de cara al futuro, la VR, la IA, el mercado... no sé... estoy seguro que en 2-4 años cambiaré de gráfica y me da miedo que ya nadie quiera una gráfica de 8GB. Lo he vivido, la informática a veces pega unos giros brutales y de repente estás tan feliz y de un día para otro pasas a tener algo casi obsoleto o poco interesante en el mercado de segunda mano porque han sacado la versión 2.0 que deja lo tuyo leguas y super infravalorado. Una de las cosas que la gente mira a la hora de comprar GPUS es la dichosa VRAM y aquí está comprobado que la gente la prefiere grande, ande o no ande, luego a lo mejor ni se usa el 60% de esa VRAM... pero... como todo el mundo sabe que quedarse corto es un problema y más vale que sobre... pues eso. Yo veo que llevamos ya varios años estancados en la VRAM de 6-12GB pero por contra los juegos no han parado de crecer y la RAM del PC tampoco. Quizás esa gráfica de crecimiento ha llegado a un punto de menos pendiente y la curva empieza a llegar a una tendencia de menos crecimiento lineal, es posible, pero también puede ser que solo sea debido al encarecimiento de la misma en los últimos años. Lo único cierto es que nadie tiene la seguridad de lo que va a ocurrir. Si nVidia saca la 3090 con 24 y dice claramente... lleva 24 porque va orientada a diseño o IA, para los juegos, incluso con 8K no se espera que se usen más de 10... entonces no tendría NINGUNA DUDA, pero no es el caso, es más ya se ha rumoreado que van a sacar una 3080 de 20 y una 3070 de 16, por lo que el argumento de si lo ha sacado así es porque no se va a necesitar más... pues pierde su sentido.

Lo dejaré aquí, no voy a extenderme más ni a explicarlo más. Creo que cada cual tiene sus argumentos y sus intereses particulares, como se suele decir, en la variedad está el gusto y si no hubiera diferencias de opiniones sería todo muy aburrido. Mientras cada cual haga lo que crea él y no lo que creen los demás... hará bien. Luego ya el tiempo dirá si hubiera sido mejor una cosa u otra, pero mientras tanto, aquí estamos para disfrutar de las nuevas GPU's que realmente me parece un momento espectacular para el consumidor, hay que disfrutarlo.
pdriko31 escribió:
calloudiano escribió:
pdriko31 escribió:Pues yo para jugar a 1440p60fps y querer aguantar 2 años más mi pc con un i7 4790k me voy a pillar la 3070,espero que aguante el tipo para los juegos venideros.




No y menos a esa resolución, si fuera a 1080p a lo mejor.

Es que es una obsesión de muchas personas lo del cuello de botella cuando ven una cpu que no es del año pasado o más nueva....

Si nos ponemos tontos, si dejamos los juegos sin cap de frames hasta un ryzen 3600 -que es tan querido- haria cuello de botella a 2k :/

Lo sabes bien pero para dejarlo claro para otros compis... Si vais a jugar a menos de 60 e incluso menos de 100fps muy antiguo tiene que ser el procesador para que no funcione bien.
Yo estoy esperando un Ryzen 2600. Ahora mismo con mi RX580 y tan contento (con un 3200G). Si se me pone a tiro algo de segunda mano con la vorágine que hay ahora, pues igual compro. Pero el Warzone me va hoy igual que la semana pasada. Si tuviera una 2070 o 2080 me iba a preocupar....
DaNi_0389 escribió:
AlbertX escribió:@chrispro Busca benchmarks entre una 2080ti y una rtx titan y la titan rinde si acaso 5% mas



Pero a ver, que la 3090 tiene un 20% mas de shaders, un bus mas grande y las memorias son un pelin mas rapidas que las de la 3080, es imposible que rindan lo mismo [+risas]

No llega al 20% más de cudas cores, es 1792 (8704 VS 10496) se queda entorno del 18% más, o dicho de otra manera, la 3080 tiene un 16% menos de cudas cores, contando además que a más cudas cores menor rendimiento escalable, o sea en la práctica ese 16% menor de cudas cores no se traducirá en un 16% menor de diferencia
1: por qué la potencia no escala linealmente con los cudas cores
2: a más cudas cores menos frecuencia alcanza la gráfica, es fácil ver qué la 3080 alcance por ejemplo los 2200 MHz y la 3090 no pase de los 2100 MHz , con lo que la diferencia se acorte aún más entre graficas y al final se quede en un 12% entre ellas, ésto es así y es impepinable
Un 12% entre ellas sólo por qué una tiene 24 gigas de VRAM y una diferencia de 800 euros entre ellas es de todo menos inteligente su compra si solo quieres la gráfica para jugar, la 3090 vale para jugar (por supuesto faltaría más) pero está más enfocada al ámbito profesional, para los mindundis cómo nosotros que solo la queremos para jugar, nuestra gráfica es la 3080 y a tirar 2 años con todo en ultra, y para cuándo empiece a flaquear la VRAM (que lo dudo) ya estará en la calle la 4080 que se pasará por la piedra a la 3090 y con un precio de 700/800€ y volveremos a ver los lloros cíclicos en Internet de que nvidia mala, Nvidia nos estafa [facepalm]
Strait escribió:
Kaiser Sport escribió:Yo tengo varias cosas que decir:

1) A los que habéis comprado una 2070, 2080 y todas sus variantes, disfrutadla. Son unas pedazos de gráfica y pese a la salida de las 3000, seguirán siendolo. No todo en el mundo es especular .... a disfrutar, coñe!!!

2) A los que vais por el foro queriendo vender vuestras 2070, 2080 y 2080Ti por lo que va a costar nueva la generación 3000 y vais haciendoos los ofendiditos porque os ofertan 300 y poco leuros por vuestra gráfica, que os jo...roben. Mucho peores sois vosotros, que quereis encontrar un incauto al que encasquetarle vuestra gráfica al precio de lo que os va a costar la nueva 3000.

3) A aquellos que habeis recibido el duro golpe de ver como vuestras RTX 2000 ha depreciado y han decidido ser legales con el precio, que también los hay, me quito el sombrero ante vosotros. Mis respetos para vosotros.

4) Si no quereis que esto os vuelva a pasar, sed consecuentes y no pagueis tanto por una puñetera gráfica. Hemos pasado de 300€ por un tope de gama a 500€. De 500€ a 700€. De 700€ a 900€ y ya estamos en los 1200-1300.
Vosotros vereis, no es mi batalla, pero luego no valen quejas ni lloros.


Yo discrepo un poco. Con la salida de las nuevas gráficas nvidia empezará a maltratar a generaciones antiguas como siempre, sacando drivers que empeoran el rendimiento en algunos juegos. Los desarrolladores desarrollarán sus juegos basandose en las gráficas actuales y no en las de generaciones anteriores. Seguramente nos quedaremos sin alguna función nueva que saquen en exclusiva para las RTX3000, y si no tiempo al tiempo.


Eso es una falacia como la copa de un pino. En youtube hay cientos de videos probando drivers viejos con recientes en arquitecturas antiguas y no hay variación de rendimiento. Ejemplo:

https://www.youtube.com/watch?v=uEh6hT-nYZo
anavas44 escribió:
Strait escribió:
Kaiser Sport escribió:Yo tengo varias cosas que decir:

1) A los que habéis comprado una 2070, 2080 y todas sus variantes, disfrutadla. Son unas pedazos de gráfica y pese a la salida de las 3000, seguirán siendolo. No todo en el mundo es especular .... a disfrutar, coñe!!!

2) A los que vais por el foro queriendo vender vuestras 2070, 2080 y 2080Ti por lo que va a costar nueva la generación 3000 y vais haciendoos los ofendiditos porque os ofertan 300 y poco leuros por vuestra gráfica, que os jo...roben. Mucho peores sois vosotros, que quereis encontrar un incauto al que encasquetarle vuestra gráfica al precio de lo que os va a costar la nueva 3000.

3) A aquellos que habeis recibido el duro golpe de ver como vuestras RTX 2000 ha depreciado y han decidido ser legales con el precio, que también los hay, me quito el sombrero ante vosotros. Mis respetos para vosotros.

4) Si no quereis que esto os vuelva a pasar, sed consecuentes y no pagueis tanto por una puñetera gráfica. Hemos pasado de 300€ por un tope de gama a 500€. De 500€ a 700€. De 700€ a 900€ y ya estamos en los 1200-1300.
Vosotros vereis, no es mi batalla, pero luego no valen quejas ni lloros.


Yo discrepo un poco. Con la salida de las nuevas gráficas nvidia empezará a maltratar a generaciones antiguas como siempre, sacando drivers que empeoran el rendimiento en algunos juegos. Los desarrolladores desarrollarán sus juegos basandose en las gráficas actuales y no en las de generaciones anteriores. Seguramente nos quedaremos sin alguna función nueva que saquen en exclusiva para las RTX3000, y si no tiempo al tiempo.


Eso es una falacia como la copa de un pino. En youtube hay cientos de videos probando drivers viejos con recientes en arquitecturas antiguas y no hay variación de rendimiento. Ejemplo:

https://www.youtube.com/watch?v=uEh6hT-nYZo

Cada vez que alguien dice que nvidia capa por drivers sus gráficas de gamas anteriores muere un gatito, en fin, es un tema ya muy manido, mejor no hacerles caso
DaNi_0389 escribió:
AlbertX escribió:@chrispro Busca benchmarks entre una 2080ti y una rtx titan y la titan rinde si acaso 5% mas



Pero a ver, que la 3090 tiene un 20% mas de shaders, un bus mas grande y las memorias son un pelin mas rapidas que las de la 3080, es imposible que rindan lo mismo [+risas]


Con OC las memorias de la 3080 llegarán donde lleguen las de la 3090. Serán los mismos módulos. Incluso si las de la 90 lleva mas y se calientan mas, puede que no suban tanto como las de la 80.
wildchild_bcn escribió:
pdriko31 escribió:
calloudiano escribió:


No y menos a esa resolución, si fuera a 1080p a lo mejor.

Es que es una obsesión de muchas personas lo del cuello de botella cuando ven una cpu que no es del año pasado o más nueva....

Si nos ponemos tontos, si dejamos los juegos sin cap de frames hasta un ryzen 3600 -que es tan querido- haria cuello de botella a 2k :/

Lo sabes bien pero para dejarlo claro para otros compis... Si vais a jugar a menos de 60 e incluso menos de 100fps muy antiguo tiene que ser el procesador para que no funcione bien.

Totalmente de acuerdo, solo hay que tener un poco de conocimiento para saber que a mayor resolución, menor consumo de cpu y mayor de gpu tiene.
Smoje escribió:@Dark faltan muchos datos ahí... Qué cpu tienes? Qué fuente tienes?

No es lo mismo una de 650W Tier 1 Gold que una Tier 2 Silver o inferior


Estas son las specs.
Me da que no me entrara una 3080, sino una 3070 que en vez de consumir 320 consume 220.

Corsair Hydro Series H100i Pro - Kit Líquida
Corsair SP120 LED White Dual Pack - Ventilador 12 cm
Thermaltake Gaming PCI-E 3.0 X16 - Riser Card
CableMod WideBeam Magnetic RGB LED 60cm - Kit Tira LED
Intel Core i5-8600K 4.3 Ghz Socket 1151 Boxed - Procesador
MSI B360 GAMING ARCTIC Socket 1151
Asus GeForce GTX 1060 Dual OC 6GB GDDR5 - Tarjeta Gráfica
Corsair CX650 V2 80 Plus Bronze 650W Modular - Fuente/PSU
Corsair SPEC-06 RGB Cristal Templado / Blanco - Caja/Torre
Western Digital Black NVMe 250GB - Disco Duro M.2
Western Digital Blue 1TB 3.5" RPM 7200 - Disco Duro
Corsair Vengeance RGB Pro White 16GB (2x8GB) 3200MHz (PC4-25600) CL16 - Memoria
DaNi_0389 escribió:
AlbertX escribió:@chrispro Busca benchmarks entre una 2080ti y una rtx titan y la titan rinde si acaso 5% mas



Pero a ver, que la 3090 tiene un 20% mas de shaders, un bus mas grande y las memorias son un pelin mas rapidas que las de la 3080, es imposible que rindan lo mismo [+risas]


Revisa las especificaciones de la rtx titan
anavas44 escribió:
Strait escribió:
Kaiser Sport escribió:Yo tengo varias cosas que decir:

1) A los que habéis comprado una 2070, 2080 y todas sus variantes, disfrutadla. Son unas pedazos de gráfica y pese a la salida de las 3000, seguirán siendolo. No todo en el mundo es especular .... a disfrutar, coñe!!!

2) A los que vais por el foro queriendo vender vuestras 2070, 2080 y 2080Ti por lo que va a costar nueva la generación 3000 y vais haciendoos los ofendiditos porque os ofertan 300 y poco leuros por vuestra gráfica, que os jo...roben. Mucho peores sois vosotros, que quereis encontrar un incauto al que encasquetarle vuestra gráfica al precio de lo que os va a costar la nueva 3000.

3) A aquellos que habeis recibido el duro golpe de ver como vuestras RTX 2000 ha depreciado y han decidido ser legales con el precio, que también los hay, me quito el sombrero ante vosotros. Mis respetos para vosotros.

4) Si no quereis que esto os vuelva a pasar, sed consecuentes y no pagueis tanto por una puñetera gráfica. Hemos pasado de 300€ por un tope de gama a 500€. De 500€ a 700€. De 700€ a 900€ y ya estamos en los 1200-1300.
Vosotros vereis, no es mi batalla, pero luego no valen quejas ni lloros.


Yo discrepo un poco. Con la salida de las nuevas gráficas nvidia empezará a maltratar a generaciones antiguas como siempre, sacando drivers que empeoran el rendimiento en algunos juegos. Los desarrolladores desarrollarán sus juegos basandose en las gráficas actuales y no en las de generaciones anteriores. Seguramente nos quedaremos sin alguna función nueva que saquen en exclusiva para las RTX3000, y si no tiempo al tiempo.


Eso es una falacia como la copa de un pino. En youtube hay cientos de videos probando drivers viejos con recientes en arquitecturas antiguas y no hay variación de rendimiento. Ejemplo:

https://www.youtube.com/watch?v=uEh6hT-nYZo


Hubo una época cuando salieron las 2000 que arruinaron los drivers para la serie 1000. Yo lo sufrí con mi 1070. La diferencia era real

https://youtu.be/mFSLro_OXLQ
@pdriko31 eh no. Eso no es inversamente proporcional. A mayor resolucion no es 1ue hay menor consumo de c0u. A 1080p y a 4k puede ha er igual consumo. Por ejemplo si tienes un monitor a 60hz y limitas los frames a 60 el c9nsumo de cpu seria básicamente el mismo a 1080p que a 4k la cpu no va a bajar solo por ir a mayor resolucion

A menos que tengas una gpu lenta y a 4k apenas llegues a 30fps ent9nces alli si hay menos consumo de cpu pero solo porque la gpy no te da para mas.
AlbertX escribió:@pdriko31 eh no. Eso no es inversamente proporcional. A mayor resolucion no es 1ue hay menor consumo de c0u. A 1080p y a 4k puede ha er igual consumo. Por ejemplo si tienes un monitor a 60hz y limitas los frames a 60 el c9nsumo de cpu seria básicamente el mismo a 1080p que a 4k la cpu no va a bajar solo por ir a mayor resolucion

A menos que tengas una gpu lenta y a 4k apenas llegues a 30fps ent9nces alli si hay menos consumo de cpu pero solo porque la gpy no te da para mas.

cuando dice consumo de CPU/GPU no se refiere al consumo en W, sino a la capacidad de procesamiento que vas a necesitar... pero efectivamente, si capas a 60fps la diferencia entre 2k y 4k va a ser 0 (siempre y cuando la gpu pueda mover los mismos fps en ambas resoluciones) que es al punto al que queremos llegar:

si vas a jugar a 60fps capados no vas a tener que preocuparte por que tu cpu te pueda hacer cuello de botella
si vas a intentar dar muchisimos fps independientemente de la resolución es cuando tienes que preocuparte por que tu cpu pueda dar la talla (aunque obviamente a menor resolucion mas capacidad de la grafica es necesaria y menor es la posibilidad de que la cpu se quede corta)

y si ponemos un juego a >720p sin cap con cualquier grafica potente, hasta el mejor procesador del mercado te hará cuello de botella
@ayran

Básicamente todo lo que dice es "apenas" esto:

1) Those 10496 CUDA Cores are real. That's 10496 FP32-capable ALUs. And there are no hinky requirements for using them. If the warp scheduler can find a suitable warp, there's enough register file bandwidth and no weird co-issue requirements

2) Lil' Ampere no longer has a dedicated INT path within the SMs. NVIDIA has taken half a step back and replaced that with a mixed INT/FP path. Which is what Pascal (and all previous architectures) did. Now there's an INT/FP path, and a separate dedicated FP path.
This is basically a compromise between Turing and Pascal. You don't have INTs blocking an SM partition's entire math pipe like Pascal, but you don't have INT ALUs sitting idle a decent chunk of the time like Turing.
But it does mean that INTs will cut into your FP throughput once more, assuming that you could schedule enough FP work to keep both math pipes busy

3) The ROPs have gotten a divorce, and are now shacking up with the GPCs. Previously they were bound to the Memory Controller/L2 cache partitions. According to NV this shouldn't greatly impact perf, but it changes how ROP perf scales as chips are cut up and GPCs disabled.
It also means that there's now a very fixed ratio between the raster engines and ROPs. You can't disable one without disabling the other.

4) The memory controllers (and related hardware) get their own power rail. Previously the MCs ran on the GPU's core power rail. This means a video card now has 3 rails: GPU core, GPU MC, and then the memory chips themselves
The payoff here is that you no longer need to ramp up the core voltage just because the MCs need more power, or vice versa. It's finer-grained power control

5) SR-IOV! In a GeForce card! Virtual Machine users should be very happy

6) Within an SM partition, the RT and tensor core pipelines can now be concurrently used. This wasn't possible on Turing. Technically you can even do RT + tensor + FP32, however the tensor cores still eat all of your register file bandwidth, making tensor + FP32 inadvisable

7) RTX IO. Asset decompression takes place in the SMs (which is why it's being backported to Turing). According to NV the perf hit is minuscule. But for those looking for console comparisons, the consoles have dedicated blocks for this

8) NV isn't saying a whole lot about the 8nm process they're using. But I've been told that it offers improvements in power and frequency versus other Samsung processes.

9) Per SM, Lil' Ampere does not have more tensor ALUs than Turing. It's still 512 FP16 FMAs/clock. The performance boost comes solely from sparsity support.
Sparsity is a great feature. But I wish NVIDIA had been clearer about this in Tuesday's presentation. For reference, for Big Ampere at GTC they were always reasonably clear on this point.

10) NVIDIA has submitted their 12-pin connector for standardization.

11) GeForce cards are still going to be artificially capped in tensor performance for market segmentation reasons. As with RTX 20 cards, FP16 tensor ops with FP32 accumulate is running at half the native rate. This leaves the door open to an Ampere Titan.

Final Words: Overall, Lil' Ampere is significantly different from Big Ampere in some important ways. They're still cut from the same cloth, but whereas Big Ampere invested much of die shrink transistor budget into tensors, Lil' Ampere has largely invested it in shader cores.
Something amazing just arrived for review (and it's not related to any of the recent launches). That's about all I can say at this point. But daaaang initial impressions are fun.

Of course, CUDA cores are rarely the sole bottleneck in GPU performance, which is why overall GPU perf doesn't scale up by the number of CUDA cores. Essentially the ratio of FP32 ALUs:ROPs and ALUs:TEX has been doubled
Strait escribió:
anavas44 escribió:
Strait escribió:
Yo discrepo un poco. Con la salida de las nuevas gráficas nvidia empezará a maltratar a generaciones antiguas como siempre, sacando drivers que empeoran el rendimiento en algunos juegos. Los desarrolladores desarrollarán sus juegos basandose en las gráficas actuales y no en las de generaciones anteriores. Seguramente nos quedaremos sin alguna función nueva que saquen en exclusiva para las RTX3000, y si no tiempo al tiempo.


Eso es una falacia como la copa de un pino. En youtube hay cientos de videos probando drivers viejos con recientes en arquitecturas antiguas y no hay variación de rendimiento. Ejemplo:

https://www.youtube.com/watch?v=uEh6hT-nYZo


Hubo una época cuando salieron las 2000 que arruinaron los drivers para la serie 1000. Yo lo sufrí con mi 1070. La diferencia era real

https://youtu.be/mFSLro_OXLQ


Repito: es una falacia. En todo caso debió ser algún fallo puntual de esos drivers puesto que los siguientes (417.71) el rendimiento era igual de nuevo:

https://youtu.be/zKF8NHPOaGM

Y no sólo eso sino que comparando drivers de la época, no sólo no perdían sino ganaban rendimiento:

https://www.youtube.com/watch?v=6_61K2Irgpo

Y hablo por experiencia propia también, pues hasta principios de año tuve una 1080 Ti.
Vamos a ver, ¿en serio creéis que AMD va a presentar algo que siquiera se acerque a estos monstruos de Nvidia? AMD se va a quedar con la gama baja- media de tarjetas gráficas, y ni eso, porque cuando Nvidia saque la 3060 rindiendo como una 2080 ya verás tú. Nvidia con el DLSS 2.0 está demostrando el poderío de sus tecnologías, y la competencia ni está ni estará a la altura.
lapices escribió:


Me supongo que lo del control con rtx y todo al maximo en una 2070 será un avg de 60 fps no estables porque en mi caso el Control en ultra con dlss desactivado a 1440p de 40 fps no sube así como así
@anavas44

Dejalos a esta gente les encanta inventarse historias, seran terraplanistas y antivacunas

Aqui un video que hice yo mismo al respecto:

https://www.youtube.com/watch?v=XkbTkwzeV2U
31123 respuestas