[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

@Gwyn fuera coñas tengo mismo monitor yo voy de cabeza por la 3080, los 10 de vram no es problema la gente esta metiendo miedo... con 6/7 vram es lo que se esta ultizando actualmente, a noser que salga un juego mal optimisado como el Horizon Zero.. que es cutreport!
Gwyn escribió:Yo digo con la duda de con qué acompañar al 27GL850 (1440p@144):

A) Tirar por la 3070 para que, en caso de salida de las Super, no palme tanta pasta como con la 3080.

B) Tirar por la 3080, cruzar dedos para que 10Gb sean suficientes, y olvidarme ya.

C) Ver qué hace AMD con RDNA2.


Estábamos prácticamente igual en los pensamientos... aguante hasta ayer que me compré la 2080Ti y mandé a la mierda tanto come come jajajajajajaja ahora esperaré tranquilamente a ver que pasa mientras voy disfrutando como un enano y lo más probable es que en Enero o Febrero me vuelva a cambiar a una nueva 3000 si todo se confirma según parece. Yo imagino que AMD presentará algo inferior a 3080 pero con 16GB y seguramente en un precio muy contenido porque la 3080 gracias a Dios se ha quedado en los 699$ a pesar que muchos le auguraban unos 800 (y con razón porque nVidia confía que AMD no será capaz de llegar ahí aún, después de la supuesta fuerza de la 3080, yo lo dudo la verdad). Después de ese movimiento me imagino que nVidia bajará el precio de la 3080 y sacará por el mismo precio la 3080 Super con 16 o 20 de VRAM. Que lo de la VRAM es relativo... SI, es muy probable que no se lleguen a usar ni esos 10 que tiene si funcionan bien las tecnologías de compresión y demás DLSS, pero... como se suele decir "el caballo grande, ande o no ande". Mejor curarse en salud, porque la guarrada que la Ram de la tarjeta venga soldada y no se pueda ampliar viene de lejos... y para muchos que lo hemos vivido, eso de quedarse corto de VRAM es un poco frustrante (aunque tiene fácil arreglo, vender GPU y comprar una nueva).

Si nVidia no pensará comercialmente hablando habría sacado 2 variantes, como otras veces, y así el que quiera más VRAM que la pague y listos... hubiera sacado la 3070 Super con fecha Enero/Febrero con 16GB de DGRR6X y unos 100 euros más, y el que la quiera que lo pague... pero como están esperando a que saque AMD las suyas para decirlo, pues toca esperar y mientras seguir con las dudas.
Bio81 escribió:
Metalyard escribió:
Bio81 escribió:
tu lo has dicho ahora , pero con juegos de nueva generación lo mas probable y conociendo a Nvidia es que saque una 3080 Super con mas Vram en unos meses o un año para el que quiera jugar a 4k sin sacrificar texturas o algún efecto grafico con la 3080 de 10 GB y te obligue a pasar por caja de nuevo , ahí esta el tema , la 2080 Ti a ido bien de memoria en la generación de ps4 y xbox one , pero eso no garantiza que siga siendo así en un año por ejemplo


Umm no se no se, creo que se está exagerando un poco con el tema de la Vram de las gráficas...

Si nos referimos a que la VRam está sobretodo relacionado con el texturizado de los juegos, creo que cobra su importancia el tener mayor capacidad de Ram simplemente y plantarse con un mínimo de 32GB y tener instalado los juegos en un SSD obviamente...es decir, por ponerte un ejemplo, mi GTX 1080 se defiende bastante bien con sus 8GB GDDR5X a una media de 40/45 FPS a 3440X1440 mi Skyrim SE con 1000 mods con texturas en 8K y 4K que se rien de las de Red Dead Redemption 2...Eso sí, tuve que ampliar a 32GB de Ram al equipo [+risas]



skyrim no es buen ejemplo es un juego de la generación pasada , la vram no se usa solo para texturas , mira por ejemplo el Horizon zero dawn https://www.youtube.com/watch?v=Ue3IXkSU_w4 que consume casi 10 GB , en ese juego con una 3080 se queda al limite , imagina con juegos de nueva generación


Compi, el que no es un buen ejemplo es el Horizon precisamente [+risas] , que ya sabemos que salió roto para PC con ese cutre port que se han marcado :-|
pues si es cierto que Nvidia a conseguido mayor compresión de la memoria y es mas eficiente que en turing la cosa cambia , para 4k los 10 Gb de la 3080 ya no se quedan tan cortos , habrá que verlo en los benchmarks

@Metalyard

OK el horizon no es buen ejemplo , pues el Battlefield V a 1440p con RT activado se come mas de 8 GB ahora sube a 4k en un juego de nueva generación.. mas de 10 GB seguro que varios triple A se van a comer , pero si lo que hace nvidia con la memoria en Ampere es verdad , pues la cosa cambia
Yo estoy encantado de que mi 2080Ti pase a valer de segunda mano 300, 200 o 50 euros.

Ojalá quedase putamente obsoleta porque NVIDIA saque una cosa totalmente nueva y asequible que deje en la mierda a todo lo conocido. Ganamos todos.

Pero me parece una locura vender ahora a esos precios. Sólo se explica si quieres YA lo nuevo y no tienes cash para permitírtelo, cosa rara si eres un enfermo entusiasta, que somos los que compramos la mierda más poderosa.

Los que estén comprando a esos precios de saldo son los auténticos ganadores, así como los que vendieron a 800-900 en el último mes.

Es más me juego el huevo derecho a que algún listo compra ahora una 2080Ti, la usa 3 o 4 meses, la vende por más de lo que le costó y se salta a la serie 30 como un auténtico fucker.

Los demás, esperad un poco. A ver cómo se portan. Esos precios locos son EL PEOR ESCENARIO DE VENTA, y ese escenario lo vas a tener asegurado dentro de unos meses. O como mucho palmas 50 o 100 euros más, de perdidos al río.

Pero igual no. Cabe la posibilidad de que se hayan calentado con el marketing y en juegos reales del día a día las diferencias no sean tan locas y vuelvas a ver serie 20 a precios un poco más altos. En ese tiempo además dejas que testen un poco las nuevas, se mueva el stock, salgan las customs, se vea si hay remesas chungas y todo eso que nos gusta saber antes de empapelarte por un cacharro.

De paso se pueden ir mirando cajas más grandes, fuentes más poderosas...

Yo de momento tiro con la mía hasta que haya pasado sobradamente el lanzamiento. El punto de cribado más tocho será la salida del Cyberpunk que tanto llevamos esperando. Ahí los más "débiles" se tirarán al cambio.

A los que entréis de primeras, suerte y que sean tan buenas como parecen!

Tengo un colega que pilló una ASUS STRIX 2080ti hace 3 meses y tuvo obras en casa y estuvo jugando en el portátil, debe tener 3 horas de uso. Esa gente son el auténtico drama de todo esto.
Quiero vender la 2080 super para comprar una 3080, pero veo que como estan las cosas donde mas dinero dan es en CEX. ¿Alguien que haya vendido ahi? Es que me da cosa que se lleven la gráfica y luego me digan que ahora ya no ofrecen 425 y ofrecen 150 y me tenga que joder xD
Bio81 escribió:pues si es cierto que Nvidia a conseguido mayor compresión de la memoria y es mas eficiente que en turing la cosa cambia , para 4k los 10 Gb de la 3080 ya no se quedan tan cortos , habrá que verlo en los benchmarks

@Metalyard

OK el horizon no es buen ejemplo , pues el Battlefield V a 1440p con RT activado se come mas de 8 GB ahora sube a 4k en un juego de nueva generación.. mas de 10 GB seguro que varios triple A se van a comer , pero si lo que hace nvidia con la memoria en Ampere es verdad , pues la cosa cambia


Justamente una pagina atras un compi puso lo que consumía en 4K , no llega a 7GB Vram [rtfm]

Aqui todo son dudas , vaya tela como estamos algunos jeje, yo tengo un i79700k con una Asus 2080 32MB Ram, lo juego en un monitor 21.9 35" a 3440x1440 , p claro me vale la pena pasarme ya a una 3080 ? O esperar a que saquen la super o la Ti ?
La 3090 no contemplo, hablamos de 8k , no busco eso, no hay nada y cuando sea mas standar ya estaran las tarjetas nuevas... Creo esta tarjeta para jugar sera una pasada, esta destinada tambien para otros ambitos, aparte de para enseñar a todo el mundo el musculo de Nvidia,vamos dar un golpe en la mesa en toda regla ;Pero vamos quien la compre, ole y a disfrutarla a tope,menudo bicho ;-).

En fin todo dudas jejeje, habra que esperar las pruebas...etc.,etc y a partir de ahi....A ver si me vale la pena esta generacion o esperar a las 4000.
Saludos jugones .
@adriancinillo ¿Pero algo ahora que tu 2080 super no pueda correr? ¿Te la compraste pensando en actualizarla en menos de un año?
Lo que merece la pena es esperar a Noviembre a que AMD lance lo suyo, porque Nvidia va a contra atacar seguro, ya sea con versiones vitaminadas en Vram o con versiones Super/Ti ratataaaa
adriancinillo escribió:Quiero vender la 2080 super para comprar una 3080, pero veo que como estan las cosas donde mas dinero dan es en CEX. ¿Alguien que haya vendido ahi? Es que me da cosa que se lleven la gráfica y luego me digan que ahora ya no ofrecen 425 y ofrecen 150 y me tenga que joder xD

En Ebay ya me han hecho 2 ofertas por la 2080ti, ambas de 500€. De la transaccion ebay se lleva el 10%, y otro pequeño porcentaje paypal, al final estoy en lo mismo que me da CEX, y encima tengo en Málaga una tienda física.

Yo como dice alguno por ahí, seguire disfrutandola hasta que salga cyberpunk. Que no quita que se me antoje una 3080 [+risas] [+risas] [+risas] [+risas] [+risas]
adriancinillo escribió:Quiero vender la 2080 super para comprar una 3080, pero veo que como estan las cosas donde mas dinero dan es en CEX. ¿Alguien que haya vendido ahi? Es que me da cosa que se lleven la gráfica y luego me digan que ahora ya no ofrecen 425 y ofrecen 150 y me tenga que joder xD


Yo no he tenido nunca problema comprueba el precio antes de ir en la web y listo.

Saludos
Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory.


Claro, con juegos de esta generación... Y los juegos de dentro de dos años seguro que también usan de 4 a 6 gb de vram... [facepalm]

El modern warfare usa cerca de 10gb con todo en alto en 1080p

Si hasta el benchmark que ha hecho nvidia del doom eternal que esta unas paginas mas atras usa 10gb
Metalyard escribió:
Bio81 escribió:pues si es cierto que Nvidia a conseguido mayor compresión de la memoria y es mas eficiente que en turing la cosa cambia , para 4k los 10 Gb de la 3080 ya no se quedan tan cortos , habrá que verlo en los benchmarks

@Metalyard

OK el horizon no es buen ejemplo , pues el Battlefield V a 1440p con RT activado se come mas de 8 GB ahora sube a 4k en un juego de nueva generación.. mas de 10 GB seguro que varios triple A se van a comer , pero si lo que hace nvidia con la memoria en Ampere es verdad , pues la cosa cambia


Justamente una pagina atras un compi puso lo que consumía en 4K , no llega a 7GB Vram [rtfm]



puede que dependiendo de la zona del juego consuma mas o menos pero según el canal de hardware360 cosume mas de 8GB y el juego pega tirones cuando se come toda la vram...



a partir del minuto 7:05

pero bueno que hay mas ejemplos , el Modern warfare por poner otro



mas de 10 GB
Fleishmann escribió:Yo estoy encantado de que mi 2080Ti pase a valer de segunda mano 300, 200 o 50 euros.

Ojalá quedase putamente obsoleta porque NVIDIA saque una cosa totalmente nueva y asequible que deje en la mierda a todo lo conocido. Ganamos todos.

Pero me parece una locura vender ahora a esos precios. Sólo se explica si quieres YA lo nuevo y no tienes cash para permitírtelo, cosa rara si eres un enfermo entusiasta, que somos los que compramos la mierda más poderosa.

Los que estén comprando a esos precios de saldo son los auténticos ganadores, así como los que vendieron a 800-900 en el último mes.

Es más me juego el huevo derecho a que algún listo compra ahora una 2080Ti, la usa 3 o 4 meses, la vende por más de lo que le costó y se salta a la serie 30 como un auténtico fucker.

Los demás, esperad un poco. A ver cómo se portan. Esos precios locos son EL PEOR ESCENARIO DE VENTA, y ese escenario lo vas a tener asegurado dentro de unos meses. O como mucho palmas 50 o 100 euros más, de perdidos al río.

Pero igual no. Cabe la posibilidad de que se hayan calentado con el marketing y en juegos reales del día a día las diferencias no sean tan locas y vuelvas a ver serie 20 a precios un poco más altos. En ese tiempo además dejas que testen un poco las nuevas, se mueva el stock, salgan las customs, se vea si hay remesas chungas y todo eso que nos gusta saber antes de empapelarte por un cacharro.

De paso se pueden ir mirando cajas más grandes, fuentes más poderosas...

Yo de momento tiro con la mía hasta que haya pasado sobradamente el lanzamiento. El punto de cribado más tocho será la salida del Cyberpunk que tanto llevamos esperando. Ahí los más "débiles" se tirarán al cambio.

A los que entréis de primeras, suerte y que sean tan buenas como parecen!

Tengo un colega que pilló una ASUS STRIX 2080ti hace 3 meses y tuvo obras en casa y estuvo jugando en el portátil, debe tener 3 horas de uso. Esa gente son el auténtico drama de todo esto.



De acuerdo en todo lo que dices.
Yo tengo la 2080 Ti desde que salió, y la he disfrutado y amortizado de sobras.
Que me dan 350-400€ cuando decida venderla? No problemo, ya digo que la he amortizado de sobras.

Yo tengo enfilada la 3090 FE, pero quiero ver si sale una 3080 Ti.
Aunque soy de gatillo fácil, y muy chatarrero. Es muy probable que a la que salga a la venta la 3090 me tire a por ella.

Esto es una pasión. Y NO una inversión.

Siempre se va a devaluar lo que compres, ya sea una 2080Ti a los dos años de tenerla, o una 3080 de 10 GB al mes y medio.
kapitol83 escribió:
adriancinillo escribió:Quiero vender la 2080 super para comprar una 3080, pero veo que como estan las cosas donde mas dinero dan es en CEX. ¿Alguien que haya vendido ahi? Es que me da cosa que se lleven la gráfica y luego me digan que ahora ya no ofrecen 425 y ofrecen 150 y me tenga que joder xD

En Ebay ya me han hecho 2 ofertas por la 2080ti, ambas de 500€. De la transaccion ebay se lleva el 10%, y otro pequeño porcentaje paypal, al final estoy en lo mismo que me da CEX, y encima tengo en Málaga una tienda física.

Yo como dice alguno por ahí, seguire disfrutandola hasta que salga cyberpunk. Que no quita que se me antoje una 3080 [+risas] [+risas] [+risas] [+risas] [+risas]

Pues me acaban de aceptar una contraoferta de 560€, entro en paypal y he recibido 543´41€. Al final lo he vendido...sin querer..pero oye...ya no son 350€
eldespertar escribió:Juer, como tira la 3080, que lujazo será poder jugar a 4k@120 en la oled LG.


Ya te digo yo que es una gozada jugar a 4K@120hz, incluso juegos flojillos como el youngblood se convierten en experiencias orgasmicas xD
Sincia escribió:
The-Best escribió:
Zuffuel escribió:


17 teraflops de diferencia y solo 30-40fps más? [toctoc]

Muy poco me parece


Olvidate de comparar teraflops con generaciones anteriores, Nvidia ha doblado los cuda cores en esta generación (que basicamente dobla los teraflops), por lo que ha pasado a ser un número algo irrelevante en términos de rendimiento real. La diferencia está muy bien porque no compara misma gama, la 3090 es la 2080 Ti de esta generación.


No han doblado los CUDA cores, han doblado las unidades de FP32 por CUDA core a cambio de combinarlas con las de INT 32. En Turing en un CUDA core tenías una unidad FP32 y una INT32 que podían funcionar en paralelo (es uno de los grandes cambios respecto a Pascal). En Ampere, una de estas dos puede hacer INT32 o FP32.

Decía Nvidia cuando sacó Turing que un juego típico (Tomb Raider era el ejemplo) tenía de media un 60 y algo % de instrucciones FP32 y algo menos del 40% de INT. Detalles de scheduling aparte, en Turing eso sucede en paralelo y en Ampere también pero mientras estés ejecutando las operaciones con enteros estás "perdiendo" la mitad de los FLOPS.

O sea, en Turing teóricamente tenías las INTOPS como una métrica independiente de los FLOPS. Eso en Ampere no es así.


@Bio81 De momento Nvidia no ha dicho nada de mejoras en la compresión de memoria. Habrá que esperar a detalles técnicos pero es raro que no lo hayan gritado a los cuatro vientos ya de ser así.

@The-Best y a otros: no os guiéis ciegamente por el consumo reportado de VRAM en los juegos. Pensad que si no es necesario no se libera la memoria y no podéis saber si la GPU tiene marcado un dato como innecesario y lo mantiene como caché porque le sale más a cuenta tenerlo ahí que eliminarlo.
En el caso del BF5, no sé si el de Hardware360 SUPONE que es un problema de VRAM o si SABE que es un problema de VRAM. Porque por poder podría ser un problema del juego, memory leak, el sistema de stream de los datos que no esté bien hecho o cualquier otra cosa. BF5 digamos que no salió libre de bugs técnicos.
@garbagecrystal Los Tensor Core comprimen la memoria entre un 20~40% por eso según la respuesta de Nvidia, los test reflejan un consumo de 4~6GB en juegos que en una RTX 2080Ti consumen entre 6 y 10GB de VRAM en 4K.
Claro, todos queremos ver test reales, para poder apreciar si es cierto. De ser así, la 3080 puede venir preparada para una carrera de fondo. Aunque lo ideal para mi sería una 3070 con 10GB para esos 1440p para 6 años. Tengo el dilema de comprar ahora o esperar 1 año... a ver si sale con mas VRAM. Recuerdo que al año siguiente de comprarme la GTX 670 2GB salió el modelo de 4GB GDDR5 [tomaaa] Eso me dolió
@garbagecrystal Si las han doblado, los rumores indicaban justo la mitad de los nucleos Cuda que tienen las nuevas gráficas (aparte de lo que has comentado, de doble rendimiento FP32 por SM que es otra cosa), el cálculo de TF se hace con una multiplicación muy básica y es Nucleos Cuda x Frecuencia de Reloj x 2, de ahí que al doblar los primeros dobles los TF haciendo que una 3080 tenga unos absurdos 30TF cuando en rendimiento no dobla a una 2080 que tiene 10TF, o que la 3070 con 20TF vaya a tener el mismo rendimiento que una 2080Ti que tiene 13.5TF

Simplemente ha sido una jugada de Nvidia dado que el nuevo proceso de fabricación en 8nm no ha tenido el impacto en las frecuencias que esperaban (si te fijas las frecuencias son casi clavadas a la generación anterior cuando cada salto en el proceso de fabricación se notaba en una subida de frecuencias importante)

Por eso digo que no se debería usar los teraflops como una medida de rendimiento real.
Metalyard escribió:Lo que merece la pena es esperar a Noviembre a que AMD lance lo suyo, porque Nvidia va a contra atacar seguro, ya sea con versiones vitaminadas en Vram o con versiones Super/Ti ratataaaa


Pues si, yo creo que me esperare con el equipo que tengo tiro a tope, vamos...super contento.Y como bien dices es probable saquen las versiones mas vitaminadas y si tienes un equipo actual, no te corre prisa, aunque nos pueda el ansia jeje.
Cada caso es diferente, habra quien la quiera cambiar ya porque tenga la tarjeta ya tiempo...etc,etc.
En mi caso me espero.


Saludos.
@KKnot @yonnah @tigerscream Gracias por vuestra opinión.

Veo que se impone la 3080, tal como me lleva diciendo también un amigo desde la presentación.

Ea, pues nos daremos el capricho este año.

Y eso que también quiero pillarme una OLED de 65" [qmparto]
¿Un ryzen 2600 hará cuello de botella con una 3080? ¿Y 3070?
Gwyn escribió:@KKnot @yonnah @tigerscream Gracias por vuestra opinión.

Veo que se impone la 3080, tal como me lleva diciendo también un amigo desde la presentación.

Ea, pues nos daremos el capricho este año.

Y eso que también quiero pillarme una OLED de 65" [qmparto]

Mismo monitor y misma idea: 3080 pero en mi caso tendré que ver resultados para mover la GPU con Ryzen 7 2700x y fuente 650w plus bronze. Si me hace cuello de botella, seguiré con 1080ti.
junomap escribió:
Gwyn escribió:@KKnot @yonnah @tigerscream Gracias por vuestra opinión.

Veo que se impone la 3080, tal como me lleva diciendo también un amigo desde la presentación.

Ea, pues nos daremos el capricho este año.

Y eso que también quiero pillarme una OLED de 65" [qmparto]

Mismo monitor y misma idea: 3080 pero en mi caso tendré que ver resultados para mover la GPU con Ryzen 7 2700x y fuente 650w plus bronze. Si me hace cuello de botella, seguiré con 1080ti.


Mismo procesador y mismo voltaje de fuente (en mi caso 650w platinum) y haciendo calculos con bottleneck calculator nuestro 2700x puede mover perfectamente una 3080, creo leer que hacia un 1.32% de cuello de botella, vamos inapreciable.

Yo me lanzare a por la 3080 en cuanto salga si o si.
ikemen escribió:@garbagecrystal Los Tensor Core comprimen la memoria entre un 20~40% por eso según la respuesta de Nvidia, los test reflejan un consumo de 4~6GB en juegos que en una RTX 2080Ti consumen entre 6 y 10GB de VRAM en 4K.
Claro, todos queremos ver test reales, para poder apreciar si es cierto. De ser así, la 3080 puede venir preparada para una carrera de fondo. Aunque lo ideal para mi sería una 3070 con 10GB para esos 1440p para 6 años. Tengo el dilema de comprar ahora o esperar 1 año... a ver si sale con mas VRAM. Recuerdo que al año siguiente de comprarme la GTX 670 2GB salió el modelo de 4GB GDDR5 [tomaaa] Eso me dolió


Que yo sepa, en ningún lugar afirman eso de los tensor cores comprimiendo. De hecho, si eso fuera así, aplicaría también a Turing.
Esas cifras que están dando de consumo de memoria son consistentes con el uso que tienen esos juegss en tarjetas no Ampere ahora mismo.

Además, como decía antes, si Nvidia pudiera afirmar que esos 10 GB son como los 14 las actuales lo estarías leyendo constantemente.

@Sincia, insisto, no han doblado CUDA cores, han doblado FP32 porque han vuelto a unificar FP32 e INT32 en la mitad de los CUDA core. Es decir que la mitad de los CUDA cores o están ejecutando FP o están ejecutando INT. La multiplicación que haces no está teniendo en cuenta este hecho y ahí es donde falla.
Dicho de otra manera, en 2080Ti tenías 14 TFLOPS y 14 TIPS. En Ampere tienes o bien 30 TFLOPS o bien 15 TFLOPS y 15 TIPS, depende de qué tengas que ejecutar.
Yo ya veo demasiado raro que si taaaaaaaan potentes son... Porque Nvidia no suelta benchmark a diestro y siniestro... Algo huele regular
chrispro escribió:Yo ya veo demasiado raro que si taaaaaaaan potentes son... Porque Nvidia no suelta benchmark a diestro y siniestro... Algo huele regular


Pienso igual, demasiado bonito para ser verdad.
Esto de la bajada de precio tan grande asi como la diferencia de potencia grafica tan grande puede significar solamente 2 cosas:

1. Que la empresa está informada de que se viene una crisis economica a escala mundial y se baja los pantalones antes de que sea demasiado tarde y ni el tato les compre una grafica tope de gama.

2. Que no sea oro todo lo que reluce.

Me inclino mas hacia la primera opción.
Mr.Threepwood escribió:
battman80 escribió:No puedo evitar recordar el sangrante caso de la 580 de 8gbs y la 1060 de 6gbs,... [idea] .


Qué pasó?


Pues que en aquella ocasión, yo escogí la RX580 porque claro, joer, tenia 8gigas del mismo tipo de vram, era evidente que le sacaría partido y más rendimiento a la "obsoleta" 1060, y la realidad es que desde entonces, hasta hoy dia, la 1060 se ha follado a la RX580 en todos los juegos, por poco eso sí, quitados unos pocos que se cuentan con los dedos de la mano, y por motivos distintos a la cantidad de Vram. Queda claro que no es algo directamente proporcional que una gpu con mas Vram vaya a dar, por ese simple dato, mayor rendimiento que una con menos, ni que la que tiene menos se vaya a quedar impedida frente a la otra en algun momento.

Y ya respecto de todas las discusiones que estais teniendo, en especial JoseMurcia, con el que ya creo haber cruzado mensajes algua vez, y que es un tio que sabe muy pero que muy bien de lo que habla y el terreno que pisa, y el otro compañero que parece ser que intenta formarse a si mismo, lo cual es MARAVILLOSO, que no se por qué, no deja de desencajarme por algun lado, porque yo lo que le veo es un ansia viva de equiparar en concreto a la PS5 con estas Ampere, y no asumir que ahora mismo ha quedado a la altura del betún. Él insiste o da a entender que va a por una 3090 y que todo su debate se centra en que las gpus de segundo y tercer escalon se quedan cortas de memoria de video, son un desastre, y ademas PS5 se las va a follar a base de micropoligonos en 2-3 años, o 5, según le digan los de Epic, que anda que no han tirado por tierra de la forma mas cutre y salchicera cualquier traza de credibilidad que tuviesen (un dia te dicen que la demo del ue5 solo es posible con la poderosa ps5, y al otro te reconocen que una 2070S se la pasa por el forro de los cojones y en mejores condiciones, UNA 2070S no una Ampere), o no se.

Y yo, he dedicido que no me meto ya en mas discusiones, en este hilo, que estoy de vacaciones y pierdo mucho tiempo, aunque me divierto y es genial teneos a todos para compartir estas cosas, pero a este chico que no le conozco, y seguro que es una persona genial, le veo muy fuera de sitio. Es la tipica persona que se empapa de toneladas de explicaciones en medios, o de personas, que aparentemente tienen mas conocimientos que él, y las interpreta en el sentido que le guia el corazón, haciendo caso omiso de los ENORMES carteles de STOP que le van saliendo al paso.

El que crea que una consola next gen tiene algo que hacer, en terminos generales, frente a por ejemplo, una Ampere 3070, o una 2080Ti, creo que esta en las mismas que el que se creía en su momento que la PS4 estaba por encima de la 1080, porque le habian dicho o habia leido no se cuantas explicaciones técnicas de brillantisimos ingenieros de sony, amd, o carrefour, sobre la magia de las consolas, sus técnicas de reescalado (anda que no son una chapuza [facepalm] ) y sabe dios que milongas más. Y si esque pensais, aun por esas, que las desarrolladoras, que estan para GANAR EL MAXIMO DINERO POSIBLE, y no para que les aplaudan los fans de uno y otro lado, se van a romper la cabeza en buscar la manera de poder aprovechar para algo esta o aquella caracteristica enrevesada de las consolas (o las gpus) es que nacisteis ayer, o habeis perdido la memoria, porque las desarrolladoras iran siempre AL MÁXIMO COMUN, y muy muy raramente mas allá, lo cual, precisamente, puede "restar valor" a estas ampere, porque por muy buen rendimiento que tengan en el RTX "de Nvidia", si se opta por otra solución de RTX que no se apolle necesariamente en los recursos de la verde y sea mas universal veremos si toda esa potencia dedicada al mismo se justifica, o queda en nada, salvo los pocos juegos que Nvidia decida "untar" para que le sigan el juego. Idem para las consolas, en especial la de Sony, donde si tiene algo que ofrecer va a ser en los first, que durante toda una gen son 2 o 3 al año...como mucho...y no justifican comerse lo que te tienes que comer en todos los multis, para mi al menos, y si tienes que elegir. Y tampoco es que empiecen con muy bien, con ese Ratchet que cojea por todos lados...será que aun no dominan los micropoligonos.

En serio, nos queda mucho que ver, saber, conocer y comprobar, pero hay cosas que forman parte del sentido comun universal, y que cuando uno no está seguro de que pensar, porque le falta base, o le sobra, basta con mirar hacia atras, que lo hacemos mucho menos de lo que debemos en esta vida, y ver lo que la experiencia te dice que es lo correcto, o lo mas probable.

Un saludo y sed felices, que el mundo no se acaba mañana (o sí), con una cosa, o con la otra, pero, eso, no tardeis mucho en ser felices, por si acaso... [oki] [beer]
@garbagecrystal Precisamente han doblado el rendimiento FP32 pero han matenido las operaciones INT, y los cálculos no los hago yo, es una multiplicación muy básica que puedes encontrar en cualquier lado. En esta imagen se ve como han doblado las instrucciones FP32, que son el doble que en la generación anterior si solo quieres ejecutar este tipo de instrucciones.

Imagen
No le voy a dar publicidad porque será mentira:

I9-10900k + 32 Gb 3600mhz [4k hasta “activa” el msaa en 4k ^^]
2080ti vs 3080


CoD:MW - 132fps vs 176fps
B5 - 125fps vs 162fps
RDR2 - 60fps vs 79fps
AC Odyssey - 61fps vs 89fps
Just Cause 4 - 78fps vs 113fps
Anthem - 82fps vs 108fps
Fornite - 82fps vs 132fps
@chrispro @Kumharas Estaran bajo embargo, supongo que pronto acabara y podran enseñar todo tipo de comparaciones y juegos.
battman80 escribió:
Pues que en aquella ocasión, yo escogí la RX580 porque claro, joer, tenia 8gigas del mismo tipo de vram, era evidente que le sacaría partido y más rendimiento a la "obsoleta" 1060, y la realidad es que desde entonces, hasta hoy dia, la 1060 se ha follado a la RX580 en todos los juegos, por poco eso sí, quitados unos pocos que se cuentan con los dedos de la mano, y por motivos distintos a la cantidad de Vram. Queda claro que no es algo directamente proporcional que una gpu con mas Vram vaya a dar, por ese simple dato, mayor rendimiento que una con menos, ni que la que tiene menos se vaya a quedar impedida frente a la otra en algun momento.



Pues siendo así, me quedo más tranquilo. Yo tento también una 580, pero juego en PC entre poco y nada. Los 8 Gb me interesan por lo de poder cargar más texturas y objetos 3D mientras curro.
Luzbel_bcn escribió:No le voy a dar publicidad porque será mentira:

I9-10900k + 32 Gb 3600mhz [4k hasta “activa” el msaa en 4k ^^]
2080ti vs 3080


CoD:MW - 132fps vs 176fps
B5 - 125fps vs 162fps
RDR2 - 60fps vs 79fps
AC Odyssey - 61fps vs 89fps
Just Cause 4 - 78fps vs 113fps
Anthem - 82fps vs 108fps
Fornite - 82fps vs 132fps


Pues ya te digo yo, que con que settings, porque esas cifras en RDR2 Y AC ODYSSEY, yo no las pillo. Y en el Assasins hasta me podría comer que la diferencia de procesador (yo llevo un 3800x a 4,3 en todos los nucleos) le de los 61, porque no me quedo muy lejos de ellos a 4k con todo a tope (bueno si, depende de las zonas puede caer a 40), pero en el RDR2 con absolutamente todo a tope, ni de coña me trago que clave los 60. Vamos, que no me lo creo sino lo veo en vivo. Huele a que hay mucho buitre aprovechando el tiron, como los videos de cualquier tema que te ponen una tia buenorra en la miatura y estan vacios, pero el visionado ya se lo llevan [qmparto]
Luzbel_bcn escribió:No le voy a dar publicidad porque será mentira:

I9-10900k + 32 Gb 3600mhz [4k hasta “activa” el msaa en 4k ^^]
2080ti vs 3080


CoD:MW - 132fps vs 176fps
B5 - 125fps vs 162fps
RDR2 - 60fps vs 79fps
AC Odyssey - 61fps vs 89fps
Just Cause 4 - 78fps vs 113fps
Anthem - 82fps vs 108fps
Fornite - 82fps vs 132fps


Fake

He tenido la 2080 ti y no puede pasar de 45 frames en 4 la mayoría de esos juegos
Viendo las especificaciones de la 3090 y la 3080 parece que no habrá mucha diferencia de rendimiento para la diferencia de precio que tienen, no?
kapitol83 escribió:En Ebay ya me han hecho 2 ofertas por la 2080ti, ambas de 500€. De la transaccion ebay se lleva el 10%, y otro pequeño porcentaje paypal, al final estoy en lo mismo que me da CEX, y encima tengo en Málaga una tienda física.


Véndela en Wallapop que la sacas por ese precio (incluso algo más) y sin pagar comisiones.
@Sincia claro, es que es eso lo que estoy diciendo. No sé si nos estamos entendiendo mal...
@battman80 @chrispro por eso no quiero poner el vídeo aquí de YouTube, que el pavo en 22 horas ya tiene sus 22 mil visualizaciones y su día de fama.

Lo peor que hasta octubre no veré benchmark de la 3090...
Kumharas escribió:
chrispro escribió:Yo ya veo demasiado raro que si taaaaaaaan potentes son... Porque Nvidia no suelta benchmark a diestro y siniestro... Algo huele regular


Pienso igual, demasiado bonito para ser verdad.


en Doom Eternal la 3080 le saca entre 30 y 40 fps a la 2080 Ti a 4K , según el video que a publicado Nvidia , luego esta la comparativa de digital foundry la 3080 es hasta un 92% mas rapida que la 2080 , es solo un adelanto los benchmarks de la mayoria de canales de youtube y webs no deberian tardar mucho mas de una semana
Reflexion mia, podeis opinar lo que querais

En general os lanzais a comprar (y vender) demasiado rapido, recapitulemos

No hay benchmarks, los números que dio Nvidia pueden ser medias verdades.

Tenemos una 3080 que tiene un consumo de 320W tdp, la 1080 que fue una gran grafica tenia 180W, esto implica disipadores muy potentes y posiblemente problemas por temperatura, o al menos poco margen de overclock.

Luego el tema de la memoria, las consolas nextgen montan 16GB compartida cpu/gpu, sabeis que paso en la generación de la ps4/x1 no?, montaban 8GB compartida... y las graficas pasaron de montar 2GB a 8GB de memoria. No digo que sea necesario 16GB pero seguramente más de un juego mal optimizado necesite 16GB para funcionar bien (o 12).

Y luego amd aunque no lo veo muy relevante, presenta supuestamente sus graficas en octubre, si son buenas esta bien porque bajan precios, si son malas tambien porque son una opción a Nvidia.

whatever yo esperaria un poco, total, tampoco hay juegos que necesiten una grafica nueva hoy en dia.

Yo por ejemplo tengo una Vega 56 con undervolt y RL rindiendo como una 1080, jugando a 1440p y calidades altas todavia no me he topado un juego que vaya mal o que no sea perfectamente jugable con freesync, algunos a 60 fps otros a 140, ademas muchos juegos con grandes graficos ni si quiera son buenos, solo tienen graficos.
Ruben1001 escribió:Viendo las especificaciones de la 3090 y la 3080 parece que no habrá mucha diferencia de rendimiento para la diferencia de precio que tienen, no?


Esque eso es tan realtivo... Diferencia de rendimiento... Por ejemplo, si como han dicen en el Tweet ese que hay por ahi detras, una 3080, te mueve RDR2 con absolutamente todo todo lo posible de activar a tope, con soltura y total sobranza, a 4k y 60 frames, teniendo en cuenta que una Ti actual llora si intentas eso para aguantar los 30, (no puede de hecho), pues a mi me parece un salto de rendimiento brutal, sobre todo porque ya te permite superar la barrera de los 60 frames a la que antes no podias llegar en condiciones con la apoteosis visual y tecnica que supone un juego asi (y aprovecho para recordar, de nuevo mirando atras, que por ejemplo la version de PS4 del GTAv, ni la de Onex, llegaron a tener el techo técnico que desde el dia 1 tuvo y ha tenido la de PC, eso para quien piense que en dos años las nuevas consolas van a poder fumarse los juegos que ahora una ti mueve a pedales...).

Pero si entre la 3080 y la 3090 el salto es de los 150 frames, a los 190, o 180, pues sí, 30 frames más son muchos frames, pero la cosa es, ¿los vas a necesitar? Por ejemplo, si vas apostar por la VR, se justifican, pero no se si en otros escenarios lo hace. Por ejemplo, yo ahora no voy a mover ficha la verdad, salvo que me entre la locura transitoria, pero me encantaria tener una 3090 para llenarle toda la vram en los programas de renderizado y tal [sonrisa] , pero fuera de ahi, vale 1500, y dos generaciones de xx80 a 700 u 800 salen casi por lo mismo, y te van a mantener en el top con seguridad toda la gen, como estan diciendo algunos compañeros. Nu se. [bye] [beer]
PepeC12 escribió:Luego el tema de la memoria, las consolas nextgen montan 16GB compartida cpu/gpu, sabeis que paso en la generación de la ps4/x1 no?, montaban 8GB compartida... y las graficas pasaron de montar 2GB a 8GB de memoria. No digo que sea necesario 16GB pero seguramente más de un juego mal optimizado necesite 16GB para funcionar bien (o 12).

Las gráficas pasaron a montar 8 GB para jugar con texturas de mucha más resolución y a resoluciones 4K.

No he visto ni un solo juego esta gen que requiera más de 4GB de VRAM para jugar mínimo en calidad consola, la mayoría con esa VRAM se pueden jugar con mejores texturas.
Antoniopua está baneado por "saltarse el ban con un clon"
Daicon escribió:
Antoniopua escribió:La compraré donde más barata sea... sobre las tiendas de aquí, ellos sabrán lo que hacen...

En qué tienda extranjera dale normal de precio y es de fiar?

Pues de momento no lo sé, pero todo sería investigar :) . Cualquier cosa te digo :D .
Fleishmann escribió:Pero igual no. Cabe la posibilidad de que se hayan calentado con el marketing y en juegos reales del día a día las diferencias no sean tan locas.


Yo hecho 20 pavos a uno, a que va a pasar eso.
Es que si fuera tan bestia como se presupone. Ya debería haber reviews de la 3090

Yo tengo ansia... Pero no pienso comprar nada sin reeviews .. es.mas, si me quedo sin stock me quedaré pero los reviews primero!!!
Drakenathan escribió:
battman80 escribió:
Drakenathan escribió:@battman80 tu nos puedes indicar perfectamente teniendo una 2080Ti, que opinas de 10Gb para los próximos 3/4 años?


Que a las velocidades de esas gpus, y a partir de la 3080, de la gddr6x, sobra.

Os recuerdo que estamos a final de "generación" y aun la gpu mas popular en PC tiene 6gbs de vram y se pasea por delante de las consolas, que siempre van a ser el referente que te lastre en ese tipo de aspectos.

Que puede que luego saquen juegos con paquetes de texturas a 8k opcionales en PC o alguna barbaridad así y no llegue con 10 o con 8? Puede, pero siendo sinceros, a 4k y con resoluciones de textura normalitas para esa resolución, los juegos ya se ven brutales. La nitidez que pierde todo cuando simplemente vuelves al 2k, duele un poco, y lo digo porque alguna vez me veo forzado a hacerlo por no renunciar a frames. Asi que me parece que sobra.

De todos modos tened todos MUY CLARO, que en un tiempo, no se cuanto, Nvidia va a salir con versiones super o Ti, "algo mejoradas", y muy probablemente la mejora vaya sobre todo en Vram. De hecho creo que ese es el motivo de los precios de ahora. Venden a mansalva estos modelos, luego sacas por 100-200 pavos más los "pro", y otra vez todo dios a estirarse de los pelos, revender e ir a por ellos. Es el viejo truco de venderte lo mismo dos veces, retocandolo un poco [qmparto] .

Pero el mundo del hardware es asi, siempre va a haber algo amenazando con salir mañana y dejar tu numero uno en un numero dos. Hay que superar eso, o no se vive! [qmparto] [oki] [beer]



El problema lo tiene el que siempre quiere lo TOP, sea o no necesario.... porque hoy en día salvo que juegues a 4k no veo motivo para saltar por ejemplo de una 2080TI a una 3090...... seguira siendo una GPU tremenda durante un buen tiempo.


Los que prácticamente solo jugamos a VR esta más que justificado una 3090 siempre que te la puedas permitir claro
@battman80 Pero es que viendo el video de doom que ha sacado nvidia hoy, la 3080 será sobre un 40% mas potente que la rtx 2080ti. Y la 3090 tiene un 20% mas de cuda cores respecto a la 3080, por lo que no creo que la diferencia sea superior a ese 20%. Que pagar de 700€ a 1500€ por una diferencia de solo un 20% me parece una barbaridad. Aunque habra que esperar a los benchmark.
Antoniopua está baneado por "saltarse el ban con un clon"
Pues yo tengo la sensación de que la 3090, mueve el RDR 2 a 4K y mínimo 120 FPS...
31123 respuestas