¿Peco de tacaña Nvidia con la vram en la serie 3000?

Durante mucho tiempo se ha pensado que la cantidad de VRAM no era tan importante, cuando salían modelos de graficas idénticas, con la única diferencia de la cantidad de vram, como las 480 de 4 u 8 gb por poner un ejemplo, se aconsejaba la de 4gb si la diferencia de precio era significativa. Pero parece que las cosas han cambiado, que por fin se usan texturas realmente pesadas en 4k y pregunto: ¿les ha pillado el toro a las Nvidia 3000 por poner poca vram?
Realmente no es baladí, que graficas que se siguen vendiendo en torno a los 800 euros como las 3080, solo tengan 10gb de vram y ya estén desfasadas para los triple a mas exigentes.
¿Acertó AMD con los 16gb de vram de la serie 6000?
pues obviamente que es un limitante, ya lo hemos hablado muchas veces, por ejemplo, en un mundo abierto es un problema.
@Silicio14mm obviamente. Aquí en hardware ya he dicho más de una vez que la pasada gen en Nvidia racanearon más de la cuenta con la VRAM. En mi humilde opinión AMD equilibró su gama mejor en cuanto a VRAM se refiere. Siempre he dicho, digo y diré que la 3070 debió salir con 12 GB y la 3080 con 16.

El DLSS genial, el RT en las 3000 discutible, pero la VRAM en las 3070 y 80 es irrisoria, para quienes jugamos a 1440p o 4K. Son gráficas que más por VRAM que por potencia, van a estar muy limitadas a futuro, corto y medio plazo. Una pena porque baratas no han sido, ni son. [sati] ratataaaa

Pero es que ahora, actualmente, o pasas por la 4080 (con el alto desembalso que conlleva) o vas a AMD. Las 6000 calidad /precio están imbatibles ahora (RT aparte). Yo en 2023 y jugando a resoluciones superiores a 1080, no pillaría una gráfica de menos de 16 GB de VRAM ni loco. Eso pensando a medio y largo plazo. A quien le guste (y pueda) cambiar cada gen, pues poco le importará eso. Digo como usuario medio. [ayay]

Saludos!!! [beer]
@Silicio14mm ni que fuera algo que no se dijera cuando salieron🤣🤣🤣

Nvidia es una empresa y tiene que asegurarse que su producto no sea muy longevo para que vuelvas a comprarle el producto actual, la manera mas facil es la VRam.
Y con la 4000 tambien, y ademas de vram, con el bus.
elcapoprods escribió:Y con la 4000 tambien, y ademas de vram, con el bus.


Cierto. XD [beer]

Lo que hace que esta gen de las RTX 4000 sólo merezcan la pena por VRAM / rendimiento / bus (determinante a 1440p y 4K) la 80 y 90. Una gen en la que si quieres comprar algo decente a medio plazo, o 1500 euritos de nada en la cuatro ochenta o te vas a AMD. Opción más que tentadora y totalmente respetable, RT aparte. :D [beer]

Flipante que no haya nada decente por menos de cuatro cifras. Magnífico. Maravilloso. [hallow]

Pero los consumidores han / hemos pasado por el aro y ahora tenemos esto. Ya pinchará la burbuja, porque vamos, el común de los mortales va a abrazar las consolas -con razón- porque estos precios en PC están dejando de ser razonables. Es que duplicar prácticamente el precio de una gen a otra... De 800 e de la 3080 a los casi 1500 de la 4080... Tela.

En fin, saludos, y ojalá la cosa vuelva a ser más razonable. Esperemos que si no lo hacen las compañías a propia iniciativa, difícil XD, lo hagamos los consumidores. [fies] ratataaaa
Soy el primero que huye del ray tracing y se que la 6800xt se hunde usando rt, pero últimamente estoy jugando a algunos títulos en los que lo puedo usar con solvencia, como los resident evil 7 y 8, y hoy mismo he empezado a jugar al Howard Legacy en ultra y con RT en reflejos en ultra también, 4k recalado por FSR 2.0 en calidad y va a 60 como una roca, algunos dirán que es un RT cutre de amd, pero yo pienso que el camino del RT debería ser decirle al motor grafico donde poner los reflejos y rasterizarlos, no hacerlo todo a fuerza bruta y me imagino que es lo que están haciendo en los títulos donde veo que el rt no me come el rendimiento combinan la rasterización tradicional y el trazado de rayos.
¿Si estaba tan claro que la serie 3000 se vería afectada por la poca VRAM en poco tiempo, porque tubo tanto éxito?
Si la gente fuera más exigente habría pedido como mínimo la misma VRAM que la competencia y Nvidia habría tenido que rectificar. Gracias a esos 16gb de la 6800xt voy a aguantar otra generación
Chaquetero está baneado por "troll"
Que va, no te has pasado por el hilo de las 4000? Según tres o cuatro usuarios la 4070 ti es la mejor gráfica de la historia, que la compres que se acaban, y la 3070, que tiene la misma cantidad de VRAM que la 1070, gráfica de hace 7 años, tiene la cantidad justa y necesaria de memoria.

A Nvidia no se le puede criticar nada hombre, pero tú quien te has creído?

Ni que chupe un 30% más de CPU provocando cuellos de botella con cualquier procesador.

Ni que la cantidad de VRAM que incluya sea lamentable.

Ni que venda gamas bajas como gamas altas.

Ni de estafar a nadie con el rtx, raytracing, digo physx, digo Nvidia hairworks...

Ni de sacar gráficas consumiendo 320w cuando las puede sacar consumiendo 160w rindiendo lo mismo (4080 VS 4090 laptop)

Ni de usar la mierda de gddr6x que rinde un 5% más y consume un 50% más respecto a la normal con los problemas de temperatura y fiabilidad que conlleva.

Ni de usar un conector de mierda, el nuevo de 12 pins, que se prende fuego.

Etc, etc, etc... Pero bueno, al final a la gente le sobra el dinero y se lo gastarán en la enésima mierda que lleve serigrafiado el rtx sin criticar nada y tragando con todo, lo que hará que todo vaya irremediablemente a peor. Ya veremos dentro de unos años, se vienen cosas chulísimas.
Nvidia es tacaña con la vram. No importa cuando leas esto

Ahora igual no se nota tanto pero dentro de poco va haber gente que ha pagado un pastizal por una grafica y que por potencia va a poder mover el juego como el usuario quiere pero que le va a decir que no por falta de vram. El cabreo de esa gente va a ser bueno (cabreado/a del futuro estamos contigo)

Hasta ahora la mayoria de juegos que han salido multiplataformas y que han tenido las consolas como plantilla salian también para PS4 y Xbox one y aquí limitaba pero ahora van a empezar a salir juegos sólo para PS5 y Series X (ya veremos la S como se lo monta). Todos sabemos que el boton de exportar a PC de los motores graficos funcionan regular. O se lo trabajan bien o va a ser una carniceria
nvidia racanea en vram pero el problema es el precio en eso no racanea . 3080 desfasadas pues no en 4k y depnde la exigencia se puede quedar corta cierto juegos ultimos triple a . incluso la 4090 con rtx patina en algun juego 4k, siempre hay que hacer pensar que necesitas lo mas caro y ultimo para eso esta el marketing . la necesidad de cada uno es un mundo
Cuando salió la 3080 los chips de memoria GDDR6X de mayor densidad eran de 1GiB. Un chip GDDR6X individual ocupa 32 bits de bus, por lo que 320/32 nos da 10 chips de memoria. Si hubieran querido poner 20GiB (a mi juicio, la cantidad adecuada para un producto de esta gama) tendrían que haber hecho como en la 3090, colocarlos por ambas caras del PCB, porque físicamente no caben de otra forma.

Eso de tener la RAM a ambas caras del PCB aumenta el coste significativamente y tiene varios problemas cara a estabilidad y durabilidad como se ha visto en varias 3090, especialmente las que se han dedicado a minería sin mejorar los thermal pads, ya que los chips de la cara opuesta a los ventiladores se iban a 100-105º sin ninguna cosa rara.

Lo de poner 16GiB que comenta @LGZ no era posible en ese momento sin hacer ñapas al estilo 970 ya que el bus no permite ninguna combinación para hacerlo, aparte que 16 chips en una cara también sería un problema. Lo que sí era posible es aumentar el bus a los 384bits del chip completo y poner 12 chips de memoria, que es justo lo que hicieron con la 3080Ti y con la 3080 de 12GiB.

Yo sinceramente aquí veo poco justificada la queja. Nvidia sacó el chip "grande" en el modelo -80 y a un precio bastante competitivo, cosa que no hacía desde, literalmente, la GTX 780 (todo el resto de chips GX-100 estaba en modelos -Ti, y la 2080Ti por ejemplo costaba 1300 cocos). Salió en un momento en el que era imposible conseguir una gráfica y mucho menos a su MSRP, y por supuesto las dos marcas de gráficas llenándose los bolsillos a manos llenas, pero eso es otra historia.

Cuando salió la 3090Ti ya existían chips GDDR6X de 2GiB de densidad, por lo que en lugar de poner 24 chips a ambas caras del PCB basta con "solo" 12, lo que a mi juicio la hace una gráfica mucho más interesante y fiable que la 3090 a similares prestaciones (si se limita el consumo, en otro caso rinde más pero consume MUCHO más) , ahora bien, llegó tarde y a un precio absurdo. Sacar un refresh de la 3080 cuando está a punto de salir la siguiente serie no es un movimiento comercial muy inteligente, ni tiene el efecto halo del buque insignia para venderlo por dinerales. Por ebay se vio algún prototipo de 3080s con 20GiB con esta RAM, algunos medios se hicieron eco de ello, pero no llegó a materializarse.

Y otra cosa, para la tranquilidad de los que han visto 14GiB de uso de VRAM en el Hogwarts legacy a 1080p con Raytracing: Que un motor gráfico use toda la VRAM que pueda, aunque sea para cachear texturas que igual se usan o igual no, es bueno y deseable. Otra cosa es que el rendimiento caiga cuando baja la VRAM, pero no es el caso, incluso ese juego, que es un alarde de mala optimización, rinde bastante bien (todo lo bien que puede ir con lo exigente que es) con una 3080 con "solo" 10GiB de VRAM.

Con esto no pretendo defender a nVidia, dios me libre. Como consumidor no me caso con nadie. Pero al césar lo que es del césar: Aquí había una fuerte razón técnica detrás de las decisiones. AMD no tuvo este problema porque usó GDDR6 (sin X) y en este caso sí que existían chips de 2GiB de densidad, que incluso trabajando en un bus más estrecho (256bit en la tope de gama, la 7950X) permitían hacer GPUs con 16GiB con "solo" 8 chips. El precio a pagar es bastante menos ancho de banda de memoria, que es tan importante como la cantidad de RAM, si no más, y otra posible razón de que una gráfica se vuelva obsoleta antes de tiempo (o de que rinda bastante menos en RayTracing, vete a saber...)

Saludos
A mí Nvidia me estafa una vez, pero no dos. A partir de ahora Nvidia no existe para mi, solo AMD e Intel. Que se metan las tecnologias chupiguays donde les quepa.
En la 3060 y 3090 tenía sentido la VRAM que traían, pero en todas las demás que hay por medio era un timo, pero vamos que se sabía desde el minuto 1 que traían una pegatina con fecha de caducidad por falta de memoria, tampoco han mentido a nadie xD Yo nunca contemplé saltar a ninguna gama 3000 por esto mismo, y a la 4000 ya veremos porque con los precios que están manejando igual me la salto también, o me paso a AMD xD
Todo depende de si tienes el sindrome de "ultritis". Si se supone que las 3070/Ti son para 1080p o 2k/60 justos con sus 8Gb yo creo que aun aguantan. Pero claro es lo de siempre mas vale que sobre que no que falte. Pero que vamos, todos sabemos que importa mas la potencia que la VRAM en la mayoria de los casos.

Para 4k supongo que es otro cantar, pero bueno, que quien quiere 4k se compra ya una grafica mas cara y con 12/16gb de VRAM minimo y sin problema, (la 4070ti tambien monta 12gb), al igual que las 3080ti o 3080 de 12gb, que te mueven con soltura cualquier juego a mas de 60fps en 2k... que si encima es con gsync vas mas que sobrado.

Yo teniendo una tarjeta con 12gb voy a hacer lo mismo que el compi de arriba, esta generacion me la salto y ya me pillare una serie 5000 que rinda como una 4090 por 1000 euros. Me da igual esperar o que se devalue, si me dura 3 años jugando a todo sin problema, para mi no es perder dinero.
@HaGeK

Yo creo que nVidia la cagó pero bien con la 3070. Estoy jugando en 2k a God of War, en ajustes "Original" en todo, la tarjeta tira 120 fps casi todo el rato, sin DLSS ni nada, pero tienes la VRAM entre 6700 - 6900 Mb y recordemos que los 8 Gb no están plenamente disponibles, hay una reserva de unos 400 Mb para lo que sea, así que con 7500 Mb de VRAM puede empezar a petardear los FPS y hacer cosas raras, con Doom eternal todos los settings en ultra-Pesadilla la gráfica se le atraganta y no puede.

Así que yo estoy pensando seriamente pasar a la 4070 por los +4Gb extras.
Silicio14mm escribió:Durante mucho tiempo se ha pensado que la cantidad de VRAM no era tan importante, cuando salían modelos de graficas idénticas, con la única diferencia de la cantidad de vram, como las 480 de 4 u 8 gb por poner un ejemplo, se aconsejaba la de 4gb si la diferencia de precio era significativa. Pero parece que las cosas han cambiado, que por fin se usan texturas realmente pesadas en 4k y pregunto: ¿les ha pillado el toro a las Nvidia 3000 por poner poca vram?
Realmente no es baladí, que graficas que se siguen vendiendo en torno a los 800 euros como las 3080, solo tengan 10gb de vram y ya estén desfasadas para los triple a mas exigentes.
¿Acertó AMD con los 16gb de vram de la serie 6000?

Sin duda. Esta más claro que el agua que las graficas, sobretodo modelos de 8GB de las 3000 pecan de longevidad desde el minuto uno porque la mayoria de gente que se gasta una pasta en estos chismes, quiere jugar al 100% de graficos con suavidad total y no tener que andar bajando detalle porque un juego no vaya bien.

Aunque esta claro es que Nvidia con las 4000 sigue con ideas similares.
ale210 escribió:@HaGeK

Yo creo que nVidia la cagó pero bien con la 3070. Estoy jugando en 2k a God of War, en ajustes "Original" en todo, la tarjeta tira 120 fps casi todo el rato, sin DLSS ni nada, pero tienes la VRAM entre 6700 - 6900 Mb y recordemos que los 8 Gb no están plenamente disponibles, hay una reserva de unos 400 Mb para lo que sea, así que con 7500 Mb de VRAM puede empezar a petardear los FPS y hacer cosas raras, con Doom eternal todos los settings en ultra-Pesadilla la gráfica se le atraganta y no puede.

Así que yo estoy pensando seriamente pasar a la 4070 por los +4Gb extras.

Yo creo q las gráficas van a caducar mayormente por la potencia del chip, y en menor medida por la cantidad de memoria (q se gestiona de forma automática, mejor o peor). Pero el chip hará q el juego se arrastre por los suelos o q vaya fluido, con todas las posibilidades intermedias. Va a envejecer mejor una 3070 con sus 8MB q una 3060 con sus 12GB. Con el tiempo bajas settings en la 3070 y te mueve el juego, pero con la 3060 aunque quepan mejor las texturas, va a arrastrar el juego porque cada vez son más demandantes.
BladeRunner escribió:
ale210 escribió:@HaGeK

Yo creo que nVidia la cagó pero bien con la 3070. Estoy jugando en 2k a God of War, en ajustes "Original" en todo, la tarjeta tira 120 fps casi todo el rato, sin DLSS ni nada, pero tienes la VRAM entre 6700 - 6900 Mb y recordemos que los 8 Gb no están plenamente disponibles, hay una reserva de unos 400 Mb para lo que sea, así que con 7500 Mb de VRAM puede empezar a petardear los FPS y hacer cosas raras, con Doom eternal todos los settings en ultra-Pesadilla la gráfica se le atraganta y no puede.

Así que yo estoy pensando seriamente pasar a la 4070 por los +4Gb extras.

Yo creo q las gráficas van a caducar mayormente por la potencia del chip, y en menor medida por la cantidad de memoria (q se gestiona de forma automática, mejor o peor). Pero el chip hará q el juego se arrastre por los suelos o q vaya fluido, con todas las posibilidades intermedias. Va a envejecer mejor una 3070 con sus 8MB q una 3060 con sus 12GB. Con el tiempo bajas settings en la 3070 y te mueve el juego, pero con la 3060 aunque quepan mejor las texturas, va a arrastrar el juego porque cada vez son más demandantes.


Obviamente, pero no estamos hablando de envejecer mejor o peor, si no que los 8Gb de memoria deberían haber sido cosa del pasado para las gamas X070, cuando cambié la GTX1080 por la RTX3070, ambas llevaban 8 Gb de memoria.
BladeRunner escribió:
ale210 escribió:@HaGeK

Yo creo que nVidia la cagó pero bien con la 3070. Estoy jugando en 2k a God of War, en ajustes "Original" en todo, la tarjeta tira 120 fps casi todo el rato, sin DLSS ni nada, pero tienes la VRAM entre 6700 - 6900 Mb y recordemos que los 8 Gb no están plenamente disponibles, hay una reserva de unos 400 Mb para lo que sea, así que con 7500 Mb de VRAM puede empezar a petardear los FPS y hacer cosas raras, con Doom eternal todos los settings en ultra-Pesadilla la gráfica se le atraganta y no puede.

Así que yo estoy pensando seriamente pasar a la 4070 por los +4Gb extras.

Yo creo q las gráficas van a caducar mayormente por la potencia del chip, y en menor medida por la cantidad de memoria (q se gestiona de forma automática, mejor o peor). Pero el chip hará q el juego se arrastre por los suelos o q vaya fluido, con todas las posibilidades intermedias. Va a envejecer mejor una 3070 con sus 8MB q una 3060 con sus 12GB. Con el tiempo bajas settings en la 3070 y te mueve el juego, pero con la 3060 aunque quepan mejor las texturas, va a arrastrar el juego porque cada vez son más demandantes.

Definamos caducar primero.

Caducar deberia ser exactamente cuando ya no puedes jugar a nada actual con la grafica de un modo comodo.

Y dicho esto, doy fe que con graficas del 2016 como una GTX 1060 o RX580 acompañadas de una CPU actual, puedes jugar comodamente a la gran mayoria de juegos por no decir a todos los actuales. No jugaras a tope de detalle pero ahi estan.

Asi que tampoco veo que las RTX 30 vayan a caducar mañana. Otra historia es no jugar a tope de detalle incluso a resoluciones de 1080p sin sufrir algunos tiron en algun juegos. Eso ya sucede con graficas de 8GB de vram.

Respecto al envejecer. Con un juego que tenga texturas de alta resolución, funciona mejor en 1080p a tope de detalle, incluso con RT, la 3060 que su hermana 3060Ti con 8GB. Y apostaria a que a la 3070 le sucede lo mismo.

Como lo he probado en mis carnes, pues no coincido con esa opinión del chip va a envejecer mejor. Al final la una y la otra iran lastradas por una cosa u otra y es más facil que los 8GB sean un lastre peor.

No obstante tu definición de lo que es caducar no se va a dar tan dramaticamente como da la impresión que dices.
HaGeK escribió:Todo depende de si tienes el sindrome de "ultritis". Si se supone que las 3070/Ti son para 1080p o 2k/60 justos con sus 8Gb yo creo que aun aguantan. Pero claro es lo de siempre mas vale que sobre que no que falte. Pero que vamos, todos sabemos que importa mas la potencia que la VRAM en la mayoria de los casos.

Para 4k supongo que es otro cantar, pero bueno, que quien quiere 4k se compra ya una grafica mas cara y con 12/16gb de VRAM minimo y sin problema, (la 4070ti tambien monta 12gb), al igual que las 3080ti o 3080 de 12gb, que te mueven con soltura cualquier juego a mas de 60fps en 2k... que si encima es con gsync vas mas que sobrado.

Yo teniendo una tarjeta con 12gb voy a hacer lo mismo que el compi de arriba, esta generacion me la salto y ya me pillare una serie 5000 que rinda como una 4090 por 1000 euros. Me da igual esperar o que se devalue, si me dura 3 años jugando a todo sin problema, para mi no es perder dinero.


Saludos, en Marzo del 2017, salió la 1080 ti, tarjeta que a un tengo para render gracias a los cuda, en el ordenador que uso para diseñar, esa tarjeta salió con 11gb, la compre por unos 700 euros, han pasado 6 largos años, ¿de verdad te parece que tras 6 años, lanzar graficas de 12gb es un avance?, ya no digamos lanzar graficas con menos de 11gb, es que Nvidia a ido hacia atrás. Por cierto, la 1080ti es la mejor grafica que he tenido, para su época.
@Nomada_Firefox @ale210

Una cosa es lo q queremos nosotros y otra lo q va a hacer una empresa para segmentar sus productos en gamas de la forma q mejor creen posible, dentro de las limitaciones tecnológicas q explicó @Pollonidas. No puedes aumentar la cantidad de memoria sin modificar el ancho de banda. Si bajan ancho de banda, la gráfica es peor, ¿verdad q no interesa? Si la aumentan, tienen q aumentar ancho de banda. ¿Le interesa a Nvidia desaparecer su modelo de 3080 de 10GB, por hacer mejor la 3070? (por ejemplo). Pues no, porque segmentando modelos por rendimiento llega a más potenciales clientes de distintos niveles adquisitivos/necesidades.

Por ejemplo, la RTX 3070 tiene 8MB/256bits, la RX 6700xt 12MB/192bits. Y no hay q olvidar q tecnologías como el direct-storage/re-bar/sma pues vendrían para ayudar a q la memoria de vídeo se actualice penalizando menos en el rendimiento.

@Silicio14mm pero aumentar indefinidamente la cantidad de vram tiene sentido cuando sólo es la GPU la q evoluciona con el tiempo, pero ahora tenemos SSDs q han sustituido a los HDDs y q cada vez son más rápidos, las CPUs son más rápidas, la RAM, el re-bar/sma/ds... todo. Con lo q la VRAM se actualiza más rápido q antes por todo el conjunto del equipo.
BladeRunner escribió: la RTX 3070 tiene 8MB/256bits, la RX 6700xt 12MB/192bits.

¿Has hecho un copiado y pegado o me he perdido algo? por que son GB y no MB.

Escribiendo megas, parece que volvemos a la epoca de las Voodoo1, hace más de 20 años. [sonrisa]

Ya lo dije muchas veces, el directstorage no viene a mejorar fps aunque mejore un poquito, viene permitir que los juegos carguen más rapido con texturas HD y claramente esta más pensado para las consolas que para el PC. No es una opción que haga que 8GB funcionen como 16GB, no eso no va a suceder.

El Bar, ya hemos visto lo que hace. Todo suma un poquito pero no es la maravilla que dijeron que seria.
@Nomada_Firefox precisamente por no copiar fue el desliz, son GB evidentemente. XD

No sustituye gigas, pero ayuda a q la vram se actualice con nuevas textutas dentro del juego penalizando menos en el rendimiento. Todo ayuda en esto, menos las lucecitas RGB. XD
Lo que es una vergüenza es meterle a una 3060 12Gb de VRAM que no valen absolutamente para nada si la comparas con una 3070/ti con sus 8gb.

Y lo de la 1080ti y sus 11Gb de VRAM, pues que quieres que te diga sigue siendo una 1080ti por mucha VRAM que lleve, para bien o para mal.

Lo del verde de Nvidia yo creo que es por los porros que se fuma porque si no a ver qué sentido tienen muchas cosas que hace xD.

Todo lo que comento es sobre el entorno gaming que es de lo que creo que se está debatiendo.Si es para entorno empresarial supongo que si que puede tener un impacto positivo el tener más VRAM...
HaGeK escribió:Lo que es una vergüenza es meterle a una 3060 12Gb de VRAM que no valen absolutamente para nada si la comparas con una 3070/ti con sus 8gb.

Eso de que no valen para nada, es mentira. Como ya dije arriba, yo pude comparar una 3060 con una Ti y jugando con texturas HD en el Far Cry 6, la diferencia en fps era de 1fps para la 3060 pero es que en escenas con mucha acción al girar la camara la Ti mostraba micro stuttering, mientras que la no Ti no lo hace.

Tampoco es que fuera casualidad, es que en guru3D, ya habia una review que narraba el problema https://www.guru3d.com/articles_pages/f ... ew,10.html

Mostraria unos videos pero me los suelen borrar cuando los publico. Asi que simplemente ofrezco que busque mi canal , escribes Nomada_Firefox en youtube y ya sale, no tiene perdida.

Y la 3060 normal todavia la tengo en el otro PC.

A parte de eso, con la RX 6800, simplemente por ser una grafica AMD, se ve mejor las texturas del Far Cry 6. [sonrisa]
@Nomada_Firefox si no te digo que bajo alguna circunstancia y en algún momento concreto le puedas sacar algo de ventaja por tener más VRAM. Pero que no es lo normal y lo sabes....

Y más aún cuando le pides 2k que se empieza a arrastrar (hablo desde mi experiencia personal) y no es por VRAM precisamente.

Que uno se pueda apañar pues vale es respetable. Pero que lleve 4gb más una 3060 que una 3070 y la misma que una 4070ti (a cantidad me refiero), manda huevos!
@HaGeK

Imagen

La 1080ti no solo eran los 11gb de VRAM era una grafica muy equilibrada, pensada para jugar a 4k, con lo que había hace 6 años y con el 80% de lo que hay ahora, una grafica que puede mirar cara a cara a la 2080 si obviamos el RT. Algunos de los últimos juegos que use con esta grafica fueron Ciber Punk, MF Simulator, A Valhala y Far Cry 5. Los podía jugar perfectamente. Cuando pase a la 6800xt, los seguí jugando con un poco más de solvencia pero poco más, sigo esperando el salto de Generación, el Howard Legacy sigue usando el UE4, motor que la 1080ti manejaba perfectamente, ¿Dónde están todos los juegos UE5?.
El tema es que si los desarrollos de juegos triple a tardan unos 5 años en realizarse, se realizan con el motor grafico que tengan en ese momento y se testean con las graficas del momento, por eso el Howard Legacy me da en configuración recomendada Ultra, porque durante su desarrollo y testeo era una grafica top, y no va a aprovechar las bondades de las 4000. Supongo en pronto llegaran juegos con UE5 que saquen más partido a las graficas nuevas.
Decían que UE5 seria mas eficaz, ya veremos
Me voy a callar que parece que este ninguneando graficas cuando no es asi.

No he dicho que las 1080ti, ni las 3060 sean malas tarjetas, que no lo son. Solo digo que la cantidad de VRAM no es proporcional a su potencia a dia de hoy, nada mas.

Que cuanta mas VRAM, mejor, claro esta, estoy de acuerdo, y nvidia es una racana para algunas tarjetas pero que para otras, inexplicablemente, no. Y tambien tienen que ver los juegos como la gestionen y/o como esten optimizados,. Yo tengo amigos tirando con 1070s que estan aun encantados y juegan a todo hoy en dia a 1080p.

Ademas que es un tema que veo ya bastante trillado y no quiero que se me malinterprete, yo solo he entrado a dar mi opinion. Tampoco me considero un experto, ni mucho menos.
HaGeK escribió:@Nomada_Firefox si no te digo que bajo alguna circunstancia y en algún momento concreto le puedas sacar algo de ventaja por tener más VRAM. Pero que no es lo normal y lo sabes....

Y más aún cuando le pides 2k que se empieza a arrastrar (hablo desde mi experiencia personal) y no es por VRAM precisamente.

Que uno se pueda apañar pues vale es respetable. Pero que lleve 4gb más una 3060 que una 3070 y la misma que una 4070ti (a cantidad me refiero), manda huevos!


Sabe eso como sabe que en la review de guru3d no dice nada de lo que afirma, y para colmo aporta como supuesta "prueba" la que hizo con una 3060TI que devolvió por funcionar mal...

En todas las review que mires vas a ver como tanto la 3060TI como la 3070, con sus miseros 8GB de vram rinden mas y mejor que la 3060 con sus 12GB (pero su "pírrico" bus de 192bits). Sin ir mas lejos, en la que el enlaza, la 3060ti le saca a la 3060 11fps, 18fps y 13fps a 1080, 1440 y 4k respectivamente (en ultra y con las texturas HD en todos los casos).

Decir que van justas de vram es una verdad como un templo, decir que la gama inferior rinde mas (o igual) es simple y llanamente mentira.


No solo importa el tamaño del "deposito" de texturas, sino tambien la velocidad con la que este las sirve y carga nuevas. Pero bueno, nada nuevo bajo el sol....
BloodBlack está baneado por "clon de usuario baneado"
@Wookiee

La velocidad no es lo importante en la cargar de texturas, cuando no hay espacio en VRAM se cargan desde la RAM que es más lenta y lo mas probable pierdas rendimiento, en antaño te daban tirones, pero actualmente con la DDR4 y 5 ,lo mas probable solo pierdas rendimiento.

No quiero defender a Nvidia, pero que algunos juegos se quedan sin VRAM en GPU de 8 o 10gb , es por falta de optimización , las texturas 4k vienen desde hace tiempo en GPU de 6GB y con texturas virtuales no deberían suponer un problema con 8 y 10gb.
BloodBlack escribió:@Wookiee

La velocidad no es lo importante en la cargar de texturas, cuando no hay espacio en VRAM se cargan desde la RAM que es más lenta y lo mas probable pierdas rendimiento, en antaño te daban tirones, pero actualmente con la DDR4 y 5 ,lo mas probable solo pierdas rendimiento.

No quiero defender a Nvidia, pero que algunos juegos se quedan sin VRAM en GPU de 8 o 10gb , es por falta de optimización , las texturas 4k vienen desde hace tiempo en GPU de 6GB y con texturas virtuales no deberían suponer un problema con 8 y 10gb.


Si al final creo que decimos lo mismo. Cuando hago mención a la velocidad a la que “carga y descarga” texturas me refiero a que de nada sirve tener todas las texturas del juego cargadas en vram si se encuentra con un cuello de botella por culpa del bus de datos por ejemplo. Recordemos que la vram no solo se usa para texturas. Ademas, juraría que en mi 3070 gano más rendimiento haciendo oc a la memoria que al núcleo.

Esta discusion me retrotrae a la época de las agp, donde ya cometí el error de comprar una gráfica con más ram que la que tenía pensando que rendiría más sin tener en cuenta el resto de elementos, y obviamente, me quede con cara de tonto.

Y si, estoy de acuerdo contigo, la mayoría de problemas viene por una mala optimización del soft, ya que en las consolas que son un entorno cerrado y resulta más fácil (y rentable) optimizar, se consiguen resultados por encima de lo que se consigue con el mismo hard en pc.
ale210 escribió:@HaGeK

Yo creo que nVidia la cagó pero bien con la 3070. Estoy jugando en 2k a God of War, en ajustes "Original" en todo, la tarjeta tira 120 fps casi todo el rato, sin DLSS ni nada, pero tienes la VRAM entre 6700 - 6900 Mb y recordemos que los 8 Gb no están plenamente disponibles, hay una reserva de unos 400 Mb para lo que sea, así que con 7500 Mb de VRAM puede empezar a petardear los FPS y hacer cosas raras, con Doom eternal todos los settings en ultra-Pesadilla la gráfica se le atraganta y no puede.

Así que yo estoy pensando seriamente pasar a la 4070 por los +4Gb extras.


Nos engaña/estafa Nvidia y te vuelves a comprar una Nvidia de 12Gb cuando debería tener 16gb y volverá a pasar lo mismo...
Una AMD, una AMD, que funcionan genial con 16gb vram y FSR esta cerca del DLSS. El raytracing es otra estafa, lo pongo en doom Eternal y en espacios amplios baja a 40fps... Sin no baja de 150... Con DLSS y tal
Yo pillaré una 7700xt u 800xt cuando se pongan a tiro y salgan xd
BloodBlack está baneado por "clon de usuario baneado"
Wookiee escribió:
BloodBlack escribió:@Wookiee

La velocidad no es lo importante en la cargar de texturas, cuando no hay espacio en VRAM se cargan desde la RAM que es más lenta y lo mas probable pierdas rendimiento, en antaño te daban tirones, pero actualmente con la DDR4 y 5 ,lo mas probable solo pierdas rendimiento.

No quiero defender a Nvidia, pero que algunos juegos se quedan sin VRAM en GPU de 8 o 10gb , es por falta de optimización , las texturas 4k vienen desde hace tiempo en GPU de 6GB y con texturas virtuales no deberían suponer un problema con 8 y 10gb.


Si al final creo que decimos lo mismo. Cuando hago mención a la velocidad a la que “carga y descarga” texturas me refiero a que de nada sirve tener todas las texturas del juego cargadas en vram si se encuentra con un cuello de botella por culpa del bus de datos por ejemplo. Recordemos que la vram no solo se usa para texturas. Ademas, juraría que en mi 3070 gano más rendimiento haciendo oc a la memoria que al núcleo.

Esta discusion me retrotrae a la época de las agp, donde ya cometí el error de comprar una gráfica con más ram que la que tenía pensando que rendiría más sin tener en cuenta el resto de elementos, y obviamente, me quede con cara de tonto.

Y si, estoy de acuerdo contigo, la mayoría de problemas viene por una mala optimización del soft, ya que en las consolas que son un entorno cerrado y resulta más fácil (y rentable) optimizar, se consiguen resultados por encima de lo que se consigue con el mismo hard en pc.


También depende el momento, en momentos de transición de consolas es mejor comprar algo sobrado de VRAM y que después no te haga falta, la Textura al final de cuentas son gratis en rendimiento y mantener la textura siempre al máximo es algo que te llevas,apesar que el rendimiento caiga y toque bajar otros apartados gráficos con el tiempo.
@BladeRunner

Eso de que bajar el ancho de banda hace que la grafica sea peor es falso, la 4080 tiene menos ancho de banda que la 3080, el problema del ancho de banda tiene facil solución aumentando la cache, que es lo que hizo amd la pasada generación y a hecho nvidia esta

Soluciones a ese problema había, pero nvidia por alguna razon eligió usar módulos gddr6x con la consecuente limitación y a partir de ahí se jodio todo, como solo existian de 1gb no tuvo mucho margen para la gama alta y por no poner mas a la media que a la alta la media salió con cantidades ridículas de vram, aunque bueno luego sacaron la 3060 de 12gb no se si por las criticas o a modo de burla

Amd con la serie 6000 estaba en la misma situación y lo hizo bien, por lo tanto es perfectamente criticable y no vale la justificacion de que no se podia, por que ya se a visto que si
@FranciscoVG me refiero a misma arquitectura.
HaGeK escribió:Y más aún cuando le pides 2k que se empieza a arrastrar (hablo desde mi experiencia personal) y no es por VRAM precisamente.

Bueno eso es ya buscar problemas donde no los hay. No es una grafica de 2k y lo sabes. Nisiquiera es lo que se discute aqui. Y lo que si es verdad, es que con una grafica de 8GB, incluso a 1080p, sufres tirones y no es algo que vaya a ir a mejor con el tiempo, siendo por la falta de vram, no por el chip, no por otra cosa.

Y si alguien ahora dice, oh es que el Far Cry 6 esta super mal programado, pues le puedo decir que es el unico juego que conozco donde puedes activar el Raytracing y no tener que activar el FSR para mantenerte alto de FPS. Con la 3060 funciona a unos 80fps media y con la RX 6800 a 109.

Asi que el problema es la vram.
Lo que me gustaria saber es por que la 2080ti tiene 11gb de las mismas GDDR6 que usa la 3070 pero esta tiene 8gb y un bus de 256 en lugar de los 11gb y bus de 352 de la 2080ti
BladeRunner escribió:@FranciscoVG me refiero a misma arquitectura.


¿Y que me quieres decir con esto?, logicamente a dos gpu iguales mas ancho de banda es mejor pero coño eso forma parte del diseño de una gpu, lo que estais dando a entender es que la serie 3000 tiene esa cantidad de vram por que no habia otra opcion y eso no es cierto, si la habia haciendo una gpu diferente lógicamente pero si lo había, si es que en la serie 4000 han hecho lo que tuvieron que hacer con la 3000

Nvidia puso esa cantidad de vram por que asi lo decidió no por que fuese la unica opcion, y no es la primera vez que lo hace
elcapoprods escribió:Lo que me gustaria saber es por que la 2080ti tiene 11gb de las mismas GDDR6 que usa la 3070 pero esta tiene 8gb y un bus de 256 en lugar de los 11gb y bus de 352 de la 2080ti

Porque sería muy superior en rendimiento, y eso no le interesa a Nvidia, fíjate q la 3080 de 10GB tiene bus de 320bits.

FranciscoVG escribió:
BladeRunner escribió:@FranciscoVG me refiero a misma arquitectura.


¿Y que me quieres decir con esto?, logicamente a dos gpu iguales mas ancho de banda es mejor pero coño eso forma parte del diseño de una gpu, lo que estais dando a entender es que la serie 3000 tiene esa cantidad de vram por que no habia otra opcion y eso no es cierto, si la habia haciendo una gpu diferente lógicamente pero si lo había, si es que en la serie 4000 han hecho lo que tuvieron que hacer con la 3000

Nvidia puso esa cantidad de vram por que asi lo decidió no por que fuese la unica opcion, y no es la primera vez que lo hace

Me refiero a q cuando saca una serie nueva, todas las gráficas son derivadas de una misma arquitectura/tecnología. Primero saca la tope de gama (por ejemplo la 4090) y luego va recortando características para ir sacando las siguientes gamas, y le interesa q haya gráficas en todos los "escalafones" posibles para segmentar sus productos y adaptarlos al mercado. También hay q tener el cuenta el stock q había de la serie 3000, q no le interesaba "pisar" totalmente para q fuera saliendo (y le salió bien la jugada porque ya no hay tanto stock de gama alta de la serie 3000). Pues "jugar" con la cantidad de ram, ancho de banda, número de transistores del chip, velocidades, etc. es la forma q tienen de crear gráficas en todos los escalafones de rendimiento posibles. Pero hay unas limitaciones tecnológicas, no puedes poner 11GB de ram y tener 320bits de ancho de banda, por ejemplo, así q con las limitaciones q tienen, hacen lo q "pueden" (con sus intereses empresariales por delante claro está).
@BladeRunner

Si entenderlo lo entiendo lo que no se es que tendra eso que ver con la cantidad de vram, tanto la cache como la vram son independientes de la arquitectura, de hecho seguramente nvidia tenia varios prototipos con cantidades diferentes tanto de gddr6 como de gddr6x

Lo que dices no tiene ningun tipo de sentido como argumento para justificar la cantidad de vram que es lo que estas diciendo cuando hablas de limitaciones, como te dije dichas limitaciones existen por que ellos lo han querido, había otras formas
FranciscoVG escribió:Lo que dices no tiene ningun tipo de sentido como argumento para justificar la cantidad de vram que es lo que estas diciendo cuando hablas de limitaciones, como te dije dichas limitaciones existen por que ellos lo han querido, había otras formas

No entiendo lo q quieres decir, te refieres a q si quieren pueden meter 11GB de vram y tener un bus de 320bits, si les dá la gana?
elcapoprods escribió:Lo que me gustaria saber es por que la 2080ti tiene 11gb de las mismas GDDR6 que usa la 3070 pero esta tiene 8gb y un bus de 256 en lugar de los 11gb y bus de 352 de la 2080ti

Porque un chip de GDDR6 se puede utilizar con 32 bits de bus o con 64. En cualquier caso en todos estos supuestos se utilizan 32 bits por chip, el problema no es ese, es la densidad. Ver: https://linustechtips.com/topic/799212- ... 4-bit-bus/

En el caso de la 3070, 8 chips de memoria * 32 bits = 256bit
En el caso de la 3080, 10 chips de memoria * 32 bits = 320bit
En el caso de la 2080Ti, 11 chips de memoria * 32 bits = 352bit
Caso 3090 (situación "rara"): 24 chips de memoria * 32 bits / 2 chips/canal = 384bit

Si hubieran utilizado chips GDDR6 en lugar de GDDR6X en la 3080 podrían haberla sacado con 20GiB montando chips de 16Gbit (2GB) en lugar de 8Gbit (1GB), probablemente a un coste de fabricación similar, pero también probablemente (todo esto es con la bola de cristal) estaría limitada por el ancho de banda a memoria, rendiría peor en tareas que requieren esto último (como RayTracing) y la gente se quejaría igualmente, por otros motivos, y probablemente con tanta razón como ahora.

Saludos
41 respuestas