[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

battman80 escribió:
Bio81 escribió:
adriano_99 escribió:Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....



Si hablas del horizon zero dawn es un juego que esta roto , hay gente en este foro que dice que le es injugable sin bajar las texturas y a mi no me da esos problemas con las texturas en ultra ni a mi amigo que juega usando la misma grafica.
Así que no, ese juego no necesita mas de 10GB de ram como algunos han dicho varias veces.


del Horizon no puedo hablar por que no lo tengo , hablo de cualquier juego en general que este bien optimizado y que se coma toda la vram , por ejemplo cuando salio el GTA V en PC hace ya 5 años hice una prueba para ver hasta donde podia llegar la vram de la GTX 780 6 GB , puse el juego con todas las opciones graficas al maximo a 4k incluido el MSAA a 8X ¿sabes lo que paso? a parte de que iba a 15 fps esto no es por la vram esto es por la falta de potencia de la GPU pero iba a 15fps pegando tirones esto si es por falta de vram y desaparecieron la mayoria de las texturas del mundo , mirando el consumo de vram en el rivatuner el juego se había comido toda la vram , fue bajar la resolución a 1080p y volver todo a la normalidad , así que eso de que la vram de las nuevas RTX 3070 y 3080 sobra , no , no sobra y en juegos de nueva generación ya lo vereis 8 GB para 4k se van a quedar cortos en mas de un juego triple A y 10 GB ya lo veremos pero apuesto a que en un año también , prueba una GPU de 2 GB o 4 GB con los graficos al maximo en juegos actuales a 1080p a 1440p y obtendras el mismo resultado con la prueba que hice yo con el GTA V a 4k con una gpu de 6 GB , la serie 3000 por lo que sabemos hasta la fecha van a rendir mucho y muchos mas jugadores van a dar el salto a 4k ¿quien te dice a ti que dentro de un año no salga un juego que consuma 14 GB sin bajar settings a esa resolución? por poner un ejemplo , por eso pienso que de vram van justitas a no ser claro que Nvidia utilize alguna tecnologia de compresión de datos de memoria , si es así y se demuestra en los benchmark.. entonces perfecto la 3070 y 3080 son una buena compra a 2/3 años vista. si no yo no tiraria mi dinero ni con la 3070 ni con la 3080 por que en poco tiempo se van a quedar cortas de vram que no de potencia , potencia tendrán para regalar pero sin vram suficiente un juego no puede funcionar bien , luego te sacaran la 3070 Ti 16 GB o la 3080 Super 20 GB y la peña se cagara en todo , por que su grafica se esta quedando corta de vram y ya no le tiran bien los juegos nuevos


Es solo un ejemplo, hay muchos mas.

Un gráfica de 2014, con 4gbs de vram, todavía es muy usable hoy dia para una inmensa mayoria de usuarios:

https://www.youtube.com/watch?v=zaU2W-GK72U

No te quito la razón en lo que comentas, pero me parece que tu, y algun otro, correis mucho, pero mucho. Por no hablar de que hay que meter en la ecuacion monitores o teles 4k, que mucho usuario de PC no tiene todavia ni persigue. Por no hablar, de que magias a parte, las consolas aun tienen que encontrar la potencia necesaria de todos sus componentes funcionando a la vez (y no tests sinteticos de cada uno por separado y seguramente fuera del ecosistema propio), para poder llegar y sostener los 4k, y con todo lo que los propios fabricantes de las mismas estan comentando, va a ser una generacion de REESCALADO por un tubo, cada vez que tengan que enfrentarse a algun juego tocho, donde ni el ssd ni los gigas vram que les de la gana llevar, les van a hacer el trabajo de gratis.

Puede, como dices, que PARA AGUANTAR EL ULTRA en PC a 4k, con estas gráficas que comentas, y los 60 frames, tengas algun problema en algun juego muy concreto, pero en serio, mirad para atras, de donde venimos, y no pongais como ejemplos ports de mierda de consola a PC, Y MENOS, sin mencionar que cuando tu lo pones en ultra en PC a 4k hoy dia, estas yendote a la "next gen de consolas", porque, y el Horizon es un gran ejemplo, esos juegos en consolas van en settings medios (con efectos directamente ausentes), reescalados, encima con resolucion dinamica (que ni siquiera renderizan el juego siempre a 2k, o a 1080, o a 720), y sudan la gota gorda para aguantar 30 frames y no salir volando por la ventana.

Para que los multis te pongan entre la espada y pared, de verdad, con estas gpus, van a pasar mas de 2 años, y de 3.
Y si resulta que llega ese dia, y en vez de poner las texturas en el "ultra" de 2023, hay que ponerlas en el "ultra" de hoy dia, que será el mid, o el high o no se, vas a seguir teniendo los 60 frames y la resolución real que otras soluciones "malabaristas" no te van a dar en todo el lustro. Y te aseguro, por sino lo vives, que poner un juego de hoy en PC a 4k con todo a tope y a 60 frames, de los mas punteros, es algo ASOMBROSO de cojones. Dudo que nos vaya a dejar de asombrar tanto, que si te vas a los primeros grandes juegos de esta generación, no ha cambiado tanto la cosa respecto de los de ahora. Algunos como W3 llevan un lustro estando arriba del todo, y ahí siguen.

Algunos os quedais cortos, y otros os pasais tres pueblos.


Hombre en juegos que se pueda usar el DLSS claro hay no estas jugando a la resolución nativa y la vram que va a consumir va a ser mucho menor (esta por ver si existe el DLSS 3.0 con los juegos con TAA o esa información es un fake), pero los juegos de nueva generación que no lleven esa tecnologia y utilizen assets y texturas que requieran de mucha vram a 4k se van a quedar cortas en mas de un juego triple A , no hablo del que quiera jugar a 1080p ni 1440p , hablo de 4k y estas graficas tienen potencia sobre todo la 3080 para ir bastante sobrada a esa resolución pero sin vram suficiente poco se podrá hacer , ya veremos , pero me la juego a que Nvidia si las a sacado tan economicas es por que sabe que en poco tiempo los jugadores van a necesitar mas vram para juegos de nueva generación , Nvidia lo que a hecho es guardarse las espaldas por que si no luego no tiene mercado para nuevas Gpu's , como unas posibles 3070 Ti 16 GB o la 3080 Super 20 Gb. , si no de inicio ya las hubieran sacado con mas Vram hubiese sido el salto logico nuevas consolas mas vram en las gpu gaming , Witcher 3 no se puede decir que sea un juego muy demandante de vram hay juegos mucho mas demandantes en esta generación , las nuevas consolas como digo van a llevar el doble de memoria y los juegos en pc van a requerir mucha mas vram , el que quiera jugar con todo en Ultra a 4k y 60 fps no tiene por que bajar las texturas ni ningún otro efecto para que la vram no se llene en una GPU de ultima generación de gama media alta y alta , por eso no me gusta nada lo que a hecho Nvidia.
vencedor escribió:
chrispro escribió:Yo estoy pensando, porque yo juego en 4k 60 fps ( tengo una oled pero de la del 2017 que la calidad es igual a la actual pero no tiene tantos hercios.)

Con la 3090 si se supone que podrá 4 k... 120hz.. 8k.. casi 60.. xD esto último me hace reír pero bueno...

Por esta regla de tres a 4k 60 fps tenemos años y años jugando a todo trapo y sino .. con la potencia bruta exponencial que requiere el 4k respecto a 1080 o 2k... Es el momento de pillar una 3090 pero de los modelos con 5 años de garantía ... Porque lo mismo no es ni necesario cambiar de gen para seguir en ultra 60 hz


Que OLED es?

A partir del 2015 creo que LG ya las sacó todas con 120.

Saludos.


Es la b7v el panel es de 120hz pero solo a 1080. Comprobado por mi. Pero a más resolución no.

Creo que por el HDMI
adriano_99 escribió:Imagen

Ajajjajaajajjajajajajsajs
@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...
Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...

3090, es la mastodonte.
chrispro escribió:
vencedor escribió:
chrispro escribió:Yo estoy pensando, porque yo juego en 4k 60 fps ( tengo una oled pero de la del 2017 que la calidad es igual a la actual pero no tiene tantos hercios.)

Con la 3090 si se supone que podrá 4 k... 120hz.. 8k.. casi 60.. xD esto último me hace reír pero bueno...

Por esta regla de tres a 4k 60 fps tenemos años y años jugando a todo trapo y sino .. con la potencia bruta exponencial que requiere el 4k respecto a 1080 o 2k... Es el momento de pillar una 3090 pero de los modelos con 5 años de garantía ... Porque lo mismo no es ni necesario cambiar de gen para seguir en ultra 60 hz


Que OLED es?

A partir del 2015 creo que LG ya las sacó todas con 120.

Saludos.


Es la b7v el panel es de 120hz pero solo a 1080. Comprobado por mi. Pero a más resolución no.

Creo que por el HDMI


exacto, es por el tema del HDMI 2.1 que se incorporo a partir de la serie 9 del 2019.
Nowcry escribió:
adriano_99 escribió:
Buxeri escribió:
No te olvides de los cuellos de botella

Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....

Bio81 escribió:
cierto los teraflops entre arquitecturas no se pueden comparar , a parte de que infuyen muchas mas cosas en el rendimiento de una GPU en videojuegos que los teraflops , hay gente se agarra a los teraflops para comparar el rendimiento como si fuera lo único decisivo

sobre la vram , cuando un juego te empieza a pegar tirones y desaparecen texturas y ves en el rivatuner o en cualquier herramienta que mida la vram que esta llena.. es que la gpu se a quedado sin vram , no hay mas , si el juego no te da ningún problema es que el juego esta almacenado la vram en caché


Si hablas del horizon zero dawn es un juego que esta roto , hay gente en este foro que dice que le es injugable sin bajar las texturas y a mi no me da esos problemas con las texturas en ultra ni a mi amigo que juega usando la misma grafica.
Así que no, ese juego no necesita mas de 10GB de ram como algunos han dicho varias veces.


En un entorno normal con 10 GB de VRAM esta bien, pero en un futuro no muy lejano con UE5 y su propuesta de micropoligonos y geometrías mas densas, con texturas 8k y otra serie de tecnologías, diria que vivir con 8 o 10 GB de VRAM es jugársela mucho.

Si Nanite acaba llenando toda la VRAM para dar origen a la texturas por cada polígono en pantalla, desde luego con la potencia en Tflops y de ancho de banda no sera el problema ni para una 3070 ni 3080, ni siquiera el I/O sera un problema, te limitara totalmente la experiencia la VRAM, no pudiendo meter los poligonos que se podrian por potencia. Dejando la GPU tocandose los cojones y la VRAM petada.

Sin ninguna duda irse a 8GB de GDDR o a 10 GB de GDDR no te prepara para el futuro. Es cierto que este tipo de experiencias no se esperan hasta 2022, pero por encima de la mitad de 2021 UE5 sera de uso para todo los desarrolladores, y quien controle ese método de renderizado controlara los detalles gráficos, las texturas y posiblemente incluso mecánicas de juego impensables actualmente. Una vez que comiencen los juegos usando esa técnica la actual pasara a estar desfasada.

Si lo que quieres es una GPU para el método antiguo (osea el actual) que pasara a estar obsoleto de aquí a 2-3 años entonces adelante 8 o 10 GB de GDDR esta perfecto, pero en eso no consisten los juegos next gen, en eso consisten los juegos crossgen.

Si quieres una GPU preparada para UE5, mover el sistema de micropoligonos / equivalente de otros motores, usando la GPU como se debe, y tener la máxima experiencia desde luego 16 GB de GDDR para la 3070 y 20 GB para la 3080 es lo que les corresponde por potencia.

Mi opinion personal es esperar un poco por las versiones Ti que actualmente con la 1080Ti 2080 Ti se podrá jugar todo lo crossgen perfectamente y darle 6 meses que es lo que van a tardar en salir. Y ya después comprar. Nvidia necesita vender mas GPU con los precios que han puesto para igualar o superar los beneficios y que los inversores sigan con ellos.

La solución es marcarse ahora unos tarjetones en potencia pero con GDDR buena para el método actual, pero justa para el método de micropoligonos, para sacar las versiones Ti y vender otra mas, debido a que saben que el micropoligono es VRAM/RTXIO dependiente.

La 3090 esta fuera de esto porque tiene la memoria que le corresponde seguramente porque en realidad no tenga versión Ti ya que se acercaría mucho a la titan. Ademas de estar pensada para 8k actual y texturas 8k. Sin embargo en un entorno de micropoligonos considero que es el target para 4k 60 fps con RT limitado (por geometria compleja).
Usando mucha parte de su VRAM y de RTXIO en el proceso.

Concentrando aproximadamente 40.000.000 de poligonos en pantalla, lo cual es impensable ahora mismo, con texturas 8k. Suponiendo que el RTX I/O sea capaz de soportarlo y no pete antes. SI no supongo que los poligonos iran en descenso hasta que RTX IO sea estable y soporte el proceso.

Pero eso ahora no se ve y te la venden, en 2 años a pasar por caja si o si porque joder no tira bien esto.


Por favor, si es gracias a métodos como los del UE5 los que hacen que las consolas puedan manejar geometrías bestias y luces complejas sin problemas de falta de VRAM o ancho de banda, y es mas, si no fuese por el SSD PS5 ni podría tener RT, porque aunque no lo parezca, el ancho de banda y la VRAM necesario para hacer RT es una burrada (anda, y viendo los rendimientos de RT de las series 30xx, parecen no tener problemas de falta de VRAM)...

Para que te hagas una idea de lo que las nuevas tecnologías ofrecen, la demo de "marbles" deja lo que ha enseñado UE5 a la altura de un mario de NES (muy probablemente "marbles" ni lo puedan mover las consolas).

Por favor, antes de poner burradas que se informe la gente, que telita el hilo que llevamos.
fercupra escribió:
chrispro escribió:
vencedor escribió:
Que OLED es?

A partir del 2015 creo que LG ya las sacó todas con 120.

Saludos.


Es la b7v el panel es de 120hz pero solo a 1080. Comprobado por mi. Pero a más resolución no.

Creo que por el HDMI


exacto, es por el tema del HDMI 2.1 que se incorporo a partir de la serie 9 del 2019.


Pero, puedo ponerla a 1080, 120hz y meterle antialias a tope y se ve definido a 120hz.. pero bueno no puedo jugar a menos de 60.. me resulta incómodo pero en cambio más de 60 me es indiferente. Yo a 60 juego espectacularmente bien
Que raro que no haya reviews ni bechmanck no?
Parece que todas las custom van a ser caras... 850 mínimo... a mí que no me esperen, o sería hacerme con una FE o de otros sitios pero no veo motivo para que suban 100€ o 150€.

Sobre los 10gb de RAM, imagino que para 2k será suficiente y para 4k si se queda corta habrán pensado en forzar que usemos el rescalado del DLSS para pasar de 2k a 4k, que imagino que consumirá menos ram que el 4k, pero el problema estará en los juegos que no tengan.

Del trailer del doom que han sacado se sabe si de la versión que está por salir con ray tracing? Prometen mucha mejora pero si al final no está activado... pues tampoco impresiona mucho.
pdriko31 escribió:Que raro que no haya reviews ni bechmanck no?

Pues eso digo yo, dos días u nada de nada
Lo primero que quiero ver es como tira la 3070 con un 3700x a 1440p/144hz.

Si va bien, o me ofrece algo muy similar esa se viene a casa.

en verdad si es como ellos dicen una 2080ti deberia darlos....
Daicon escribió:
pdriko31 escribió:Que raro que no haya reviews ni bechmanck no?

Pues eso digo yo, dos días u nada de nada

Es que si por ejemplo la 3090 cogiera rdr2 y lo pusiera a 4k 100 frames . O 90... Lo normal sería empezar a alardear ya de ello!!! Digo yo!!
Buenas , tengo una preguntilla que haceros.

El año pasado me compre un pc para montar una 2080ti, y visto que nvidia ha roto el mercado, la he vendido a buen precio antes de que devalue para pillar una serie 3000.

La cuestión es:

MI pc es el siguiente

Gigabyte Z370P D3
Intel Core i7-8700K 3.7Ghz
Corsair Obsidian 500D USB 3.0
Corsair RM850X V2 850W 80 Plus Gold Modular
Corsair Hydro H100x Kit de Refrigeración Líquida

Estoy dudando en pillar una 3080 o una 3090, no me importa el precio sino mas bien el cuello de botella

Podria tirar una 3090 con este pc?
Solo saldrán los bench que nvidia quiera hasta el día 17 que ya salgan a la venta. Imagino que habrán bloqueado todo y tendrán bien controlado quién tiene la gráfica y si alguien saca algo que no debe le podrán meter un buen paquete
eric_14 escribió:Parece que todas las custom van a ser caras... 850 mínimo... a mí que no me esperen, o sería hacerme con una FE o de otros sitios pero no veo motivo para que suban 100€ o 150€.

Sobre los 10gb de RAM, imagino que para 2k será suficiente y para 4k si se queda corta habrán pensado en forzar que usemos el rescalado del DLSS para pasar de 2k a 4k, que imagino que consumirá menos ram que el 4k, pero el problema estará en los juegos que no tengan.

Del trailer del doom que han sacado se sabe si de la versión que está por salir con ray tracing? Prometen mucha mejora pero si al final no está activado... pues tampoco impresiona mucho.



Las tienes ya listadas en coolmod y con versiones custom desde 720 euros y en overclockers.co.uk tienes muchas mas listadas el precio entre 720 euros y 800 la gran mayoria de modelos
Una pregunta sobre dlss quizas offtopic
Al ser un reescalado, si mi grafica me da de sobra rocosos 60fps a 1440p en un monitor de 60hz, es mejor no activar el dlss, para asi que me reproduzca a la resolucion nativa del monitor?
El dlss solo se activa si necesitas mas rendimiento?
@Lemmiwinks
Depende de la version dlss 2.0 hace un reescalado con ia, curiosamente hace que el juego se vea incluso mas nitido, por lo que si vas a jugar a 2k y 60 fps lo mejor seria poner ese dlss y comprobar de propia mano si lo ves mejor, igual o peor en el caso de verse igual o mejor pues eso que ganas ya que la tarjeta estaria usando menos recursos lo que implica menos calor
Llamadme loco pero me pasé casi la mitad del videojuego Control con resolución 1440p, renderizado 1440p sin rtx.

Por curiosidad me dio por trastear, puse el dlss 2.0 dividiendo el renderizado y dejando la resolución nativa 1440p + rtx y el juego se ve tan nitido que me da la sensación de que me han cambiado el monitor y no es un monitor malo es un buen bicho, 1440p 165hz VAde 31.5

Todavia estoy que no me lo creo, ojalá lo implementen en todos los juegos porque es una genialidad.

No acabo de entender como se puede ver mejor así que con la resolución nativa del monitor, por mucho filtro que tenga no deberia verse mas nitido que en nativo y si lo hace
erhuerva escribió:@Lemmiwinks
Depende de la version dlss 2.0 hace un reescalado con ia, curiosamente hace que el juego se vea incluso mas nitido, por lo que si vas a jugar a 2k y 60 fps lo mejor seria poner ese dlss y comprobar de propia mano si lo ves mejor, igual o peor en el caso de verse igual o mejor pues eso que ganas ya que la tarjeta estaria usando menos recursos lo que implica menos calor

Siempre tenia entendido que mejor la resolucion nativa del monitor. Pues si que debe hacer maravillas el dlss2 si es verdad eso, encima aumentando el rendimiento.
No veo el momento de pillarme una 3070 y estrenarla con el cyberpunk, a ver si hacen maravillas el dlss y el rtx [amor] [amor] [amor]
adriano_99 escribió:
Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...

3090, es la mastodonte.


la 3090 es LA GPU , perfecta un poco cara pero perfecta , las 3070 y 3080 les falta vram , si la 3070 tuviese 16 GB y la 3080 20 GB serian perfectas relación calidad precio pero no es así. la 3080 aun sacandole 30-40 fps a la 2080 Ti con 10 Gb no me parece una buena grafica a dia de hoy , si la hubiesen sacado hace 2 o 3 años otro gallo cantaria.
Señores alguna pagina donde ver si una gpu + cpu es compatible y viceversa ?
Bio81 escribió:
adriano_99 escribió:
Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...

3090, es la mastodonte.


la 3090 es la GPU , perfecta un poco cara pero perfecta , las 3070 y 3080 les falla vram , si la 3070 tuviese 16 GB y la 3080 20 GB serian perfectas relación calidad precio pero no es así. la 3080 aun sacandole 30-40 fps a la 2080 Ti con 10 Gb no me parece una buena grafica.


Un poco cara la 3090? [+risas] [+risas]

Si lo que vale una 3090 te montas un ordenador top sin contar la gráfica.

Joer, como me encantaría que llegara ese momento en mi vida en el que gastarme 1500€ en una pieza de ordenador solo me suponga un poco cara [qmparto]

Yo creo que la 3080 es una gráfica muy rentable. No entiendo el porqué la obsesión de que 10gb está ya obsoleta cuando llevamos 3 generaciones donde lo top es 11gb y 8gb la gama alta...

Ahora de repente todos los juegos pedirán 16gb mínimo de vram?

No se, no entiendo que ha ocurrido en esta generación de rtx en la gente para que opinen eso..
Bio81 escribió:
adriano_99 escribió:
Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...

3090, es la mastodonte.


la 3090 es la GPU , perfecta un poco cara pero perfecta , las 3070 y 3080 les falla vram , si la 3070 tuviese 16 GB y la 3080 20 GB serian perfectas relación calidad precio pero no es así. la 3080 aun sacandole 30-40 fps a la 2080 Ti con 10 Gb no me parece una buena grafica.

Como una grafica que vale 1500pavos es perfecta? Para eso me compro la 3070, la 4070 y la 5070 e iba a tener mucho mas rendimiento a largo plazo
Hablar de GPUs perfectas es el día de la marmota, lo que te ahorras pillando una 3080 en lugar de una 3090 lo puedes invertir en la futurible 4080 o 5080 que será mejor que la 3090.

A mi no me parece recomendable ir a por una 3090 con expectativas de futuro si no le vas a sacar partido en los próximos 2 años. Si solo tienes 1500 pavos sale más a cuenta pillar una 3080 ahora y una 4080 en 2 años y el coste será parecido.
adriano_99 escribió:
Buxeri escribió:
No te olvides de los cuellos de botella

Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....

adriano_99 escribió:-Los teraflops no se pueden comparar entre diferentes arquitecturas
-Que un juego use x gb de ram no significa que los necesite, muchos juegos usaran toda la vram que tengas por si acaso.
Que a estas alturas aun se tenga que repetir esto me da cada vez mas pereza entrar al hilo.



los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos

@Wanderlei @Lemmiwinks

La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó


@josemurcia

antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato
Jajajaj mi opinion es que la gente esta fatal!!

Pero vamos a ver:

Si lo tuyo es el gaming y la VR , la3080 es perfecta calidad precio

Si usas el pc para simulaciones de particulas ,voxels , renderizado ect y tambien para viciar , lo tuyo es una 3090.

Pensar que las graficas top actuales como la 3070 y 3080 van a quedarse estancadas por la Vram es de ignorantes.

Ningun desarollador en su sano juicio va a programar un juego que se limite por el uso de Vram. Ya se encargaran de usar tecnicas que liberen de vram.

El 80/90 % de gamers juega por debajo de 6gb de vram. Y los pocos que pasen a la serie 3000 seran los de las 3060 3070 y algun privilegiado las 3080.

En serio, relax y que no se os pire la cabeza.

Si los juegos actuales consumen tanta Vram son por problemas de programacion y poco cuidado con un mercado que no interesaba hasta ahora. Ya que jugaban 4k 3 gatos.




Saludos!!
@Bio81 El DLSS no implica ahorro de VRAM. Al contrario porque requiere que además de los buffers normales tengas un framebuffer (doble) a la resolución objetivo. Si lo dices porque menos resolución = texturas más pequeñas ten en cuenta que con DLSS se samplean las texturas a la resolución objetivo así que no aplica.

Del DLSS 3.0 vete olvidando creo yo

Pot cierto, no creo que Nvidia haya hecho una jugarreta con la VRAM. La configuración de VRAM de una GPU tiene que ver con la densidad de memoria de cada chip y las “patas” que tiene. Chips más densos implica menos patas o sea menos líneas en el bus. Hay que buscar un equilibro entre la capacidad de la ram, la velocidad que buscas (que viene dada por frecuencia y ancho del bus, lo que implica numero de chips) y los costes.

Teniendo en cuenta las opciones de memoria en el mercado y que los chips se GDDR6 del doble de densidad de los que llevan no llegarán hasta el año que viene, seguramente 8 y 10 GB sean las únicas opciones viables.

No dudo en que veremos modelos de 16 y 20 más adelante cuando esos chips estén disponibles. Pero la verdad es que a nivel de ingeniería y estrategia me parece una decisión lógica y correcta la que han tomado.

@PilaDePetaca El SSD de PS5 no influye en su capacidad de hacer RT
garbagecrystal escribió:@Bio81 El DLSS no implica ahorro de VRAM. Al contrario porque requiere que además de los buffers normales tengas un framebuffer (doble) a la resolución objetivo. Si lo dices porque menos resolución = texturas más pequeñas ten en cuenta que con DLSS se samplean las texturas a la resolución objetivo así que no aplica.

Del DLSS 3.0 vete olvidando creo yo

Pot cierto, no creo que Nvidia haya hecho una jugarreta con la VRAM. La configuración de VRAM de una GPU tiene que ver con la densidad de memoria de cada chip y las “patas” que tiene. Chips más densos implica menos patas o sea menos líneas en el bus. Hay que buscar un equilibro entre la capacidad de la ram, la velocidad que buscas (que viene dada por frecuencia y ancho del bus, lo que implica numero de chips) y los costes.

Teniendo en cuenta las opciones de memoria en el mercado y que los chips se GDDR6 del doble de densidad de los que llevan no llegarán hasta el año que viene, seguramente 8 y 10 GB sean las únicas opciones viables.

No dudo en que veremos modelos de 16 y 20 más adelante cuando esos chips estén disponibles. Pero la verdad es que a nivel de ingeniería y estrategia me parece una decisión lógica y correcta la que han tomado.

@PilaDePetaca El SSD de PS5 no influye en su capacidad de hacer RT


yo tengo entendido que el DLSS hace un reescalado por IA con los tensor cores desde una resolución inferior , por lo tanto menos resolución implica menos uso de memoria de video , no hablo de las texturas solo si no del renderizado completo


https://hardzone.es/2018/10/06/que-es-n ... to-juegos/

La tecnología detrás NVIDIA DLSS y su incremento en el rendimiento de la tarjeta gráfica, se basa en que los núcleos Tensor solo recogen la información de la mitad (más o menos) de los píxeles que ha de renderizar la gráfica, salvo que lo hacen a una resolución inferior a la nativa a la que se va a renderizar toda la escena. El resto de la información la reciben a través de la IA, desde el servidor central de NVIDIA, extrapolando los datos de los miles de imágenes que tienen procesadas, para conseguir la imagen definitiva. En resumidas cuentas, que la tarjeta gráfica solo renderiza la mitad (más o menos, dado que puede variar) de la escena cuando se emplea el DLSS que cuando se emplean otras técnicas de tratamiento de imagen.


claro claro , no tienen la posibilidad de meter 16 GB ni 20 GB cuando se dice que AMD va a sacar una con 16 GB con sus GPU RDNA2 antes de que acabe el año , esta mas claro que el agua que no quieren canibalizar el mercado de sus futuras variantes de 3070 y 3080

@jacklolita

ya se vera cuanta vram hace falta de aqui a un año , pero sacar una 2080 Ti en octubre de 2018 con 11Gb y sacar una 3080 con 10 GB en septiembre de 2020 teniendo en cuenta que hay un cambio generacional de consolas con lo que eso implica para el mundo de los videojuegos (mas uso de vram y mas demanda de potencia grafica) , la 3080 rinde bastante mas que la 2080 Ti y para sacarle partido a 4k con 10 Gb en la nueva generación que juegos.... eso si que me parece de ignorantes y un sin sentido , los desarrolladores hacen los juegos para que el que quiera aprovechar al maximo sus gpu's lo pueda hacer y si te quedas corto con 10 GB de vram a 4k te jodes y bailas
@Bio81 en la practica eso se traduce en render a varios bufers a baja resolución, luego dlss a un bufer de alta resolución y los shaders sampleando los mipmap de las texturas como si se tratase del render a alta resolución

Depende del juego y cuantos render targets tenga y a qué resolución los haga pero, para que nos entendamos, gasta más memoria 1440p->4k por dlss que los 1440p nativos. No creo que la ganancia entre 4k nativos y 4k por dlss sea muy relevante. Posiblemente por debajo del GB, aunque aquí me estoy tirando a la piscina.

Lo que seguro que no te va a dar dlss es la posibilidad de usar texturas de menor tamaño sin que se note.

Quizá ese es el ahorro que tienes en mente y yo me imagino erróneamente que esperabas más
garbagecrystal escribió:@Bio81 en la practica eso se traduce en render a varios bufers a baja resolución, luego dlss a un bufer de alta resolución y los shaders sampleando los mipmap de las texturas como si se tratase del render a alta resolución

Depende del juego y cuantos render targets tenga y a qué resolución los haga pero, para que nos entendamos, gasta más memoria 1440p->4k por dlss que los 1440p nativos. No creo que la ganancia entre 4k nativos y 4k por dlss sea muy relevante. Posiblemente por debajo del GB, aunque aquí me estoy tirando a la piscina.

Lo que seguro que no te va a dar dlss es la posibilidad de usar texturas de menor tamaño sin que se note.

Quizá ese es el ahorro que tienes en mente y yo me imagino erróneamente que esperabas más


ok , entonces mejor me lo pones cuanta mas vram lleven las Gpu's mejor , ni con DLSS se ahorra suficiente vram , poco mas se puede decir

salu2.
PilaDePetaca escribió:
Por favor, si es gracias a métodos como los del UE5 los que hacen que las consolas puedan manejar geometrías bestias y luces complejas sin problemas de falta de VRAM o ancho de banda, y es mas, si no fuese por el SSD PS5 ni podría tener RT, porque aunque no lo parezca, el ancho de banda y la VRAM necesario para hacer RT es una burrada (anda, y viendo los rendimientos de RT de las series 30xx, parecen no tener problemas de falta de VRAM)...

Para que te hagas una idea de lo que las nuevas tecnologías ofrecen, la demo de "marbles" deja lo que ha enseñado UE5 a la altura de un mario de NES (muy probablemente "marbles" ni lo puedan mover las consolas).

Por favor, antes de poner burradas que se informe la gente, que telita el hilo que llevamos.


No se que me estas diciendo con las consolas, en mi comentario las consolas ni entran. Te estoy diciendo que el método de los micropoligonos necesita toda la tubería gráfica ancha, Un I/O ancho una VRAM grande y ancha y una GPU potente, y un RT mas potente aun.

Deja un apartado sin que este bien y la habrás cagado.

Que tienen las RTX 3000:

Un I/O decente que puede compensarse con una mayor VRAM en caso de interrupciones o SSD de transmisión mas baja, una GPU muy bestia y una pequeña VRAM (en el caso de 3070 y 3080). Esta ultima arrastrara al resto de la GPU en un entorno de microsporidios y texturas de alta resolución.

Lo único que estoy diciendo es esperate a las versiones Ti o compra la 3090. Pero no la cagues comprando estas versiones por lo que se viene y que podremos disfrutar todos. Nadie te ha dicho que te compres una consola, solo que aguantes con lo que tienes hasta las versiones Ti porque las GPU actuales tienen ese lado estrecho claramente aposta.

No es que en Nvidia sean tontos, saben que en un entorno tradicional 4k aguantaran los próximos 2 años y después comenzaran a verse pequeñas cuando empecemos a ver los entornos de micropoligonos. En ese momento seguirán sin competencia por lo que iras a comprarles una nueva GPU por necesidad. o puedes esperar a las versiones Ti/Super, a que a la 3080 le metan 20 gb de GDDR y estar bien preparado para lo que se viene.

PD: La demo de marbles mola mucho, tecnológicamente esta bien pero no me a impresionado para nada. No ha sido un momento ooohhh si esto si que es Next Gen. Ese momento llegara cuando muestren nanite funcionando en una 3090 a tope de todo con RTX al maximo, ahi si que vamos a decir esto si que es Next Gen.

Hasta entonces solo queda estudiar y informarse en como no tirar el dinero. Puedes salir de este foro y pasarte por el de Nvidia, el de Beyond o cualquiera mas técnico y comprobar sus preocupaciones. O puedes seguir pensando que los demás somos tontos y solo decimos burradas. Evidentemente.........
Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
Bio81 escribió:
adriano_99 escribió:
Buxeri escribió:
No te olvides de los cuellos de botella

Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....

adriano_99 escribió:-Los teraflops no se pueden comparar entre diferentes arquitecturas
-Que un juego use x gb de ram no significa que los necesite, muchos juegos usaran toda la vram que tengas por si acaso.
Que a estas alturas aun se tenga que repetir esto me da cada vez mas pereza entrar al hilo.



los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos

@Wanderlei @Lemmiwinks

La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó


@josemurcia

antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato

Que a ti te apetece gastarte 1500 en una grafica? Perfecto, cada uno hace con su dinero lo que quiera, pero no digas que comprarte una 3070 o 3080 es tirar el dinero para acto seguido decir que la 3090 te va a dar un rendimiento para mas de cuatro años...
3090= mas de 4 años segun tus calculos
3080+4080=con eso tiras mas de 6 años
3070+4080+5080= cuanto tiras con esto? Mas de 7 años?

La 3090 si no eres creador de contenido, o no vas a hacer un uso mas profesional, es realnente lo que es tirar el dinero
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.


Son gráficas con 2 y 4 años ya.

Uno espera un avance en ese sentido, la verdad.

Y lo de la 3070 parece de chiste ya.

Ya puede valer la pena el aumento del bus...
Gwyn escribió:Imagen

Foro compraventa ahora mismo JAJAJA
Bua... me estoy dando una vuelta por Wallapop y la cosa está mu mala, eh [+risas]

Gente que quiere hacer los tratos fuera de walla, gente sin votos, facturas que luego no existen...

Cuidadín a los que queráis comprar.

Llevo un par de días mirando y se me han quitado las ganas ya.

Al final me lío la manta a la cabeza y si pillo una 3080 custom a ~720€... ALLÈ VOY [looco]
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.


Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.

La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.

Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.

Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.

Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.

Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.

No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.
Lemmiwinks escribió:
Bio81 escribió:
adriano_99 escribió:Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....




los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos

@Wanderlei @Lemmiwinks

La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó


@josemurcia

antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato

Que a ti te apetece gastarte 1500 en una grafica? Perfecto, cada uno hace con su dinero lo que quiera, pero no digas que comprarte una 3070 o 3080 es tirar el dinero para acto seguido decir que la 3090 te va a dar un rendimiento para mas de cuatro años...
3090= mas de 4 años segun tus calculos
3080+4080=con eso tiras mas de 6 años
3070+4080+5080= cuanto tiras con esto? Mas de 7 años?

La 3090 si no eres creador de contenido, o no vas a hacer un uso mas profesional, es realnente lo que es tirar el dinero


Yo tenia guardados los dineros para una 3090, pensando que la diferencia de precios con la 3080 no seria tan grande (rollo 1000 y pico euros)
Pero es que con el precio de una 3090 te compras una 3080 y una futurible 4080 (y aun te sobra si vendes la 3080... antes de que anuncien las 4000 xD)

Yo al final voy a optar por comprar 3080 y ps5, y en su momento haré el cambio de 3080 por 4080 (que sera también mas potente que la 3090)
La 3090 en mi caso iba a ser por "tener la mas gorda", no creo que la fuera a aprovechar al maximo

Todo esto a falta de ver benchmarks...pero viendo las diferencias en Cores y mirando al pasado seguramente la 3090 sera un 20% mas potente que la 3080 a un precio casi un 100% mayor
EKWB ya ha sacado los bloques de agua para la 3080 para pcb de referencia

Sabeis que modelos y marcas llevan ese pcb?
Quiero comprarme la Hydrocopper de EVGA, pero va a ser imposible conseguirla, y dicen que se va a ir para diciembre...asi que estoy pensando en cogerme la FTW con el bloque de EKWB

(Curioso, la founders no es compatible.)
tigerscream escribió:
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.


Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.

La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.

Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.

Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.

Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.

Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.

No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.


Tio tu de tilas las justas no??
calloudiano escribió:
tigerscream escribió:
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.


Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.

La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.

Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.

Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.

Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.

Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.

No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.


Tio tu de tilas las justas no??


Jajajaj no te lo tomes asi, @tigerscream está llevando el hilo muy bien y le gusta explicar las cosas extensamente y con detalle...si le has notado un tono nervioso no es asi :p
Muchas quejas veo yo aquí cuando hay gente como yo que sigue jugando a 1080p con 4GB OC y los juegos actuales se ejecutan todavía, aunque no se puedan poner al máximo pero van y no a pedales precisamente... yo voy a ir a por la 3080 para emparejar las prestaciones de mi actual PC (Ryzen 3900) y aprovechar las prestaciones tanto del PCI-E 4.0 como de NVME

Me preocupa casi más el tema de temperaturas de la gráfica junto al resto de componentes que en el rendimiento en sí la verdad... que mi actual PC no pasa de 34 grados y esperemos que eso no se vea muy mermado con la nueva tarjeta...
@wildchild_bcn yo creo que la jugada es esa 3080+4080= Desembolso 3090..... Mola tener la mas gorda, pero a día de hoy te sobra gráfica por todos sitios.. dudo que se le saque realmente partido hasta dentro de 2 años a no ser que quieras jugar a 4k 120fps.

Yo iré probablemente a por la 3080 pudiendo comprar perfectamente la 3090, si en dos años se empieza a quedar corta de Vram vendo y pillo la 4080 y aún así puede que me ahorre dinero teniendo tecnología puntera en todo momento. Otra cosa es que nvidia sacase ahora mismo el model de 20Gb, pero no esperare por ello, dudo que AMD pueda inquietar a Nvidia como para necesitar sacarse esta carta hasta finales del próximo año.
Gwyn escribió:Bua... me estoy dando una vuelta por Wallapop y la cosa está mu mala, eh [+risas]

Gente que quiere hacer los tratos fuera de walla, gente sin votos, facturas que luego no existen...

Cuidadín a los que queráis comprar.

Llevo un par de días mirando y se me han quitado las ganas ya.

Al final me lío la manta a la cabeza y si pillo una 3080 custom a ~720€... ALLÈ VOY [looco]


Wallapop es una puta jungla desde el martes.
tigerscream escribió:
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.


Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.

La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.

Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.

Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.

Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.

Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.

No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.


Ojala tuvieras razon, firmaria ahora mismo por lo que dices, pero desde que las consolas tienen arquitectura de pc y dejaron de tener chip propios nos vamos a tener que comer años de ports (y en algunos casos de cutreports vease el horizon zero down) hasta que tengan una minima de potencia igual a un pc de gama alta de cuando salgan para que vayan sobrados.

Tal y como se han portado los programadores en generaciones pasadas, su plataforma base va a ser consola excepto compañias que no saquen a la vez el juego como pueda ser rockstar con su gta VI que aunque tarden 1 año mas en sacarlo sabras que han hecho una version para pc que aproveche todo. Esta claro que no van a hacer una base desde 0 y las consola como las series X que tiene 14 Tflops vs 30 de la 3080 va a ser el ritmo a seguir.

En pc vamos a estar lastrados como siempre por las consolas hasta que estas se pongan al dia, pero aun con compañias que se dediquen a crear juegos en exclusivos para pc, estamos hablando que el 80% del mercado juega a 1080p, un porcentaje pequeño a 1440p (mi caso) y un porcentaje a un muchisimo mas pequeño a 4k.

¿Realmente crees que a 1080p o 1440p esta grafica se puede quedar pequeña en 2 años con 10GB vram? Yo creo que no porque seria pegarse un tiro en el pie por parte de las compañias cuando como se ha visto en varios post aqui la inmensa mayoria juega a 1080p y juega con 4 o 6gb vram. Vamos que yo mismo estoy con una 1070 con 3 años jugando en alto a 1440p y con 60-70 fps XD

Yo creo que nos estamos alterando mucho con la vram y aunque es importante por supuesto, dudo que se quede pequeña en 2 años jugando a las resoluciones que jugamos hoy en dia.
elamos escribió:No acabo de entender como se puede ver mejor así que con la resolución nativa del monitor, por mucho filtro que tenga no deberia verse mas nitido que en nativo y si lo hace


Es por aplicarle un factor de nitidez a la imagen, es algo que se puede hacer sin el dlss y yo por ejemplo llevo haciendo muchos años aplicando reshades externos a los juegos para ganar calidad de imagen.
wildchild_bcn escribió:Jajajaj no te lo tomes asi, @tigerscream está llevando el hilo muy bien y le gusta explicar las cosas extensamente y con detalle...si le has notado un tono nervioso no es asi :p


Cada cual tiene su opinión, pero está claro que hay gente que no le gusta leer. A mi hay veces que tampoco me gusta leer las aportaciones de algunos, pero hay mucha gente que lleva en el hilo o en EOL siglos y aunque discutes con ellos, da gusto leerlos, como kikomanco o algunos más, porque al menos dan sus argumentos y aportan información. Soy perro viejo en los foros y siempre hay diferencias, pero lo que no hay que hacer es faltar las formas ni irse a los extremos, pero como es imposible filtrar todo lo que hay suelto por el mundo, pues al final escribe todo Dios lo que le sale de las Oo y ahí abajo no hay nada positivo para aportar.

@Wanderlei Si, es cierto, pero tengo esperanzas que las consolas acaben transformándose 100% en un PC cerrado y esto, junto a la "liberación" de VRAM que se espera entreguen a los desarrolladores, permita expandir los límites de expansión y explotación de los recursos de PC. Es una utopia, pero contra más cerca estemos de eso, mejor para todos, porque entonces la VRAM dejará de tener tanta importancia como la tiene aún hoy día.

Sobre la polémica en la VRAM, yo sigo sin verla. Simplemente veo opiniones y disparidad de necesidades al respecto. Yo por ejemplo con 11 GB seguro que aguantaría 4 o 6 años sin problema, pero a lo mejor el que me la compre dentro de 5 meses, 1 año o 2 años o ... pues la quiera para 4K (o quien sabe si 8k que lo dudo) y la VRAM sea un impedimento (que para 8K también lo sería la potencia de la 2080Ti, es un mal ejemplo, pero para que se me entienda por donde voy). Desconozco que pasará en los próximos meses pero llevo viendo como toda la vida no paran de salir tecnologías y novedades y al final la VRAM no para de ser trascendente por un motivo u otro. Ahora mismo parece trivial y absurdo pensar que con 8GB la 3070 se vaya a quedar corta, pero dentro de 2 años podríamos quedar aquí y debatir lo sucedido y lo que se necesita en el 2023 para VRAM, quizás se cumplen los buenos pronósticos y la VRAM se estanca del todo sin mermar progreso, quizás sigue como hasta ahora y 8GB pasan a ser insuficientes a pesar de todas las mejoras, porque al dar más libertad de VRAM, los desarrolladores empiezan a usar IA en los juegos y sin 16GB a lo mejor no haces nada.
31123 respuestas