battman80 escribió:Bio81 escribió:adriano_99 escribió:Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....
Si hablas del horizon zero dawn es un juego que esta roto , hay gente en este foro que dice que le es injugable sin bajar las texturas y a mi no me da esos problemas con las texturas en ultra ni a mi amigo que juega usando la misma grafica.
Así que no, ese juego no necesita mas de 10GB de ram como algunos han dicho varias veces.
del Horizon no puedo hablar por que no lo tengo , hablo de cualquier juego en general que este bien optimizado y que se coma toda la vram , por ejemplo cuando salio el GTA V en PC hace ya 5 años hice una prueba para ver hasta donde podia llegar la vram de la GTX 780 6 GB , puse el juego con todas las opciones graficas al maximo a 4k incluido el MSAA a 8X ¿sabes lo que paso? a parte de que iba a 15 fps esto no es por la vram esto es por la falta de potencia de la GPU pero iba a 15fps pegando tirones esto si es por falta de vram y desaparecieron la mayoria de las texturas del mundo , mirando el consumo de vram en el rivatuner el juego se había comido toda la vram , fue bajar la resolución a 1080p y volver todo a la normalidad , así que eso de que la vram de las nuevas RTX 3070 y 3080 sobra , no , no sobra y en juegos de nueva generación ya lo vereis 8 GB para 4k se van a quedar cortos en mas de un juego triple A y 10 GB ya lo veremos pero apuesto a que en un año también , prueba una GPU de 2 GB o 4 GB con los graficos al maximo en juegos actuales a 1080p a 1440p y obtendras el mismo resultado con la prueba que hice yo con el GTA V a 4k con una gpu de 6 GB , la serie 3000 por lo que sabemos hasta la fecha van a rendir mucho y muchos mas jugadores van a dar el salto a 4k ¿quien te dice a ti que dentro de un año no salga un juego que consuma 14 GB sin bajar settings a esa resolución? por poner un ejemplo , por eso pienso que de vram van justitas a no ser claro que Nvidia utilize alguna tecnologia de compresión de datos de memoria , si es así y se demuestra en los benchmark.. entonces perfecto la 3070 y 3080 son una buena compra a 2/3 años vista. si no yo no tiraria mi dinero ni con la 3070 ni con la 3080 por que en poco tiempo se van a quedar cortas de vram que no de potencia , potencia tendrán para regalar pero sin vram suficiente un juego no puede funcionar bien , luego te sacaran la 3070 Ti 16 GB o la 3080 Super 20 GB y la peña se cagara en todo , por que su grafica se esta quedando corta de vram y ya no le tiran bien los juegos nuevos
Es solo un ejemplo, hay muchos mas.
Un gráfica de 2014, con 4gbs de vram, todavía es muy usable hoy dia para una inmensa mayoria de usuarios:
https://www.youtube.com/watch?v=zaU2W-GK72U
No te quito la razón en lo que comentas, pero me parece que tu, y algun otro, correis mucho, pero mucho. Por no hablar de que hay que meter en la ecuacion monitores o teles 4k, que mucho usuario de PC no tiene todavia ni persigue. Por no hablar, de que magias a parte, las consolas aun tienen que encontrar la potencia necesaria de todos sus componentes funcionando a la vez (y no tests sinteticos de cada uno por separado y seguramente fuera del ecosistema propio), para poder llegar y sostener los 4k, y con todo lo que los propios fabricantes de las mismas estan comentando, va a ser una generacion de REESCALADO por un tubo, cada vez que tengan que enfrentarse a algun juego tocho, donde ni el ssd ni los gigas vram que les de la gana llevar, les van a hacer el trabajo de gratis.
Puede, como dices, que PARA AGUANTAR EL ULTRA en PC a 4k, con estas gráficas que comentas, y los 60 frames, tengas algun problema en algun juego muy concreto, pero en serio, mirad para atras, de donde venimos, y no pongais como ejemplos ports de mierda de consola a PC, Y MENOS, sin mencionar que cuando tu lo pones en ultra en PC a 4k hoy dia, estas yendote a la "next gen de consolas", porque, y el Horizon es un gran ejemplo, esos juegos en consolas van en settings medios (con efectos directamente ausentes), reescalados, encima con resolucion dinamica (que ni siquiera renderizan el juego siempre a 2k, o a 1080, o a 720), y sudan la gota gorda para aguantar 30 frames y no salir volando por la ventana.
Para que los multis te pongan entre la espada y pared, de verdad, con estas gpus, van a pasar mas de 2 años, y de 3.
Y si resulta que llega ese dia, y en vez de poner las texturas en el "ultra" de 2023, hay que ponerlas en el "ultra" de hoy dia, que será el mid, o el high o no se, vas a seguir teniendo los 60 frames y la resolución real que otras soluciones "malabaristas" no te van a dar en todo el lustro. Y te aseguro, por sino lo vives, que poner un juego de hoy en PC a 4k con todo a tope y a 60 frames, de los mas punteros, es algo ASOMBROSO de cojones. Dudo que nos vaya a dejar de asombrar tanto, que si te vas a los primeros grandes juegos de esta generación, no ha cambiado tanto la cosa respecto de los de ahora. Algunos como W3 llevan un lustro estando arriba del todo, y ahí siguen.
Algunos os quedais cortos, y otros os pasais tres pueblos.
vencedor escribió:chrispro escribió:Yo estoy pensando, porque yo juego en 4k 60 fps ( tengo una oled pero de la del 2017 que la calidad es igual a la actual pero no tiene tantos hercios.)
Con la 3090 si se supone que podrá 4 k... 120hz.. 8k.. casi 60.. xD esto último me hace reír pero bueno...
Por esta regla de tres a 4k 60 fps tenemos años y años jugando a todo trapo y sino .. con la potencia bruta exponencial que requiere el 4k respecto a 1080 o 2k... Es el momento de pillar una 3090 pero de los modelos con 5 años de garantía ... Porque lo mismo no es ni necesario cambiar de gen para seguir en ultra 60 hz
Que OLED es?
A partir del 2015 creo que LG ya las sacó todas con 120.
Saludos.
Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...
chrispro escribió:vencedor escribió:chrispro escribió:Yo estoy pensando, porque yo juego en 4k 60 fps ( tengo una oled pero de la del 2017 que la calidad es igual a la actual pero no tiene tantos hercios.)
Con la 3090 si se supone que podrá 4 k... 120hz.. 8k.. casi 60.. xD esto último me hace reír pero bueno...
Por esta regla de tres a 4k 60 fps tenemos años y años jugando a todo trapo y sino .. con la potencia bruta exponencial que requiere el 4k respecto a 1080 o 2k... Es el momento de pillar una 3090 pero de los modelos con 5 años de garantía ... Porque lo mismo no es ni necesario cambiar de gen para seguir en ultra 60 hz
Que OLED es?
A partir del 2015 creo que LG ya las sacó todas con 120.
Saludos.
Es la b7v el panel es de 120hz pero solo a 1080. Comprobado por mi. Pero a más resolución no.
Creo que por el HDMI
Nowcry escribió:adriano_99 escribió:Buxeri escribió:
No te olvides de los cuellos de botella
Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....Bio81 escribió:
cierto los teraflops entre arquitecturas no se pueden comparar , a parte de que infuyen muchas mas cosas en el rendimiento de una GPU en videojuegos que los teraflops , hay gente se agarra a los teraflops para comparar el rendimiento como si fuera lo único decisivo
sobre la vram , cuando un juego te empieza a pegar tirones y desaparecen texturas y ves en el rivatuner o en cualquier herramienta que mida la vram que esta llena.. es que la gpu se a quedado sin vram , no hay mas , si el juego no te da ningún problema es que el juego esta almacenado la vram en caché
Si hablas del horizon zero dawn es un juego que esta roto , hay gente en este foro que dice que le es injugable sin bajar las texturas y a mi no me da esos problemas con las texturas en ultra ni a mi amigo que juega usando la misma grafica.
Así que no, ese juego no necesita mas de 10GB de ram como algunos han dicho varias veces.
En un entorno normal con 10 GB de VRAM esta bien, pero en un futuro no muy lejano con UE5 y su propuesta de micropoligonos y geometrías mas densas, con texturas 8k y otra serie de tecnologías, diria que vivir con 8 o 10 GB de VRAM es jugársela mucho.
Si Nanite acaba llenando toda la VRAM para dar origen a la texturas por cada polígono en pantalla, desde luego con la potencia en Tflops y de ancho de banda no sera el problema ni para una 3070 ni 3080, ni siquiera el I/O sera un problema, te limitara totalmente la experiencia la VRAM, no pudiendo meter los poligonos que se podrian por potencia. Dejando la GPU tocandose los cojones y la VRAM petada.
Sin ninguna duda irse a 8GB de GDDR o a 10 GB de GDDR no te prepara para el futuro. Es cierto que este tipo de experiencias no se esperan hasta 2022, pero por encima de la mitad de 2021 UE5 sera de uso para todo los desarrolladores, y quien controle ese método de renderizado controlara los detalles gráficos, las texturas y posiblemente incluso mecánicas de juego impensables actualmente. Una vez que comiencen los juegos usando esa técnica la actual pasara a estar desfasada.
Si lo que quieres es una GPU para el método antiguo (osea el actual) que pasara a estar obsoleto de aquí a 2-3 años entonces adelante 8 o 10 GB de GDDR esta perfecto, pero en eso no consisten los juegos next gen, en eso consisten los juegos crossgen.
Si quieres una GPU preparada para UE5, mover el sistema de micropoligonos / equivalente de otros motores, usando la GPU como se debe, y tener la máxima experiencia desde luego 16 GB de GDDR para la 3070 y 20 GB para la 3080 es lo que les corresponde por potencia.
Mi opinion personal es esperar un poco por las versiones Ti que actualmente con la 1080Ti 2080 Ti se podrá jugar todo lo crossgen perfectamente y darle 6 meses que es lo que van a tardar en salir. Y ya después comprar. Nvidia necesita vender mas GPU con los precios que han puesto para igualar o superar los beneficios y que los inversores sigan con ellos.
La solución es marcarse ahora unos tarjetones en potencia pero con GDDR buena para el método actual, pero justa para el método de micropoligonos, para sacar las versiones Ti y vender otra mas, debido a que saben que el micropoligono es VRAM/RTXIO dependiente.
La 3090 esta fuera de esto porque tiene la memoria que le corresponde seguramente porque en realidad no tenga versión Ti ya que se acercaría mucho a la titan. Ademas de estar pensada para 8k actual y texturas 8k. Sin embargo en un entorno de micropoligonos considero que es el target para 4k 60 fps con RT limitado (por geometria compleja).
Usando mucha parte de su VRAM y de RTXIO en el proceso.
Concentrando aproximadamente 40.000.000 de poligonos en pantalla, lo cual es impensable ahora mismo, con texturas 8k. Suponiendo que el RTX I/O sea capaz de soportarlo y no pete antes. SI no supongo que los poligonos iran en descenso hasta que RTX IO sea estable y soporte el proceso.
Pero eso ahora no se ve y te la venden, en 2 años a pasar por caja si o si porque joder no tira bien esto.
fercupra escribió:chrispro escribió:vencedor escribió:
Que OLED es?
A partir del 2015 creo que LG ya las sacó todas con 120.
Saludos.
Es la b7v el panel es de 120hz pero solo a 1080. Comprobado por mi. Pero a más resolución no.
Creo que por el HDMI
exacto, es por el tema del HDMI 2.1 que se incorporo a partir de la serie 9 del 2019.
pdriko31 escribió:Que raro que no haya reviews ni bechmanck no?
Daicon escribió:pdriko31 escribió:Que raro que no haya reviews ni bechmanck no?
Pues eso digo yo, dos días u nada de nada
eric_14 escribió:Parece que todas las custom van a ser caras... 850 mínimo... a mí que no me esperen, o sería hacerme con una FE o de otros sitios pero no veo motivo para que suban 100€ o 150€.
Sobre los 10gb de RAM, imagino que para 2k será suficiente y para 4k si se queda corta habrán pensado en forzar que usemos el rescalado del DLSS para pasar de 2k a 4k, que imagino que consumirá menos ram que el 4k, pero el problema estará en los juegos que no tengan.
Del trailer del doom que han sacado se sabe si de la versión que está por salir con ray tracing? Prometen mucha mejora pero si al final no está activado... pues tampoco impresiona mucho.
erhuerva escribió:@Lemmiwinks
Depende de la version dlss 2.0 hace un reescalado con ia, curiosamente hace que el juego se vea incluso mas nitido, por lo que si vas a jugar a 2k y 60 fps lo mejor seria poner ese dlss y comprobar de propia mano si lo ves mejor, igual o peor en el caso de verse igual o mejor pues eso que ganas ya que la tarjeta estaria usando menos recursos lo que implica menos calor
adriano_99 escribió:Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...
3090, es la mastodonte.
Bio81 escribió:adriano_99 escribió:Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...
3090, es la mastodonte.
la 3090 es la GPU , perfecta un poco cara pero perfecta , las 3070 y 3080 les falla vram , si la 3070 tuviese 16 GB y la 3080 20 GB serian perfectas relación calidad precio pero no es así. la 3080 aun sacandole 30-40 fps a la 2080 Ti con 10 Gb no me parece una buena grafica.
Bio81 escribió:adriano_99 escribió:Smoje escribió:@adriano_99 ¿Esa es la 3080 o la 3090? Pero vamos que la verdad es que el tamaño es...
3090, es la mastodonte.
la 3090 es la GPU , perfecta un poco cara pero perfecta , las 3070 y 3080 les falla vram , si la 3070 tuviese 16 GB y la 3080 20 GB serian perfectas relación calidad precio pero no es así. la 3080 aun sacandole 30-40 fps a la 2080 Ti con 10 Gb no me parece una buena grafica.
adriano_99 escribió:Buxeri escribió:
No te olvides de los cuellos de botella
Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....adriano_99 escribió:-Los teraflops no se pueden comparar entre diferentes arquitecturas
-Que un juego use x gb de ram no significa que los necesite, muchos juegos usaran toda la vram que tengas por si acaso.
Que a estas alturas aun se tenga que repetir esto me da cada vez mas pereza entrar al hilo.
garbagecrystal escribió:@Bio81 El DLSS no implica ahorro de VRAM. Al contrario porque requiere que además de los buffers normales tengas un framebuffer (doble) a la resolución objetivo. Si lo dices porque menos resolución = texturas más pequeñas ten en cuenta que con DLSS se samplean las texturas a la resolución objetivo así que no aplica.
Del DLSS 3.0 vete olvidando creo yo
Pot cierto, no creo que Nvidia haya hecho una jugarreta con la VRAM. La configuración de VRAM de una GPU tiene que ver con la densidad de memoria de cada chip y las “patas” que tiene. Chips más densos implica menos patas o sea menos líneas en el bus. Hay que buscar un equilibro entre la capacidad de la ram, la velocidad que buscas (que viene dada por frecuencia y ancho del bus, lo que implica numero de chips) y los costes.
Teniendo en cuenta las opciones de memoria en el mercado y que los chips se GDDR6 del doble de densidad de los que llevan no llegarán hasta el año que viene, seguramente 8 y 10 GB sean las únicas opciones viables.
No dudo en que veremos modelos de 16 y 20 más adelante cuando esos chips estén disponibles. Pero la verdad es que a nivel de ingeniería y estrategia me parece una decisión lógica y correcta la que han tomado.
@PilaDePetaca El SSD de PS5 no influye en su capacidad de hacer RT
garbagecrystal escribió:@Bio81 en la practica eso se traduce en render a varios bufers a baja resolución, luego dlss a un bufer de alta resolución y los shaders sampleando los mipmap de las texturas como si se tratase del render a alta resolución
Depende del juego y cuantos render targets tenga y a qué resolución los haga pero, para que nos entendamos, gasta más memoria 1440p->4k por dlss que los 1440p nativos. No creo que la ganancia entre 4k nativos y 4k por dlss sea muy relevante. Posiblemente por debajo del GB, aunque aquí me estoy tirando a la piscina.
Lo que seguro que no te va a dar dlss es la posibilidad de usar texturas de menor tamaño sin que se note.
Quizá ese es el ahorro que tienes en mente y yo me imagino erróneamente que esperabas más
PilaDePetaca escribió:
Por favor, si es gracias a métodos como los del UE5 los que hacen que las consolas puedan manejar geometrías bestias y luces complejas sin problemas de falta de VRAM o ancho de banda, y es mas, si no fuese por el SSD PS5 ni podría tener RT, porque aunque no lo parezca, el ancho de banda y la VRAM necesario para hacer RT es una burrada (anda, y viendo los rendimientos de RT de las series 30xx, parecen no tener problemas de falta de VRAM)...
Para que te hagas una idea de lo que las nuevas tecnologías ofrecen, la demo de "marbles" deja lo que ha enseñado UE5 a la altura de un mario de NES (muy probablemente "marbles" ni lo puedan mover las consolas).
Por favor, antes de poner burradas que se informe la gente, que telita el hilo que llevamos.
Bio81 escribió:adriano_99 escribió:Buxeri escribió:
No te olvides de los cuellos de botella
Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....adriano_99 escribió:-Los teraflops no se pueden comparar entre diferentes arquitecturas
-Que un juego use x gb de ram no significa que los necesite, muchos juegos usaran toda la vram que tengas por si acaso.
Que a estas alturas aun se tenga que repetir esto me da cada vez mas pereza entrar al hilo.
los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos
@Wanderlei @Lemmiwinks
La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó
@josemurcia
antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
Lemmiwinks escribió:Bio81 escribió:adriano_99 escribió:Si es verdad, el tema recurrente, pasaran décadas y aun tendremos que explicar que con una combinación de videojuegos y resolución puedes ponerle hasta un i3 a la 3090 y no tener cuello de botella y con otra combinación tenerla hasta con un 10900k oc a tope.
Cuando lei el otro dia que si a la 3080 le gustaban mas procesadores de muchos núcleos o procesadores de muchos MHZ te juro que no supe donde meterme....
los fps minimos también dependen del procesador , con el ejemplo que pusiste de ponerle un i3 a una 3090 a 8K le puede hacer cuello de botella ese i3 por que los fps minimos van a ser inferiores a una configuracíon de CPU superior y el que la GPU llegue al 100% de carga o al 99% también dependen del procesador , de la ram y del juego por supuesto , hay juegos que con un i3 podras poner una 3090 al 100% de carga a 4k u 8k pero otros en los que ni a 8K llegara a ponerse al 100% de carga con un i3 y si se conseguira con una cpu mejor , y si , un 10900K a tope de OC a 720p tambien le va a hacer cuello de botella en los fps maximos a una 3090 incluso a 1080p y a 1440p no llegara al 100% de carga en la mayoria de casos
@Wanderlei @Lemmiwinks
La 3090 cuesta 300 euros mas que lo que costaba la 2080 Ti FE de salida , si rinde lo que se especula entre un 70% u 80% mas que la 2080 Ti , con 24 Gb de vram no se va a quedar corta ni en 4 años , me parece un precio justo , no es un producto para todos los bolsillos lo se , pero me parece perfecta por prestaciones y si el rendimiento finalmente es el que prometen chapó
@josemurcia
antes de pillar una 3070 o 3080 , me espero por una 3070 Ti o 3080 con mas vram , para mi es tirar el dinero comprar esas graficas con 8 GB y 10 GB respectivamente , si pagas 1.500 euros por una 3090 te aseguras los proximos 3 o 4 años el maximo rendimiento y sin preocuparte por si te falta vram , cuando salga la siguiente generación si el salto fue como de pascal a turing ni tan mal tienes grafica para rato
Que a ti te apetece gastarte 1500 en una grafica? Perfecto, cada uno hace con su dinero lo que quiera, pero no digas que comprarte una 3070 o 3080 es tirar el dinero para acto seguido decir que la 3090 te va a dar un rendimiento para mas de cuatro años...
3090= mas de 4 años segun tus calculos
3080+4080=con eso tiras mas de 6 años
3070+4080+5080= cuanto tiras con esto? Mas de 7 años?
La 3090 si no eres creador de contenido, o no vas a hacer un uso mas profesional, es realnente lo que es tirar el dinero
tigerscream escribió:jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.
La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.
Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.
Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.
Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.
Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.
No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.
calloudiano escribió:tigerscream escribió:jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.
La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.
Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.
Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.
Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.
Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.
No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.
Tio tu de tilas las justas no??
Gwyn escribió:Bua... me estoy dando una vuelta por Wallapop y la cosa está mu mala, eh
Gente que quiere hacer los tratos fuera de walla, gente sin votos, facturas que luego no existen...
Cuidadín a los que queráis comprar.
Llevo un par de días mirando y se me han quitado las ganas ya.
Al final me lío la manta a la cabeza y si pillo una 3080 custom a ~720€... ALLÈ VOY
tigerscream escribió:jiujinkai escribió:Que obsesión tenéis algunos con la Vram por tan solo un 1gb de diferencia haciendo un mundo. Como dicen algunos, si os da un telele esperaros a las versiones TI o pasad a la 3090 así vais a ir sobrados de Vram. Las anteriores generaciones no he visto tanto revuelo aún así teniendo 11 GB de Vram la 1080 /2080ti.
Yo aquí no veo obsesión, veo comentarios con sus correspondientes argumentos, yo ya he dado varios a tu anterior comentario sobre lo mismo. En mi caso 11 son justos, pero mejor que 8 que tiene la 3070 que es la que se compara la 2080Ti. 11 eran más que suficientes hace 2 años, ahora son suficientes y puede que dentro de 2 años lo sigan siendo... o NO, porque son solo especulaciones, no hay nada claro de si realmente dentro de 2 años la VRAM dejará de tener la relevancia que ha tenido los últimos 20 años. A mi modo de ver con 8-12 GB aguantas 4 años ahora mismo, pero dentro de 4 años esas cifras serán quizás insuficientes y cuando tires a vender la gráfica con 6-10 GB puede que tengas problemas porque ya nadie quiera esa cifra tan baja... O NO! quizás se cumplen todas las maravillosas previsiones que nos está haciendo nVidia y todo el mundo tiene un ancho de banda estupendo tan grande y un apoyo de I/O junto con compresión de texturas y DLSS que con 8GB sobra... Que técnicamente no debería haber problema... estupendo... que gracias a la rapidez del bus puede que ya no se necesite tanta capacidad, sería maravilloso como digo, pero de momento, es todo especulación.
La realidad de los últimos años es que la VRAM es algo muy relevante y que no ha parado de crecer y llevamos ya 4 años que nVidia apenas ha subido la VRAM de sus gráficas, los últimos crecimientos fueron cuando se pasó de los 6GB de la 980Ti a los 11 de la 1080Ti, La 980 también tenía 6GB y pasó a 8GB de la 1080. el salto importante fue el de la 970, que se pasó de los teóricos 3,5 a los 8GB. Desde ahí prácticamente no hemos avanzado nada en estos 4 años y lo que es pero, tiene pinta que no se mueva tampoco en los próximos 2 por parte de nVidia, imagino que ellos lo tienen muy claro y que lo han hecho así porque tienen 100% claro que no se va a necesitar más, estupendo, pero como cometan un error... por simple que sea, ya no tiene arreglo, porque de toda la vida se ha dicho que en la VRAM mejor que sobre, porque no se puede solucionar si te quedas corto, no es como la RAM que cambias o amplias memoria y problema resuelto.
Ahora bien, si dentro de 4-6 meses nVidia saca versiones Super/Ti con más VRAM ¿entonces cual será el argumento para seguir justificando que lo que acaban de presentar no era corto? Porque si las hubieran presentado de una vez... ¿de verdad crees que la mayoría no compraría la versión con más VRAM aunque costase 100 euros más en lugar de comprar ahora una tarjeta de 500 con 8 o una de 800 con 10? algunos por pasta preferirían la económica, pero los que llevan mínimo 10 años en PC te aseguro que gastarían esos 100 euros adicionales por duplicar esa VRAM y dormir tranquilos, indiferentemente de lo que pase los próximos 2-4 años con las tecnologías de reducción de consumo de VRAM o la velocidad de bus que permite rellenar todo tan rápido que no sea necesario ni tener en cuenta cuanta cantidad hay.
Hablar de si tal juego o tal otro consume esto y lo otro... pues anda que no se han vistos casos que dependiendo de la configuración gasta una cosa u otra, pero la gracia del PC no es que "puedas" correr tal juego, es que puedas exprimir al máximo la tecnología y no tengas ese límite, porque las consolas precisamente pecan de eso y los programadores muchas veces tienen limites precisamente en la VRAM y les toca adaptar todo a eso. Ahora las consolas para las que van a programar la mayoría de los juegos (parece) esa limitación histórica empieza a desparecer y gracias a las velocidades que se pueden alcanzar esos 10-12 GB de VRAM va a estar a pleno rendimiento constantemente. Si tuvieran 20... pues lo mismo, diseñarían para esos 20. A lo que voy es que si en PC no tienes esa misma capacidad, que lo lógico sería que SI la tuvieras y funcionase igual o mejor, entonces los ports serían aún peores que los actuales. Yo creo que precisamente esta generación lo que han buscado es que las consolas sean casi 100% un pc y así los ports sean más rápidos aún y quizás hayan menos problemas que los que han habido tradicionalmente. Eso sí, se seguirá portando lo que la consola dé de sí, por tanto, recemos para que las consolas realmente tengan una libertad infinita en cuanto a diseñar la estructura de VRAM en pantalla y así el PC podrá exprimir más aún.
Como digo, si la teoría se cumple, todos felices y no habrá ningún problema, no es una obsesión, es como todo en la vida, lo miramos todo con lupa, TODO y somos consumidores ultra exigentes, por eso cuando vemos algo que puede ser distinto a lo que deseamos intentamos encontrar una respuesta de SI servirá o no, cosa que a día de hoy es imposible de saber con 100% certeza, de lo contrario la gente iría sin dudar a las 3070 y 3080, pero si la gente duda es porque realmente ese tema preocupa a más de uno.
Saldremos de dudas dentro de no mucho tiempo, paciencia y dejemos los extremismos que no van a llevar a ningún sitio. Cada cual que busque lo que más le convenza y se aproxime más a sus ideales. Yo por ejemplo he sido los que no me ha gustado nada de lo VRAM y he preferido pillarme una 2080Ti por tener 3 GB más de VRAM, por ser una tecnología ya asentada y porque al precio que la he comprado dentro de 1 año su devaluación será muy pequeña y me permitirá vender y comprar una nueva con mayores garantías que las que tengo ahora mismo, que sinceramente no me quedo convencido del todo en varios aspectos y no me apetece esperar 2-3 meses más sin GPU.
No te lo tomes a personal, pero cuando usas palabras como la obsesión suena un poco extremista y algunos nos gusta defender nuestro pensamiento para demostrar que quizás no es tan extremista como lo haces parecer, es un simple razonamiento y una simple decisión, cada cual piensa a su manera y una cosa no quita la otra. No hay razón absoluta ni nadie tiene mayor verdad que otra porque la verdad siempre es relativa, los argumentos no, por eso es bueno que cada cual exponga sus argumentos para explicar el porque de sus ideales o pensamientos.
elamos escribió:No acabo de entender como se puede ver mejor así que con la resolución nativa del monitor, por mucho filtro que tenga no deberia verse mas nitido que en nativo y si lo hace
wildchild_bcn escribió:Jajajaj no te lo tomes asi, @tigerscream está llevando el hilo muy bien y le gusta explicar las cosas extensamente y con detalle...si le has notado un tono nervioso no es asi