Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

1, 2, 3, 4, 513
Esto es un poco de risa. la 3060 normal que es poco mas que una 2060 super.Gracias a sus 12 gigas a veces si el juego es de estos que comen memoria se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos. Y. mo partia de una 2060 de 6 gigas , mucho leer y las 3060 de 12 no merecia la pena en potencia y ahora mira merece la pena en vram. Amd no se porque pero me daba miedo... pero visto lo visto, es la que mas longeva en cuanto a vram. No nos queda otra de dejar la ultritis aparte a los que tenemos 8 gigas. Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez
vinzenzo34 escribió:se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos.

Aunque tu comentario total lo veo acertado. Esto es un poco falso porque las pones a 1080p, a tope de detalle, todas las opciones graficas, incluso usando el DLSS y las diferencias no son tan grandes, simplemente nimias pero con mejor suavidad que viene a ser tu comentario total.

Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez

Si funcionan suaves de movimiento, comodos, funcionan bien. No se porque habria que esperar que funcionaran a más fps y estables cuando las consolas funcionan a 30fps y 60fps todo lo más. The Last of Us es un juego hecho para la PS5, que lo sacaran en PC, vale, pero fue hecho para una maquina que solo pedia 30fps, ni un gramo más a resoluciones que tenian que ser altas, de pantalla de TV, asi que yo no entiendo como se puede ni imaginar que los creadores iban a rehacer todo el juego para que estando en el PC aprovechara toda la potencia. [fiu]

Aún asi hay titulos y titulos. No todos se hacen pensando más en la consola o solo en ella.
@esami Muy interesante el video y me gusta el matiz que comenta acabando el video. No deberíamos decir "estarán obsoletas", da a entender que no podrás jugar, sino más bien "no podrás jugar al máximo".

Eso cambia mucho el sentido de la frase y a fin de cuentas viene a ser un clásico en el mundo del PC desde el origen de los tiempos. Jugar al máximo está reservado solo a los sistemas más potentes en todos los sentidos: mejor CPU, mejor GPU, más RAM, mejor SSD...
AxelStone escribió:@esami Muy interesante el video y me gusta el matiz que comenta acabando el video. No deberíamos decir "estarán obsoletas", da a entender que no podrás jugar, sino más bien "no podrás jugar al máximo".

Eso cambia mucho el sentido de la frase y a fin de cuentas viene a ser un clásico en el mundo del PC desde el origen de los tiempos. Jugar al máximo está reservado solo a los sistemas más potentes en todos los sentidos: mejor CPU, mejor GPU, más RAM, mejor SSD...

Bueno.................eso tendria sentido si ahora no llegara alguien con una grafica considerada inferior y pudiera jugar mejor [sonrisa]
Y el titulo dice claramente "8GB si son suficientes"

Y la pregunta es ¿te gastarias 600€ para no poder jugar a todo detalle correctamente? y a esto puede añadirse ¿cuanto crees que deberia durar una grafica de 600€ permitiendote jugar a tope de detalle?

Podemos añadir tambien que hubo bastante que pago más que eso por graficas de 8GB.
Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.

Al final he decidido no actualizar y estrujar mi actual GTX 1080 hasta que pueda (aun recuerdo como mi actual equipo bastante top me costó en total 1500€...).

Aunque tenga que bajar parámetros, paso de sentirme engañado.
[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.

Por curiosidad ¿que te parecia en 2020/21? [sonrisa]

Cuando veas el precio de las CPUs y placas base, seguramente pienses lo mismo de Intel y AMD. [fiu]
Pienso, que el foro en general, es contraproducente para mantener equipos mas a la larga. Aquí entre unos y otros solamente nos ponemos los dientes largos y nos empujamos a gastar anualmente para enseñar nuestros equipos.
Lo mejor que puedes hacer es olvidarte del hardware una vez actualizas y no seguir cada paso de los fabricantes.

[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.

Al final he decidido no actualizar y estrujar mi actual GTX 1080 hasta que pueda (aun recuerdo como mi actual equipo bastante top me costó en total 1500€...).

Aunque tenga que bajar parámetros, paso de sentirme engañado.


Como digo, olvidate. Esa 1080 aún se puede exprimir mas. Cuando de verdad necesites cambiar, porque no puedas jugar de la manera que tu creas oportuna, entonces ponte al día y haz una nueva inversión de años. Pero el actualizar por actualizar, por gusto hoy en día, a los que no están puestos en el hardware mes a mes, les sienta como el culo al ver los precios actuales.
Nomada_Firefox escribió:
[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.

Por curiosidad ¿que te parecia en 2020/21? [sonrisa]

Cuando veas el precio de las CPUs y placas base, seguramente pienses lo mismo de Intel y AMD. [fiu]


Pues no me había planteado comprar un equipo nuevo, así que andaba algo desactualizado. Si no recuerdo mal, ni siquiera había stock.

En cuanto a CPU, encuentro bastante interesante el 5800X3D y por relación calidad/precio no me sentiría que me están tomando el pelo. Si estuviese dispuesto y quisiera gastar algo más, un 7800X3D me lo podría llegar a plantear, pero lo de las gráficas nvidia es simplemente ridículo.

Si fuese millonario, probablemente me compraría antes una 7900XTX que una RTX4090 (por no hablar de la 4080...). Sentiría que me toman el pelo pero no tanto.

KindapearHD escribió:Pienso, que el foro en general, es contraproducente para mantener equipos mas a la larga. Aquí entre unos y otros solamente nos ponemos los dientes largos y nos empujamos a gastar anualmente para enseñar nuestros equipos.
Lo mejor que puedes hacer es olvidarte del hardware una vez actualizas y no seguir cada paso de los fabricantes.

[Sheer] escribió:Tenía previsto actualizar mi PC y llevo dos días poniéndome al día. Solo puedo decir que me parece una absoluta verguenza lo de las gráficas, especialmente las de nvidia.

Al final he decidido no actualizar y estrujar mi actual GTX 1080 hasta que pueda (aun recuerdo como mi actual equipo bastante top me costó en total 1500€...).

Aunque tenga que bajar parámetros, paso de sentirme engañado.


Como digo, olvidate. Esa 1080 aún se puede exprimir mas. Cuando de verdad necesites cambiar, porque no puedas jugar de la manera que tu creas oportuna, entonces ponte al día y haz una nueva inversión de años. Pero el actualizar por actualizar, por gusto hoy en día, a los que no están puestos en el hardware mes a mes, les sienta como el culo al ver los precios actuales.


Ya, si no tenía intención, era porque mi mujer quiere un PC y antes de comprarle uno de gama baja le dejaba el mío y ya me compraba yo uno nuevo, pero al final le he dicho que compartir es de buenos amigos, así que visto lo visto, a compartir se ha dicho [qmparto]
garbaje_de_potanzos escribió:Pero hay alguien que lo dude? Que los 8GB eran standard en gama media desde hace 7 años, que a día de hoy empiecen a quedarse cortos para ciertos juegos y mas aún en los venideros pues es de cajón. Quien quiera quedarse con 8GB pues ya sabe que sacrificar: texturas, RT, sombras y resolución. Quien no pues ya sabe que si quiere una gráfica decente para aguantar un par de años o mas que mire de 12GB para arriba dependiendo de la resolución y los settings que quiera mantener. Dentro de 5 años tendremos el mismo debate pero con 16GB que ya se quedarán cortos y hay que pillar gráficas de 24 ó 32GB y tal pascual. No se que debate puede haber aquí, es el curso natural de los avances en técnicas y hardware xD



Y lo que ha tardado en llegar el debate, pero bueno, al menos esta llegando...

Hubiera sido totalmente normal si se hubiera doblado la vram en la serie 3000.
Se saco con cantidades ridiculas (OK la 3060 de 12 GB, pero las 3070 y 3080 ...)


Ahora serie 4000 y nanai... Espera que la 4060 pinta que vendra con 8GB, porque la 4060 de verdad la han llamado 4070...

Sinceramente me empezaba a acojonar que la serie siguiente mantuviera congelada la vram, a ver si hay un año con muchos videos y quejas porque es que en la serie 5000 ni la 5050 deberia tener 8GB....pero como minimo espero 12/16/24/32 para las 5060/5070/5080/5090

Si no pues nada, otra generacion sin renovar xD
A mi cada vez me da mas la impresion que Epic ha recibido dinero de AMD o NVIDIA para activar la venta de tarjetas de esta generacion utilizando dos titulos muy mediaticos y que en realidad estan mal optimizados. Para meternos miedo en el cuerpo y que saquemos los billetes.

Desde luego que cuanto mas VRAM mejor pero si uno no sufre de ultritis y rtitis puede estar tranquilo con el tema.
@esami sino fuera que ya sucedia antes en otros juegos........ [fiu]
Si alguien con una 3070/ti/3080 está preocupado por este tema y no puede dormir bien, me gustaría ayudarle de forma totalmente desinteresada y cambiarle a pelo la 3060 12Gb q tengo por aquí sin usar y prácticamente nueva. [bye]
Habláis de la RTX 3060 12gb, pero Nvidia también sacó después un modelo de 8gb recortado

Imagen

A su vez está la 3060 ti, que es mejor, pero también con los mismos 8gb. Nvidia meterá 8gb en la 4060, cuando la 3060 inicial traía 12gb. Un sin sentido.

Parece que fuerzan que la gente cambie a las bravas.
@Duendeverde pero esa 3060 de 8Gb tiene un bus de 128bits en lugar de 192bits como lo tiene la de 12Gb, o sea q está recortada también en bus y no sólo en cantidad de ram. Luego está la 3060ti con 8Gb pero con bus de 256bits, q la acerca más en rendimiento a la 3070 q a la misma 3060.

Pero viendo el percal, maletín a EPIC o no... yo tampoco compraría una gráfica de 8Gb hoy x hoy, miraría otras opciones. Ya me fastidia q se diga q los 12Gb son lo mínimo aceptable aunque se pueda jugar a todo perfectamente con los 8Gb bajando algunos settings.
Me tengo que preocupar porque mi 3060 ti en unos años ya no sera suficiente su memoria vram?

Claro como seguramente en ese tiempo seguire con la misma grafica [+risas] , justo por eso me gusta moverme en la gama media es mas facil actualizar mas a menudo que hacer corajes vendiendo un riñon por la 3080 y en algunos meses ver que una de gama menor la iguala como la 4070 ahora.

Me flipan estas noticias sin sentido, no se preocupen, cuando suban requisitos saldra hardware apto.

En unos años abra otras cosas que no sean suficiente en mi rtx 3060 ti como los cuda cores, tensor cores pero claro nos tenemos que preocupar nada mas por la vram [+risas]
El día que 12 gb de memoria no sean suficientes para jugar a 2k con settings en alto por lo menos, el mercado de pc desaparece xD. La mayoría de la gente no se va a gastar 1300 euros en una 4080 y Amd no es que venda muchas gráficas, ya que creo que Nvidia tenía el 80 % del mercado de gráficas.

Si la tendencia ahora es sacar juegos rotos o mal optimizados, para hacer creer a la gente que necesita gastarse más de 1.000 en una gráfica para poder jugar decentemente, lo que va a hacer la gente es bajarse el juego pirata, probarlo, y si va como el culo a tomar por saco y a otra cosa xD.

Yo tengo una 1070 ti y ya noto que se ha quedado obsoleta, pero por ahora puedo jugar a:

- Assassins Creed Valhalla con todo en ultra a 2k a unos 45 fps
- Cyberpunk 2077 con todo en ultra (salvo 2 opciones) a 2k a unos 30 fps
- Final Fantasy VII Remake con todo al máximo en 4k a unos 45 fps
- Final Fantasy XV con todo al máximo en 4k a unos 44 fps
- Elden Ring con todo en ultra a 2k a unos 45 fps

(Eso sí, sin RT pero metiéndoles mods y reshade).

Creo que la actualizaré en breve a una 4070 que me va a salir por unos 550 euros (enchufes que tiene uno xD), ya que ahora mismo no me compraría una gráfica de 8 gb ni loco.
esami escribió:A mi cada vez me da mas la impresion que Epic ha recibido dinero de AMD o NVIDIA para activar la venta de tarjetas de esta generacion utilizando dos titulos muy mediaticos y que en realidad estan mal optimizados. Para meternos miedo en el cuerpo y que saquemos los billetes.

Desde luego que cuanto mas VRAM mejor pero si uno no sufre de ultritis y rtitis puede estar tranquilo con el tema.


Ni epic tiene la necesidad de recibir dinero de esta gente ni está gente de dárselo

Epic solo dice la verdad, lo que tu dices y lo que actualmente pasa de que haya juegos donde no puedas poner rt o poner ultra es solo el inicio del declive, con el tiempo serán más y será más grave llegando a pasar en cualquier configuración, los juegos no son tan escalables como os pensáis, esto ya a pasado otras veces y por lo general a igualdad de rendimiento una grafica con más vram suele envejecer bastante mejor, es algo que históricamente ya se a demostrado decenas de veces

La variante es cuando pasará eso, es algo que va a depender de los desarrollos, pero una cosa está clara, lo que comúnmente llamamos "next gen" los juegos con nuevas tecnologías y nuevos motores van a empezar a salir ahora y eso va a acelerar el proceso
FranciscoVG escribió:
esami escribió:A mi cada vez me da mas la impresion que Epic ha recibido dinero de AMD o NVIDIA para activar la venta de tarjetas de esta generacion utilizando dos titulos muy mediaticos y que en realidad estan mal optimizados. Para meternos miedo en el cuerpo y que saquemos los billetes.

Desde luego que cuanto mas VRAM mejor pero si uno no sufre de ultritis y rtitis puede estar tranquilo con el tema.


Ni epic tiene la necesidad de recibir dinero de esta gente ni está gente de dárselo

Epic solo dice la verdad, lo que tu dices y lo que actualmente pasa de que haya juegos donde no puedas poner rt o poner ultra es solo el inicio del declive, con el tiempo serán más y será más grave llegando a pasar en cualquier configuración, los juegos no son tan escalables como os pensáis, esto ya a pasado otras veces y por lo general a igualdad de rendimiento una grafica con más vram suele envejecer bastante mejor, es algo que históricamente ya se a demostrado decenas de veces

La variante es cuando pasará eso, es algo que va a depender de los desarrollos, pero una cosa está clara, lo que comúnmente llamamos "next gen" los juegos con nuevas tecnologías y nuevos motores van a empezar a salir ahora y eso va a acelerar el proceso



Ejemplos?
El titulo del post deberia llamarse.
Vram ¿quien la tiene mas grande

Independientemente de 8 , 16 , 56 de vram existen más cosas en las graficas. Dependera de la optimizacion del juego que se aprovechen o no. Lo que deberíais saber como jugadores de pc a estas alturas que es una plataforma configurable y que cada uno juega como quiere de graficos fluidez etc. Si cada vez que amd y nvidia quieren vender productos y cada vez que hacen juegos pensando en caza gamusinos compramos lo que ellos quieren y generandonos gastos inecesarios.
La fiabilidad del que publico la noticia de Epic , no me dice nada. Se va a poder jugar entre medio y alto y sin ray tracing a una media de 45 bastante tiempo con una grafica de 8 gigas . Quien quiera mas y se lo pueda permitir adelante, pero vamos no es necesario. No todo son graficos.

vuelvo a poner los dos videos que dicen verdades de sfdx y el de hoy te hablo de

https://www.youtube.com/watch?v=R9YpaQNPZdA
https://www.youtube.com/watch?v=rLoTkT6Xw2g

Si por el contrario quereis ver miles de graficas tontas y sin sentido podeis ir a hardware unboxes y a teach power up, en las cuales no se sabe si es vram asignada o utilizada. Tampoco digo que estas fuentes sean malas , hacen bien su trabajo. Pero su trabajo más que aconsejar es alarmar y crear miedo.
Un saludo a todos. Discustan y tirense de los pelos si quieren. Pero un servidor no pasa por ahi.
Yo hay cosas que no entiendo... Que en 2023 siga habiendo gente que solo se fija en la cantidad de vram...

Según la comparativa que se ha enlazado del Howarts (juego de los mas demandantes que hay):


1080p, ultra, rt of

Media de fps

3070 8GB 81.5 fps
6700xt 12GB 72.1 fps
A770 16GB 62.0 fps
3060 12GB 52.7 fps

fps 1% mínimos

3070 8GB 60.3 fps
6700xt 12GB 53.7 fps
A770 16GB 49.6 fps
3060 12GB 40.2 fps


1440p, ultra, rt of

Media de fps

3070 8GB 53.9 fps
6700xt 12GB 51.2 fps
A770 16GB 42.6 fps
3060 12GB 34.1 fps

fps 1% mínimos


3070 8GB 42.8 fps
6700xt 12GB 40.2 fps
A770 16GB 34.6 fps
3060 12GB 27.5 fps


Ni la 6700xt, ni la A770 ni la 3060 (todas con mínimo 12GB de vram) son capaces de dar 60fps estables a 1080, mientras que la 3070 con sus 8GB si lo hace. No se... igual hay vida más allá de la cantidad de vram... Y esto no quita que la serie 3000 fuera rácana en vram, pero decir que tarjetas de gama inferior rinden mejor que las superiores por el mero hecho de tener más vram es directamente una mentira.

Ahora también comprendo que haya quien note la diferencia entre texturas en ultra o hi... en 1440p, jugando a 34.1 fps de media da para fijarse en ellas entre cuadro y cuadro (incluso si me apuras a fumarse un piti).


FranciscoVG escribió:


En ese video se está comparando la 1060 en sus variantes de 3GB y 6GB. Evidentemente, si comparas la misma gpu, una con el doble de vram que la otra, la que tiene más vram va a rendir mejor. Pero es que además, en este caso, no solo es que tenga el doble de vram, es que también tiene una ligera mejora en la confi de las frecuencias del core... Lo raro habría sido que la de 6gb rindiera peor...
Usar el video de sfdxshow como argumento es la clásica del que simplemente busca creer lo que le interesa, por que pretender predecir el futuro en base a una demo técnica es una catetada de manual

@Wookiee

También puedes escuchar lo que dice que lo explica claramente, de inicio y sobre el papel la diferencia entre ambas es de 5-7%, esa diferencia a ido aumentando con el paso del tiempo, ¿cuál es la conclusión?, y aquí solo hablamos de rendimiento por que habría que ver luego en pantalla y es que cuando la vram escasea pueden haber problemas visuales también no sólo de rendimiento
FranciscoVG escribió:Usar el video de sfdxshow como argumento es la clásica del que simplemente busca creer lo que le interesa, por que pretender predecir el futuro en base a una demo técnica es una catetada de manual

@Wookiee

También puedes escuchar lo que dice que lo explica claramente, de inicio y sobre el papel la diferencia entre ambas es de 5-7%, esa diferencia a ido aumentando con el paso del tiempo, ¿cuál es la conclusión?, y aquí solo hablamos de rendimiento por que habría que ver luego en pantalla y es que cuando la vram escasea pueden haber problemas visuales también no sólo de rendimiento



Claro, la conclusión en ese ejemplo es indiscutible. El mismo producto pero con mas vram va a rendir en el peor de los casos igual, y a partir de ahi, siempre va a ir mejor. No hay discusión. Pero es que no se trata de eso. Se trata de si, sin tener nada más en cuenta, una gpu con 12/16gb de vram es mejor que otra con 8, y aquí creo que todos estamos de acuerdo en que no es así, aunque lo reconozcamos solo en la intimidad.


Ahí tienes la A770 que tiene nada menos que 16GB de vram. ¿Alguien en su sano juicio escogería para jugar la de intel, no ya por encima de una 3080 con sus miseros 10GB, si no por delante de una 3070 con unos paupérrimos 8GB?

Y entre la 3060 y la 3070... Cara a futuro, cuando los juegos obliguen a la 3070 a usar texturas en low para mantener 40fps, te podrías encontrar con que con la 3060 estarías jugando con todo en low (no solo las texturas, sino todo lo demás también) por debajo de la barrera de los 30fps.

Además, podríamos hablar del sentido que tiene usar texturas 4k en un monitor 1080p y si es o no disparar con pólvora de rey.

Sea como sea, sin entrar en opiniones o en usar la bola de cristal, los datos están ahí. A día de hoy, la 3070 y la 3080 rinden, tanto en fps medios como en mínimos, muy por encima de gpus que tienen más vram, simple y llanamente porque suplen su falta de vram con mayor bus, núcleos de procesamiento o frecuencias. Y eso mismo se aprecia también si comparamos una 4080 de 16GB con una 3090 de 24GB. Y es que no solo de vram vive el gamer.
Wookiee escribió:
FranciscoVG escribió:Usar el video de sfdxshow como argumento es la clásica del que simplemente busca creer lo que le interesa, por que pretender predecir el futuro en base a una demo técnica es una catetada de manual

@Wookiee

También puedes escuchar lo que dice que lo explica claramente, de inicio y sobre el papel la diferencia entre ambas es de 5-7%, esa diferencia a ido aumentando con el paso del tiempo, ¿cuál es la conclusión?, y aquí solo hablamos de rendimiento por que habría que ver luego en pantalla y es que cuando la vram escasea pueden haber problemas visuales también no sólo de rendimiento



Claro, la conclusión en ese ejemplo es indiscutible. El mismo producto pero con mas vram va a rendir en el peor de los casos igual, y a partir de ahi, siempre va a ir mejor. No hay discusión. Pero es que no se trata de eso. Se trata de si, sin tener nada más en cuenta, una gpu con 12/16gb de vram es mejor que otra con 8, y aquí creo que todos estamos de acuerdo en que no es así, aunque lo reconozcamos solo en la intimidad.


Ahí tienes la A770 que tiene nada menos que 16GB de vram. ¿Alguien en su sano juicio escogería para jugar la de intel, no ya por encima de una 3080 con sus miseros 10GB, si no por delante de una 3070 con unos paupérrimos 8GB?

Y entre la 3060 y la 3070... Cara a futuro, cuando los juegos obliguen a la 3070 a usar texturas en low para mantener 40fps, te podrías encontrar con que con la 3060 estarías jugando con todo en low (no solo las texturas, sino todo lo demás también) por debajo de la barrera de los 30fps.

Además, podríamos hablar del sentido que tiene usar texturas 4k en un monitor 1080p y si es o no disparar con pólvora de rey.

Sea como sea, sin entrar en opiniones o en usar la bola de cristal, los datos están ahí. A día de hoy, la 3070 y la 3080 rinden, tanto en fps medios como en mínimos, muy por encima de gpus que tienen más vram, simple y llanamente porque suplen su falta de vram con mayor bus, núcleos de procesamiento o frecuencias. Y eso mismo se aprecia también si comparamos una 4080 de 16GB con una 3090 de 24GB. Y es que no solo de vram vive el gamer.


Es que esa no es la cuestion aqui, evidentemente ya hay que ser tonto para preferir una 3060 de 12gb frente a una 3080 de 10gb

Yo es que creo que se estan mal interpretando las palabras de epic, que a mi epic me la suda, pero es que decir que algo esta obsoleto no es decir que es inutil, no te esta diciendo que la tires a la basura eso es lo que los youtuber interpretan para ganar visitas, un movil con android 11 tambien se puede considerar obsoleto y lo usan a diario millones de personas

Lo que aquí se habla es que si con 8gb es suficiente y eso ya se a visto que no y que sera peor en el futuro, a partir de ahi que cada uno haga lo que quiera, pero nadie te esta forzando a nada, simplemente es entender que tener mas vram es una ventaja extra
@FranciscoVG Evidentemene a mismas condiciones mas vram es mejo, pero no solo la vram, mas bus, mejor procesador etc. Una 3070 por ejemplo esta obseleta muchas veces para 2k y 4k . Evidentemente de cara al futuro , todo pide mas. y es evidente que cuando salga la 4060 equivaldra a una 3070 como poco y arquitectura nueva y sera mejor y con las graficas de Amd igual.
Con referencia a los videos, por lo menos esos youtubers intentann que solo te compres una grafica de masa de 8 gigas si la economía te lo permite y si hay algo que merezca mas la pena y no te animan a que tires la tuya a la basura.
tb toda la vram que se muestra en juego es muy dificll demostrar si es reservada o no y cuanto se usa normalmente. Esta claro que cuanto mas vram, al igual que la ram , el juego reserva mas. Por ejemplo the last of us en una 4090 solo ya reserva 6 para el sistema. A todo esto le añadimos los juegos mal porteados, que seguramente tengan procesos en memoria que no sirvan para nada .

La obselencia es inevitable . Solo pido que no seamos tan alarmistas y que cuando nos quedemos sin vram , pues ya veremos cada uno lo que hacemos.
FranciscoVG escribió:


Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar


La 1060 3gb y 1060 6gb NO llevan el mismo chip

https://elchapuzasinformatico.com/2016/ ... -1060-3gb/



estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.

Imagen



Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas




Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?

https://www.noticias3d.com/noticia.asp?idnoticia=75491

...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...
Yo insisto que una grafica incluso gama alta en algun momento sera obsoleta pero no solo por la vram, ahi esta ejemplo de la gtx 1080, en su momento era muy buena pero ya fue rebasada en muchos de sus apartados ya lo que menos importa es la vram que trajera, como dice un compañero asi sean 20gb ya conviene renovarla.

Esto mismo le pasara al hardware actual, enfocarse solo en la vram no tiene sentido, compres la que compres hoy, sufrira la misma obsolescencia que sufre todo hardware, enfocarnos en el poco mejor, poco peor no cambiara nada cuando ya no pueda correr juegos en los settings que nos gusta jugar, yo honestamente siento que lo de Epc es un poco de comprate la gama alta la media ya no te vale, claro como todos tenemos para gastar en una 4090, al menos yo no gastaria tanto en una grafica.
Veo mucho alarmismo con este tema y que EPIC se sume a esta tendencia da que pensar al momento de ver como quieren manipular la opinión publica sobre ciertos temas determinadas personalidades o empresas. Obvio que 8GB se queda cortísimo con todo en ultra + rt a juegos actuales, pero es que no estamos en consolas, estamos hablando de PC.

La gracia del pc gaming es que puedes ajustar la experiencia a lo que tengas y lo que puedas en el momento; si no puedo en ultra, bajo a alto, si no a medio y así con cada opción que el juego ofrezca hasta llegar a un punto dulce donde cada ajusto cada parte a lo mejor que pueda usar y que se sienta bien jugando. Por que mas allá de ports lamentables siempre se puede meter mano de una forma u otra para lograr una experiencia satisfactoria ya que al final lo que se quiere es eso, JUGAR.

Para eso no es necesario y obligatorio ULTRA+RT y si no, no puedo jugar, tampoco no es necesario en la mayoría de los casos que las texturas parezcan plastilina y los modelados bajarlos hasta unos pocos cientos de polígonos por que si pongo el juego al mínimo no llego ni a 30fps... por que mi grafica de alta gama de hace 1 generación no tiene suficiente "X" ya sea ram, cores, rt cores, etc....

El chino de Nvidia no te lo dirá nada de esto, obvio quiere vender el pan recién horneado. Pero si tienes aun una grafica Pascal tipo 1070 para arriba, aunque ciertamente ya estés fuera del ciclo "recomendado" (y léase entrecomillas por que no son ciclos exactos puede varían de mas o menos tiempo) de cinco años para actualizar, aun puedes jugar en gráficos bajos o medios a un importante porcentaje de los lanzamientos actuales en 1080p o incluso a 1440p en algun que otro juego.

Si de paso no te impacta la vista el usar FSR tienes alli un boost de FPS que es bienvenidos por muchos. En mi caso uso DLSS siempre que puedo ya que a diferencia del FSR, este no me interfiere en la experiencia o no me molesta en lo mas mínimo porque gano en rendimiento y de paso la gpu consume menos vatios así que no problem.

Debería ser mas importante si el fabricante deja de sacar drivers optimizados para X tarjetas, allí si que la cosa cambia y si dejas de tener soporte allí si es totalmente recomendable actualizar sobretodo el caso de nvidia. Y aun así no hay que irse a gastar un pastizal en una serie 80 o 90, manteniéndose entre la serie 60 a 70 esta un buen punto medio de prestaciones precio. De AMD no controlo mucho pero como baseline recomiendan mucho la RX6600 que trae 8gb y viendo videos de rendimiento y el precio que tiene la verdad es que esta bastante guapa esa opción si no quieres gastar mucho mas.

Otros puntos del hardware son mas importantes en estos temas, por que por ejemplo muchos tienen discos mecánicos de 2 a 4 teras para su librería de juegos sin pararse a pensar que al momento de stremear texturas a la vram en juegos actuales es algo que si puede ser problemático. Para mi percepción para juegos actuales solo desde un SSD o NVME. Mecánicos solo para juegos de la generación de PS3/x360 para atrás.
elneocs escribió:Si de paso no te impacta la vista el usar FSR tienes alli un boost de FPS que es bienvenidos por muchos. En mi caso uso DLSS siempre que puedo ya que a diferencia del FSR, este no me interfiere en la experiencia o no me molesta en lo mas mínimo porque gano en rendimiento y de paso la gpu consume menos vatios así que no problem.

Te puedo asegurar que ni con FSR ni con DLSS vas a evitar los tironcillos en escenas donde tu grafica se quede sin memoria. Lo se por experiencia. Y puede que fuera epic la que lo dijo pero el problema ya existia en otro juegos. Lo que pasa es que en las consolas solo ahora con el directstorage se van todos a las texturas HD en las consolas que antes solo se usaban en PC opcionalmente. Y claramente no van a sacar juegos de PC hechos para esas graficas sin texturas HD.
ditifet escribió:
FranciscoVG escribió:


Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar


La 1060 3gb y 1060 6gb NO llevan el mismo chip

https://elchapuzasinformatico.com/2016/ ... -1060-3gb/



estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.

Imagen



Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas




Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?

https://www.noticias3d.com/noticia.asp?idnoticia=75491

...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...


Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima

No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?

Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo

@vinzenzo34

Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo
FranciscoVG escribió:
ditifet escribió:
FranciscoVG escribió:


Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar


La 1060 3gb y 1060 6gb NO llevan el mismo chip

https://elchapuzasinformatico.com/2016/ ... -1060-3gb/



estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.

Imagen



Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas




Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?

https://www.noticias3d.com/noticia.asp?idnoticia=75491

...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...


Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima

No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?

Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo

@vinzenzo34

Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo



Sabes leer? Bueno veo que no, te lo pongo en grande porque veo que te falla la vista


estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.


La 1060 3gb y la de 6gb, las que has enlazado tu NO LLEVAN EL MISMO CHIP , por eso la diferencia de rendimiento, no por la cantidad de VRAM

Te lo pongo abreviado porque veo que si me extiendo no te llega la neurona para entenderlo
Yo lo veo también por el lado positivo. Esto hará que algunos quieran actualizar. Pero otros se plantarán y tendrán que rebajar precios o sacar modelos compensandos. Pero el daño ya está hecho. Las gráficas de 8gb para abajo, se devaluarán mucho. Igual para entonces pillo de segunda mano una RTX 2060 o 2070 por 100€ y para lo que juego y mis exigencias, me puede durar años. [+risas]

¿Tiene NVIDIA preparada una RTX 4070 o 4070 Ti de 16 GB?

https://elchapuzasinformatico.com/2023/ ... -ti-16-gb/

Aquí se le vería el plumero a Nvidia. Como ya hizo en el pasado lanzando modelos de 4gb más tarde, en vez de dos. Que duraron más tiempos.
ditifet escribió:
FranciscoVG escribió:
ditifet escribió:
Pienso que este vidrio va para mi, dado que tu pc / movil no tiene boton de citar


La 1060 3gb y 1060 6gb NO llevan el mismo chip

https://elchapuzasinformatico.com/2016/ ... -1060-3gb/



estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.

Imagen



Ahora sigue intentándolo con las "decenas" de ejemplos mas que comentabas




Te pongo yo un ejemplo de los que indicas que SI llevan el mismo chip?

https://www.noticias3d.com/noticia.asp?idnoticia=75491

...En la mayoría de los casos ambas ofrecen un rendimiento prácticamente idéntico...


Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima

No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?

Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo

@vinzenzo34

Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo



Sabes leer? Bueno veo que no, te lo pongo en grande porque veo que te falla la vista


estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.


La 1060 3gb y la de 6gb, las que has enlazado tu NO LLEVAN EL MISMO CHIP , por eso la diferencia de rendimiento, no por la cantidad de VRAM

Te lo pongo abreviado porque veo que si me extiendo no te llega la neurona para entenderlo



A ver genio si dos gpu usan el mismo silicio es por que son el mismo chip, y ahi te lo dice claro ambas son el GP106, una cosa es que sean iguales y otra que el chip sea el mismo, los chips son iguales la diferencia es que la de 3gb esta un poco recortado

Pero es que eso es lo de menos la cosa es la estupidez de argumento que te has buscado, cualquier persona racional ve imagenes como estas:

Imagen

Imagen

Y entiende que eso es por culpa de la vram, habiendo casos incluso de no poder ejecutarse por lo mismo, pero no, tu nos quieres vender que eso pasa por que la de 3gb tiene 100 CUDAs menos que la otra, y el listo eres tu...

Veo que sigues con lo mismo, con argumentos sin sentido para intentar demostrar lo que te interesa, manipulando y mintiendo si es necesario, y con el mismo respeto de siempre, la vida sigue igual por lo que veo xd
Nomada_Firefox escribió:
vinzenzo34 escribió:se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos.

Aunque tu comentario total lo veo acertado. Esto es un poco falso porque las pones a 1080p, a tope de detalle, todas las opciones graficas, incluso usando el DLSS y las diferencias no son tan grandes, simplemente nimias pero con mejor suavidad que viene a ser tu comentario total.

Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez

Si funcionan suaves de movimiento, comodos, funcionan bien. No se porque habria que esperar que funcionaran a más fps y estables cuando las consolas funcionan a 30fps y 60fps todo lo más. The Last of Us es un juego hecho para la PS5, que lo sacaran en PC, vale, pero fue hecho para una maquina que solo pedia 30fps, ni un gramo más a resoluciones que tenian que ser altas, de pantalla de TV, asi que yo no entiendo como se puede ni imaginar que los creadores iban a rehacer todo el juego para que estando en el PC aprovechara toda la potencia. [fiu]

Aún asi hay titulos y titulos. No todos se hacen pensando más en la consola o solo en ella.


pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza
FranciscoVG escribió:
ditifet escribió:
FranciscoVG escribió:
Para ti no va, lo pongo como ejemplo por si alguien tiene la misma duda pero no va para ti por eso no te cito, contigo ya se que es perder el tiempo por eso ni me molesto te lo digo como aviso para la proxima

No hay más que ver tus ejemplos, me pones un link donde en el primer párrafo pone que ambas usan el mismo chip para luego intentar convencerme que no con una imagen sacada a saber donde, pero luego encima pones otro link con un enlace al clásico video clickbait de las barritas que hemos dicho en este foro mil veces que no valen para nada, además genio si dos gráficas de la misma arquitectura con un rendimiento de diferencia de 5-7% con el tiempo la diferencia literalmente se multiplica ¿a que crees que puede ser debido?

Cuando quiera que alguien manipule lo que digo y no le importe engañar para quedar por encima de los demás te aviso crack, un saludo

@vinzenzo34

Y quien esta siendo alarmista? Por qué yo desde luego no decir que si puede perjudicar no es decir que tu gpu no vale para nada, insisto en el detalle que es importante, es que para mí los más alarmistas están siendo precisamente los youtubers y prensa en general, no creo que epic este diciendo ninguna mentira solo hay que entender lo que estan diciendo



Sabes leer? Bueno veo que no, te lo pongo en grande porque veo que te falla la vista


estamos ante dos gráficas distintas, y no solo por que tengan distinta capacidad de memoria VRAM, sino que el modelo de 6 GB usa un silicio GP106 con 1280 CUDA Cores, 80 TMUs y 48 ROPs mientras que el modelo de 3 GB usa un silicio GP106 capado con 1152 CUDA Cores, 72 TMUs y 48 ROPs, por lo que a Nvidia no le costaba nada llamarla GeForce GTX 1060 SE/LE para diferenciarla de un modelo que quieran o no, es diferente en muchos aspectos y ofrece un rendimiento distinto.


La 1060 3gb y la de 6gb, las que has enlazado tu NO LLEVAN EL MISMO CHIP , por eso la diferencia de rendimiento, no por la cantidad de VRAM

Te lo pongo abreviado porque veo que si me extiendo no te llega la neurona para entenderlo



A ver genio si dos gpu usan el mismo silicio es por que son el mismo chip, y ahi te lo dice claro ambas son el GP106, una cosa es que sean iguales y otra que el chip sea el mismo, los chips son iguales la diferencia es que la de 3gb esta un poco recortado

Pero es que eso es lo de menos la cosa es la estupidez de argumento que te has buscado, cualquier persona racional ve imagenes como estas:

Imagen

Imagen

Y entiende que eso es por culpa de la vram, habiendo casos incluso de no poder ejecutarse por lo mismo, pero no, tu nos quieres vender que eso pasa por que la de 3gb tiene 100 CUDAs menos que la otra, y el listo eres tu...

Veo que sigues con lo mismo, con argumentos sin sentido para intentar demostrar lo que te interesa, manipulando y mintiendo si es necesario, y con el mismo respeto de siempre, la vida sigue igual por lo que veo xd


Sigues sin leer, ya es la última vez que lo pongo total para debatir con hans el topo


https://www.gpucheck.com/es-eur/compare ... k-4-00ghz/


1060 3gb > GP106-300


Shaders 1280
SM Count 10
TMUs 72

1060 6gb > GP106-400-A1

Shaders 1152
SM Count 9
TMUs 80

Pero oye es el mismo chip según tu [facepalm]



Imagen

Imagen


Las diferencias de rendimiento vienen dadas por la versión recortada del chip (GP106-300 VS GP106-400-1) y no solo por la cantidad de vram




Tu afirmacion inicial fué:

a igualdad de rendimiento una grafica con más vram suele envejecer bastante mejor

a lo que yo te pedí ejemplos

pusistes el de la 1060 3gb y 6gb y fué cuando te dije que no era la misma gráfica y efectivamente no lo es porque no llevan el mismo chip, es como si dijeras que la 4070 y 4070ti es la misma gráfica porque usan el mismo chip (AD104)
@parh Tengo varios amigos que juegan al WoW y demás y siguen con monitores de 1080p 60fps.

Creo que aquí en este foro subestimamos mucho ese público. Es cierto que aqui en el EOL nos gusta (me incluyo) el tener hardware puntero,ver los juegos con mucha calidad, tener el contador de FPS puesto siempre para ver si baja un frame en luego xD, etc. Pero realmente somos una minoría y eso hay que entenderlo.

Tengo otro amigo que se pillo hace un par de meses la 3060 y está encantadísimo con ella para jugar a 1080p al GTA, fallguys y demás juegos online que streamea. Ni tiene ninguna intención de cambiarla.
parh escribió:pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza

Pues parece que si hay alguien. Según la encuesta de STEAM dos terceras partes de los jugadores nada más, unos pocos.
Imagen
De hecho yo si no tuviera ya el monitor QHD, me buscaba un FullHD bien potente y ahí me quedaba.
Menos dolores de cabeza con las gpus.
Gnoblis escribió:pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza

Pues parece que si hay alguien. Según la encuesta de STEAM dos terceras partes de los jugadores nada más, unos pocos.
Imagen[/quote]
Muy bueno [sonrisa] [sonrisa] [sonrisa] [sonrisa] yo mismo juego a 1080p pero eso seguro que ya se sabia.

@KindapearHD Yo es la conclusión a la que llegue hace tiempo tras ver gente que con graficas potentes, les duraba el PC mucho tiempo por no apostar por alta resolución. Y ahora mismo creo que lo unico que me gustaria, serian dos monitores pero para currar, para jugar no me hace falta.

Y el caso es que hay un tanto de desestimación del 1080p pero a 50cm de distancia no necesitas nada más.
parh escribió:
Nomada_Firefox escribió:
vinzenzo34 escribió:se defiende mejor que 3060 ti y 3070 pero claro a unos fps muy cortos.

Aunque tu comentario total lo veo acertado. Esto es un poco falso porque las pones a 1080p, a tope de detalle, todas las opciones graficas, incluso usando el DLSS y las diferencias no son tan grandes, simplemente nimias pero con mejor suavidad que viene a ser tu comentario total.

Anoche e jugue al plague requiem y lo puse en alto me sobraban 2 gigas de vram y iba fenomenal como mucho bajaba a 55 fps en las zonas de mas gente. Que funciene este asi y the last of us no... es un claro ejemplo de dejadez

Si funcionan suaves de movimiento, comodos, funcionan bien. No se porque habria que esperar que funcionaran a más fps y estables cuando las consolas funcionan a 30fps y 60fps todo lo más. The Last of Us es un juego hecho para la PS5, que lo sacaran en PC, vale, pero fue hecho para una maquina que solo pedia 30fps, ni un gramo más a resoluciones que tenian que ser altas, de pantalla de TV, asi que yo no entiendo como se puede ni imaginar que los creadores iban a rehacer todo el juego para que estando en el PC aprovechara toda la potencia. [fiu]

Aún asi hay titulos y titulos. No todos se hacen pensando más en la consola o solo en ella.


pero alguien en PC sigue jugando a la obsoleta resolucion de 1080p? para eso mejor comoprarse una PS5/SERIES X y ahorrar dinero y dolores de cabeza


Y seguramente vaya en aumento. Lo que se está quedando obsoleto, es dejarse una nómina en una GPU.
Epic games diciendo lo que le piden los fabricantes que diga. Nada nuevo.
joakylla escribió:Epic games diciendo lo que le piden los fabricantes que diga. Nada nuevo.

Como si fueran los unicos...........todos los juegos creados para las nuevas consolas y lanzados tambien en PC que usaban texturas HD presentaban ese problema.
Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado
Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado

Evidentemente pero......... viene la pregunta ¿gastarias 600/700€ en una grafica para tener que bajar el detalle en un juego? y no hablamos de dentro de años, ahora mismo te puede suceder.
Tambien depende, el Spiderman con las texuras al maximo, me marca unos 7.4GB de Vram, le bajas solo un nivel (Alto) y ya se ponia en 5.7GB, la diferencia entre ambas, pues practicamente ninguna, con darle un poco mas de nitidez a la TV igualabas el resultado, pero eso es por estar bien "diseñado" el juego, otros pasas de lo maximo a lo minimo y el consumo de Vram no tiene un gran cambio, ese tipo de juegos son los que van a dar mas de un quebradero de cabeza🤣🤣🤣
Nomada_Firefox escribió:
Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado

Evidentemente pero......... viene la pregunta ¿gastarias 600/700€ en una grafica para tener que bajar el detalle en un juego? y no hablamos de dentro de años, ahora mismo te puede suceder.



con una grafica de 600, 700 tienes que bajar settings/resolucion seguro, ahora mismo ya sucede. El problema de graficas con poca vram (cualquiera con menos de 16gb) es que se pueden quedar obsoletas rapidamente, por eso, en vez de pagar 600 en una grafica, casi que mejor pillarse una ps5 o sx y listo.

recordemos que se vienen ya la nueva hornada de juegos con UE5 que con settings y RT alto puede llegar a consumir facil mas de 20GB de ram en los juegos AAA (ya lo hacen a 4k los juegos con UE4). Ahora mismo, con este panorama, la 4090 parece la unica grafica UE5 ready.
Yo tengo la PC conectada a la pantalla 4k y siempre juego con el Nis de Nvidia activado.

Primero pruebo 1440p max settings, veo framerate, temperaturas y consumo, si algo no me gusta bajo a 1080p/max settings y en muchos caso se reduce el consumo y temperaturas bastante y claro tambien la utilizacion de la vram.

Hay quien huye de los escalados pero para mi son la respuesta a juegos con optimizaciones deficientes, justo esto me pasa con RE2 remake y por otra parte lo tengo tambien en la Series S y esta mejor optimizado, en resumen compremos tarjetas con mas vram para hacerles la vida facil a estudios que no quieren optimizar.
Nomada_Firefox escribió:
Putoskizzo escribió:Menuda chorrada, eso será para los que necesitan poner todas las settings a la derecha, se baja la calidad de las texturas y listo. Los desarrolladores no se van a pegar un tiro en el pie haciendo que su juego solo funcione bien en un 10% de los ordenadores del mercado

Evidentemente pero......... viene la pregunta ¿gastarias 600/700€ en una grafica para tener que bajar el detalle en un juego? y no hablamos de dentro de años, ahora mismo te puede suceder.


Lo dices como si 600-700€ compraras una gráfica top, tio que estamos en 2023, con esa pasta ahora tienes una gama media pelada, no flipes queriendo poner 4k + RT + ultra
628 respuestas
1, 2, 3, 4, 513