Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

BladeRunner escribió:Está claro q no todos los estudios son ID software,

ID software tiene una cosita, que hacen o hacian motores para luego dejar que otros los modificasen y cuando lo segundo sucedia, no era un resultado tan bueno. Habia de todo. Y lo mismo sucede a muchos ahora usando motores existentes.

Con todo el cariño, ¡a saber qué significa eso!

Que alguna vez hice de probador alpha para un juego en desarrollo y pude ver todos los problemas que tiene, sobre todo hacer algo en un motor de pago hecho por otros.

Yo supongo q en cada desarrolladora habrá un equipo desarrollando el juego a nivel "común" (arte, diseño, lógica del juego...) y también otros equipos especializados en cada plataforma trabajando al mismo tiempo. No veo el problema para q sea así en un juego de la talla de "Survivor" (o supuesta talla q debería tener) del universo Star Wars.

A parte que no todos los juegos tienen unos equipos enormes......coordinarlo todo no es ni de lejos sencillo. En el unico juego que participe que se hizo luego para consola, ya estaba pensando de primeras y se centraron inicialmente en la versión en PC, fue el Battlestar Deadlock, cuando me apunte a ese juego, no sabia ni que de iba, ni tenia titulo. Lo malo es que lo jugue tanto que cuando salio el juego, ya no me apetecia mucho jugarlo. Pero tiene muchas cosas que yo sugeri. Tambien el ultimo Close Combat, con la gente de Slitherine siempre me he llevado muy bien. Y los juegos en su caso los hacen equipos muy pequeños.

Puede parecer no comparable pero yo habitualmente hago mods, generalmente mods completos ¿y sabes por que no es practico usar equipos de gente? porque es muy complicado sincronizarlo todo, al margen de los problemas de gustos. Y se que eso mismo les sucede a las grandes compañias, por eso pasan el dia despidiendo gente.

Pero centrandonos en estos triple A de consola, yo pienso que los sacan mal para PC porque pueden, porque no les penaliza tanto y porque les piden que funcione bien para consola.

Que haya casos malos en ambas plataformas, pues tampoco es raro porque los juegos no se hacen en plan te contrato y cuando lo acabes saco el juego, se hacen con fecha de terminación de antemano, asi que siempre salen juegos incompletos.
lacenayaesta escribió:Dudo mucho, pero muuuuuuucho, que los curritos que pican código sean los culpables de estos lanzamientos. Y dudo aún más, que estén contentos de que salgan con esos problemas.

Ojo q los q pican código son muy importantes, q no digo q insinúes lo contrario, pero programadores q no hacen pruebas, no usan bien los tipos, no comentan bien el código, etc. Pues uno sólo comete una pifia y sin lo anterior vete a saber dónde está el fallo. Aquí más q fallos garrafales parece un problema de optimización, de no haber probado el juego en varias configuraciones y realizar las modificaciones pertinentes. Curiosamente la más penalizada parece la gama alta, q la media, debe ser porque en consolas han metido un hachazo en cuanto a la resolución para q se mueva decentemente. Pero no sé, será cosa del Unreal Engine 4.2.

Q hayan equipos de gente insuficiente, q los plazos no sean los correctos, q las condiciones de trabajo no sean buenas (q para colmo te obliguen a hacerlo en una oficina paupérrima con ambiente laboral tóxico), q los medios no sean buenos, cosas como el crunch, etc. ya sí q no es culpa del programador. Parece q para este juego ya se había pospuesto el lanzamiento 1 mes, tampoco parece tremendo q se pospusiera otro mes más...

@Nomada_Firefox interesante, buena experiencia. [ok]
Pero es así, no queda otra q trabajar con equipos con proyectos tan grandes como éstos, una persona sola te puede hacer un buen indie pero un AAA... la gestión de los proyectos y los equipos marca la diferencia. Entre otras cosas hacen q los programadores excelentes se queden en tu proyecto, o se larguen a otro lado.
@BladeRunner eres tú el que ha puesto el gif del mono aporreando el teclado ;p

Que ya sabemos cómo va esto, y el problema suele venir de raíz, del mismo scope con fechas imposibles de cumplir, ya sea por mala planificación o mala gestión.
Incluso si es un problema de talento en los equipos, los principales responsables son los que contratan y supervisan.

Al final quien decide, mientras los números cuadren y se lleve un aplauso de la junta de accionistas, se la suda que tú te comas rico stuttering o te vaya a 20 fps la semana de lanzamiento.
Y si no cumple las espectativas económicas, pues a otra cosa mariposa.

El caso de que un programador te la lie, y la bola de nieve se lleve por delante el proyecto, es muy muy improbable, e igualmente la responsabilidad última sería de quien sería.
Y no os olvideis que luego hay muchos juegos que se hacen poniendo el dinero de ante mano, pidiendo creditos, al final por mucha planificación que tengan, muchas veces estan obligados a sacarlos antes de tiempo porque se acaba la grava. Y luego estan los early releases que ya son otra historia.

El juego que más se ha hablado anteriormente, el The Last of Us, yo diria que estaba pensado para salir a continuación de la serie, ni más ni menos, asi que el que saliera bien para consola, ya es un milagro. Y por muy grandes que sean los equipos haciendo el juego, estoy seguro que la logica es centrar tus esfuerzos en lo primordial, no sacar un juego pensando en varias plataformas que al final es posible que todas salgan rana.
lacenayaesta escribió:@BladeRunner eres tú el que ha puesto el gif del mono aporreando el teclado ;p

Como si pongo un mono operando a corazón abierto. XD

De acuerdo en lo demás, aunque si sé q alguien es muy bueno, intentaría q me "operara" siempre el mismo médico. Poniéndole unas condiciones lógicas, claro. Parece q EA no brilla por ello precisamente.
Encuentro cosas como ese tema del video, una chorrada como un templo porque hay que tener en cuenta realmente estos puntos:

-Cuanto necesitas para jugar a maximo nivel.

-Cuanto valoras en dinero jugar a ese nivel.

Si entiendes esos puntos y no vas diciendo por la vida que con una grafica de la gama 60 no puedes jugar asi por lo menos los dos años primeros de la grafica, como siempre ha sido, pues entenderas mejor el problema.

Y quien diga que eso de la gama 60 no era asi, es que pocas graficas de esa gama y pocos juegos ha probado realmente. [facepalm]
Nomada_Firefox escribió:Encuentro cosas como ese tema del video, una chorrada como un templo porque hay que tener en cuenta realmente estos puntos:

-Cuanto necesitas para jugar a maximo nivel.

-Cuanto valoras en dinero jugar a ese nivel.

Si entiendes esos puntos y no vas diciendo por la vida que con una grafica de la gama 60 no puedes jugar asi por lo menos los dos años primeros de la grafica, como siempre ha sido, pues entenderas mejor el problema.

Y quien diga que eso de la gama 60 no era asi, es que pocas graficas de esa gama y pocos juegos ha probado realmente. [facepalm]


Con una serie 60 nunca se había podido jugar con TODO a tope y menos desee que sacaron el RT en las 2000

Una serie 60 es de gama media, si alguien espera jugar con todo a tope ultra y RT con una gama media el problema es suyo, no de las vram.
VíctorXD está baneado por "clon de usuario baneado"
ditifet escribió:
Nomada_Firefox escribió:Encuentro cosas como ese tema del video, una chorrada como un templo porque hay que tener en cuenta realmente estos puntos:

-Cuanto necesitas para jugar a maximo nivel.

-Cuanto valoras en dinero jugar a ese nivel.

Si entiendes esos puntos y no vas diciendo por la vida que con una grafica de la gama 60 no puedes jugar asi por lo menos los dos años primeros de la grafica, como siempre ha sido, pues entenderas mejor el problema.

Y quien diga que eso de la gama 60 no era asi, es que pocas graficas de esa gama y pocos juegos ha probado realmente. [facepalm]


Con una serie 60 nunca se había podido jugar con TODO a tope y menos desee que sacaron el RT en las 2000

Una serie 60 es de gama media, si alguien espera jugar con todo a tope ultra y RT con una gama media el problema es suyo, no de las vram.


Con la resolución correcta en su momento se podía jugar con todo a tope con una xx60, yo en su momento tuve una GTX 460 y en un monitor 720p la mayoría de títulos iban tope.

Pero vamos las Texturas son gratis en rendimiento y la mayoría de efectos que se basan en caché, tener que reducir esos setting por falta de VRAM no de potencia es una putada.

Lo ideal es que en GPU gama-media para arriba sobre la VRAM.
VíctorXD escribió:
ditifet escribió:
Nomada_Firefox escribió:Encuentro cosas como ese tema del video, una chorrada como un templo porque hay que tener en cuenta realmente estos puntos:

-Cuanto necesitas para jugar a maximo nivel.

-Cuanto valoras en dinero jugar a ese nivel.

Si entiendes esos puntos y no vas diciendo por la vida que con una grafica de la gama 60 no puedes jugar asi por lo menos los dos años primeros de la grafica, como siempre ha sido, pues entenderas mejor el problema.

Y quien diga que eso de la gama 60 no era asi, es que pocas graficas de esa gama y pocos juegos ha probado realmente. [facepalm]


Con una serie 60 nunca se había podido jugar con TODO a tope y menos desee que sacaron el RT en las 2000

Una serie 60 es de gama media, si alguien espera jugar con todo a tope ultra y RT con una gama media el problema es suyo, no de las vram.


Con la resolución correcta en su momento se podía jugar con todo a tope con una xx60, yo en su momento tuve una GTX 460 y en un monitor 720p la mayoría de títulos iban tope.

Pero vamos las Texturas son gratis en rendimiento y la mayoría de efectos que se basan en caché, tener que reducir esos setting por falta de VRAM no de potencia es una putada.

Lo ideal es que en GPU gama-media para arriba sobre la VRAM.


Ahora con la resolución correcta también se puede jugar a tope, pero no sé puede pretender jugar a 4k ultra con RT con una gama media, además antes no había RT ni rayitos que tanto nos intentan colar ahora por lo que más hard necesitamos
mrmanson16v escribió:Video hablando del tema:


que cabrón, como me he partido con el anuncio imitando a Iker haha, haha y ahora dross que cabrón
VíctorXD está baneado por "clon de usuario baneado"
ditifet escribió:
VíctorXD escribió:
ditifet escribió:
Con una serie 60 nunca se había podido jugar con TODO a tope y menos desee que sacaron el RT en las 2000

Una serie 60 es de gama media, si alguien espera jugar con todo a tope ultra y RT con una gama media el problema es suyo, no de las vram.


Con la resolución correcta en su momento se podía jugar con todo a tope con una xx60, yo en su momento tuve una GTX 460 y en un monitor 720p la mayoría de títulos iban tope.

Pero vamos las Texturas son gratis en rendimiento y la mayoría de efectos que se basan en caché, tener que reducir esos setting por falta de VRAM no de potencia es una putada.

Lo ideal es que en GPU gama-media para arriba sobre la VRAM.


Ahora con la resolución correcta también se puede jugar a tope, pero no sé puede pretender jugar a 4k ultra con RT con una gama media, además antes no había RT ni rayitos que tanto nos intentan colar ahora por lo que más hard necesitamos


Es que lógicamente una 4060 no es para jugar a 4k, si no a 1080p o 1440p como mucho, pero si luego para jugar en Ultra +1080p lo que te limita es VRAM y toca que bajar settings y no por falta de potencia......

Es de lo que se habla.
VíctorXD escribió:
ditifet escribió:
VíctorXD escribió:
Con la resolución correcta en su momento se podía jugar con todo a tope con una xx60, yo en su momento tuve una GTX 460 y en un monitor 720p la mayoría de títulos iban tope.

Pero vamos las Texturas son gratis en rendimiento y la mayoría de efectos que se basan en caché, tener que reducir esos setting por falta de VRAM no de potencia es una putada.

Lo ideal es que en GPU gama-media para arriba sobre la VRAM.


Ahora con la resolución correcta también se puede jugar a tope, pero no sé puede pretender jugar a 4k ultra con RT con una gama media, además antes no había RT ni rayitos que tanto nos intentan colar ahora por lo que más hard necesitamos


Es que lógicamente una 4060 no es para jugar a 4k, si no a 1080p o 1440p como mucho, pero si luego para jugar en Ultra +1080p lo que te limita es VRAM y toca que bajar settings y no por falta de potencia......

Es de lo que se habla.


El problema es que la gente se cree que por haber gastado 500-600€ en una gráfica puedes jugar a 4k todo a tope

Yo con una 760, 960, 1060, no jugaba con todo a tope a la resolución habitual (1080p)

El otro problema de ahora es la mierda de optimización de los juegos, si los desarrolladores lo hicieran bien no habría problema en jugar a 1080 con todo a tope con estas gamas 60, porque el 1080p de antes es el 1440p de ahora
VíctorXD escribió:Es que lógicamente una 4060 no es para jugar a 4k, si no a 1080p o 1440p como mucho, pero si luego para jugar en Ultra +1080p lo que te limita es VRAM y toca que bajar settings y no por falta de potencia......

Es de lo que se habla.

Exacto. De hecho en 1080p con una GTX 1060 puedes jugar la gran mayoria de juegos en ultra.

Y si miras a lo actual con una RTX 3060 juegas absolutamente a todo en 1080p, con RT.

Las 60 son para 1080p, las 70 para 1440p, las 80 para 4k y las 90 son la gama entusiasta. Es asi de sencillo.

¿Poner al RT en el lote de jugar en uttra? Ultra es una opción de detalle maximo pero el RT nunca va incluida en ella, es una opción a parte debido a lo que perjudica al rendimiento.

Por cierto el Star Wars Jedi: Survivor se nota que ha sido un lanzamiento obligado por los pagadores, Disney mayormente. Parece ser que nadie se ha dado cuenta de las fechas, puesto que en breve es el considerado dia de Star Wars, el 4 de mayo y es normal que hagan anuncios o lanzamiento, por malos que sean.

Asi que alguien en Disney habra dicho antes de navidades posiblemente, "es hora de ganar dinero", lo habran preparado y lo habran sacado, no creais que los juegos salen dos dias antes del PC de los creadores a la venta. :)

Y el caso es que yo siento curiosidad por otra cosa, respawn que se supone son los que crearon ese juego, aunque curiosamente no tuvieron tiempo para ponerlo en su web, tenian un contrato con otra compañia llamada Bit Reactor para hacer un juego dicen de estrategia. Aunque yo creo que con el equipo que lo hace, lo más posible es un juego por turnos de estrategia o un juego tipo Xcom. Una de dos. No creo que sea un RTS.
Casi todo lo que a salido este año pide más de 8gb si lo quieres jugar en ultra, pero nada de 4k esto es ya a 1080p, incluso a 900p, el que no se lo crea que se de una vuelta por techpowerup, así que la milonga de que se va a quedar corta antes por potencia ya no tiene sentido aquí, es engañar a la gente

Pero esto no es decir que ya por eso tengas que tirar tu gpu de 8gb, pero igual de absurdo es decir eso que decir que no pasa nada, aquí lo que hay que hacer es separar el que ya tiene una gpu del que está buscando comprar una, si ya la tienes pues no te vuelvas loco posiblemente te toque ajustar setting pero tampoco es el fin del mundo, en el caso de que te la quieras comprar no seas tonto y tenlo en cuenta

Es tan simple como eso...
Hace un año no deciais eso............y a mi me tachaban de decir falsedades. Pero hace un año ya os lo avisaba y tambien he dicho que el directstorage vendra a hacer este problema más acuciante en vez de mitigarlo. Esperen y vean.
Aqui la cosa es que para el consumidor "normalito", ese que se compra entorno a una X060 cada 4-7 años (Y no digais que ese no es el consumidor normalito porque hay un huevo de peña con la 1060 o similar), es probable que en 2 o 3 años una 3060 de 12gb acabe rindiendole incluso mejor que una 4060 de 8gb, o de forma similar...Y acabaran renovando la grafica mas o menos a la vez porque se les quedara corta mas o menos a la vez. (Cuando, pues sabe dios)

Y eso no deberia pasar, que hay una generacion, 2 años entre ellas... Pero bueno, a veces pasa.


Y al que renueva cada menos...Pues si, renovara antes de que se le quede corta. Pero esos normalmente la venden de segunda mano, no la tiran.
¿Cuanto ha bajado el valor de reventa de una 3080 de 10 gigas? O de las 3070....

Se mire como se mire, las graficas de Nvidia estan perdiendo valor y van a perder valor de forma acelerada por su limitada vram.

Que luego lo de "obsoleto" o no obsoleto pues ya es otro tema, es una palabra muy fuerte y seguro que con una 3080 de 10 gigas dentro de 3 años se puede seguir jugando a todo, pues seguro que si. Pero que rendiria muchisimo mejor si tuviera 16 gigas no creo que lo pueda negar nadie.


Yo soy de esos consumidores normalitos. Tengo una 1070, y efectivamente ya se queda corta hasta para 1080.
Si la 4070 hubiera salido con 16 gigas seguramente se hubiera venido para casa, con 12 gigas, pasando...

Pero Nvidia para que doble mi vram de una grafica de hace 7 años quiere que pague unos 1300/1400 euros (4080)...
Pues no va a pasar xD

De hecho me gustaria saber en que coño pensaban al poner precio a la 4080, me parece mucho mas atractiva la 4090, que hay algun modelo de menos de 1800, es mas potente y tiene 24GB de vram....
Pregunta sería. La última hornada de juegos que han salido que consumen más vram que los de hace un año o dos, lucen mejor?
A mí sinceramente, que la vram de mi tarjeta se quede corta me chupa un pie viendo que gente con el doble o el triple de cantidad tiene igualmente problemas de stuttering, "bajos" fps con CPUs de última hornada con un núcleo ahogado, crashes continuos, etc...
lacenayaesta escribió:Pregunta sería. La última hornada de juegos que han salido que consumen más vram que los de hace un año o dos, lucen mejor?
A mí sinceramente, que la vram de mi tarjeta se quede corta me chupa un pie viendo que gente con el doble o el triple de cantidad tiene igualmente problemas de stuttering, "bajos" fps con CPUs de última hornada con un núcleo ahogado, crashes continuos, etc...


con RT ON en Ultra, sí, se ven mejor
lacenayaesta escribió:Pregunta sería. La última hornada de juegos que han salido que consumen más vram que los de hace un año o dos, lucen mejor?
A mí sinceramente, que la vram de mi tarjeta se quede corta me chupa un pie viendo que gente con el doble o el triple de cantidad tiene igualmente problemas de stuttering, "bajos" fps con CPUs de última hornada con un núcleo ahogado, crashes continuos, etc...


Eso es algo que pienso muchas veces.¿Hay tanta diferencia en como se ve un juego actual puntero gráficamente con otros como RDR2 o el ultimo Tomb raider con unos años a sus espaldas como para doblar o incluso triplicar los requisitos necesarios?Y no hablo solo de VRAM.
Porque en su época para mover Crysis en ultra había que tener un pc de la NASA,pero lo que mostraba en pantalla era muy superior a todo lo existente en el momento.En cambio ves cosas como Howards Legacy o Jedi survivor y dices mmm....si,se ven bién...pero ¿ tanta diferencia con juegos de hace 3 y cuatro años para necesitar un pc más del doble de potente para moverlos?¿O es que cada vez se optimiza menos para pc?
De los crasheos frecuentes,stuttering masivo y demás hablamos otro día si eso XD
Yo lo que digo es que si nos van a mentir por lo menos que se pongan de acuerdo, y que luego esas mentiras se vean refutadas con resultados que la avalen

Que 8gigas se quedan corto incluso para 1080p en 2023?? Vale acepto barco...

Ahora viene NVIDIA/and y nos sacan GPUs actuales enfocadas a 1080 y con 8 gigas de VRAM XD XD

Luego vemos las 4080/4090, 7900 xt/xtx, con. Vram de sobra, y que no se libran de fallos en esta nueva hornada de juegos, es mas sufren con ellos cuando deberían de poder ejecutarlos con la punta

En fin, que si quieren que todo el mundo se compre una GPU con 16 de VRAM y 1000€ de costo por lo menos que tengan la desencia de demostrar que son necesarios, y que estas gráficas son la solución....por ahora yo no lo veo así

Que se dediquen a optimizar los juegos de una manera correcta y no que piensen que lo que ellos se van a ahorrar de costo lo tenemos que asumir los consumidores con hardware sobredimensionado
parh escribió:
lacenayaesta escribió:Pregunta sería. La última hornada de juegos que han salido que consumen más vram que los de hace un año o dos, lucen mejor?
A mí sinceramente, que la vram de mi tarjeta se quede corta me chupa un pie viendo que gente con el doble o el triple de cantidad tiene igualmente problemas de stuttering, "bajos" fps con CPUs de última hornada con un núcleo ahogado, crashes continuos, etc...


con RT ON en Ultra, sí, se ven mejor


En mi caso personal la verdad es que hay pocos juegos que vea mejor con el RT activado que con el mismo desactivado.

Tengo una 3070, y hasta hace poco jugaba a 1080p (ahora ya di el salto a los 1440p) y recuerdo que Marvel Guardianes de la Galaxia lo veía mejor sin el RT con todo en ultra que con él activado. Me pasa lo contrario con el Doom Eternal, lo veo bastante mejor con el RT activado.
Modifican RTX 3060 de 8gb para ponerle 12gb:

https://youtu.be/2XNolRHVFOE

En las pruebas, la GPU vio limitado su Power Limit al 100% y se configuró a mano la velocidad de los ventiladores. Con esto se permite no añadir ningún cuello de botella adicional, y que entre las pruebas no hubieran discrepancias. Es decir, que se mostrara únicamente la diferencia de pasar de tener 8 a 12 GB de VRAM.

El resultado de la prueba fue impresionante. El Unigine Superposition configurado a una resolución 1080p en calidad Extrema, pasó de ofrecer 4.235 puntos a 5.196 puntos, esto es una mejora del 22%. En FPS, pasamos de unos FPS mínimos de 25,17 a 30,30 FPS. Los FPS de media pasaron de 31,68 a 38,87 FPS, mientras que el pico de máximo rendimiento pasó de 37,27 a 47,28 FPS.

De esta forma, sí, ha tenido que venir Epic Games y dar un aviso para que todo el mundo se tome en serio comprar una GPU con 8 GB de VRAM en pleno 2023.

https://elchapuzasinformatico.com/2023/ ... 2-gb-vram/

Decir que Nvidia lleva años racaneando vram. Más de 10 al menos. Encima los modelos que podían durar más, costaban un ojo de la cara, o eran modelos que salieron después.




dicker31 escribió:
lacenayaesta escribió:Pregunta sería. La última hornada de juegos que han salido que consumen más vram que los de hace un año o dos, lucen mejor?
A mí sinceramente, que la vram de mi tarjeta se quede corta me chupa un pie viendo que gente con el doble o el triple de cantidad tiene igualmente problemas de stuttering, "bajos" fps con CPUs de última hornada con un núcleo ahogado, crashes continuos, etc...


Eso es algo que pienso muchas veces.¿Hay tanta diferencia en como se ve un juego actual puntero gráficamente con otros como RDR2 o el ultimo Tomb raider con unos años a sus espaldas como para doblar o incluso triplicar los requisitos necesarios?Y no hablo solo de VRAM.
Porque en su época para mover Crysis en ultra había que tener un pc de la NASA,pero lo que mostraba en pantalla era muy superior a todo lo existente en el momento.En cambio ves cosas como Howards Legacy o Jedi survivor y dices mmm....si,se ven bién...pero ¿ tanta diferencia con juegos de hace 3 y cuatro años para necesitar un pc más del doble de potente para moverlos?¿O es que cada vez se optimiza menos para pc?
De los crasheos frecuentes,stuttering masivo y demás hablamos otro día si eso XD


Por mi experiencia no. Para que se vea algo mejor, los requisitos aumentan exponencialmente. Cada vez cuesta más notar cambios gordos y lo que pide para eso no suele estar justificado.

Pongo un ejemplo claro. Crysis 3. Juego lanzando en febrero del 2013. El juego se veía bastante mejor que en consolas y se podía jugar con gráficas de de 1gb de vram. Incluso con tarjetas tipo HD 5000 bastante bien, a pesar de ser malas en dx11.

Imagen

Al año empezaron a salir juegos ya porteados de xbox one y ps4. Por ejemplo estos:

Imagen

Imagen

Imagen

Pues ya pedían más requisitos que el crysis 3 y podríamos decir que juegan en la misma liga. Con las nuevas consolas con 8gb de memoria unificada, empezaron a pedir mucho más en texturas. Ya los juegos empezaron a ocupar mucho más. De ocupar entre 10-20gb de media, a que más de 30gb fueran habituales (ahora ya ocupan 150gb). Eso sin contar que para jugar a 60 fps, requerías mucha potencia y también subieron los requisitos de cpu y de ram. Con el crysis3 se podía jugar con 4gb de ram y ya después 8gb ya empezaba a quedar algo justo.

Con el hardware que se podía jugar al crysis 3 más o menos bien, al año te comías los mocos y tampoco es que fuera un cambio de la noche al día.
Al final todos los usuarios de RX 6600/XT , RX 5700 XT, RTX 3060 Ti y RTX 3070/Ti vamos a tener que aprender como cambiar los chip de memoria y el que sea valiente que lo intente🤣🤣🤣

Sin olvidar la RTX 2070 y 2080 Super que rinden muy bien para 1080.
Yo creo que hay poner estas declaraciones en su contexto. Lo mismo para los triple A actuales/futuros 8 Gb se queda corto pero seguirá habiendo centenaras de juegos de iran bien con 8Gb y en muchos casos grandisimos juegos y mas divertidos. Incluso los triple A bajando a High o Medium tirarán con honor. Si hace suttering de vez en cuando no será tampoco un drama que lo mismo no es por la falta de VRAM si no por la pesima optimizacion que nos tienen acostumbrados.

Yo hasta hace dos años tenia la 970 de 3,5Gb y me hice el Horizon Zero Dawn entre otros. Vale que no iba a 120 fps pero lo disfruté igual. Si en 2015 cuando la compré me dicen que jugaria al Horizon Zero Dawn, no me lo creo. De todas maneras, y para los nuevos compradores de GPU lo suyo es ya invertir en 12/16 segun resolucion sin duda si tienes vistas a los triple A.
esami escribió:Yo creo que hay poner estas declaraciones en su contexto. Lo mismo para los triple A actuales/futuros 8 Gb se queda corto pero seguirá habiendo centenaras de juegos de iran bien con 8Gb y en muchos casos grandisimos juegos y mas divertidos. Incluso los triple A bajando a High o Medium tirarán con honor. Si hace suttering de vez en cuando no será tampoco un drama que lo mismo no es por la falta de VRAM si no por la pesima optimizacion que nos tienen acostumbrados.

Yo hasta hace dos años tenia la 970 de 3,5Gb y me hice el Horizon Zero Dawn entre otros. Vale que no iba a 120 fps pero lo disfruté igual. Si en 2015 cuando la compré me dicen que jugaria al Horizon Zero Dawn, no me lo creo. De todas maneras, y para los nuevos compradores de GPU lo suyo es ya invertir en 12/16 segun resolucion sin duda si tienes vistas a los triple A.

Y se pone en contexto, una 970 no costaba ni la mitad que algunas de las graficas de 8GB actuales. Quizas ese sea el punto de los fabricantes, hacer que tengas que pagar más para jugar muy bien a los titulos más conocidos, que no por ello mejores.
Nomada_Firefox escribió:Hace un año no deciais eso............y a mi me tachaban de decir falsedades. Pero hace un año ya os lo avisaba y tambien he dicho que el directstorage vendra a hacer este problema más acuciante en vez de mitigarlo. Esperen y vean.

hilo_arrojando-un-poco-de-verdad-es-un-timo-un-pc-respecto-a-las-consolas_2431524#p1751686224
(mensaje borrado)
katatsumuri escribió:
Nomada_Firefox escribió:Hace un año no deciais eso............y a mi me tachaban de decir falsedades. Pero hace un año ya os lo avisaba y tambien he dicho que el directstorage vendra a hacer este problema más acuciante en vez de mitigarlo. Esperen y vean.

hilo_arrojando-un-poco-de-verdad-es-un-timo-un-pc-respecto-a-las-consolas_2431524#p1751686224


pues, sí, acertaste de pleno, y seguro te habran tachado de "asusta-viejas"
Es que es lo que sois. Para justificar vuestra opinión, os estáis agarrando como un clavo ardiendo a títulos con serios problemas en muchos aspectos.
Es gracioso ver a gente dar la matraca con el tema de la vram, mientras defienden la compra de CPUs que se ahogan en los mismos títulos. Pero ahí sí que es cosa de que el juego está mal, porque mi compra es la más sensata ;p
Lo de la vram ya lo avisaba yo hace dos años ;p
lacenayaesta escribió:Es que es lo que sois. Para justificar vuestra opinión, os estáis agarrando como un clavo ardiendo a títulos con serios problemas en muchos aspectos.
Es gracioso ver a gente dar la matraca con el tema de la vram, mientras defienden la compra de CPUs que se ahogan en los mismos títulos. Pero ahí sí que es cosa de que el juego está mal, porque mi compra es la más sensata ;p
Lo de la vram ya lo avisaba yo hace dos años ;p


Realmente piensas que la situación va a mejorar y los devs van a perder tiempo en optimizar el consumo de vram en pc cuando los juegos se desarrollan en base a las consolas que disponen de 16gb de vram ?(Y ojo que el año que viene salen las versiones pro )

Muy esperanzado te veo...
parh escribió:
lacenayaesta escribió:Es que es lo que sois. Para justificar vuestra opinión, os estáis agarrando como un clavo ardiendo a títulos con serios problemas en muchos aspectos.
Es gracioso ver a gente dar la matraca con el tema de la vram, mientras defienden la compra de CPUs que se ahogan en los mismos títulos. Pero ahí sí que es cosa de que el juego está mal, porque mi compra es la más sensata ;p
Lo de la vram ya lo avisaba yo hace dos años ;p


Realmente piensas que la situación va a mejorar y los devs van a perder tiempo en optimizar el consumo de vram en pc cuando los juegos se desarrollan en base a las consolas que disponen de 16gb de vram ?(Y ojo que el año que viene salen las versiones pro )

Muy esperanzado te veo...

De esperanzado nada. Al revés, muy preocupado por como han salido casi todos los lanzamientos AAA de este año. La misma preocupación que deberías tener tu aún teniendo una gráfica con 24gb.

Y dos años y medio llevan ya las consolas en el mercado, y hasta ahora nadie había dicho nada de su ram.
Me pregunto si en el hilo de Xbox estarán diciendo que por culpa de la cantidad de esta se tienen que comer el redfall como se lo tienen que comer.

Yo estaría encantado de la vida si los juegos salieran puliditos y solo tuviera que bajar la calidad de las texturas a medio para que no fuera a pedos, pero me temo que ese no es el problema por ahora.
lacenayaesta escribió:
parh escribió:
lacenayaesta escribió:Es que es lo que sois. Para justificar vuestra opinión, os estáis agarrando como un clavo ardiendo a títulos con serios problemas en muchos aspectos.
Es gracioso ver a gente dar la matraca con el tema de la vram, mientras defienden la compra de CPUs que se ahogan en los mismos títulos. Pero ahí sí que es cosa de que el juego está mal, porque mi compra es la más sensata ;p
Lo de la vram ya lo avisaba yo hace dos años ;p


Realmente piensas que la situación va a mejorar y los devs van a perder tiempo en optimizar el consumo de vram en pc cuando los juegos se desarrollan en base a las consolas que disponen de 16gb de vram ?(Y ojo que el año que viene salen las versiones pro )

Muy esperanzado te veo...

De esperanzado nada. Al revés, muy preocupado por como han salido casi todos los lanzamientos AAA de este año. La misma preocupación que deberías tener tu aún teniendo una gráfica con 24gb.

Y dos años y medio llevan ya las consolas en el mercado, y hasta ahora nadie había dicho nada de su ram.
Me pregunto si en el hilo de Xbox estarán diciendo que por culpa de la cantidad de esta se tienen que comer el redfall como se lo tienen que comer.

Yo estaría encantado de la vida si los juegos salieran puliditos y solo tuviera que bajar la calidad de las texturas a medio para que no fuera a pedos, pero me temo que ese no es el problema por ahora.


Lo único que haces es quejarte de cosas que no tienen nada que ver aquí, poniendo ejemplos que no tienen ningún sentido y totalmente surrealistas, por que anda que comparar que una cpu actual de 600 pavos vaya mal en un juego con que se gaste más de 8gb de vram, evidentemente lo primero es cosa del juego y lo otro no tiene por qué, ¿entonces que pasa todo lo que supere 5gb de vram esta mal optimizado?...

Encima hablas de agarrarse a un clavo ardiendo dando a entender que esos juegos es rarisimo que salgan, cuando últimamente es sumamente habitual y cada vez pasa más, aquí el que se agarra a un clavo ardiendo eres tu creyendo que está situación va a mejorar en el futuro

Si te da igual bajar la calidad a medio por falta de vram en tu gpu pues muy bien, a otros no, lo demás son acusaciones sin sentido y temas que no tienen nada que ver aqui
lacenayaesta escribió:Y dos años y medio llevan ya las consolas en el mercado, y hasta ahora nadie había dicho nada de su ram.

El caso es que en las consolas la memoria esta unificada, asi que lo usan para los graficos, lo usan para el resto y son 16GB de GDDR6. Con ese plan es muy dificil hacer calculos de cuanto se usa para una cosa y que relación hay con como funcionaran los juegos en PC.
Ayer probe la demo del RE4 y a 1440p todo a tope con ray bajado a normal y FsR2 en calidad en una 3060 me iba a casi constantes 60 fps pero la vram subia a mas de 10gb en exterior sobre todo,creo que la llegue a ver a 10,5gb de pico

Lo comento por lo de que si antes se queda corta de potencia que de Vram…
chris76 escribió:Ayer probe la demo del RE4 y a 1440p todo a tope con ray bajado a normal y FsR2 en calidad en una 3060 me iba a casi constantes 60 fps pero la vram subia a mas de 10gb en exterior sobre todo,creo que la llegue a ver a 10,5gb de pico

Pues imaginate en el juego normal cuando alcances situaciones de muchos objetos en pantalla, sobretodo cosas que se muevan, en esas situaciones, es muy posible que se sufran microtirones al cambiar la vista de dirección.
chris76 escribió:Ayer probe la demo del RE4 y a 1440p todo a tope con ray bajado a normal y FsR2 en calidad en una 3060 me iba a casi constantes 60 fps pero la vram subia a mas de 10gb en exterior sobre todo,creo que la llegue a ver a 10,5gb de pico

Lo comento por lo de que si antes se queda corta de potencia que de Vram…


Ahí está el problema, que con una gráfica que no llega a gama media (380€) se quiere jugar a 1440p todo a tope con RT a más de 60 fps
chris76 escribió:Ayer probe la demo del RE4 y a 1440p todo a tope con ray bajado a normal y FsR2 en calidad en una 3060 me iba a casi constantes 60 fps pero la vram subia a mas de 10gb en exterior sobre todo,creo que la llegue a ver a 10,5gb de pico

Lo comento por lo de que si antes se queda corta de potencia que de Vram…

Pásame los settings exactos y la pruebo con la 3060ti, a ver si han resuelto lo de que crashease con 8gb de vram con el rt activado (que sin el rt activado se lo ha pasado sin problema mi pareja con una vega 64) y podemos comparar.

Edito: Minipunto para el equipo de las asustaviejas. La demo me crashea si activo el rt a 2560x1440. Con todo lo demás a tope (incluidas texturas) entre 55 y 60 fps bastante finos (he jugado hasta que sale el pavo ese de la sierra, no se si luego sufrirá más).
De todas formas, esta tarde me instalo el juego completo y vuelvo a probar.
ivan95 escribió:




Que dice el brasileiro?
@PHANTASIA básicamente dice q "Dobrei a memória de um 5600XT e virou um 4070ti cheio de vitaminas."
@lacenayaesta sino recuerdo mal en ajustes cojes predefinidos al maximo y luejo baja RT a normal y el FSR2 en calidad,me va a entre 60 y 50 i pico como mínimo

Yo viendo el tema como se está poniendo estoy contento con el rendimiento que da mi 3060 de 12gb para ser una gama media
chris76 escribió:@lacenayaesta sino recuerdo mal en ajustes cojes predefinidos al maximo y luejo baja RT a normal y el FSR2 en calidad,me va a entre 60 y 50 i pico como mínimo

Yo viendo el tema como se está poniendo estoy contento con el rendimiento que da mi 3060 de 12gb para ser una gama media

La clave es que a ti no te peta con el rt, porque por el resto, la demo (y el juego) tira perfectamente con 8gb de VRAM por mucho que estime un uso de casi 12.

De todas formas, entiendo que la demo es la misma que sacaron prelanzamiento y que no ha recibido parches. A ver si con el juego completo y actualizado también sigue petando (porque de salida, menos en 1080p, ya sabía que pasaba). Si es así, mantengo el minipunto porque por lo demás es un juego sin demasiados problemas.
La solución de Nvidia para estirar bien sus gráficas. Un bus de 128bits y los mismos 8gb de vram. Estos han renombrado la RTX 4050 como 460 ti y se quedan tan panchos. [poraki]

Lo peor es que en Europa los precios se traducirán en 500€ de media.
Duendeverde escribió:La solución de Nvidia para estirar bien sus gráficas. Un bus de 128bits y los mismos 8gb de vram. Estos han renombrado la RTX 4050 como 460 ti y se quedan tan panchos. [poraki]

Lo peor es que en Europa los precios se traducirán en 500€ de media.

A ver si las ventas acompañan o no. Nvidia solo entiende si le dan en la billetera
Duendeverde escribió:La solución de Nvidia para estirar bien sus gráficas. Un bus de 128bits y los mismos 8gb de vram. Estos han renombrado la RTX 4050 como 460 ti y se quedan tan panchos. [poraki]

Lo peor es que en Europa los precios se traducirán en 500€ de media.

Me parece barata, piensa que esta gráfica rendirá de forma similar a una RTX3070ti y costando solo 500€. Si ir más lejos la RTX3070ti cuesta cerca de 700€.
Chaquetero está baneado por "troll"
spaizor6 escribió:
Duendeverde escribió:La solución de Nvidia para estirar bien sus gráficas. Un bus de 128bits y los mismos 8gb de vram. Estos han renombrado la RTX 4050 como 460 ti y se quedan tan panchos. [poraki]

Lo peor es que en Europa los precios se traducirán en 500€ de media.

Me parece barata, piensa que esta gráfica rendirá de forma similar a una RTX3070ti y costando solo 500€. Si ir más lejos la RTX3070ti cuesta cerca de 700€.


Ni de coña, apenas superará a la 3060ti con ese bus y recortada a x8.

Que la gente no se entere cuando Nvidia os está gritando a la cara con sus actos que no quiere vender GPUs de gama baja es acojonante. 4090= 90% de mejora respecto a la 3090. 4080= 50% de mejora respecto a 3080. 4070=25% de mejora respecto a 3070. Esto no ha pasado nunca y la gente no se entera de nada.

Huelga decir que siguiendo esa progresión matemática la 4060ti va a rendir como mucho un 12% más que la 3060ti. Y ya veremos porque en escenarios demandantes ese bus se va a ahogar a lo bestia.
Chaquetero escribió:
spaizor6 escribió:
Duendeverde escribió:La solución de Nvidia para estirar bien sus gráficas. Un bus de 128bits y los mismos 8gb de vram. Estos han renombrado la RTX 4050 como 460 ti y se quedan tan panchos. [poraki]

Lo peor es que en Europa los precios se traducirán en 500€ de media.

Me parece barata, piensa que esta gráfica rendirá de forma similar a una RTX3070ti y costando solo 500€. Si ir más lejos la RTX3070ti cuesta cerca de 700€.


Ni de coña, apenas superará a la 3060ti con ese bus y recortada a x8.

Que la gente no se entere cuando Nvidia os está gritando a la cara con sus actos que no quiere vender GPUs de gama baja es acojonante. 4090= 90% de mejora respecto a la 3090. 4080= 50% de mejora respecto a 3080. 4070=25% de mejora respecto a 3070. Esto no ha pasado nunca y la gente no se entera de nada.

Huelga decir que siguiendo esa progresión matemática la 4060ti va a rendir como mucho un 12% más que la 3060ti. Y ya veremos porque en escenarios demandantes ese bus se va a ahogar a lo bestia.


Pero si el bus son los padres! Lo único que importa en una gpu es la cantidad vram, el resto (núcleos, velocidades, bus...) son paparruchas!
Duendeverde escribió:La solución de Nvidia para estirar bien sus gráficas. Un bus de 128bits y los mismos 8gb de vram. Estos han renombrado la RTX 4050 como 460 ti y se quedan tan panchos. [poraki]

Lo peor es que en Europa los precios se traducirán en 500€ de media.


Tampoco es de extrañar, la 4070 TI (que lo de TI le sobra🤣🤣🤣) se llamaba 4080 en su dia....

Para esta generacion nos vieron cara de tontos a todos y la unica que merece la pena aunque es carisima es la 4090, a partir de esa es reirse en la cara de sus consumidores y como la competencia, tampoco esta sacando algo que la supere, pues estamos un poco en el lodo😅
628 respuestas