Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

1, 2, 3, 4, 513
Aquí uno con una RTX 3070 y con 0 intenciones de cambiarla. Me preocupa poco / nada que los juegos necesiten más VRAM para jugar en ultra. Tan sencillo como bajar un poco los gráficos y listo, además, sinceramente me cuesta muchísimo ver las diferencias entre distintos presets gráficos mientras juego xD. Así mismo, no suelo jugar nunca a nuevos recientes, ya que son caros y encima suelen venir mal optimizados. Es más, ahora mismo estoy con el Portal 2 y el Nier Autómata, y me pasé hace poco los Ori xD, vamos que la 3070 mueve sobradisimos esos 4 juegos.

Que le den a Epic y Nvidia, con la RTX3070 hasta que reviente, y como les dé a los programadores de los juegos por no optimizar sus juegos, pues habrá que recompensarles jugando sus juegos por métodos...
@Nomada_Firefox es que no es el juego... son filtros... los podrás usar en cualquier juego como los han usado sobre unreal engine con metahuman, da igual que sea un juego del 2023 que del 2005
spaizor6 escribió: además, sinceramente me cuesta muchísimo ver las diferencias entre distintos presets gráficos mientras juego xD.


Y ese es un punto clave que no debemos obviar. Ver los niveles de detalle en fotos estáticas o videos de youtube, donde simplemente te recreas, es una cosa. Pero percibir ese detalle mientras juegas...como que estoy pendiente de la partida, no de si el árbol de turno se ha generado con 2000 hojas en vez de con "solo" 1000 ¬_¬
Nomada_Firefox escribió:Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.


Assetto Corsa (el original, el que salió en 2013 en early access en PC, el que desarrollaron una docena de personas con motor propio en 2011...) consigue cosas bastante curiosas con un par de reshades y filtros... y lucen bastante realistas.



katatsumuri escribió:@Nomada_Firefox es que no es el juego... son filtros... los podrás usar en cualquier juego como los han usado sobre unreal engine con metahuman, da igual que sea un juego del 2023 que del 2005

Filtros para algo que no fue pensado para ellos, ya puedo decir lo que sucedera. Y habra algun juego que si pero mi confianza en filtros.......los filtros son como yo cuando edito 2000 texturas de una tacada con las acciones de photoshop. Al final tengo que ir una por una detenidamente y los filtros solo me sirvieron para encontrar los modelos que necesitaban más curro de modo más rapido. :)

Como dije arribe, avisenme cuando suceda. En cualquier caso a mi me gustan los juegos de mundos ficticios, asi que no quiero ver nada como el mundo real. XD
VíctorXD está baneado por "clon de usuario baneado"
Este video los puse en hilo te TLOU, pero viendo este hilo parece más adecuado.

La Consolas (PS5 y series X) tiene reservada 10GB VRAM por lo cual por lógica los 8GB esta obsoletos para los próximos juegos, pero es que en algunos juegos actuales ya se comienzan a quedar sin VRAM.

Comprar GPU de 8GB ya no es recomendable,, creo que lo mínimo deben ser 12GB para 1080p y 1440p y 16GB para 4k, lo óptimo 16GB para 1080p y 1440p y 20GB o mas para 4k, asi que creo que Epic está en lo correcto.

Nomada_Firefox escribió:
katatsumuri escribió:@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.








El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.

Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.

Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.


Hombre, es que jugando en settings medios-bajos y rt off normal que no veas los juegos en todo su esplendor y fotorrealismo
KindapearHD escribió:Eso estoy haciendo y justamente pagando 1.800€ por una 4090, porque es la única que va a valer de aquí a un par d años. Porque claro, 8Gb va a estar obsoleto por lo que los 12, será el mínimo mínimo. Pero por si acaso me voy a 24, no vaya a ser que salga el The last of us 2 y, aunque sea de 2020, te pida 18Gb de vram.


Ríete, has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.

A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.
flo79 escribió:has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.

A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.

Mirandolo asi, es logico ahorrar y comprar algo superior a las 4070. Por eso la 4090. El problema es que la 90 ha bajado y la 80 ha subido. Y para pagar 1329€ por una 80, ya puestos pagar 1759 por una 4090. Son 430€, pero se supone que si podias pagar 1329, no eres una persona corta de dineros.

Y sí, con los aplausos de la gente, aunque sea solo por el rendimiento, esta claro que las RTX 50 costaran más.

Respecto a 4070Ti, pues ahora la más barata ronda los 900€. Y para 1080p/1440p sera excelente. Tampoco lo veo como dice flo79 porque aunque pagases 1000, de 1000 a 2000 hay 1000€, es mucho dinero.

No puedes ir por la vida diciendo que es más inteligente la 90 porque cuesta poco más cuando no es asi. Poco más fue cuando yo compre la RX 6700XT y Pacorr me dijo que comprase la RX 6800, eso eran menos de 100€ de diferencia y eso era poco más. 1000 no es poco más.
flo79 escribió:
KindapearHD escribió:Eso estoy haciendo y justamente pagando 1.800€ por una 4090, porque es la única que va a valer de aquí a un par d años. Porque claro, 8Gb va a estar obsoleto por lo que los 12, será el mínimo mínimo. Pero por si acaso me voy a 24, no vaya a ser que salga el The last of us 2 y, aunque sea de 2020, te pida 18Gb de vram.


Ríete, has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.

A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.



Me rio si, aunque no estoy de acuerdo con los precios, esto no deja de ser un hobby, no una necesidad. Siempre puedes no comprar nada y aficionarte a otras cosas más baratas o comprarte una series S.

Y si, 3a gpu nueva que me compro tras la 970 y la rtx2060.
En serio, antes de q 12Gb de vram se queden cortos ya habremos cambiado la GPU por el simple ánimo del cacharreo, incluidos los q ahora tienen una GPU de 24GB de vram. Además de q lo importante es la jugabilidad, no la ultritis. Disfruten.
Nomada_Firefox escribió:
flo79 escribió:has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.

A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.

Mirandolo asi, es logico ahorrar y comprar algo superior a las 4070. Por eso la 4090. El problema es que la 90 ha bajado y la 80 ha subido. Y para pagar 1329€ por una 80, ya puestos pagar 1759 por una 4090. Son 430€, pero se supone que si podias pagar 1329, no eres una persona corta de dineros.

Y sí, con los aplausos de la gente, aunque sea solo por el rendimiento, esta claro que las RTX 50 costaran más.

Respecto a 4070Ti, pues ahora la más barata ronda los 900€. Y para 1080p/1440p sera excelente. Tampoco lo veo como dice flo79 porque aunque pagases 1000, de 1000 a 2000 hay 1000€, es mucho dinero.

No puedes ir por la vida diciendo que es más inteligente la 90 porque cuesta poco más cuando no es asi. Poco más fue cuando yo compre la RX 6700XT y Pacorr me dijo que comprase la RX 6800, eso eran menos de 100€ de diferencia y eso era poco más. 1000 no es poco más.

Ambas compras son parejas, lo que te pida el chorizo del chino con su monopolio. Pero por lo menos con la 90 llegas a todo, dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.
flo79 escribió: dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.

Bueno...........yo no diria que esta capada para 4k ¿acaso la 3070 valia para 4k? era una grafica de 1440, igual que lo sigue siendo la 4070.
Lo q hay son gráficas de más a menos potentes, y juegos de más a menos optimizados. Con la 4070ti se puede jugar perfectamente a doom eternal a 4k/60fps RT on.
Nomada_Firefox escribió:
flo79 escribió: dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.

Bueno...........yo no diria que esta capada para 4k ¿acaso la 3070 valia para 4k? era una grafica de 1440, igual que lo sigue siendo la 4070.


Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.
Pues precisamente donde merece la pena la 4070ti es en 1440p, de ahí que personas como yo, la hayamos comprado. Yo me he gastado casi mil euros en una gpu y no me interesa el 4k. Y vengo de 2 3090, 3080ti y 3080 a secas. Y con la 4070ti tengo más rendimiento en 1440p, consume menos, se calienta menos (y menos sonoridad de ventiladores) y al final, es eso lo que me interesa. Incluso aunque el cambio fuera un solo 1% de mejora. Y hablo solamente para gaming y en 1440p. En cualquier otro escenario, hubiera elegido otra cosa.
flo79 escribió:
Nomada_Firefox escribió:
flo79 escribió:has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.

A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.

Mirandolo asi, es logico ahorrar y comprar algo superior a las 4070. Por eso la 4090. El problema es que la 90 ha bajado y la 80 ha subido. Y para pagar 1329€ por una 80, ya puestos pagar 1759 por una 4090. Son 430€, pero se supone que si podias pagar 1329, no eres una persona corta de dineros.

Y sí, con los aplausos de la gente, aunque sea solo por el rendimiento, esta claro que las RTX 50 costaran más.

Respecto a 4070Ti, pues ahora la más barata ronda los 900€. Y para 1080p/1440p sera excelente. Tampoco lo veo como dice flo79 porque aunque pagases 1000, de 1000 a 2000 hay 1000€, es mucho dinero.

No puedes ir por la vida diciendo que es más inteligente la 90 porque cuesta poco más cuando no es asi. Poco más fue cuando yo compre la RX 6700XT y Pacorr me dijo que comprase la RX 6800, eso eran menos de 100€ de diferencia y eso era poco más. 1000 no es poco más.

Ambas compras son parejas, lo que te pida el chorizo del chino con su monopolio. Pero por lo menos con la 90 llegas a todo, dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.


Que tipo de capado tiene a 4k?
flo79 escribió:Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.

Bueno eso ya no es tema de dineros. Que la nueva generación de Nvidia es carisima, sí, y ya lo era la anterior generación.

Pero el caso es que nos liamos con el tema economico y perdemos el tecnologico.

Y si pagas lo que cuesta, es que lo tienes y te gusta. No es como tu dices, eso es un hecho consumado.

Y tambien es otro hecho consumado que las graficas de AMD no cuestan tan caras porque no estan al mismo nivel y como no estan al mismo nivel, tienen que ofrecer cosas como más Vram.

En la misma cara de la moneda, Nvidia lo sabe y se aprovecha de los usarios metiendo menos Vram y vendiendolas el doble de caras. Es asi.
Nomada_Firefox escribió:
flo79 escribió:Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.

Bueno eso ya no es tema de dineros. Que la nueva generación de Nvidia es carisima, sí, y ya lo era la anterior generación.

Pero el caso es que nos liamos con el tema economico y perdemos el tecnologico.

Y si pagas lo que cuesta, es que lo tienes y te gusta. No es como tu dices, eso es un hecho consumado.

Y tambien es otro hecho consumado que las graficas de AMD no cuestan tan caras porque no estan al mismo nivel y como no estan al mismo nivel, tienen que ofrecer cosas como más Vram.

En la misma cara de la moneda, Nvidia lo sabe y se aprovecha de los usarios metiendo menos Vram y vendiendolas el doble de caras. Es asi.

Pero de que nivel estamos hablando? Si los desarrolladores ya están diciendo que las gpus con 8gb están obsoletas. Osea que el mínimo aceptable son 10 o 12, osea 900€ euros si quieres ir a una nvidia.

Ya te están diciendo que la 4060 con 8gb nacerá muerta, y las 4070 van justas hoy. Me da igual que el juego te traquetee por falta de potencia bruta o por falta de vram.

La gente aquí no se pilla la 4070 ti para tirar renders, esos van a otros foros y ellos sabrán, aquí la gente la compra para jugar al Howard's, al Plague...
A mi era lo que menos me gustaba de las RTX, la siguiente sera la 3080, le quedan dos telediarios para que le pase lo mismo que a la 3070/3070Ti.
Sí, ya mismito están los estudios haciendo inutilizables las gráficas del 85% de jugadores de Steam que cuentan con 8 GB o menos, porque prefieren que AMD o Nvidia vendan gráficas a que ellos vendan juegos. Lo veo, sí.
Un juego muy demandante, siempre se puede ajustar con los settings, según gusto y resolución, para todo lo demás PC Gaming Wiki.
Otra asunto diferente son los juegos rotos, y ya se sabe cuales son, mucho antes de que salgan, viendo requisitos mínimos y recomendados super inflados, mala fama del estudio, motores que no están optimizados etc.
Lo malo, es que cierto motor, se haga con el monopolio para cierto target específico, entonces ahí nos dan por todos los lados, porque los propietarios de dicho motor, tienen al juego multiplayer online más popular y no tira a tope en 4k ni con la mejor gráfica.
También habría que analizar si DLSS es realmente un valor añadido en la marca Nvidia, o nos han colado una estafa morronguera con procedimientos de super sampling como en las consolas. Una gráfica como la 4090, debería de rendir por encima de 60 fps, en todos los juegos, a calidad máxima, en 4k sin necesidad de trucos de prestidigitador como el DLSS, que aparte genera latencia si o si, según tengo entendido.

Pd: No he visto todavía ningún juego que ponga en aprietos a la 3090 en cuanto a su VRAM, asi que en tarjetas tochas tampoco es que se utilice demasiado para gaming (más de 12 gb) o al menos yo, en 3440x1440 no he visto ningún título que lo haga.
flo79 escribió:
Nomada_Firefox escribió:
flo79 escribió:Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.

Bueno eso ya no es tema de dineros. Que la nueva generación de Nvidia es carisima, sí, y ya lo era la anterior generación.

Pero el caso es que nos liamos con el tema economico y perdemos el tecnologico.

Y si pagas lo que cuesta, es que lo tienes y te gusta. No es como tu dices, eso es un hecho consumado.

Y tambien es otro hecho consumado que las graficas de AMD no cuestan tan caras porque no estan al mismo nivel y como no estan al mismo nivel, tienen que ofrecer cosas como más Vram.

En la misma cara de la moneda, Nvidia lo sabe y se aprovecha de los usarios metiendo menos Vram y vendiendolas el doble de caras. Es asi.

Pero de que nivel estamos hablando? Si los desarrolladores ya están diciendo que las gpus con 8gb están obsoletas. Osea que el mínimo aceptable son 10 o 12, osea 900€ euros si quieres ir a una nvidia.

Ya te están diciendo que la 4060 con 8gb nacerá muerta, y las 4070 van justas hoy. Me da igual que el juego te traquetee por falta de potencia bruta o por falta de vram.

La gente aquí no se pilla la 4070 ti para tirar renders, esos van a otros foros y ellos sabrán, aquí la gente la compra para jugar al Howard's, al Plague...


Eso de OBSOLETAS es no poder jugar a todo en ULTRA con RT activado y sin DLSS o como va eso de obsoletas?



Y ahora que veo el vidrio de @Ilichsoviet , la 4090 está al límite, llorando por las esquinas de uso, lleva un 13900k y entre los dos consumen 350+85 = 435W + pongamos tirando a alto 100w mas para el resto y redondeando son 550w, pero por aquí no se decía que ni con fuentes de 850w bastaban para las 4090?
Mamadú está baneado por "Troll"
elrocho escribió:Otra alternativa es bajarse del carro y que se lo coman con patatas, las gráficas y los juegos.

Yo últimamente disfruto de juegos indie, con menos pretensiones gráficas y jugabilidad que me engancha.


Justo vebia a decir lo mismo, la alternativa es pillar una xbox series s o x y jugar a todo durante años sin preocuparte
Otra alternativa es mirar a la competencia, que si ofrece soluciones con cantidades adecuadas de VRAM.

Que no solo existe Nvidia e Intel vendiendo hardware.


https://elchapuzasinformatico.com/2023/04/amd-nvidia-gpu-vram/
Prop Joe escribió:Sí, ya mismito están los estudios haciendo inutilizables las gráficas del 85% de jugadores de Steam que cuentan con 8 GB o menos, porque prefieren que AMD o Nvidia vendan gráficas a que ellos vendan juegos. Lo veo, sí.

Para eso existen los niveles de calidad. La cuestión es si te gustaria gastarte 600€ en una grafica y tener que bajar el detalle.

flo79 escribió:Pero de que nivel estamos hablando? Si los desarrolladores ya están diciendo que las gpus con 8gb están obsoletas. Osea que el mínimo aceptable son 10 o 12, osea 900€ euros si quieres ir a una nvidia.

Esto no tiene nada que ver con lo que yo he dicho. Yo no discuto que las Nvidia sean demasiado caras.

Lo de Nvidia y los precios, me recuerda una panaderia de enfrente mi casa. El caso es que antes de bajar el iva del pan, vendia una baguette de pan congelado a 75 centimos y cuando han bajado el iva, sigue vendiendolas a 75 centimos. Y del mismo modo una baguette de pan bueno, en otro sitio donde si aplican el descuento, cuesta 58 centimos, fijense en el tongo. Pues lo mismo sucede con Nvidia y AMD. Es una cuestión de costes, sabor, clientes que siguen tragando con eso, y asi Nvidia se las ingenia para seguir vendiendo a precio de tiempos de mineria.

Tambien podriamos pensar que TSMC seguramente no haga el mismo precio a Nvidia que hace a AMD que fabrica todas las obleas en su fabrica y lo ha hecho durante muchos años. Alguien dira que Intel fabrica en TSMC y vende barato en comparación pero tampoco gana dinero [sonrisa]. Asi que seguramente AMD en esto juega con ventaja.

DaNi_0389 escribió:Que no solo existe Nvidia e Intel vendiendo hardware.

Pero Intel no se pasa tanto recortando la vram ¿no? modelos de 8GB, todos tienen. La cuestión es que Nvidia pide un paston por ellos y para los demas son un porron más baratos.
Chaquetero escribió:Estafador estafando al decir que cuidado que viene el lobo con el unreal engine 5, motor con el que no hay ni un AAA anunciado a día de hoy, más que demos técnicas engañabobos como lleva pasando desde la del samaritano del 2005. Unreal engine CINCO, ha habido cuatro iteraciones antes de estos vendehumos asustaviejas y aquí estamos.

1° Nvidia lleva estafando a todo el mundo desde las rtx 2000. No ha subido la VRAM de sus gráficas en 7 años.

2° No hay ni habrá juegos "Next generation" a corto plazo, la gente está acomplejandose por un chorriport de un chorrijuegos de PS3 que apenas lleva un lavado de cara, cyberpunk o rdr2, o requiem, o el propio days gone son mucho mejores gráficamente y piden mucha menos máquina.

3° Vosotros seguid, seguid comprando GPUs de 1000-2000 euros para jugar a indies de 5 euros del gamepass. Es el SOFTWARE, lo que te tiene que hacer actualizar el HARDWARE, hasta que no saquen videojuegos que lo merezcan es absurdo tragarse estás gilipolleces de vendedor a puerta fría venido a más como el papanatas del twit este.


Completamente de acuerdo... a esto añado que jugar en "medio" todavía es una opción que nos dan los desarrolladores y que no vamos a matar a ningún gatito si decidimos hacerlo.
Me hace gracia la gente hablando de RT a 4k y flipadas varias cuando a la hora de la verdad eso aporta poco o nada al entretenimiento real. Que se dediquen a sacar juegos con buen gameplay y buena historia, luego como si le pones gráficos en 8bits.
aamram escribió:Completamente de acuerdo... a esto añado que jugar en "medio" todavía es una opción que nos dan los desarrolladores y que no vamos a matar a ningún gatito si decidimos hacerlo.

Si, sí, pero ponte en la situación de alguien que gasta 600/700€ en una grafica y descubre que cuando hay muchos objetos en movimiento en la pantalla, el juego pega tironcillos.

Nadie gasta ese dinero para tener que bajar el detalle.

Y yo soy el primero que piensa que sacan muchos juegos que no me gustan pero tambien se que hay mucha gente, que juega todo lo que sale y respeto bastante que lo hagan indiferentemente de que a mi no me guste lo que juegan.
https://www.youtube.com/watch?time_cont ... e=emb_logo

Imagen

Imagen

La 6800xt va mejor que la RTX 3070 cuando metemos todo la máximo y RTX en ciertos juegos de última hornada. Si eso pasa ahora, imaginad dentro de un año.

El tema es el que se compra ese tipo de gráficas, es para jugar bien. No para quitar efectos, por culpa de la vram.
Duendeverde escribió:https://www.youtube.com/watch?time_continue=579&v=Rh7kFgHe21k&embeds_euri=https%3A%2F%2Felchapuzasinformatico.com%2F&feature=emb_logo

Imagen

Imagen

La 6800xt va mejor que la RTX 3070 cuando metemos todo la máximo y RTX en ciertos juegos de última hornada. Si eso pasa ahora, imaginad dentro de un año.

El tema es el que se compra ese tipo de gráficas, es para jugar bien. No para quitar efectos, por culpa de la vram.


No

El que se gasta 500-600€ y espera jugar bien, sin quitar efectos, con RT y todo el máximo es que es muy iluso


En esta gama tienes que ser realista y saber lo que hay y a donde puedes llegar
@ditifet Estamos hablando de 1080p. Resolución ya desfasada, incluso en consolas. [+risas] La 3070 y similares se vendían para jugar a más resolución. Para 1080p entonces era un overkill. Para eso tenías las 3060 o la rx6600 de AMD.

En estos casos no hablamos de poca potencia. Es que esos juegos los puede mover esa gráfica a 1080p al máximo y sobrados. Pero se quedan sin vram y pega tirones o malos mínimos debido a esto. No por falta de potencia.

Si tienes que recortar cosas porque te quedas sin memoria, cuando el fabricante decía que era suficiente, pues...
Creo que alguno demuestra que nunca ha usado el PC para jugar ni sabe que se puede comprar con 600€ porque una RX6800 puede mover cualquier juego en 1080/1440p sin bajar nada de nada.
Esta claro que las consolas mandan. Y debido a la memoria unificada de 16 gigas gddr6x al portar a pc se necesita esa vram. los desarrolladores generalmente por desgracia no cuidan esto. Solo hay dos opciones o comparse una grafica de Amd o bajar ajustes. Yo siempre me he conformado jugando entre medio y alto y he aguantado graficas 5 años asi. a unos les sangra los ojos por jugar asi jejeje y otros como yo pues es lo que hay. Yo ya me compre no llega un mes la 3060 ti gddr6x porque mi 2060 daba fallo, luego me entere que la 6700 xt hubiera sido mejor opción. A resaltar que ni hogward legacy ni the last of us son juegos para poner de ejemplo. Como estan muy mal portados, comen memoria y gracias a la vram funcionan bien, pero se podria jugar genial con 8 de vram a 1080 p si programaran las cosas con cariño
Duendeverde escribió:@ditifet Estamos hablando de 1080p. Resolución ya desfasada, incluso en consolas. [+risas] La 3070 y similares se vendían para jugar a más resolución. Para 1080p entonces era un overkill. Para eso tenías las 3060 o la rx6600 de AMD.

En estos casos no hablamos de poca potencia. Es que esos juegos los puede mover esa gráfica a 1080p al máximo y sobrados. Pero se quedan sin vram y pega tirones o malos mínimos debido a esto. No por falta de potencia.

Si tienes que recortar cosas porque te quedas sin memoria, cuando el fabricante decía que era suficiente, pues...


Pero ya hay vidrios o pruebas o benchs que confirmen eso de que a 1080 con todo a tope y RT ya no son suficientes 12gb? o nos tenemos que fiar de lo que dice epic games?
Hay más de un juego que, por no decir muchos que si tienes 16GB, ellos son rondan los 14GB de uso. Sobretodo en determinadas escenas. Pero no quita que si tienes 12, usan 12 y no hay tirones porque la lectura de memoria compensa con esa cantidad la falta. Pero con 8GB no lo compensa en escenas donde hay más objetos.

pero se podria jugar genial con 8 de vram a 1080 p si programaran las cosas con cariño

Cada vez que leo cosas como estas me rio.......como si fuera tan facil. Tendrian que ir probando en un PC concreto que nunca seria igual al de muchos usuarios, cada escena del juego, cada situación. En un modo de historia donde las cosas suceden igual siempre, es posible pero en todo lo demas es muy complicado, asi que se tienen que conformar con conseguir que mayormente funcionen bien.

Lo unico que no hacen de primeras, es permitir más uso de hardware porque los juegos en consola usan lo minimo posible. Pero esto es deliberado, siempre se busca que pueda haber parches, no intentan sacar una versión de PC buena de primeras en la mayoria de casos, salvo juegos pensados más para PC. Aunque el parche inicial anti-pirateria es universal.

Programar para una maquina con unas mismas caracteristicas, es muy facil. Para cientos de maquinas, no.
@Nomada_Firefox Vamos a ver , te puedes reir , estas en tu derecho.

No será fácil ahí te doy la razón. Pero es mucho mas cómodo, ya que no tengo mil pcs para probar en una escena concreta, meter toda la carga en la vram y los que tienen pcs mas cortos que se jodan. Vamos la ley del minimo esfuerzo .
vinzenzo34 escribió:@Nomada_Firefox Vamos a ver , te puedes reir , estas en tu derecho.

No será fácil ahí te doy la razón. Pero es mucho mas cómodo, ya que no tengo mil pcs para probar en una escena concreta, meter toda la carga en la vram y los que tienen pcs mas cortos que se jodan. Vamos la ley del minimo esfuerzo .

Es que los juegos no funcionan asi...........el tema de las texturas es que las texturas de una resolución alta ocupan X y las tarjetas graficas con su memoria leen texturas de ese tamaño en X tiempo, la memoria se va borrando y reescribiendo, y un mismo objeto aunque aparezca muchas veces, no se repite, pero si metes muchos objetos diferentes, en una escena de mucho movimiento donde la velocidad de la memoria/lectura/escritura/GPU no pueden compensarlo, es donde los 8GB se empiezan a quedarse cortos.

Ahora bien, en ese tipo de situación, seguramente no haya calibración posible salvo reducir detalle, reducir y reducir y reducir, y al final es posible que te crujan porque hiciste algo pobre en detalle.

¿Nunca os pusisteis a pensar en algun juego donde podia haber más enemigos?¿otro elemento volador, más cosas en movimiento? pues es por eso.

Asi que lo que decis que es que usan más memoria porque no lo curraron, no es asi.......la solución, seria hacer juegos con menos detalles.

Ademas lo que llamamos problemas de depuración, son otra cosa, son fallos criticos, lag extenso, no situaciones concretas.
@Nomada_Firefox llevas toda la razon

yo me refiero en la optimización de los preset que la calidad de las texturas baja demasiado como en the last of us .en resident 4 se ven bastante mejor por ejemplo. yo vi en un video que dice que es q esa misma textura la comprimen con algun algoritmo en vez de tener texturas separadas
Otra opción es que ....llegado el momento , y con el juego X , en vez de en Ultra , lo pongas en muy alto.....

Nos alarmamos por cualquier cosa .

Gráficas del carajo hablando de obsoletas...de que no van a poder con juegos....

Así nos adoctrinan para meternos gráficas de 1800€ .
Duendeverde escribió:Imagen

La 6800xt va mejor que la RTX 3070 cuando metemos todo la máximo y RTX en ciertos juegos de última hornada. Si eso pasa ahora, imaginad dentro de un año.

El tema es el que se compra ese tipo de gráficas, es para jugar bien. No para quitar efectos, por culpa de la vram.

Tendrían q haber hecho la misma prueba con la rtx 3060 de 12Gb para ver si realmente tenemos q asustarnos.
undertaker00 escribió:Otra opción es que ....llegado el momento , y con el juego X , en vez de en Ultra , lo pongas en muy alto.....

Nos alarmamos por cualquier cosa .

Gráficas del carajo hablando de obsoletas...de que no van a poder con juegos....

Así nos adoctrinan para meternos gráficas de 1800€ .


Si hombre, yo no bajo de ultra nunca. Prefiero gastarme 1800€ más.
vinzenzo34 escribió:con algun algoritmo en vez de tener texturas separadas

Todos los juegos bajan el detalle con algun procedimiento, no es solo usar los modelos y texturas de menor detalle que ademas se suelen usar en situaciones de vista lejana y cosas parecidas. Al final siempre hay una serie de filtrados que bajan ese detalle de un modo u otro. Que uno se vea diferente de otro, puede deberse a muchas cosas, el motor de juego, el PC en si mismo de uno, configuraciones varias. Y como no, como pintaron e hicieron los graficos. No obstante hay juegos que hechos en el mismo motor, lucen muy parecidos, los de unreal se huelen a distancia, tambien los de Unity3D.

@BladeRunner La RTX 3060 de 12GB no tiene problemas en mover nada a 1080p calidad ultra. El problema es con 8GB, 12GB sufren problemas, solo se puede ver que si tienes más, ocupa más.
Yo también pienso que la jugabilidad es lo fundamental, no me obsesiona la carrera por el detalle. A las malas una Series S vale 4 perras y te hartas de jugar.
Nomada_Firefox escribió:@BladeRunner La RTX 3060 de 12GB no tiene problemas en mover nada a 1080p calidad ultra. El problema es con 8GB, 12GB sufren problemas, solo se puede ver que si tienes más, ocupa más.

No importa, ya encontré una gráfica.

Imagen

Imagen

https://www.noticias3d.com/noticia.asp?idnoticia=91146

La 3070 con sus 8Gb va mejor q la 3060 con sus 12Gb. Yo creo q lo q pasa también en este juegos (HL) es q las AMD van algo mejor q sus contrapartes Nvidia.
@BladeRunner Preferiria poner la fuente original https://www.techpowerup.com/review/hogw ... sis/6.html

Imagen

Fijense en 1080p, yo nunca usaria una 3060 en una resolución mayor. Pero no obstante habria que jugarlo para saber que afecte. El consumo de memoria como ya dije es absurdo de por si porque hay muchos juegos que gastan 14GB y no son ni modernos.

Asi que igual la 3070 saca más fps pero pega unas rascas que te flipas en cuanto hay cuatro objetos en pantalla.
Ya lo han dicho atrás. Ahora todo se desarrolla en base en consolas. Luego hacen los cutreports a pcs. En estos casos el problema es que es más fácil hacer un copia y pega. Es decir, meter todo a la vram, como la memoria unificada de las consolas. Por eso pasan estas cosas.

Recuerdo hace muchos años, que el forza motosport 7 en pc, rascaba bien con 8gb de ram y gráfica de 2gb de vram. O metías minimo 12gb de ram o gráfica con más vram o tenías rascadas. En cambio una xbox one con 8gb ddr3 unificados, no tenías ese problema.

Recordemos que las RTX 3000 no tienen ni 3 años antigüedad y que su mercado doméstico fue silenciado por sus 2 años de la minería. Es decir, que hay gente que pagó por una 1000€ o más como la 3070 y que ya tiene que recortar cosas, por falta de memoria, no de potencia. Porque no tiene sentido que una 6800xt pueda mover RT por su vram, cuando no fue una gráfica destinada para eso.

Aunque aquí el problema también es de los fabricantes también, vendiendo tarjetas con la memoria muy justa. Porque gráficas con 8gb de vram ya existían en 2015. En Nvidia me suena que la primera era la 1070 y salió en 2016. Luego ya que se habla de la 4050 y demás con 4 y 6gb, ya es de risa, cuando la 1060 6gb se le criticó porque tenía menos que la RX 480 8gb y hablamos del 2016. Es decir, que gráficas de gama baja, dentro de poco sólo podrás jugar juegos en bajo, aunque te haya costado 300-400€. [+risas]

Una solución temporal que están haciendo algunos (me suena que en el hogwarts), es cargar temporalmente texturas de menor calidad. Pero emborrona la imagen y más si juegas en calidades muy altas.
Nomada_Firefox escribió:@BladeRunner Preferiria poner la fuente original https://www.techpowerup.com/review/hogw ... sis/6.html

Imagen

Fijense en 1080p, yo nunca usaria una 3060 en una resolución mayor. Pero no obstante habria que jugarlo para saber que afecte. El consumo de memoria como ya dije es absurdo de por si porque hay muchos juegos que gastan 14GB y no son ni modernos.

Asi que igual la 3070 saca más fps pero pega unas rascas que te flipas en cuanto hay cuatro objetos en pantalla.



En la fuente original se puede apreciar como la 3070 tiene mejor 1% mínimos mejores que la 3060 en todos los casos menos en 4k, ultra, RT on (resolución que no es el target de ninguna de las dos gpu para un AAA), donde la 3060 tiene 0.2fps mas de mínimos (4.9fps vs 5.1fps). En 1080 la 70 tiene un 50% mas de mínimos que la de 12gb y en 1440 idem... así que no, no pega mas rascadas que su hermana pequeña.
Duendeverde escribió:Ya lo han dicho atrás. Ahora todo se desarrolla en base en consolas. Luego hacen los cutreports a pcs. En estos casos el problema es que es más fácil hacer un copia y pega. Es decir, meter todo a la vram, como la memoria unificada de las consolas. Por eso pasan estas cosas.

Recuerdo hace muchos años, que el forza motosport 7 en pc, rascaba bien con 8gb de ram y gráfica de 2gb de vram. O metías minimo 12gb de ram o gráfica con más vram o tenías rascadas. En cambio una xbox one con 8gb ddr3 unificados, no tenías ese problema.

Recordemos que las RTX 3000 no tienen ni 3 años antigüedad y que su mercado doméstico fue silenciado por sus 2 años de la minería. Es decir, que hay gente que pagó por una 1000€ o más como la 3070 y que ya tiene que recortar cosas, por falta de memoria, no de potencia. Porque no tiene sentido que una 6800xt pueda mover RT por su vram, cuando no fue una gráfica destinada para eso.

Aunque aquí el problema también es de los fabricantes también, vendiendo tarjetas con la memoria muy justa. Porque gráficas con 8gb de vram ya existían en 2015. En Nvidia me suena que la primera era la 1070 y salió en 2016. Luego ya que se habla de la 4050 y demás con 4 y 6gb, ya es de risa, cuando la 1060 6gb se le criticó porque tenía menos que la RX 480 8gb y hablamos del 2016. Es decir, que gráficas de gama baja, dentro de poco sólo podrás jugar juegos en bajo, aunque te haya costado 300-400€. [+risas]

Una solución temporal que están haciendo algunos (me suena que en el hogwarts), es cargar temporalmente texturas de menor calidad. Pero emborrona la imagen y más si juegas en calidades muy altas.

Creo que todo el mundo que compro esas graficas de 8GB, sabia que iban cortas de memoria desde el principio y simplemente hicieron oidos sordos a las advertencias porque querian una grafica.

El caso de los test y analisis, es que en ellos no vas a ver las temidas rascadas porque los bench estan hechos para funcionar muy bien y no son jugando cosa que hay que tener en cuenta.

Yo mismo tengo videos grabados del Far Cry 6 con texturas HD con una 3060 y una 3060Ti en 1080p donde en situaciones de muchos enemigos en pantalla, al girar la camara la Ti rascaba y la 3060 no. Ademas a modo anecdotico, la diferencia en fps era de 1. Y jugando en ultra, texturas HD y raytracing, que conste que ademas es el juego donde menos consumo he visto de raytracing. Esas graficas lo mueven a 79/78 fps y la RX 6800 que tengo ahora a 109fps.
Un video interesante sobre este tema que me ha gustado:

Pero hay alguien que lo dude? Que los 8GB eran standard en gama media desde hace 7 años, que a día de hoy empiecen a quedarse cortos para ciertos juegos y mas aún en los venideros pues es de cajón. Quien quiera quedarse con 8GB pues ya sabe que sacrificar: texturas, RT, sombras y resolución. Quien no pues ya sabe que si quiere una gráfica decente para aguantar un par de años o mas que mire de 12GB para arriba dependiendo de la resolución y los settings que quiera mantener. Dentro de 5 años tendremos el mismo debate pero con 16GB que ya se quedarán cortos y hay que pillar gráficas de 24 ó 32GB y tal pascual. No se que debate puede haber aquí, es el curso natural de los avances en técnicas y hardware xD
628 respuestas
1, 2, 3, 4, 513