Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

BladeRunner escribió:En negrita, se entiende q cuando una GPU es antigua y no incluye capacidades de decompresión o el formato comprimido no está soportado, entonces se elige la ruta alternativa de la CPU.

Me pregunto de donde sacas eso como dicho en este parrafo.
DirectStorage currently chooses the decompression path for built-in compression formats based on the supported capabilities of the GPU. There are scenarios where a CPU based fallback path is chosen. We heard from developers that it would be beneficial to understand which decompression path is being used so that default texture resolution settings may be set based on this. To enable this, we added a new API for querying what path the runtime has chosen.

IDStorageQueue2::GetCompressionSupport() returns a value indicating whether a GPU optimized implementation, GPU fallback for CPU fallback is used for decompression, as well as what types of queues DirectStorage will use for decompression.


Que esta titulado como New GetCompressionSupport API .

Pero no habla nada de nada de una GPU vieja pero absolutamente nada de nada. [fiu]

A ver... si la CPU siempre va a descomprimir las texturas poca ventaja va a aportar al sistema. Las GPUs (modernas) sí pueden descomprimir las texturas.

¿He dicho yo eso? lee lo que he escrito porfa.

Te lo resumo, directstorage evita que la CPU cargue el proceso para descomprimir las texturas porque al estar ya descomprimidas solo se cargan en la ram y de ahi a la tarjeta grafica. La cual no hace nada nuevo.

Y como estamos creando un offtopic, yo creo que simplemente voy a dejarlo aqui y esperar a que salgan juegos con esto pero hoy me fijaba en algo que seguramente yo no juegue más de 30 minutos en mi vida que es este juego https://elchapuzasinformatico.com/2023/ ... vidia-amd/ con el que anuncian unos requisitos minimos y recomendados tremendos.
VíctorXD está baneado por "clon de usuario baneado"
@Nomada_Firefox

Estas mezclando todo, apesar que en mi anterior mensaje separé conceptos. El ahorro de VRam no va ser por usar DirectStorage, si por usar técnicas de texturas virtuales más agresiva a provechando la nueva comunicación directa entre SSD y GPU , ya explique atrás las diferencias entre una técnica de textura estándar y una de Texturas Virtuales. Y los juegos hace tiempo usa texturas HD.... actualmente la mayoría usa Texturas 4k o 4096*4096.

Sobre el tema de DirectStorage investigado un poco, en PC parece que es una API de alto nivel, los pasos que usa para comunicarse son SSD > RAM >GPU, eso se hace porque usa el controlador de memoria estándar de las GPU que es la DMA, que es controlador que usan las GPU para comunicarse con la RAM, pero debe haber alguien dando la orden si no es el CPU, a lo mejor es la API por medio de un control manual por parte del desarrollador, osea no es automático. Lo de usar la DMA supungo que se hace para darle compatibilidad con todas las GPU supungo.

AMD desde la GPU Vega ,incluyo un controlador DMA mejorado que era capaz de comunicarse con los dispositivos conectados por PCIE directamente como los SSD PCIE o nvme, AMD lo llamo HBCC al nuevo controlador , en Nvidia parece que fue desde la GPU Turing que incorporaron este nuevo controlador. Las consolas al no tener RAM , si no VRAM compartida parece que ya incluyen ese controlador.

En resumen para que la comunicación sea directa de la GPU con SSD ,necesita dos requisitos de hardware que el SSD Nvme y una GPU con el nuevo controlador de memoria Vega para arriba y Nvidia Turing para arriba. Pero debido a que los juegos se desarrollan para la mayor amplitud de hardware ahí entra la API DirectStorage que es de mayor nivel y aprovecha las DMA de las GPU agregando un paso extra a la comunicación que es la RAM y el desarrollador lo tendrá que implementar manualmente, por eso no lo vemos extendido.

Para que el nuevo estándar de comunicación sea de forma automática entre SSD y GPU , se necesita cumplir los requisitos de hardware expuesto, por cual va pasar un buen tiempo para que se adopte de forma standar y nativa en PC ese nuevo tipo de conexion, de momento seguiremos con la Antigua (SSD > RAM>CPU>RAM>GPU), a exepcion de los juegos que se implemente DirectStorage (SSD>RAM>GPU) y cuando sea estándar o nativa en PC con en el hardware correspondiente (SSD>GPU).
Y la pregunta es,con el direct storage bien implementando se podria esquivar el handicap de los 8gb de vram?
chris76 escribió:Y la pregunta es,con el direct storage bien implementando se podria esquivar el handicap de los 8gb de vram?


para nada, ni te lo plantees
@VíctorXD A mi no me parece que haya mezclado nada, lo que unico que no hice fue poner todas las cosas que tu pusiste, cosas que estaban incorrectas y no lo voy a repetir.

Como ya dije, esperamos a juegos que usen esto y veremos que sucede.
el forspoken creo que ya usa DS y ha sido una decepcion porque segun los analisis quitaba unos pocos FPS
@Kavezacomeback ojo que son micros con 8 cores, y, claro, las consolas tienen 8 cores. No me percaté en revisar eso, y me pillé el 7600x de.solo 6 cores. Me veo renovando al 8700x [facepalm]

Con respecto a las gráficas, sin sorpresas creo
@parh estas obsoleto [hallow]

A ver cuando llega todo, ¿que vida útil pensáis tendrá una 3080? Con vida útil me refiero a que sea competitiva respecto a las nuevas series no que este entra las top por que eso esta claro no lo es ya en este momento.
@Kavezacomeback hombre, esos 10gb de vram la van a penalizar bastante ya este mismo año. Una gran putada de nvidia haber vendido una gama alta con esa vram. Es que no son ni 12. Yo de ti la vendería cuanto antes.
Nomada_Firefox escribió:
katatsumuri escribió:@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.








El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.

Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.

Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.

VíctorXD está baneado por "clon de usuario baneado"
Y los requisitos mínimos son para 1080p + Low/medium settings....

La 5700xt es casi igual a la GPU de PS5, así que no es sorpresivo que sea la nueva GPU para requisitos mínimos.
@parh que va, yo no la tengo. De tenerla soy de esos que la gráfica muere en un cajón o la dejo para un cualquier equipo, no soy de vender.

Mi opinión es que en 5 años de servicio ya esta bien.
Kavezacomeback escribió:@parh estas obsoleto [hallow]

A ver cuando llega todo, ¿que vida útil pensáis tendrá una 3080? Con vida útil me refiero a que sea competitiva respecto a las nuevas series no que este entra las top por que eso esta claro no lo es ya en este momento.


Poca vida util, te la compro por 5€ y por hacerte el favor🤣🤣🤣🤣

Seguramente tendras mas casos en que la potencia te limite a que sea la Vram quien te limite en el futuro, estan sacando cada mierda de juego optimizado que come recursos que no es ni normal....

Edito: Que pena que no la tengas, hubiera sido un buen trato🤣🤣🤣😉😉
@ivan95 hombre por funcionar creo tengo una que es AGP que funciona [carcajad]

El tema es que juegues sin ultritis a todo en una resolución razonable 1080p para arriba.
VíctorXD escribió:Y los requisitos mínimos son para 1080p + Low/medium settings....

La 5700xt es casi igual a la GPU de PS5, así que no es sorpresivo que sea la nueva GPU para requisitos mínimos.


Y los recomendados son solo para 2k en settings medio alto y ya pide una 3080ti. La situacion parece peor de que lo que pensaba con la nueva hornada de juegos UE5
VíctorXD está baneado por "clon de usuario baneado"
parh escribió:
VíctorXD escribió:Y los requisitos mínimos son para 1080p + Low/medium settings....

La 5700xt es casi igual a la GPU de PS5, así que no es sorpresivo que sea la nueva GPU para requisitos mínimos.


Y los recomendados son solo para 2k en settings medio alto y ya pide una 3080ti. La situacion parece peor de que lo que pensaba con la nueva hornada de juegos UE5

El problema con el Unreal 5 es que creo que con Nanite no se permite reducir los polígonos, ya que usan una técnica default de Micropoligonos.

Aparte que nunca entendido para que tanto polígonos, cuando llega un punto donde es difícil de distinguir más polígonos.

Luego Lumen software no consume tanto.
Pues mira es un buen dia para comparar requisitos recomendados vs la realidad.

hilo_dead-island-2-revela-sus-requisitos-para-pc-confirma-60-fps-en-la-nueva-generacion-y-descarta-el_2479103#p1753736740





Este ultimo para ver diferencias con las consolas y así nos hacemos una idea de como vamos.
tioguay_68 escribió:
Nomada_Firefox escribió:
katatsumuri escribió:@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.








El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.

Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.

Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.


Si lo he visto, ya habia visto algo de ese hace algun tiempo y de algun otro. Imagenes foto realistas.

Sin embargo yo soy de una opinión, no se si todo el mundo la compartira. Creo que hacen muchos juegos y que solo unos poquitos son buenos, se hacen muchos juegos que a mi personalmente no me gustan.

Ciertamente yo puedo probar todo lo que sale pero acabar jugandolo.......es dificil. Es superior a mis fuerzas. Quizas sea que soy de otra epoca.

Respecto a Unreal, no se porque todos los juegos de motor unreal lucen parecido, tiene algo en la manera de hacer las texturas que hace que se reconozca el motor facilmente. Y a Unity3D le sucede lo mismo. Frostbite de EA tambien se reconoce. Todos ellos tienen caracteristicas en los modelos y texturas que hace que los huela a distancia.

Y una cosita que me llamo la atención de Epic,es que su motor siempre ha resultado no ser verdaderamente tragon y funciona muy bien con cosas como el DLSS. Aunque es donde el RT lo noto menos.
Pues sera cosa del TLOUS pero me llama la atencion que la 3060Ti comparada con la 3060 12gb cuando llegas al preset 1440p/ultra se igualan prácticamente pero en cuanto le metes el DLSS las tornas incluso cambian y bastante
chris76 escribió:Pues sera cosa del TLOUS pero me llama la atencion que la 3060Ti comparada con la 3060 12gb cuando llegas al preset 1440p/ultra se igualan prácticamente pero en cuanto le metes el DLSS las tornas incluso cambian y bastante

Bonito video, lo que me llama la atención, es la calentura de esas 3060Ti y 3060 graficas, por encima de los 80º ¿sera el hotspot?

He tardado en ver exactamente que sucedia porque no esperaba que la 3060 ganase ni en sueños a 1440p con DLSS pero es super llamativo, la Ti, se sigue quedando abajo y la normal sube a 65.

Tambien es llamativo que cuando hay más memoria grafica disponible se use y cuando no hay tanta se gasta menos. En ese juego es llamativo, en otros la Ti va al limite de los 8GB. Fijense que con la 6800XT se usa 11GB, seguro que el juego esta pensado para no atascar la Vram llenandola hasta la boca. Al menos a 1080p/1440p porque la 3090Ti en 4K se bebe 13GB......

Debo decir que una cosa que tienen los bench, es que dificilmente son lo mismo que jugando, asi que si eso sucede ahi, jugando puede ser diferente de todas las maneras posibles.
@Nomada_Firefox pues la misma siruacion tambien la vi de otro YouTuber ppr lo que no es un caso aislado de este usuario
Sera cosa de drivers digo yo. Aunque si lo miras detenidamente todo apunta a falta vram.


Imagen

Bueno sea como sea lo que yo quiero es que ArkSys haga un juego de los caballero del zodiaco al estilo DBFZ que es lo que me viene a la mente cuando veo el avatar de @parh
Kavezacomeback escribió:Sera cosa de drivers digo yo. Aunque si lo miras detenidamente todo apunta a falta vram.


Imagen

Bueno sea como sea lo que yo quiero es que ArkSys haga un juego de los caballero del zodiaco al estilo DBFZ que es lo que me viene a la mente cuando veo el avatar de @parh

Umm ¿temperaturas altas por falta de Vram? ¿o te refieres a los fps?

Me llama la atención de que la gente se queja de mala optimización de ese juego pero a mi me parece viendo ese video que la cpu, la aprovecha muy bien, toda la carga super dividida. Otra cosa son los resultados. Pero hay muchos juegos ports de consola que son asi, que los fps estan como limitados. Igual lo hacen a posta para no penalizar ventas de consolas, a Sony y a Microsoft no les puede interesar que se mueva mejor en PC.

Van a sacar una peli en carne y hueso de los caballeros del zodiaco pero viendo el trailer me parece que va a ser mala no, lo siguiente........me ha parecido muy cutre......sobretodo las armaduras.....
@Nomada_Firefox la pelicula sera como todas hasta la fecha... para llorar.

Sobre esta otra pelicula que tenemos pues si el test es con los mismos settings es extraño una 3070 Ti tenga peores mínimos, mismo avg, mayor consumo de Ram (no vram) que una 3060. Si bien no esta equivocado las mediciones dan cosas extrañas, pero claro hay un reescalado por medio... a saber.

Me acabo de fijar que sin dlss ocurre igual, así que solo hay dos cosas drivers o memoria insuficiente (bien sea por falta de optimización de los dev o por una verdadera limitación)

Imagen
cinema upload

https://www.youtube.com/watch?v=Y3ak-w9 ... Benchmarks

En otros no ocurre claro esta, pero bueno como @chris76 ha señalo esto pues si le damos un repaso a las pruebas de este youtuber se ve ocurre en algunos juegos últimamente.
Kavezacomeback escribió:Sobre esta otra pelicula que tenemos pues si el test es con los mismos settings es extraño una 3070 Ti tenga peores mínimos, mismo avg, mayor consumo de Ram (no vram) que una 3060. Si bien no esta equivocado las mediciones dan cosas extrañas, pero claro hay un reescalado por medio... a saber.

Voy a hacer una conjetura con el consumo de ram. Como la 3060 tiene más memoria grafica y el juego da la impresión de estar hecho para no usar toda la memoria disponible. Como la 3070Ti tiene solo 8GB, usa menos memoria Vram pero tiene que aumentar la cantidad de lectura de texturas en la CPU/RAM para compensar. Vease que tambien usa más % de CPU.

Me da que por ahi van los tiros de ese pequeño detalle. Y creo que es muy posible que en jugando en alguna situación donde haya una mayor carga de graficos, al girar la imagen, esa 3070Ti presente unos ligeros tironcillos.

Lo de las temperaturas es rarisimo. Igual algun dia pruebo el juego con mi 3060 del otro PC a ver si se calienta igual.
Lo que yo veo es que “gracias” a un juego poco,mal optimizado o simple copia y pega exclusivo de ps5 saca a relucir el talon de aquiles actual con graficas con 8gb vram comparado con las consolas actuales
Wookiee escribió:
FranciscoVG escribió:El resumen parece ser claro, nvidia se equivoco poniendo 8Gb a la 3070, con 4Gb hubiesen sido suficientes total no importan xd



Nvidia se equivoco al ponerle a la 3080ti un chip mas gordo y un bus de 384bits. Todo el mundo sabe que para mearse a la 3080 bastaba con cambiarle la pegatina y ponerle mas luces a la 3060...

No seamos absurdos. Con la 3070 a 1080p ultra se juega mejor que con la 3060, y no digamos ya a 2k, y es que la vram no es lo único que importa. Y solo hay que ver el rendimiento de toda la gama 3000 de nvidia, donde entre la 3060 y la 3090TI hay 9 gpus diferentes y cada una aventaja a la anterior de forma escalonada independientemente de la cantidad de vram que tengan.

Por mi parte, ojala le hubieran plantado a la 3070 24gb de vram, pero entre una 3060 y una 3070, tengo claro con cual me quedo (y que conste que yo la que quería era la 3080).


Si con ese comentario pretendes poner cordura vas mal xd, que aquí nadie está diciendo que una 3060 sea mejor que una 3080 hablamos del impacto de la vram en los juegos

Chavales solo hay una cosa clara, lo que a día de hoy pasa va a ir a peor en un futuro, por que ya se está viendo que cada vez es más a menudo, y no se trata de bajar de ultra a alto se trata de que no puedas jugar de una forma que si podrías hacerlo con más vram, todo lo demás son películas y previsiones de futuro sin tener ni puta idea, basadas en lo que cada uno quiere que pase
chris76 escribió:Lo que yo veo es que “gracias” a un juego poco,mal optimizado o simple copia y pega exclusivo de ps5 saca a relucir el talon de aquiles actual con graficas con 8gb vram comparado con las consolas actuales


Pero un PC es algo flexible, por uno, dos o diez títulos que no puedas ir con las texturas a tope más las sombras en ultra no pasa nada, te tienes que dejar la vista en ello.
Kavezacomeback escribió:
chris76 escribió:Lo que yo veo es que “gracias” a un juego poco,mal optimizado o simple copia y pega exclusivo de ps5 saca a relucir el talon de aquiles actual con graficas con 8gb vram comparado con las consolas actuales


Pero un PC es algo flexible, por uno, dos o diez títulos que no puedas ir con las texturas a tope más las sombras en ultra no pasa nada, te tienes que dejar la vista en ello.

Por supuesto que si solo estamos comentando, pero yo ahora mismo a la hora de comprar una 3060 ya no sé si compensa gastarte 50 € más en una Ti o directamente irme a por la más económica y encima con 12 GB de Vram
chris76 escribió:
Kavezacomeback escribió:
chris76 escribió:Lo que yo veo es que “gracias” a un juego poco,mal optimizado o simple copia y pega exclusivo de ps5 saca a relucir el talon de aquiles actual con graficas con 8gb vram comparado con las consolas actuales


Pero un PC es algo flexible, por uno, dos o diez títulos que no puedas ir con las texturas a tope más las sombras en ultra no pasa nada, te tienes que dejar la vista en ello.

Por supuesto que si solo estamos comentando, pero yo ahora mismo a la hora de comprar una 3060 ya no sé si compensa gastarte 50 € más en una Ti o directamente irme a por la más económica y encima con 12 GB de Vram

Yo creo que sencillamente huiria de los modelos de 8GB y ahora mismo compraria antes una RX6700XT que ronda los 400€ que una 3060. Me guste más o no AMD en este momento, es lo que haria.
Yo diria que ir haciendo un Wiki de estos supuestos titulos come vram nos daria mas luz que estar evaluando sobre supuestos las declaraciones de Epic.

Si Epic quiere ser una luz en el camino que hable con Nvidia para que deje de producir graficas con 8gb, que tiene que estar molestando a los usuarios.
LostsoulDark escribió:Yo diria que ir haciendo un Wiki de estos supuestos titulos come vram nos daria mas luz que estar evaluando sobre supuestos las declaraciones de Epic.

Si Epic quiere ser una luz en el camino que hable con Nvidia para que deje de producir graficas con 8gb, que tiene que estar molestando a los usuarios.

Hombre.........como no hay pocos juegos en desarrollo usando Unreal..........y no se que usa the last of us......pero tampoco es que no funcione. Se publico el video porque tenia cosas curiosas para discutir.

Pero seguis muchos negando algo que ya existia. Ese problema existe desde que salieron las ultimas consolas a la luz. Y creo que a Nvidia se la refanfinfla. Nisiquiera creo que apuesten por las graficas como su principal negocio y no me extrañaria que acabaran pasando el testigo a AMD e Intel.

Tambien me parece que el drama es para quien tenga una grafica de 8GB y piense en venderla. Yo me apresuraria si tuviera esa idea porque su valor de mercado es posible que se reduzca notablemente.
VíctorXD está baneado por "clon de usuario baneado"
Kavezacomeback escribió:Sera cosa de drivers digo yo. Aunque si lo miras detenidamente todo apunta a falta vram.


Imagen

Bueno sea como sea lo que yo quiero es que ArkSys haga un juego de los caballero del zodiaco al estilo DBFZ que es lo que me viene a la mente cuando veo el avatar de @parh



Es por falta de Vram, de esto ya hay varios test con lo mismo.

El mal rendimiento se debe que al quedarse sin VRAM tiene que acceder a la RAM del sistema teniendo esta mucho menos ancho de banda lógicamente que la GDDR, lógicamente esto va generar una perdida de rendimiento y en el peor de los casos poping de texturas, Stuttering y microparones.

En antaño quedarse sin VRAM era igual a lo último congelaciones de segundos al girar cámara, ya que la DDR3 en su tiempo tenía un ancho de banda muy limitado.
@VíctorXD sí puede ser por la vram que como bien dices siempre se ha ido a más por las mayores capacidades. Ahora una vez determinado esto y en vistas de que no es en todos los juegos ni mucho menos podemos preguntarnos ¿si es mala praxis por parte de algunos dev o que realmente estamos en un punto donde se necesita más?, ¿qué vida útil tendrán las GPUs con 8GB de vram?
VíctorXD está baneado por "clon de usuario baneado"
Kavezacomeback escribió:@VíctorXD sí puede ser por la vram que como bien dices siempre se ha ido a más por las mayores capacidades. Ahora una vez determinado esto y en vistas de que no es en todos los juegos ni mucho menos podemos preguntarnos ¿si es mala praxis por parte de algunos dev o que realmente estamos en un punto donde se necesita más?, ¿qué vida útil tendrán las GPUs con 8GB de vram?


Como avance natural técnico es normal que los juegos vayan exigiéndo más VRAM, el UE5 por ejemplo ya soportaría Texturas 8k nativas, el Ray Tracing también aumenta el uso de Vram, así que no es de extrañar que 8GB ya se debe de pensar solo para GPU de gama-baja.

Las GPU de 8GB seguirán funcionando,pero lógicamente tendrán que sacrificar calidad de texturas y RT.
Eso de los 8 GB no es cierto, lo que pasa que no se quieren esforzar en sacar presets de texturas para GPUs de 8GBs que no hagan parecer el juego un juego de PS2 como ha ocurrido con TLOU P1.
VíctorXD está baneado por "clon de usuario baneado"
En los juegos también hay que decir que no hay consistencia de calidad de texturas, al menos que usen Texturas Virtuales.

Con esto me refiero a que no todas las texturas son 4k en una escena, TLOU por ejemplo si te da opción de controlar 4 texturas del entorno, personajes ,objectos etc.

También los juegos lineales son los que más chupan VRAM porque los desarrolladores aprovechan la rigides, para meter iluminación precalculada, cachés de sombras etc.
Lo más divertido de ese video es cuando llegas al final y ves la RX6800XT.
Imagen
Y entonces la comparas con la RTX 3070Ti que ni con el DLSS2 en performance a 1440p se acerca.
Imagen

Aunque encuentro el test tramposo porque por ejemplo la 3080 10GB no fue probada con DLSS2 en performance. Pero esta clarisimo que la Vram influye y mucho.

Y yo pongo en duda que los juegos futuros, ports de consola, funcionen muy diferente a este. Otros titulos recientes, tambien van por la misma linea.
parh escribió:@Kavezacomeback ojo que son micros con 8 cores, y, claro, las consolas tienen 8 cores. No me percaté en revisar eso, y me pillé el 7600x de.solo 6 cores. Me veo renovando al 8700x [facepalm]

Con respecto a las gráficas, sin sorpresas creo


Diria q el 7600x esta, como poco, a la par del 5800x en multi core.

Y bastante por encima de los 8 cores de Xbox y PS5.
katatsumuri escribió:Eso de los 8 GB no es cierto, lo que pasa que no se quieren esforzar en sacar presets de texturas para GPUs de 8GBs que no hagan parecer el juego un juego de PS2 como ha ocurrido con TLOU P1.


Exacto, es que no tiene sentido que según juegas con algunas opciones, las texturas parecen de ps2 o peor.

Es un punto muy negativo con respecto a otros ports y una malsana costumbre de los desarrolladores el que echen la culpa a los usuarios por no tener tarjetas de ultimisisisisima generación.

Recuerdo los bugs de aquel remaster del Dead Island, hablando con los desarrolladores en el foro de steam, criticando a los usuarios y diciendo que su port estaba bien, vamos, que la culpa era de los usuarios. Poca solución daban a texturas tipo "mercurio" que se vieron.

Pienso que estando Naughty Dog detrás y siendo una producción tocha, no dejarán el juego empantanado, pero es triste que de entrada un juego tan esperado ni las opciones de calidad sean congruentes con lo que se selecciona.
Bueno, para eso hacen los requisitos minimos y más siendo un juego top, no podras esperar que lo hagan poco tragon.
Me imagino que Epic se referirá a los triple A porque con el resto de juegos 8Gb creo que va bien. Un poco de alarmismo veo.

No dudo que se necesiten 12Gb con U5/AAA (a ver si los vemos por cierto) pero opino que es mas urgente que depuren/optimicen los juegos. Si les das a un chapu 12Gb te los llena y luego dirá que necesitan 16Gb y asi sucesivamente. En cualquier caso si me tuviera que comprar una buena tarjeta en este momento menos de 12Gb no cogeria.

Por cierto, NVIDIA RTX IO ¿nació muerta? ratataaaa
esami escribió:Me imagino que Epic se referirá a los triple A porque con el resto de juegos 8Gb creo que va bien. Un poco de alarmismo veo.

No dudo que se necesiten 12Gb con U5/AAA (a ver si los vemos por cierto) pero opino que es mas urgente que depuren/optimicen los juegos. Si les das a un chapu 12Gb te los llena y luego dirá que necesitan 16Gb y asi sucesivamente. En cualquier caso si me tuviera que comprar una buena tarjeta en este momento menos de 12Gb no cogeria.

Por cierto, NVIDIA RTX IO ¿nació muerta? ratataaaa



12gb? Mínimo 16 gb con settings altos y rt
El tema vendrá por las consolas imagino,si desarroyas para ellas como base y tienes,no sé si son 10 o 12 gb de vram,pues al portar al pc todo lo que sea menos que eso gratis no va a salir
Bueno, esto es igual a cuando salio el Supreme Commander alla por 2007 y o tenias un Core 2 Duo o no podias jugarlo. Asi que muchos tuvimos que tirar poco menos el PC a la basura.

Es renovarse o morir.
El hilo se fue por otro derrotero pero bueno, no pude contestar a tiempo.
Nomada_Firefox escribió:Creo que te has equivocado porque no hay descompresión por GPU, no la habia antes y no la hay ahora. De hecho las texturas las leen descomprimidas.

No sé de dónde sacas eso porque las GPU tanto de Nvidia como de AMD son capaces de descomprimir texturas en formatos DXT, PVRTC y ETC1. Sólo falta q la GPU pueda acceder a ellos directamente en el SSD que es lo q se busca con el desarrollo de la API DirectStorage.
BladeRunner escribió:El hilo se fue por otro derrotero pero bueno, no pude contestar a tiempo.
Nomada_Firefox escribió:Creo que te has equivocado porque no hay descompresión por GPU, no la habia antes y no la hay ahora. De hecho las texturas las leen descomprimidas.

No sé de dónde sacas eso porque las GPU tanto de Nvidia como de AMD son capaces de descomprimir texturas en formatos DXT, PVRTC y ETC1. Sólo falta q la GPU pueda acceder a ellos directamente en el SSD que es lo q se busca con el desarrollo de la API DirectStorage.

Precisamente es lo que el directstorage viene a evitar que el proceso se cargue en la cpu y de ahi a ram. Asi las texturas se cargan en ram descomprimidas y luego a la grafica con su vram por supuesto.

No confundamos crear texturas, con cargarlas en memoria para usar en un juego.
Nomada_Firefox escribió:Precisamente es lo que el directstorage viene a evitar que el proceso se cargue en la cpu y de ahi a ram. Asi las texturas se cargan en ram descomprimidas y luego a la grafica con su vram por supuesto.

No confundamos crear texturas, con cargarlas en memoria para usar en un juego.

No lo tienes claro y/o estás confundiendo a la gente. La VRAM almacena texturas comprimidas, es que si no, se necesitarían ingentes cantidades de la misma. Es el chip gráfico el q descomprime en tiempo real las texturas, las mapea a modelos 3D, aplica efectos, filtros, etc. y va actualizando el valor de los píxeles en el framebuffer. Y mucho menos se descomprimen en la RAM para ser copiadas luego a la VRAM.
La realidad es que las texturas comprimidas no se descomprimen como pudieramos descomprimirlas en el PC. Y esto es más facil de entender por cualquiera. Puedes decir que la GPU las descomprime, pero es lo mismo que lo que hace es hacer uso de ellas a secas. La GPU lee un DDS igual que tu lo abres en Photoshop o en un programa 3D. ¿Descompresión? para mi la descompresión seria guardar el DDS en TGA.

En resumen la GPU puede leer formatos como el DDS. Ademas el DDS es un formato que pierde detalle y lo ideal es posiblemente no tener que usarlo pero la realidad es que no es practico.

Ahora bien, yo he estado hablando del directstorage anteriormente y lo hace es esto.
The new DirectStorage API changes things by moving the decompression load from the CPU to the GPU. This speeds up the process as the files already need to be rendered by the GPU once they're decompressed, so they're in the right place when that happens.

La nueva API Directstorage cambia las cosas moviendo la carga de descompresión de la CPU a la GPU. Esto acelera el proceso dado que los ficheros necesarios para ser renderizados por la GPUU ya esta descomprimidos, asi que estan en el lugar correcto cuando esto sucede.

Esto es lo que yo he dicho mucho más arriba. Ni más ni menos.

La realidad es que los juegos van a consumir más Vram, los 8GB son insuficientes y el directstorage no es la salvación. ratataaaa
628 respuestas
13, 4, 5, 6, 713