Nomada_Firefox escribió:Puede imaginarme a todos los que compraron modelos de 3060Ti/3070/3070Ti acordandose de Nvidia pero debo decir que se informaron mal y me acuerdo de algunos que me dijeron que la 3060 con 12GB moriria antes, puede pero no sera por falta de memoria.......
@PHANTASIA No es como lo cuenta, ahora mismo con 12GB vas perfectamente bien, pero depende de la resolución.
@Season 2 No hables en plural porque el unico que ha racaneado, ha sido Nvidia. Ni AMD, ni Intel lo han hecho.
@JR_GAMER Las 6700 tienen 12GB y con esa cantidad usas texturas de alta resolución sin problema alguno. El problema se le viene encima quien compro los modelos de Nvidia. Y si una RX 6600 tiene 8GB y van jodios tambien pero tampoco costaban una pastisima.
GordonFreeman escribió:Por cierto, considero la GTX 1080 la mejor tarjeta gráfica que he tenido (por el rendimeinto que me ha dado en comparación con otras en su día, la 2ª sería la 8800 GT), al menos hasta que pronto jubile mi actual PC por otro con una RTX 4090.
Constantinoplas escribió:@Nomada_Firefox y las que mejor han envejecido, una 1060 para jugar a 1080p sigue tirando todo, no en ultra pero puedes jugar a todo
ivan95 escribió:Tampoco es algo para morirse, todavia se defienden las 1650 Super con 4GB......
Y si hay que bajar las texturas de Ultra a Alto tampoco es algo que sea para llorar.
Yo me compre hace un mes y medio una RX 6600 XT, viendo como salen los juegos de optimizados, antes que sin Vram, es mas probable que se quede sin potencia en triples A, de nada me sirve que no consuma memoria y el juego va fatal como The last of US (ya una 6600 XT va rondando los 60 fps en ese juego😅)
Al final, todas las GPU actuales de 8GB acabaran su ciclo antes por rendimiento que por memoria en la mayoria de ocasiones.
Duendeverde escribió:ivan95 escribió:Tampoco es algo para morirse, todavia se defienden las 1650 Super con 4GB......
Y si hay que bajar las texturas de Ultra a Alto tampoco es algo que sea para llorar.
Yo me compre hace un mes y medio una RX 6600 XT, viendo como salen los juegos de optimizados, antes que sin Vram, es mas probable que se quede sin potencia en triples A, de nada me sirve que no consuma memoria y el juego va fatal como The last of US (ya una 6600 XT va rondando los 60 fps en ese juego😅)
Al final, todas las GPU actuales de 8GB acabaran su ciclo antes por rendimiento que por memoria en la mayoria de ocasiones.
En el nuevo the last of us, hay gente que tiene que poner texturas en medio con una RTX 3070. Aunque creo que hablamos de configuraciones gráficas muy altas y RT activado. Pero el nuevo Star wars ya pide mínimo 8gb de vram
4gb en nada no va a ir bien los juegos ni al mínimo bajando resolución. 4gb ahora mismo es como hasta ahora gráficas de 2gb. Hay juegos que ya ni van como el dead space remake con gráficas de 2gb.
Ya no es el que tenga esa 1650 super, es que todavía se venden muchas tarjetas con menos de 8gb de vram y muchas caras para lo que ofrecen.
Como han dicho atrás, una gráfica con 16gb para no tener problemas en un tiempo, ya parte de 600€. El problema es siempre el mismo. El precio. Si una gráfica con 16gb de ram partiese de 200€, pues esta noticia no tendría mucho sentido. Pero no es el caso.
Todopc-WII escribió:Que divertido saber esto teniendo una 3070 de 8 GB... no hay dinero para una nueva y de momento voy bien, cuándo toque, ya se cambiará.
Chevi escribió:Durante esta generación de consolas aún aguantaremos, cuando salga la próxima estaremos jodidos.
Uno con una 3080 FE de 10Gb por aquí.
Chaquetero escribió:Estafador estafando al decir que cuidado que viene el lobo con el unreal engine 5, motor con el que no hay ni un AAA anunciado a día de hoy, más que demos técnicas engañabobos como lleva pasando desde la del samaritano del 2005. Unreal engine CINCO, ha habido cuatro iteraciones antes de estos vendehumos asustaviejas y aquí estamos.
1° Nvidia lleva estafando a todo el mundo desde las rtx 2000. No ha subido la VRAM de sus gráficas en 7 años.
2° No hay ni habrá juegos "Next generation" a corto plazo, la gente está acomplejandose por un chorriport de un chorrijuegos de PS3 que apenas lleva un lavado de cara, cyberpunk o rdr2, o requiem, o el propio days gone son mucho mejores gráficamente y piden mucha menos máquina.
3° Vosotros seguid, seguid comprando GPUs de 1000-2000 euros para jugar a indies de 5 euros del gamepass. Es el SOFTWARE, lo que te tiene que hacer actualizar el HARDWARE, hasta que no saquen videojuegos que lo merezcan es absurdo tragarse estás gilipolleces de vendedor a puerta fría venido a más como el papanatas del twit este.
elrocho escribió:Aquí el problema es también lo del huevo y la gallina.
¿Necesitamos gráficas con más VRAM porque los juegos piden más, o los juegos piden más porque hay gráficas con mayor VRAM y los optimizan menos?
Nomada_Firefox escribió:Todopc-WII escribió:Que divertido saber esto teniendo una 3070 de 8 GB... no hay dinero para una nueva y de momento voy bien, cuándo toque, ya se cambiará.
¿No me digas que cuando la compraste no lo veias venir? se sabia desde hace mucho, lo unico que los grandes vendedores de estas graficas con poca vram llevan más de 2 años defendiendolas a ultranza con tal de vender. Hay que tener un cuidado con las opiniones de mucha gente a la hora de escoger que compras.......porque hay muchisimo interesado.
katatsumuri escribió:Lo que está claro es que si vas a jugar lo mejor ahora mismo es AMD, pero es que NVIDIA tiene cosas que no tiene AMD, CUDA CORES, TENSOR CORES, RT CORES, etc....
Nomada_Firefox escribió:katatsumuri escribió:Lo que está claro es que si vas a jugar lo mejor ahora mismo es AMD, pero es que NVIDIA tiene cosas que no tiene AMD, CUDA CORES, TENSOR CORES, RT CORES, etc....
Para mi lo mejor que tiene Nvidia es el DLSS porque la realidad es que sin el, el Raytracing sigue consumiendo una barbaridad y se hace inutilizable en muchos juegos. Y AMD pues tiene el FSR pero no es tan efectivo como el DLSS. Y al igual que otras veces, sigo pensando que si quieres jugar por encima de 1080p y usar RT, pues deberias comprar una grafica de Nvidia pero no un modelo de 8GB. Es asi de sencillo.
flo79 escribió:La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.
Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.
ditifet escribió:flo79 escribió:La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.
Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.
Corta es no poder poner todo a tope en ultra y RT activado, no?
KindapearHD escribió:8Gb obsoletos quiere decir que ni al minimo todo bastará con 8Gb o habláis de vuestra ultritis y de si no está todo al maximo, es quedarse corta?
Alguien se apuesta algo que de aquí a 2 años como mínimo una 3070ti o una 3080 con 10gb, va a ser perfectamente usable?
Me flipa la facilidad con la que enterráis hardware.
Por si acaso todos a comprar la 4090, no vaya a ser que para juegos, no sea suficiente.ditifet escribió:flo79 escribió:La 4070 ti ya se queda corta en algún juego actual por el tema de la vram, no quiero imaginar en dos años.
Y eso que cuesta casi mil euros. Una cosa es que hagan modelos para que no te duren 6 años y tengas que renovar cada menos tiempo, y otra que cuando te la compres ya estés rezando para que la vram te dé en los juegos que van sacando.
Corta es no poder poner todo a tope en ultra y RT activado, no?
Yo estoy por tirarla porque en el único juego, TLOU, puedo poner el rtx y todo pero la texturas de las armas en alto solamente, porque si no, consume 12,1gb de vram.
ditifet escribió:KindapearHD escribió:8Gb obsoletos quiere decir que ni al minimo todo bastará con 8Gb o habláis de vuestra ultritis y de si no está todo al maximo, es quedarse corta?
Alguien se apuesta algo que de aquí a 2 años como mínimo una 3070ti o una 3080 con 10gb, va a ser perfectamente usable?
Me flipa la facilidad con la que enterráis hardware.
Por si acaso todos a comprar la 4090, no vaya a ser que para juegos, no sea suficiente.ditifet escribió:
Corta es no poder poner todo a tope en ultra y RT activado, no?
Yo estoy por tirarla porque en el único juego, TLOU, puedo poner el rtx y todo pero la texturas de las armas en alto solamente, porque si no, consume 12,1gb de vram.
Ya no sirve, está obsoleta, tienes que bajar algún setting de ultra a alto, tírala total nadie la querrá
katatsumuri escribió:Hablando de tecnologías como el DLSS, verás cuando saquen filtros por IA, vamos a flipar dentro de poco cuando nvidia saque tecnología de filtros por IA porque será el antes y el después de los videojuegos, ese realismo tan ansiado que siempre hemos deseado vendrá de la mano de NVIDIA y está al caer, nos mataremos de nuevo por una NVDIA cuando liberen los filtros
katatsumuri escribió:@Nomada_Firefox pues no se que te parece esto a pastel, y esto es renderizado en tiempo real
elcapoprods escribió:Optimizar los juegos es algo impensable, a comprar gráficas con 64gb de vram y potencia bruta para mover el codigo roto y y una CPU de alta gama para mover el DRM debajo y encima del otro DRM.
Duendeverde escribió:Y todo lo que venden de gama baja por debajo de 400€ es basura que moverán indies (y no todos) y poco más.
katatsumuri escribió:@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.
El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.
Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.