spaizor6 escribió: además, sinceramente me cuesta muchísimo ver las diferencias entre distintos presets gráficos mientras juego xD.
Nomada_Firefox escribió:Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.
katatsumuri escribió:@Nomada_Firefox es que no es el juego... son filtros... los podrás usar en cualquier juego como los han usado sobre unreal engine con metahuman, da igual que sea un juego del 2023 que del 2005
Nomada_Firefox escribió:katatsumuri escribió:@Nomada_Firefox que no, que no se verá de plástico, que estás muy equivocado, las caras esas son hechas a base de muestras de personas reales, si, son actrices, pero pronto podrán generarse rostros random, en realidad ya deberías de poder hacerlo, aunque ahora mismo sería más laborioso, tendrías que generar las imágenes a partir de una IA que genere imágenes; las ciudades estarán hechas a base de muestras de imágenes de ciudades reales, así de simple, incluso para entornos tridimensionales está NeRF que es una burrada lo que consigue, aunque aún le queda un poco para pulirlo, pero de ahí ya podremos tener plantas tridimensionales y entornos realistas.
El problema va a ser mover mundos abiertos con semejante carga poligonal en un motor gráfico, por eso la solución realmente son los filtros, que sea el filtro el que realmente simule que una planta 2D es 3D, o que con unos gráficos más o menos normales se ve alucinante con el filtro, así el peso cae sobre el filtro que simplemente depura el frame.
Incluso con esta tecnología es probable que google o microsoft empiecen a escanear el mundo para crear un clon 3D.
Cuando se vea como tu dices que me avisen..........yo no he visto ni un solo juego en desarrollo que luzca como la vida real.
KindapearHD escribió:Eso estoy haciendo y justamente pagando 1.800€ por una 4090, porque es la única que va a valer de aquí a un par d años. Porque claro, 8Gb va a estar obsoleto por lo que los 12, será el mínimo mínimo. Pero por si acaso me voy a 24, no vaya a ser que salga el The last of us 2 y, aunque sea de 2020, te pida 18Gb de vram.
flo79 escribió:has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.
A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.
flo79 escribió:KindapearHD escribió:Eso estoy haciendo y justamente pagando 1.800€ por una 4090, porque es la única que va a valer de aquí a un par d años. Porque claro, 8Gb va a estar obsoleto por lo que los 12, será el mínimo mínimo. Pero por si acaso me voy a 24, no vaya a ser que salga el The last of us 2 y, aunque sea de 2020, te pida 18Gb de vram.
Ríete, has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.
A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.
Nomada_Firefox escribió:flo79 escribió:has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.
A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.
Mirandolo asi, es logico ahorrar y comprar algo superior a las 4070. Por eso la 4090. El problema es que la 90 ha bajado y la 80 ha subido. Y para pagar 1329€ por una 80, ya puestos pagar 1759 por una 4090. Son 430€, pero se supone que si podias pagar 1329, no eres una persona corta de dineros.
Y sí, con los aplausos de la gente, aunque sea solo por el rendimiento, esta claro que las RTX 50 costaran más.
Respecto a 4070Ti, pues ahora la más barata ronda los 900€. Y para 1080p/1440p sera excelente. Tampoco lo veo como dice flo79 porque aunque pagases 1000, de 1000 a 2000 hay 1000€, es mucho dinero.
No puedes ir por la vida diciendo que es más inteligente la 90 porque cuesta poco más cuando no es asi. Poco más fue cuando yo compre la RX 6700XT y Pacorr me dijo que comprase la RX 6800, eso eran menos de 100€ de diferencia y eso era poco más. 1000 no es poco más.
flo79 escribió: dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.
Nomada_Firefox escribió:flo79 escribió: dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.
Bueno...........yo no diria que esta capada para 4k ¿acaso la 3070 valia para 4k? era una grafica de 1440, igual que lo sigue siendo la 4070.
flo79 escribió:Nomada_Firefox escribió:flo79 escribió:has pagado casi mil euros por una gráfica que anda justa de vram y un bus que tampoco es el que debería ser. Ahora ya si quieres les das 800€ más por una 4090, tampoco le importaría al chino.
A la serie 5070 ti igual le suma otro 30% de sobreprecio, se la vuelves a comprar y nos vemos por aquí teniendo esta conversación sobre lo bien que te rula y demás compras inteligentes.
Mirandolo asi, es logico ahorrar y comprar algo superior a las 4070. Por eso la 4090. El problema es que la 90 ha bajado y la 80 ha subido. Y para pagar 1329€ por una 80, ya puestos pagar 1759 por una 4090. Son 430€, pero se supone que si podias pagar 1329, no eres una persona corta de dineros.
Y sí, con los aplausos de la gente, aunque sea solo por el rendimiento, esta claro que las RTX 50 costaran más.
Respecto a 4070Ti, pues ahora la más barata ronda los 900€. Y para 1080p/1440p sera excelente. Tampoco lo veo como dice flo79 porque aunque pagases 1000, de 1000 a 2000 hay 1000€, es mucho dinero.
No puedes ir por la vida diciendo que es más inteligente la 90 porque cuesta poco más cuando no es asi. Poco más fue cuando yo compre la RX 6700XT y Pacorr me dijo que comprase la RX 6800, eso eran menos de 100€ de diferencia y eso era poco más. 1000 no es poco más.
Ambas compras son parejas, lo que te pida el chorizo del chino con su monopolio. Pero por lo menos con la 90 llegas a todo, dejarte casi mil euros en una gráfica como la 70 ti claramente capada para 4k pues ya me parece una estafa, la 90 es simplemente carisima.
flo79 escribió:Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.
Nomada_Firefox escribió:flo79 escribió:Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.
Bueno eso ya no es tema de dineros. Que la nueva generación de Nvidia es carisima, sí, y ya lo era la anterior generación.
Pero el caso es que nos liamos con el tema economico y perdemos el tecnologico.
Y si pagas lo que cuesta, es que lo tienes y te gusta. No es como tu dices, eso es un hecho consumado.
Y tambien es otro hecho consumado que las graficas de AMD no cuestan tan caras porque no estan al mismo nivel y como no estan al mismo nivel, tienen que ofrecer cosas como más Vram.
En la misma cara de la moneda, Nvidia lo sabe y se aprovecha de los usarios metiendo menos Vram y vendiendolas el doble de caras. Es asi.
flo79 escribió:Nomada_Firefox escribió:flo79 escribió:Para 1440 ya tienes la 6700xt por 400€ o la 6800 por 520€, si pagas cerca de mil es para que te dé buen rendimiento en 4k. Para jugar a la misma resolución y poner los rayos tienes que pagar 500€ de diferencia. No me salen las cuentas por ningún lado.
Bueno eso ya no es tema de dineros. Que la nueva generación de Nvidia es carisima, sí, y ya lo era la anterior generación.
Pero el caso es que nos liamos con el tema economico y perdemos el tecnologico.
Y si pagas lo que cuesta, es que lo tienes y te gusta. No es como tu dices, eso es un hecho consumado.
Y tambien es otro hecho consumado que las graficas de AMD no cuestan tan caras porque no estan al mismo nivel y como no estan al mismo nivel, tienen que ofrecer cosas como más Vram.
En la misma cara de la moneda, Nvidia lo sabe y se aprovecha de los usarios metiendo menos Vram y vendiendolas el doble de caras. Es asi.
Pero de que nivel estamos hablando? Si los desarrolladores ya están diciendo que las gpus con 8gb están obsoletas. Osea que el mínimo aceptable son 10 o 12, osea 900€ euros si quieres ir a una nvidia.
Ya te están diciendo que la 4060 con 8gb nacerá muerta, y las 4070 van justas hoy. Me da igual que el juego te traquetee por falta de potencia bruta o por falta de vram.
La gente aquí no se pilla la 4070 ti para tirar renders, esos van a otros foros y ellos sabrán, aquí la gente la compra para jugar al Howard's, al Plague...
elrocho escribió:Otra alternativa es bajarse del carro y que se lo coman con patatas, las gráficas y los juegos.
Yo últimamente disfruto de juegos indie, con menos pretensiones gráficas y jugabilidad que me engancha.
Prop Joe escribió:Sí, ya mismito están los estudios haciendo inutilizables las gráficas del 85% de jugadores de Steam que cuentan con 8 GB o menos, porque prefieren que AMD o Nvidia vendan gráficas a que ellos vendan juegos. Lo veo, sí.
flo79 escribió:Pero de que nivel estamos hablando? Si los desarrolladores ya están diciendo que las gpus con 8gb están obsoletas. Osea que el mínimo aceptable son 10 o 12, osea 900€ euros si quieres ir a una nvidia.
DaNi_0389 escribió:Que no solo existe Nvidia e Intel vendiendo hardware.
Chaquetero escribió:Estafador estafando al decir que cuidado que viene el lobo con el unreal engine 5, motor con el que no hay ni un AAA anunciado a día de hoy, más que demos técnicas engañabobos como lleva pasando desde la del samaritano del 2005. Unreal engine CINCO, ha habido cuatro iteraciones antes de estos vendehumos asustaviejas y aquí estamos.
1° Nvidia lleva estafando a todo el mundo desde las rtx 2000. No ha subido la VRAM de sus gráficas en 7 años.
2° No hay ni habrá juegos "Next generation" a corto plazo, la gente está acomplejandose por un chorriport de un chorrijuegos de PS3 que apenas lleva un lavado de cara, cyberpunk o rdr2, o requiem, o el propio days gone son mucho mejores gráficamente y piden mucha menos máquina.
3° Vosotros seguid, seguid comprando GPUs de 1000-2000 euros para jugar a indies de 5 euros del gamepass. Es el SOFTWARE, lo que te tiene que hacer actualizar el HARDWARE, hasta que no saquen videojuegos que lo merezcan es absurdo tragarse estás gilipolleces de vendedor a puerta fría venido a más como el papanatas del twit este.
aamram escribió:Completamente de acuerdo... a esto añado que jugar en "medio" todavía es una opción que nos dan los desarrolladores y que no vamos a matar a ningún gatito si decidimos hacerlo.
Duendeverde escribió:https://www.youtube.com/watch?time_continue=579&v=Rh7kFgHe21k&embeds_euri=https%3A%2F%2Felchapuzasinformatico.com%2F&feature=emb_logo
La 6800xt va mejor que la RTX 3070 cuando metemos todo la máximo y RTX en ciertos juegos de última hornada. Si eso pasa ahora, imaginad dentro de un año.
El tema es el que se compra ese tipo de gráficas, es para jugar bien. No para quitar efectos, por culpa de la vram.
Duendeverde escribió:@ditifet Estamos hablando de 1080p. Resolución ya desfasada, incluso en consolas. La 3070 y similares se vendían para jugar a más resolución. Para 1080p entonces era un overkill. Para eso tenías las 3060 o la rx6600 de AMD.
En estos casos no hablamos de poca potencia. Es que esos juegos los puede mover esa gráfica a 1080p al máximo y sobrados. Pero se quedan sin vram y pega tirones o malos mínimos debido a esto. No por falta de potencia.
Si tienes que recortar cosas porque te quedas sin memoria, cuando el fabricante decía que era suficiente, pues...
pero se podria jugar genial con 8 de vram a 1080 p si programaran las cosas con cariño
vinzenzo34 escribió:@Nomada_Firefox Vamos a ver , te puedes reir , estas en tu derecho.
No será fácil ahí te doy la razón. Pero es mucho mas cómodo, ya que no tengo mil pcs para probar en una escena concreta, meter toda la carga en la vram y los que tienen pcs mas cortos que se jodan. Vamos la ley del minimo esfuerzo .
Duendeverde escribió:
La 6800xt va mejor que la RTX 3070 cuando metemos todo la máximo y RTX en ciertos juegos de última hornada. Si eso pasa ahora, imaginad dentro de un año.
El tema es el que se compra ese tipo de gráficas, es para jugar bien. No para quitar efectos, por culpa de la vram.
undertaker00 escribió:Otra opción es que ....llegado el momento , y con el juego X , en vez de en Ultra , lo pongas en muy alto.....
Nos alarmamos por cualquier cosa .
Gráficas del carajo hablando de obsoletas...de que no van a poder con juegos....
Así nos adoctrinan para meternos gráficas de 1800€ .
vinzenzo34 escribió:con algun algoritmo en vez de tener texturas separadas
Nomada_Firefox escribió:@BladeRunner La RTX 3060 de 12GB no tiene problemas en mover nada a 1080p calidad ultra. El problema es con 8GB, 12GB sufren problemas, solo se puede ver que si tienes más, ocupa más.
Nomada_Firefox escribió:@BladeRunner Preferiria poner la fuente original https://www.techpowerup.com/review/hogw ... sis/6.html
Fijense en 1080p, yo nunca usaria una 3060 en una resolución mayor. Pero no obstante habria que jugarlo para saber que afecte. El consumo de memoria como ya dije es absurdo de por si porque hay muchos juegos que gastan 14GB y no son ni modernos.
Asi que igual la 3070 saca más fps pero pega unas rascas que te flipas en cuanto hay cuatro objetos en pantalla.
Duendeverde escribió:Ya lo han dicho atrás. Ahora todo se desarrolla en base en consolas. Luego hacen los cutreports a pcs. En estos casos el problema es que es más fácil hacer un copia y pega. Es decir, meter todo a la vram, como la memoria unificada de las consolas. Por eso pasan estas cosas.
Recuerdo hace muchos años, que el forza motosport 7 en pc, rascaba bien con 8gb de ram y gráfica de 2gb de vram. O metías minimo 12gb de ram o gráfica con más vram o tenías rascadas. En cambio una xbox one con 8gb ddr3 unificados, no tenías ese problema.
Recordemos que las RTX 3000 no tienen ni 3 años antigüedad y que su mercado doméstico fue silenciado por sus 2 años de la minería. Es decir, que hay gente que pagó por una 1000€ o más como la 3070 y que ya tiene que recortar cosas, por falta de memoria, no de potencia. Porque no tiene sentido que una 6800xt pueda mover RT por su vram, cuando no fue una gráfica destinada para eso.
Aunque aquí el problema también es de los fabricantes también, vendiendo tarjetas con la memoria muy justa. Porque gráficas con 8gb de vram ya existían en 2015. En Nvidia me suena que la primera era la 1070 y salió en 2016. Luego ya que se habla de la 4050 y demás con 4 y 6gb, ya es de risa, cuando la 1060 6gb se le criticó porque tenía menos que la RX 480 8gb y hablamos del 2016. Es decir, que gráficas de gama baja, dentro de poco sólo podrás jugar juegos en bajo, aunque te haya costado 300-400€.
Una solución temporal que están haciendo algunos (me suena que en el hogwarts), es cargar temporalmente texturas de menor calidad. Pero emborrona la imagen y más si juegas en calidades muy altas.