Wookiee escribió:Alexroyer escribió:adriano_99 escribió:El problema es que uno tiene que pensar las cosas en frío y no dejarse llevar por algo que te puede dar más tranquilidad a corto plazo pero muchos más problemas a la larga.
Igual te sale bien y te la gozas durante 5 años ,pero si no sale bien puedes estar acordandote de esos 200 euros durante muchos más años.
Si hablasemos de 600 a 400 te diría que es un riesgo aceptable pero de 1600 o 1700 a 1400 no.
Claro cabeza fría llevo intentando tener todo el año, ahora que quedan 3 meses para el Black Friday es cuando me empiezo a calentar.
Y a ver, riesgo "aceptable" si tengo factura de compra yo creo que sí que es por un ahorro de 200-300€. Tío es que me da rabia que voy a calentarme de aquí al Black Friday y en diciembre o enero van a anunciar las Super o una rebaja oficial o lo que sea, entonces lo dicho, un ahorro de 100-400€ o lo que sea sobre el precio que llevo viendo meses (que es que no bajan las 4090) pues me va a ayudar a quedarme satisfecho.
En CeX las puedes encontrar por el precio que barajas y te dan 3 años de garantía.
kur1oso escribió:Qué tal veis una 4060 Ti por 399€?
Acompañada de i5 11400, 32gb ram y fuente de 650w.
Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año
adriano_99 escribió:kur1oso escribió:Qué tal veis una 4060 Ti por 399€?
Acompañada de i5 11400, 32gb ram y fuente de 650w.
Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año
No le recomendaría esa gráfica ni a mi peor enemigo.
Corta de vram desde el primer dia.
Bus y ancho de banda irrisorios.
Pci express x8.
En algunos juegos y resoluciones rinde menos que la 3060ti, de media un 5% menos que la 3070 y en algunos juegos puede llegar a ser un 10-15 incluso 20%.
kur1oso escribió:adriano_99 escribió:kur1oso escribió:Qué tal veis una 4060 Ti por 399€?
Acompañada de i5 11400, 32gb ram y fuente de 650w.
Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año
No le recomendaría esa gráfica ni a mi peor enemigo.
Corta de vram desde el primer dia.
Bus y ancho de banda irrisorios.
Pci express x8.
En algunos juegos y resoluciones rinde menos que la 3060ti, de media un 5% menos que la 3070 y en algunos juegos puede llegar a ser un 10-15 incluso 20%.
Entonces es mejor 3070 por 300€ que 4060 Ti por 399?
Madre mía si he visto reviews y rinde mejor 4060 Ti... D:
kur1oso escribió:Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?
He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.
Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)
adriano_99 escribió:kur1oso escribió:Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?
He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.
Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)
El problema de las medias es que se comen las discrepancias.
Luego vas al the last of us y hablamos de 76 fps la 3070 y 62 la 4060ti.
Porque es un juego que penaliza mucho la falta de ancho de banda.
kur1oso escribió:adriano_99 escribió:kur1oso escribió:Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?
He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.
Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)
El problema de las medias es que se comen las discrepancias.
Luego vas al the last of us y hablamos de 76 fps la 3070 y 62 la 4060ti.
Porque es un juego que penaliza mucho la falta de ancho de banda.
Gracias por la info porque me has dejado de hielo con lo del bus de 128 y el pci 4.0 8x...
Es una vergüenza; y a raíz de eso veo que EVGA abandona las GPU, normal... Nos están f*llando por todas partes con esta serie 40 tan cara y no a la altura de lo que se esperaba...
Pero en serio te pillarías la 3070 sabiendo que no vas a tener Frame Generation y que la intención es que dure +5 años (mi 1060 la jubilo ahora tras 7 años)?
Pollonidas escribió:Yo estiraría a la 4070 o directamente miraría alternativas en AMD o en la misma 3070 que barajas aún sin frame generation. No es un problema de falta de VRAM, al menos no solo de falta de VRAM. La 4060Ti de 16GiB tiene los mismos problemas que su hermana pequeña que ya ha mencionado @adriano_99 : Bus de memoria de gama baja (y por culpa de esto, un ancho de banda a memoria muy reducido, menor que la 3060 incluso) y pciex x8. La gente está obsesionada con el tema y si me preguntas mi opinión yo creo que a las resoluciones donde realmente es una ventaja la VRAM extra (ahora mismo solo 4K) la gráfica ya va justa. No creo que la 4060Ti de 16GiB vaya a envejecer mucho mejor que la de 8. Y creo que las dos envejecerán regular.
Tampoco es que sea una gráfica para pegarse un tiro, pero al precio que está a mí me parece de las menos interesantes. Y debería llamarse 4050. Pero claro, a nvidia cada vez que le salen gamas medias que rinden "demasiado" sube una gama. Véase el caso de la 680 que tiene el chip de gama media (GK104). O la 1080 y 2080 que 3/4 de lo mismo.
Saludos
kur1oso escribió:Pero entonces un video como éste?
https://www.youtube.com/watch?v=A17lGpDMA0Y
Ojo, no rebato tu palabra, pero yo veo videos así y qué son, fake?
Creo que voy a tomar la mala decisión y me quedo la 4060 Ti...
Siento que comprar una 3070 es quedarme a medio camino en el upgrade del PC: sí, es culpa del consumismo de querer tener lo último; pero coño, si llevo 7 años esperando y resulta que no me compro lo más actual (rinde igual o ínfimamente menos, con tecnología más actual).
elcapoprods escribió:Pues yo no tuve problemas con el.Hogwarts en la 3070 y puse todo en ultra a 1440p sin el RT, es mas, tengo ahora mas tirones con todo en ultra y RT con la 4080 que con la 3070 que iba fina.
adriano_99 escribió:No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.
Pollonidas escribió:adriano_99 escribió:No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.
Como he dicho en otros temas, una cosa es que un juego use (creo que la palabra más adecuada aquí es reserve) una cantidad de VRAM y otra diferente es que un juego aproveche esa cantidad de VRAM. Hay texturas y recursos que se usan muy rara vez, pero si sobra RAM, se guardan ahí "por si acaso". Dejar todo eso fuera por sistema no suele ser un gran cambio a peor.
Hogwarts Legacy de hecho creo que es un ejemplo estupendo. El uso de VRAM con gráficas "sin límite" (es decir, 24GiB, en una 4090) es altísimo como bien apuntas. Hablamos de 10GiB a 1080p pero es que son 14GiB a 1080p con raytracing
Bien... ¿cómo se porta entonces con gráficas que tienen menos VRAM? Pues... bastante bien: https://www.techpowerup.com/review/hogw ... sis/6.html
Fíjate como tu 3070 con sus 8GB pasa con margen la 6700XT con 12 incluso en el escenario más desfavorable (4K, raster puro sin RT). En mínimos también. Y por supuesto el Raytracing es terreno nVidia, pero teniendo en cuenta que sin restricciones casi pide el doble de VRAM, me parece un resultado muy decente (al menos comparativamente, este juego en particular pide una burrada para RT en condiciones). Vaya, que con una gráfica de 8GiB considero que sería jugable a 1080p y con RT incluso teniendo como óptimo 14GB (ya puestos mejor 16) de VRAM.
Saludos
Pollonidas escribió:@kur1oso Es que con los ajustes máximos desde luego que no lo es, pero vaya, también verás unas pocas gráficas (incluso alguna de AMD) probadas con RT Low que sí que diría que es un escenario en el que gráficas "accesibles" dan un rendimiento digno. Para mí TPU y W1zzard será de lo más objetivo que puede haber, pondré en duda muchas cosas, pero para mí esos números son de fiar.
Hoy en día hay juegos que piden requisitos absurdos con los ajustes máximos, sobre todo con RT. Pero es algo que siempre ha pasado. El primer Crysis (volvemos al meme) de lanzamiento muy poca gente podía ponerlo al máximo.
Hogwarts Legacy es un juego extremadamente exigente en todo, especialmente en GPU. Diría de hecho que el apartado gráfico es bastante discreto para lo que pide. Pero si hacemos cherrypicking de ejemplos del estilo (pienso en TLOU ahora) es que en muchos no te puedes comprar nada que lo vaya a mover bien de verdad. Ni con 5000€ en el PC, porque la compilación de shaders al arranque y los microtirones te los comes con un 7800X3D y una 4090 también. Yo creo que en estos casos que piden tanto es más culpa del software que del hardware.Y al último le pedimos que haga un milagro en lugar de echar la culpa al primero cuando la tiene.
Saludos
kur1oso escribió:A tomar por culo, 530€ por la 4070...
Me cago en vuestra putísima estampa
Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti
[Alex] escribió:kur1oso escribió:A tomar por culo, 530€ por la 4070...
Me cago en vuestra putísima estampa
Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti
Nueva?
En qué tienda?
A 530€ podría planteármela. Ando en esa horquilla, a decidir entre la 6800XT, la 4070 y la 7800XT
Otra opción es bajar hasta la 6700XT y subir a una futurible 4070S con 16GB (espero que antes de acabar 2023)...
kur1oso escribió:[Alex] escribió:kur1oso escribió:A tomar por culo, 530€ por la 4070...
Me cago en vuestra putísima estampa
Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti
Nueva?
En qué tienda?
A 530€ podría planteármela. Ando en esa horquilla, a decidir entre la 6800XT, la 4070 y la 7800XT
Otra opción es bajar hasta la 6700XT y subir a una futurible 4070S con 16GB (espero que antes de acabar 2023)...
Ya quisiera. De la web del CEX, usada con garantía de 3 años. Además es una Zotac de 2 ventiladores, espero que vaya bien...
La 4060 Ti que cogí era una MSI de 3 ventiladores, y la 3070 lo mismo (MSI 3 fan)
kur1oso escribió:Vosotros le dais importancia a que tenga 3 o 2 ventiladores la GPU?
_anVic_ escribió:Hace mucho que no probaba el Hogwarts Legacy, me lo pase el día de su salida con la 4090 y en dos o 3 días lo acabe( sin parches ) Me ha dado por probarlo a día de hoy con una 1660ti y un 9900k a 1080p con opciones medias/ altas habilitando FSR modo calidad y va como un tiro. 60 fps rocosos en cualquier zona y una línea de frametime bastante plana. Parece que le han sentado bien los parches.
No llega ni al 98/99% el gpu load, está con el cap a 60fps/60hz y va sobrada la 1660ti con esos settings. El juego no luce nada mal y va muy fluido vs el día 1.
kur1oso escribió:_anVic_ escribió:Hace mucho que no probaba el Hogwarts Legacy, me lo pase el día de su salida con la 4090 y en dos o 3 días lo acabe( sin parches ) Me ha dado por probarlo a día de hoy con una 1660ti y un 9900k a 1080p con opciones medias/ altas habilitando FSR modo calidad y va como un tiro. 60 fps rocosos en cualquier zona y una línea de frametime bastante plana. Parece que le han sentado bien los parches.
No llega ni al 98/99% el gpu load, está con el cap a 60fps/60hz y va sobrada la 1660ti con esos settings. El juego no luce nada mal y va muy fluido vs el día 1.
Leo estas cosas y pienso, joder, entonces con la 4060 Ti va que chuta...
kur1oso escribió:Dicho lo cual, entendí en tu comentario anterior que en realidad no es tan mala opción la 4060 Ti o me he fumado 4 cositas y realmente sí me tengo que gastar los +500 euros en la 4070?
Pollonidas escribió:adriano_99 escribió:No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.
Como he dicho en otros temas, una cosa es que un juego use (creo que la palabra más adecuada aquí es reserve) una cantidad de VRAM y otra diferente es que un juego aproveche esa cantidad de VRAM. Hay texturas y recursos que se usan muy rara vez, pero si sobra RAM, se guardan ahí "por si acaso". Dejar todo eso fuera por sistema no suele ser un gran cambio a peor.
Hogwarts Legacy de hecho creo que es un ejemplo estupendo. El uso de VRAM con gráficas "sin límite" (es decir, 24GiB, en una 4090) es altísimo como bien apuntas. Hablamos de 10GiB a 1080p pero es que son 14GiB a 1080p con raytracing
Bien... ¿cómo se porta entonces con gráficas que tienen menos VRAM? Pues... bastante bien: https://www.techpowerup.com/review/hogw ... sis/6.html
Fíjate como tu 3070 con sus 8GB pasa con margen la 6700XT con 12 incluso en el escenario más desfavorable (4K, raster puro sin RT). En mínimos también. Y por supuesto el Raytracing es terreno nVidia, pero teniendo en cuenta que sin restricciones casi pide el doble de VRAM, me parece un resultado muy decente (al menos comparativamente, este juego en particular pide una burrada para RT en condiciones). Vaya, que con una gráfica de 8GiB considero que sería jugable a 1080p y con RT incluso teniendo como óptimo 14GB (ya puestos mejor 16) de VRAM.
Saludos
adriano_99 escribió:Por eso se porta bien a nivel de rendimiento pero el juego nos e ve como debería y eso no lo vas a ver en techpowerup porque solo ves la cantidad de fps y solo la media.
Pollonidas escribió:@adriano_99 Conforme, pero me da la impresión de que ni te has molestado en abrir el enlace que he puesto porque dices textualmenteadriano_99 escribió:Por eso se porta bien a nivel de rendimiento pero el juego nos e ve como debería y eso no lo vas a ver en techpowerup porque solo ves la cantidad de fps y solo la media.
...y justamente la tercera tabla empezando por arriba son los FPS mínimos, en los que tampoco sale (tan) mal parada la 3070. Así que no, no solo me estoy fijando en la media. Y reitero, la diferencia de memoria asignada a la disponible en la GPU es prácticamente un factor de 2 (14GiB vs 8GiB respectivamente)
Si toda la historia fuera eso, hay parámetros objetivos difícilmente explicables. Por ejemplo, ¿por qué la 4060Ti de 16GiB rinde exactamente igual que la de 8GiB y no ligeramente peor a resoluciones de 1080p y 1440p? Lo digo porque, con esa premisa, se supone que la de 8GiB está trabajando con texturas de calidad reducida, y debería rendir más, aunque sea por poco, y no es el caso.
Creo que es un factor más, pero que tiene muy poco impacto, al menos en este ejemplo. Ni en la calidad de lo que ves ni en el rendimiento.
Saludos
kur1oso escribió:La 4070 que he comprado es la Zotac Gaming GeForce RTX 4070 Twin Edge OC.
Solamente me refiero al cable que va a la fuente, si es el especial nuevo ese 12VHPWR o como se diga, o con el normal de la fuente me sirve (el que uso ahora para la 1060, por ejemplo).
De momento he encargado en Amz este (si me decís ya de ya que he errado, anuló la compra):
https://www.amazon.es/Corsair-Premium-P ... B0BLY1B362
Edit. Estoy viendo que mi fuente no tiene el conector que necesitan las RTX (con los 4 pines esos debajo)... Imagino que hay solución, no?