[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Wookiee escribió:
Alexroyer escribió:
adriano_99 escribió:El problema es que uno tiene que pensar las cosas en frío y no dejarse llevar por algo que te puede dar más tranquilidad a corto plazo pero muchos más problemas a la larga.
Igual te sale bien y te la gozas durante 5 años ,pero si no sale bien puedes estar acordandote de esos 200 euros durante muchos más años.
Si hablasemos de 600 a 400 te diría que es un riesgo aceptable pero de 1600 o 1700 a 1400 no.

Claro cabeza fría llevo intentando tener todo el año, ahora que quedan 3 meses para el Black Friday es cuando me empiezo a calentar.

Y a ver, riesgo "aceptable" si tengo factura de compra yo creo que sí que es por un ahorro de 200-300€. Tío es que me da rabia que voy a calentarme de aquí al Black Friday y en diciembre o enero van a anunciar las Super o una rebaja oficial o lo que sea, entonces lo dicho, un ahorro de 100-400€ o lo que sea sobre el precio que llevo viendo meses (que es que no bajan las 4090) pues me va a ayudar a quedarme satisfecho.



En CeX las puedes encontrar por el precio que barajas y te dan 3 años de garantía.

Qué casualidad que justo llevaba 5 minutos antes de revisar el foro mirando CEX, pues no me parece para nada una mala opción. Lo que no se es qué garantía te da CEX cuando surgen problemas... que ya me pasó con el mando DualSense de Sony que se lavaron las manos al año y pico de la compra porque lo tenían catalogado como juguete electrónico y desde entonces ya no se ni de qué fiarme.
@Alexroyer En principio hace mención explicita a que ese producto tiene 3 años de garantía. Es decir, el fabricante no es quien te la proporciona porque la gpu ya que igual tiene un año y solo le restarían dos, por lo que la garantia la estaría proporcionando CeX. No les he comprado nunca nada así que no te puedo decir que tal se portan.
Yo cuando compré les pregunté por estas cosas y lo que me comentaron es que si no tienen el artículo te lo cambiaban por uno similar.

Esto evidentemente puede salir bien o dar dolor de cabeza, pero es lo que hay con la segunda mano.
Qué tal veis una 4060 Ti por 399€?

Acompañada de i5 11400, 32gb ram y fuente de 650w.

Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año XD
kur1oso escribió:Qué tal veis una 4060 Ti por 399€?

Acompañada de i5 11400, 32gb ram y fuente de 650w.

Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año XD

No le recomendaría esa gráfica ni a mi peor enemigo.
Corta de vram desde el primer dia.
Bus y ancho de banda irrisorios.
Pci express x8.
En algunos juegos y resoluciones rinde menos que la 3060ti, de media un 5% menos que la 3070 y en algunos juegos puede llegar a ser un 10-15 incluso 20%.
adriano_99 escribió:
kur1oso escribió:Qué tal veis una 4060 Ti por 399€?

Acompañada de i5 11400, 32gb ram y fuente de 650w.

Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año XD

No le recomendaría esa gráfica ni a mi peor enemigo.
Corta de vram desde el primer dia.
Bus y ancho de banda irrisorios.
Pci express x8.
En algunos juegos y resoluciones rinde menos que la 3060ti, de media un 5% menos que la 3070 y en algunos juegos puede llegar a ser un 10-15 incluso 20%.


Entonces es mejor 3070 por 300€ que 4060 Ti por 399?

Madre mía si he visto reviews y rinde mejor 4060 Ti... D:
kur1oso escribió:
adriano_99 escribió:
kur1oso escribió:Qué tal veis una 4060 Ti por 399€?

Acompañada de i5 11400, 32gb ram y fuente de 650w.

Ya cambiaré el proce en varios años, que ahora mismo lleva conmigo 1 año XD

No le recomendaría esa gráfica ni a mi peor enemigo.
Corta de vram desde el primer dia.
Bus y ancho de banda irrisorios.
Pci express x8.
En algunos juegos y resoluciones rinde menos que la 3060ti, de media un 5% menos que la 3070 y en algunos juegos puede llegar a ser un 10-15 incluso 20%.


Entonces es mejor 3070 por 300€ que 4060 Ti por 399?

Madre mía si he visto reviews y rinde mejor 4060 Ti... D:

Si, mejor.
La 3070 rinde mas en la mayoría de juegos:
Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?

He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.

Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)
kur1oso escribió:Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?

He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.

Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)

El problema de las medias es que se comen las discrepancias.
Luego vas al the last of us y hablamos de 76 fps la 3070 y 62 la 4060ti.
Porque es un juego que penaliza mucho la falta de ancho de banda.
adriano_99 escribió:
kur1oso escribió:Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?

He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.

Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)

El problema de las medias es que se comen las discrepancias.
Luego vas al the last of us y hablamos de 76 fps la 3070 y 62 la 4060ti.
Porque es un juego que penaliza mucho la falta de ancho de banda.


Gracias por la info porque me has dejado de hielo con lo del bus de 128 y el pci 4.0 8x...

Es una vergüenza; y a raíz de eso veo que EVGA abandona las GPU, normal... Nos están f*llando por todas partes con esta serie 40 tan cara y no a la altura de lo que se esperaba...

Pero en serio te pillarías la 3070 sabiendo que no vas a tener Frame Generation y que la intención es que dure +5 años (mi 1060 la jubilo ahora tras 7 años)?
kur1oso escribió:
adriano_99 escribió:
kur1oso escribió:Y sin embargo la serie 40 tiene el Frame Generation y en teoría tampoco es una BARBARIDAD en juegos la diferencia, no?

He leído por ahí que de media en 1440p la 3070 logra 92 FPS y 4060 Ti 88 FPS.

Si la diferencia es así, prefiero la Serie 40 para tener la última tecnología (todas las virtudes de DLSS 3.5 y venideros...)

El problema de las medias es que se comen las discrepancias.
Luego vas al the last of us y hablamos de 76 fps la 3070 y 62 la 4060ti.
Porque es un juego que penaliza mucho la falta de ancho de banda.


Gracias por la info porque me has dejado de hielo con lo del bus de 128 y el pci 4.0 8x...

Es una vergüenza; y a raíz de eso veo que EVGA abandona las GPU, normal... Nos están f*llando por todas partes con esta serie 40 tan cara y no a la altura de lo que se esperaba...

Pero en serio te pillarías la 3070 sabiendo que no vas a tener Frame Generation y que la intención es que dure +5 años (mi 1060 la jubilo ahora tras 7 años)?

Ninguna de las dos te va a durar 5 años jugando en condiciones aceptables.
Ya hay varios juegos para los que 8GB se quedan cortos incluso a 1080p, la 4060ti tiene el frame generation pero además de que no disminuye el imput lag ,por lo que aunque te de 100 fps no se siente como 100 sino como 50, es muy probable que el bus y ancho de banda tan pequeños le pasen cada vez mas factura y envejezca peor.
Me compraria la 3070 simplemente porque es más barata y como digo ninguna de las dos tiene mucho futuro.
Yo estiraría a la 4070 o directamente miraría alternativas en AMD o en la misma 3070 que barajas aún sin frame generation. No es un problema de falta de VRAM, al menos no solo de falta de VRAM. La 4060Ti de 16GiB tiene los mismos problemas que su hermana pequeña que ya ha mencionado @adriano_99 : Bus de memoria de gama baja (y por culpa de esto, un ancho de banda a memoria muy reducido, menor que la 3060 incluso) y pciex x8. La gente está obsesionada con el tema y si me preguntas mi opinión yo creo que a las resoluciones donde realmente es una ventaja la VRAM extra (ahora mismo solo 4K) la gráfica ya va justa. No creo que la 4060Ti de 16GiB vaya a envejecer mucho mejor que la de 8. Y creo que las dos envejecerán regular.

Tampoco es que sea una gráfica para pegarse un tiro, pero al precio que está a mí me parece de las menos interesantes. Y debería llamarse 4050. Pero claro, a nvidia cada vez que le salen gamas medias que rinden "demasiado" sube una gama. Véase el caso de la 680 que tiene el chip de gama media (GK104). O la 1080 y 2080 que 3/4 de lo mismo.

Saludos
En NVIDIA en gama "media" no bajaría de una 4070, que se pueden ver por menos de 600€

A no ser que quieras una de transición para pasar 2 años y pillar una 3070 usada por menos de 300€

En AMD a falta de ver las 7700/7800xt pues entre estas y una 6800,6900 o 6950xt que está por 600€ y muy pocos
Está crudo el tema, sí...

He estado rebuscando literalmente por todas partes (eBay, CEX, PcComponentes reaco, Amazon reaco) y la 4070 se va por mucho, más de 550.

La 4060 Ti la tengo en 400 y la 3070 en 299. Me llegan las dos hoy...

Estuve mirando la 6700xt pero de verdad que yo de Nvidia no salgo aún sabiendo la mafia que nos han metido con los precios en gama media de las 40... yo quiero mi DLSS, mi FG, RTX...

Me cuesta comprender cómo necesito más de 8gb cuando actualmente con mi 1060 6gb (tiene 7 años) Starfield me va a 25fps. Si Starfield va a 25fps 6gb con una gpu +7 años, debería ir dpm con una actual de 8gb (ya no por la vram, si no por todo lo que conlleva).

Juego en 1440p 165-180Hz.
Pollonidas escribió:Yo estiraría a la 4070 o directamente miraría alternativas en AMD o en la misma 3070 que barajas aún sin frame generation. No es un problema de falta de VRAM, al menos no solo de falta de VRAM. La 4060Ti de 16GiB tiene los mismos problemas que su hermana pequeña que ya ha mencionado @adriano_99 : Bus de memoria de gama baja (y por culpa de esto, un ancho de banda a memoria muy reducido, menor que la 3060 incluso) y pciex x8. La gente está obsesionada con el tema y si me preguntas mi opinión yo creo que a las resoluciones donde realmente es una ventaja la VRAM extra (ahora mismo solo 4K) la gráfica ya va justa. No creo que la 4060Ti de 16GiB vaya a envejecer mucho mejor que la de 8. Y creo que las dos envejecerán regular.

Tampoco es que sea una gráfica para pegarse un tiro, pero al precio que está a mí me parece de las menos interesantes. Y debería llamarse 4050. Pero claro, a nvidia cada vez que le salen gamas medias que rinden "demasiado" sube una gama. Véase el caso de la 680 que tiene el chip de gama media (GK104). O la 1080 y 2080 que 3/4 de lo mismo.

Saludos

No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.
Pero entonces un video como éste?

https://www.youtube.com/watch?v=A17lGpDMA0Y

Ojo, no rebato tu palabra, pero yo veo videos así y qué son, fake?

Creo que voy a tomar la mala decisión y me quedo la 4060 Ti...

Siento que comprar una 3070 es quedarme a medio camino en el upgrade del PC: sí, es culpa del consumismo de querer tener lo último; pero coño, si llevo 7 años esperando y resulta que no me compro lo más actual (rinde igual o ínfimamente menos, con tecnología más actual).
kur1oso escribió:Pero entonces un video como éste?

https://www.youtube.com/watch?v=A17lGpDMA0Y

Ojo, no rebato tu palabra, pero yo veo videos así y qué son, fake?

Creo que voy a tomar la mala decisión y me quedo la 4060 Ti...

Siento que comprar una 3070 es quedarme a medio camino en el upgrade del PC: sí, es culpa del consumismo de querer tener lo último; pero coño, si llevo 7 años esperando y resulta que no me compro lo más actual (rinde igual o ínfimamente menos, con tecnología más actual).


Sí, lo son.

Revisad canales serios como Hardware Unboxed, por favor.

Tienen muy bien documentado el tema de la VRAM.
Pues yo no tuve problemas con el.Hogwarts en la 3070 y puse todo en ultra a 1440p sin el RT, es mas, tengo ahora mas tirones con todo en ultra y RT con la 4080 que con la 3070 que iba fina.
elcapoprods escribió:Pues yo no tuve problemas con el.Hogwarts en la 3070 y puse todo en ultra a 1440p sin el RT, es mas, tengo ahora mas tirones con todo en ultra y RT con la 4080 que con la 3070 que iba fina.

Porque ese juego deja de cargar texturas cuando llena la memoria para evitar el stutter, pero sigue llenándose y sigues necesitando más.
El forspoken es otro juego que hace eso y ambos se ven como el culo en tarjetas de 8gb.
A tomar por culo, 530€ por la 4070...

Me cago en vuestra putísima estampa XD

Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti XD
adriano_99 escribió:No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.

Como he dicho en otros temas, una cosa es que un juego use (creo que la palabra más adecuada aquí es reserve) una cantidad de VRAM y otra diferente es que un juego aproveche esa cantidad de VRAM. Hay texturas y recursos que se usan muy rara vez, pero si sobra RAM, se guardan ahí "por si acaso". Dejar todo eso fuera por sistema no suele ser un gran cambio a peor.

Hogwarts Legacy de hecho creo que es un ejemplo estupendo. El uso de VRAM con gráficas "sin límite" (es decir, 24GiB, en una 4090) es altísimo como bien apuntas. Hablamos de 10GiB a 1080p pero es que son 14GiB a 1080p con raytracing

Bien... ¿cómo se porta entonces con gráficas que tienen menos VRAM? Pues... bastante bien: https://www.techpowerup.com/review/hogw ... sis/6.html

Fíjate como tu 3070 con sus 8GB pasa con margen la 6700XT con 12 incluso en el escenario más desfavorable (4K, raster puro sin RT). En mínimos también. Y por supuesto el Raytracing es terreno nVidia, pero teniendo en cuenta que sin restricciones casi pide el doble de VRAM, me parece un resultado muy decente (al menos comparativamente, este juego en particular pide una burrada para RT en condiciones). Vaya, que con una gráfica de 8GiB considero que sería jugable a 1080p y con RT incluso teniendo como óptimo 14GB (ya puestos mejor 16) de VRAM.

Saludos
Pollonidas escribió:
adriano_99 escribió:No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.

Como he dicho en otros temas, una cosa es que un juego use (creo que la palabra más adecuada aquí es reserve) una cantidad de VRAM y otra diferente es que un juego aproveche esa cantidad de VRAM. Hay texturas y recursos que se usan muy rara vez, pero si sobra RAM, se guardan ahí "por si acaso". Dejar todo eso fuera por sistema no suele ser un gran cambio a peor.

Hogwarts Legacy de hecho creo que es un ejemplo estupendo. El uso de VRAM con gráficas "sin límite" (es decir, 24GiB, en una 4090) es altísimo como bien apuntas. Hablamos de 10GiB a 1080p pero es que son 14GiB a 1080p con raytracing

Bien... ¿cómo se porta entonces con gráficas que tienen menos VRAM? Pues... bastante bien: https://www.techpowerup.com/review/hogw ... sis/6.html

Fíjate como tu 3070 con sus 8GB pasa con margen la 6700XT con 12 incluso en el escenario más desfavorable (4K, raster puro sin RT). En mínimos también. Y por supuesto el Raytracing es terreno nVidia, pero teniendo en cuenta que sin restricciones casi pide el doble de VRAM, me parece un resultado muy decente (al menos comparativamente, este juego en particular pide una burrada para RT en condiciones). Vaya, que con una gráfica de 8GiB considero que sería jugable a 1080p y con RT incluso teniendo como óptimo 14GB (ya puestos mejor 16) de VRAM.

Saludos


Es que por esta regla de 3 con la comaprativa de ese link, ni siquiera la 4070 de 12gb que me he comprado es suficiente para 1440p con RT...
@kur1oso Es que con los ajustes máximos desde luego que no lo es, pero vaya, también verás unas pocas gráficas (incluso alguna de AMD) probadas con RT Low que sí que diría que es un escenario en el que gráficas "accesibles" dan un rendimiento digno. Para mí TPU y W1zzard será de lo más objetivo que puede haber, pondré en duda muchas cosas, pero para mí esos números son de fiar.

Hoy en día hay juegos que piden requisitos absurdos con los ajustes máximos, sobre todo con RT. Pero es algo que siempre ha pasado. El primer Crysis (volvemos al meme) de lanzamiento muy poca gente podía ponerlo al máximo.

Hogwarts Legacy es un juego extremadamente exigente en todo, especialmente en GPU. Diría de hecho que el apartado gráfico es bastante discreto para lo que pide. Pero si hacemos cherrypicking de ejemplos del estilo (pienso en TLOU ahora) es que en muchos no te puedes comprar nada que lo vaya a mover bien de verdad. Ni con 5000€ en el PC, porque la compilación de shaders al arranque y los microtirones te los comes con un 7800X3D y una 4090 también. Yo creo que en estos casos que piden tanto es más culpa del software que del hardware.Y al último le pedimos que haga un milagro en lugar de echar la culpa al primero cuando la tiene.

Saludos
Pollonidas escribió:@kur1oso Es que con los ajustes máximos desde luego que no lo es, pero vaya, también verás unas pocas gráficas (incluso alguna de AMD) probadas con RT Low que sí que diría que es un escenario en el que gráficas "accesibles" dan un rendimiento digno. Para mí TPU y W1zzard será de lo más objetivo que puede haber, pondré en duda muchas cosas, pero para mí esos números son de fiar.

Hoy en día hay juegos que piden requisitos absurdos con los ajustes máximos, sobre todo con RT. Pero es algo que siempre ha pasado. El primer Crysis (volvemos al meme) de lanzamiento muy poca gente podía ponerlo al máximo.

Hogwarts Legacy es un juego extremadamente exigente en todo, especialmente en GPU. Diría de hecho que el apartado gráfico es bastante discreto para lo que pide. Pero si hacemos cherrypicking de ejemplos del estilo (pienso en TLOU ahora) es que en muchos no te puedes comprar nada que lo vaya a mover bien de verdad. Ni con 5000€ en el PC, porque la compilación de shaders al arranque y los microtirones te los comes con un 7800X3D y una 4090 también. Yo creo que en estos casos que piden tanto es más culpa del software que del hardware.Y al último le pedimos que haga un milagro en lugar de echar la culpa al primero cuando la tiene.

Saludos


Dicho lo cual, entendí en tu comentario anterior que en realidad no es tan mala opción la 4060 Ti o me he fumado 4 cositas y realmente sí me tengo que gastar los +500 euros en la 4070? XD
kur1oso escribió:A tomar por culo, 530€ por la 4070...

Me cago en vuestra putísima estampa XD

Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti XD


Nueva?
En qué tienda?

A 530€ podría planteármela. Ando en esa horquilla, a decidir entre la 6800XT, la 4070 y la 7800XT

Otra opción es bajar hasta la 6700XT y subir a una futurible 4070S con 16GB (espero que antes de acabar 2023)...
[Alex] escribió:
kur1oso escribió:A tomar por culo, 530€ por la 4070...

Me cago en vuestra putísima estampa XD

Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti XD


Nueva?
En qué tienda?

A 530€ podría planteármela. Ando en esa horquilla, a decidir entre la 6800XT, la 4070 y la 7800XT

Otra opción es bajar hasta la 6700XT y subir a una futurible 4070S con 16GB (espero que antes de acabar 2023)...


Ya quisiera. De la web del CEX, usada con garantía de 3 años. Además es una Zotac de 2 ventiladores, espero que vaya bien...

La 4060 Ti que cogí era una MSI de 3 ventiladores, y la 3070 lo mismo (MSI 3 fan)
kur1oso escribió:
[Alex] escribió:
kur1oso escribió:A tomar por culo, 530€ por la 4070...

Me cago en vuestra putísima estampa XD

Me va a matar mi mujer, pero bueno. Hoy devuelvo la 3070 y 4060 Ti XD


Nueva?
En qué tienda?

A 530€ podría planteármela. Ando en esa horquilla, a decidir entre la 6800XT, la 4070 y la 7800XT

Otra opción es bajar hasta la 6700XT y subir a una futurible 4070S con 16GB (espero que antes de acabar 2023)...


Ya quisiera. De la web del CEX, usada con garantía de 3 años. Además es una Zotac de 2 ventiladores, espero que vaya bien...

La 4060 Ti que cogí era una MSI de 3 ventiladores, y la 3070 lo mismo (MSI 3 fan)


Suerte!

Y disfrútala mucho. Espero que te dé muchas alegrías.

Saludos.
Vosotros le dais importancia a que tenga 3 o 2 ventiladores la GPU?
kur1oso escribió:Vosotros le dais importancia a que tenga 3 o 2 ventiladores la GPU?


La grafica a nivel de rendimiento va a ir igual, otra cosa es que refrigere mejor en verano pero si uno, no quiere gastarse tanto...

530 una 4070 está de pm aunque sea en el CEX, porque la gráfica no habrá sido explotada mucho igualmente, te has ahorrado unos 100€... incluso al ser tan nueva quizá nose si Zotac lo puedes hacer de registrarla en el fabricante para la garantía oficial extendida o cosas así.
_anVic_ está baneado por "clon de usuario baneado"
Hace mucho que no probaba el Hogwarts Legacy, me lo pase el día de su salida con la 4090 y en dos o 3 días lo acabe( sin parches ) Me ha dado por probarlo a día de hoy con una 1660ti y un 9900k a 1080p con opciones medias/ altas habilitando FSR modo calidad y va como un tiro. 60 fps rocosos en cualquier zona y una línea de frametime bastante plana. Parece que le han sentado bien los parches.



Imagen

Imagen

Imagen

Imagen


No llega ni al 98/99% el gpu load, está con el cap a 60fps/60hz y va sobrada la 1660ti con esos settings. El juego no luce nada mal y va muy fluido vs el día 1.
_anVic_ escribió:Hace mucho que no probaba el Hogwarts Legacy, me lo pase el día de su salida con la 4090 y en dos o 3 días lo acabe( sin parches ) Me ha dado por probarlo a día de hoy con una 1660ti y un 9900k a 1080p con opciones medias/ altas habilitando FSR modo calidad y va como un tiro. 60 fps rocosos en cualquier zona y una línea de frametime bastante plana. Parece que le han sentado bien los parches.



Imagen

Imagen

Imagen

Imagen


No llega ni al 98/99% el gpu load, está con el cap a 60fps/60hz y va sobrada la 1660ti con esos settings. El juego no luce nada mal y va muy fluido vs el día 1.


Leo estas cosas y pienso, joder, entonces con la 4060 Ti va que chuta... XD
kur1oso escribió:
_anVic_ escribió:Hace mucho que no probaba el Hogwarts Legacy, me lo pase el día de su salida con la 4090 y en dos o 3 días lo acabe( sin parches ) Me ha dado por probarlo a día de hoy con una 1660ti y un 9900k a 1080p con opciones medias/ altas habilitando FSR modo calidad y va como un tiro. 60 fps rocosos en cualquier zona y una línea de frametime bastante plana. Parece que le han sentado bien los parches.



Imagen

Imagen

Imagen

Imagen


No llega ni al 98/99% el gpu load, está con el cap a 60fps/60hz y va sobrada la 1660ti con esos settings. El juego no luce nada mal y va muy fluido vs el día 1.


Leo estas cosas y pienso, joder, entonces con la 4060 Ti va que chuta... XD


Hazle caso a @pollonidas , yo suscribo lo dicho por el pero como es un tema recurrente del día a día ya paso de volver a debatirlo, yo no tengo tanta paciencia.
kur1oso escribió:Dicho lo cual, entendí en tu comentario anterior que en realidad no es tan mala opción la 4060 Ti o me he fumado 4 cositas y realmente sí me tengo que gastar los +500 euros en la 4070? XD

Realmente cualquier gráfica medianamente reciente con FSR/DLSS da un rendimiento muy digno si puedes vivir bajando algunos ajustes. Dicho esto, la potencia y el hardware son lo que son, y lógicamente unas GPUs van a envejecer mejor que otras.

A mí ni la 4060 ni la 4060Ti me gustan demasiado, porque aunque tienen bastante "músculo" hay algunas specs que son típicas de gama baja. Es decir, que rinden bien, pero buscando casos límite que necesiten esas specs en las que fallan (por ejemplo, el emulador Yuzu depende mucho del ancho de banda a memoria) se pueden ver cosas que claman justicia al cielo como que las 4060(Ti) rindan peor que una 3060 pelada.

No es mala opción del todo, pero por el precio que tiene a mí me parece cara la 4060, y la de 16GB ni te cuento.

Yo creo que has hecho muy bien comprando la 4070, creo que es un salto cualitativo importante. Que tenga 2 o 3 ventiladores, siendo un chip bastante fresco como en este caso, creo que es poco relevante. Hay otras cosas que a mi juicio son más importantes, como que el disipador tenga superficie de contacto con fases y memorias, y que los heatpipes estén soldados y no unidos a presión, pero eso la gente no lo mira. Y ya las fases ni te cuento (de nuevo, en un chip como este, no importa mucho que las fases no estén muy sobredimensionadas)

Saludos
Hola buenas!!

Hoy de calentada y con la salida del starfield veo que mi 2060 de 6GB va un poco mal, por no decir muy mal.
Mirando he visto que estaba la 4060 ti de 16GB, pero viendo el precio me tiraba para atras aunque he estado apunto de comprarla y ha sido cuando me ha dado por mirar el hilo y como esta montada la 4060, el tema de bus y un par de cosas mas..
Asi que aqui estoy, me quiero pillar una y veo que algunos habeis comentado la rx 6750 xt, veis buen cambio por una 2060?
No soy muy sibarita con los juegos, tengo un monitor MSI MAG de 1080 y nunca he tenido problema con esa resolucion, asi que seria todo pa jugarlo a 1080 y con los graficos lo mismo, un medio-alto me basta.
Creeis que con la 6750 voy a ir bien? o mejor esperarme si sacan algo nuevo.

Gracias y un saludo!! :DD

Edit: de CPU tengo un Ryzen 7 3700x
Y yo aguantando con mi GTX 980... el cambio esta cerca, pero creo que lejos de nvidia. No por calidad, sino por precio. Su gama vale 3 veces mas hoy en dia
@Biskuit ademas de estar caras, estan engañando a la gente cambiandole el nombre a las graficas, las RTX 4060 son en realidad las 50, las RTX 4070 son las verdaderas 60......

Pero es que te vas a la competencia y tampoco esta la cosa mucho mejor, esta generacion de GPU da asco🤣
Pollonidas escribió:
adriano_99 escribió:No estoy de acuerdo, the last of us y howgarts legacy se comen los 8gb incluso a 1080p.
8GB ya son un problema y cada día lo serán más.
Y lo digo yo que tengo una 3070.

Como he dicho en otros temas, una cosa es que un juego use (creo que la palabra más adecuada aquí es reserve) una cantidad de VRAM y otra diferente es que un juego aproveche esa cantidad de VRAM. Hay texturas y recursos que se usan muy rara vez, pero si sobra RAM, se guardan ahí "por si acaso". Dejar todo eso fuera por sistema no suele ser un gran cambio a peor.

Hogwarts Legacy de hecho creo que es un ejemplo estupendo. El uso de VRAM con gráficas "sin límite" (es decir, 24GiB, en una 4090) es altísimo como bien apuntas. Hablamos de 10GiB a 1080p pero es que son 14GiB a 1080p con raytracing

Bien... ¿cómo se porta entonces con gráficas que tienen menos VRAM? Pues... bastante bien: https://www.techpowerup.com/review/hogw ... sis/6.html

Fíjate como tu 3070 con sus 8GB pasa con margen la 6700XT con 12 incluso en el escenario más desfavorable (4K, raster puro sin RT). En mínimos también. Y por supuesto el Raytracing es terreno nVidia, pero teniendo en cuenta que sin restricciones casi pide el doble de VRAM, me parece un resultado muy decente (al menos comparativamente, este juego en particular pide una burrada para RT en condiciones). Vaya, que con una gráfica de 8GiB considero que sería jugable a 1080p y con RT incluso teniendo como óptimo 14GB (ya puestos mejor 16) de VRAM.

Saludos

Los videojuegos tienen dos formas de lidiar con insuficiente memoria para texturas: congelar el motor mientras los assets necesarios llegan o dejar de cargar texturas mientras se hace espacio.
The last of us es de los primeros, hogwards legacy o forspoken son los segundos.
Por eso se porta bien a nivel de rendimiento pero el juego nos e ve como debería y eso no lo vas a ver en techpowerup porque solo ves la cantidad de fps y solo la media.

Aquí puedes ver lo que digo, el juego deja de cargar texturas para priorizar el rendimiento desde que lo parchearon al poco de salir.
Si conozco la diferencia entre vram asignada y vram realmente utilizada y howgards legacy necesita mas de 8gb no solo los asigna.
@ivan95 ya, pero valen la mitad, que se agradece. Creo que al final me voy a decantar por la 7800xt, que si bien es mas menos lo mismo que la 6800xt, es mas nueva y hoy por hoy valen lo mismo. Asi que creo que esta noche mismo compro. Llevo años esperando para cambiar, no voy a seguir esperando para ahorrarme 30€ que puedan bajar en unos dias. El pc nuevo (que monte el fine) esta pidiendo grafica nueva xD
@adriano_99 Conforme, pero me da la impresión de que ni te has molestado en abrir el enlace que he puesto porque dices textualmente
adriano_99 escribió:Por eso se porta bien a nivel de rendimiento pero el juego nos e ve como debería y eso no lo vas a ver en techpowerup porque solo ves la cantidad de fps y solo la media.

...y justamente la tercera tabla empezando por arriba son los FPS mínimos, en los que tampoco sale (tan) mal parada la 3070. Así que no, no solo me estoy fijando en la media. Y reitero, la diferencia de memoria asignada a la disponible en la GPU es prácticamente un factor de 2 (14GiB vs 8GiB respectivamente)

Si toda la historia fuera eso, hay parámetros objetivos difícilmente explicables. Por ejemplo, ¿por qué la 4060Ti de 16GiB rinde exactamente igual que la de 8GiB y no ligeramente peor a resoluciones de 1080p y 1440p? Lo digo porque, con esa premisa, se supone que la de 8GiB está trabajando con texturas de calidad reducida, y debería rendir más, aunque sea por poco, y no es el caso.

Creo que es un factor más, pero que tiene muy poco impacto, al menos en este ejemplo. Ni en la calidad de lo que ves ni en el rendimiento.

Saludos
Pollonidas escribió:@adriano_99 Conforme, pero me da la impresión de que ni te has molestado en abrir el enlace que he puesto porque dices textualmente
adriano_99 escribió:Por eso se porta bien a nivel de rendimiento pero el juego nos e ve como debería y eso no lo vas a ver en techpowerup porque solo ves la cantidad de fps y solo la media.

...y justamente la tercera tabla empezando por arriba son los FPS mínimos, en los que tampoco sale (tan) mal parada la 3070. Así que no, no solo me estoy fijando en la media. Y reitero, la diferencia de memoria asignada a la disponible en la GPU es prácticamente un factor de 2 (14GiB vs 8GiB respectivamente)

Si toda la historia fuera eso, hay parámetros objetivos difícilmente explicables. Por ejemplo, ¿por qué la 4060Ti de 16GiB rinde exactamente igual que la de 8GiB y no ligeramente peor a resoluciones de 1080p y 1440p? Lo digo porque, con esa premisa, se supone que la de 8GiB está trabajando con texturas de calidad reducida, y debería rendir más, aunque sea por poco, y no es el caso.

Creo que es un factor más, pero que tiene muy poco impacto, al menos en este ejemplo. Ni en la calidad de lo que ves ni en el rendimiento.

Saludos

He escrito fps medios por costumbre, no le des vueltas a algo sin ninguna importancia.
Las texturas prácticamente nunca afectan al rendimiento, o tienes memoria suficiente o no la tienes.
Ahí tienes el video claramente demostrando como en graficas de 8GB el juego no puede cargar todas las texturas que necesita ergo 8GB no son suficientes.
Y si miras en ese mismo canal verás que en forspoken pasa exactamente lo mismo, en graficas de 8GB el juegos e ve fatal porque las texturas no cargan como deberian.
Y le pasa lo mismo al halo infinite.
Como comenté, compré la RTX 3070, y días después me convencisteis para pillar la 4070. Ambas en CEX.

Hoy he devuelto la 3070 en la tienda, la han abierto en mi cara (yo ni la había desempacado): no viene caja, ni cables de ningún tipo. La gráfica pelada.

Así que aprovecho para preguntaros, como es muy probable que la 4070 me venga pelada (pero no 100% seguro), me recomendáis el mejor cable para la fuente que necesita esta 4070? Lo pillaré en Amazon, para variar.

Mi fuente es la Asus ROG Strix 650W Gold.

Gracias!
@kur1oso el cable de alimentacion no viene en la grafica, ese lo tendras en la caja de tu fuente de alimentacion... en la caja de la grafica hasta donde recuerdo... no viene nah, salvo que sea modelo de esos top que trae el adaptador por los problemas que han aparecido esta generacion, en otras graficas te venia el puente para el SLI pero poca cosa mas. Para una 4070, tampoco vas a tener muchos problemas con los cables, no es tan gocha como los otros modelos, trae conector normal. A no ser que te refieras a otro cable como los adaptadores flex esos que normalmente tampoco vienen hay que comprarlos aparte.
@kur1oso Pues como no te venga el cable pulpo de alimentación lo tienes crudo, busca uno de 2 mano ... por que no me suena que tu Asus tenga cable adaptador ...
Xcala666 escribió:@kur1oso Pues como no te venga el cable pulpo de alimentación lo tienes crudo, busca uno de 2 mano ... por que no me suena que tu Asus tenga cable adaptador ...


@kur1oso Algunas 4070 no tiene el conector nuevo, quizá no hace falta pulpo.¿Qué modelo es?
La 4070 que he comprado es la Zotac Gaming GeForce RTX 4070 Twin Edge OC.

Solamente me refiero al cable que va a la fuente, si es el especial nuevo ese 12VHPWR o como se diga, o con el normal de la fuente me sirve (el que uso ahora para la 1060, por ejemplo).

De momento he encargado en Amz este (si me decís ya de ya que he errado, anuló la compra):

https://www.amazon.es/Corsair-Premium-P ... B0BLY1B362

Edit. Estoy viendo que mi fuente no tiene el conector que necesitan las RTX (con los 4 pines esos debajo)... Imagino que hay solución, no?
@kur1oso cancela la compra ese cable Corsair es SOLO para fuentes Corsair. Por otro lado según la web de Zotac y como bien indica @RC9 esta RTX lleva conector de alimentación normal "Entrada de energía 1 x 8-pin PCIe" así que con tu fuente deberías poder alimentarla reconozco que no sabía esto todas las RTX que he visto llevan el 12VHPWR pero las 4070 y para abajo realmente ni las he mirado
kur1oso escribió:La 4070 que he comprado es la Zotac Gaming GeForce RTX 4070 Twin Edge OC.

Solamente me refiero al cable que va a la fuente, si es el especial nuevo ese 12VHPWR o como se diga, o con el normal de la fuente me sirve (el que uso ahora para la 1060, por ejemplo).

De momento he encargado en Amz este (si me decís ya de ya que he errado, anuló la compra):

https://www.amazon.es/Corsair-Premium-P ... B0BLY1B362

Edit. Estoy viendo que mi fuente no tiene el conector que necesitan las RTX (con los 4 pines esos debajo)... Imagino que hay solución, no?


Anula esa compra de Amazon que las 4070 van con 1x8 , vamos que no necesitas nada más que conectar tu fuente a la 4070 y listo
Cancelado, muchas gracias gente.

Entiendo pues que con mi conector habitual que uso en la 1060 (es un 6+2) me sirve. Genial, que son 30 eurazos el maldito cable!

A ver si me llega, la pruebo y os digo, que tengo calentitos y esperando RDR2, Cyberpunk y Starfield.

Un saludo y muchas gracias!
Tengo un i7 10700k, RTX 3080 y 16 de Ram. Juego a 3440*1440 (Ultrawide)
Ultimamente veo que resulta complicado alcanzar los 60 fps que para mi son sagrados en calidades ultra o muy altas. Suelo cambiar de grafica cada dos gen, pero creo que la serie 5000 de va a 2025 asi que.. Merece la pena el cambio de una 3080 a una 4080? Por otro lado, en cado de coger una 4080, deberia de cambiar la cpu? Y si tengo que cambiar la cpu por digamos un i9 12700, podria conservar mi placa base asus z490?

Respecto a la eleccion de grafica, tengo claro que iria a la 4080 y no a la 4070 para que el cambio sea significativo…
14352 respuestas