[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

zero2006xl escribió:
Moreno_vk escribió:Estoy leyendo que está habiendo problemas con versiones de la 4070, había abierto un hilo para preguntar si merecía la FE o si merecía más la versión de algún ensamblador en oferta y me han dado el link para que pregunte aquí, así que... ¿Qué versión de ensamblador no tiene tantos problemas con los hotspot?


¿Qué problemas hay con el hotspot? Yo no he visto nada ni en las reviews ni en la Zotac que he comprado. El hotspot va 10 grados aprox por encima de la temperatura del core, nada raro.

Noliko escribió:
Nomada_Firefox escribió:Rendimiento lo dicho ¿merece o no merece? depende de si valoras cosas como mejor disipación y menos ruido. Hay quien no lo valora pero no cuenta toda la verdad, al final la verdad es que tienes que rucarte el coco para hacer undervolt o usar una configuración de ventilación más agresiva. Y lo cierto es que te puede pasar con cualquiera sino se analiza antes que se va a comprar, hay modelos y modelos.


No si yo voy a instalar y jugar, no toco nada más amigo. Solo juego y me olvido, soy padre y me da el tiempo justo jeje, el caso es si alguien conoce algún análisis o experiencia de esa gráfica para saber si tiene buenas temperaturas


Mírate reviews y coge la que más te convenza. También entra en juego el sentido común: lo normal es que si tiene más ventiladores, haga menos ruido porque va a poder disipar mejor a igualdad de RPM.

Yo tengo una Zotac Twin Edge. No es el modelo más frío porque tiene dos ventiladores pero tampoco es especialmente caliente. Coge los MHz que anuncia y da el consumo justo que promete 200w o menos según el caso. Si no vas a hacer overclock y tienes una caja con buena ventilación, este modelo podría valerte. Sí quieres tocar frecuencias y exprimir un poco más, te recomiendo modelos que den algo más de TDP y tengan ventiladores más grandes o más ventiladores.

Por las reviews que he visto por ahora sólo evitaría la PNY Dual Fan porque pilla menos frecuencia que la Founders. Esto puede ser consecuencia de disipar peor el calor, porque además es más caliente.

La diferencia de mi Zotac con undervolt, que permite coger casi 100mhz más de manera estable y con mayor frecuencia de VRAM, apenas mejora en un 5% tras estos ajustes. Te puede hacer una idea de la mínima mejora que te van a dar modelos más tochos. Sólo merecen la pena a igualdad de precio... O si cuestan un pelo más y vas a hacer overclock duro.


Nvidia a última hora hizo bajar el MSRP a las ensambladoras, estas para no perder dinero recortaron en componentes como fases de alimentacion (de 6 pasaron a 4), diseño del backplate y tornillería, therlmalpads en las vram , todo eso hace que el hotspot y vrms se vayan de madre con las temps

Si quiere ir a tiro seguro que pille las FE que en estas no racanearon
zero2006xl escribió:
Moreno_vk escribió:Estoy leyendo que está habiendo problemas con versiones de la 4070, había abierto un hilo para preguntar si merecía la FE o si merecía más la versión de algún ensamblador en oferta y me han dado el link para que pregunte aquí, así que... ¿Qué versión de ensamblador no tiene tantos problemas con los hotspot?


¿Qué problemas hay con el hotspot? Yo no he visto nada ni en las reviews ni en la Zotac que he comprado. El hotspot va 10 grados aprox por encima de la temperatura del core, nada raro.

Noliko escribió:
Nomada_Firefox escribió:Rendimiento lo dicho ¿merece o no merece? depende de si valoras cosas como mejor disipación y menos ruido. Hay quien no lo valora pero no cuenta toda la verdad, al final la verdad es que tienes que rucarte el coco para hacer undervolt o usar una configuración de ventilación más agresiva. Y lo cierto es que te puede pasar con cualquiera sino se analiza antes que se va a comprar, hay modelos y modelos.


No si yo voy a instalar y jugar, no toco nada más amigo. Solo juego y me olvido, soy padre y me da el tiempo justo jeje, el caso es si alguien conoce algún análisis o experiencia de esa gráfica para saber si tiene buenas temperaturas


Mírate reviews y coge la que más te convenza. También entra en juego el sentido común: lo normal es que si tiene más ventiladores, haga menos ruido porque va a poder disipar mejor a igualdad de RPM.

Yo tengo una Zotac Twin Edge. No es el modelo más frío porque tiene dos ventiladores pero tampoco es especialmente caliente. Coge los MHz que anuncia y da el consumo justo que promete 200w o menos según el caso. Si no vas a hacer overclock y tienes una caja con buena ventilación, este modelo podría valerte. Sí quieres tocar frecuencias y exprimir un poco más, te recomiendo modelos que den algo más de TDP y tengan ventiladores más grandes o más ventiladores.

Por las reviews que he visto por ahora sólo evitaría la PNY Dual Fan porque pilla menos frecuencia que la Founders. Esto puede ser consecuencia de disipar peor el calor, porque además es más caliente.

La diferencia de mi Zotac con undervolt, que permite coger casi 100mhz más de manera estable y con mayor frecuencia de VRAM, apenas mejora en un 5% tras estos ajustes. Te puede hacer una idea de la mínima mejora que te van a dar modelos más tochos. Sólo merecen la pena a igualdad de precio... O si cuestan un pelo más y vas a hacer overclock duro.


Es justo la que tengo en el carro, por tamaño la veo perfecta. Contento con ella? Se escucha mucho? Las temperaturas bien? Y otra cosa, con esta gráfica crees que se podrá mover ese Unreal Engine 5? Quiero una duración de al menos 4 años aunque tenga que ir bajando algo. Juego a 1440 y mucho soulslike, por ponerte un ejemplo voy a pillar lies Of p.
Noliko escribió:
zero2006xl escribió:
Moreno_vk escribió:Estoy leyendo que está habiendo problemas con versiones de la 4070, había abierto un hilo para preguntar si merecía la FE o si merecía más la versión de algún ensamblador en oferta y me han dado el link para que pregunte aquí, así que... ¿Qué versión de ensamblador no tiene tantos problemas con los hotspot?


¿Qué problemas hay con el hotspot? Yo no he visto nada ni en las reviews ni en la Zotac que he comprado. El hotspot va 10 grados aprox por encima de la temperatura del core, nada raro.

Noliko escribió:
No si yo voy a instalar y jugar, no toco nada más amigo. Solo juego y me olvido, soy padre y me da el tiempo justo jeje, el caso es si alguien conoce algún análisis o experiencia de esa gráfica para saber si tiene buenas temperaturas


Mírate reviews y coge la que más te convenza. También entra en juego el sentido común: lo normal es que si tiene más ventiladores, haga menos ruido porque va a poder disipar mejor a igualdad de RPM.

Yo tengo una Zotac Twin Edge. No es el modelo más frío porque tiene dos ventiladores pero tampoco es especialmente caliente. Coge los MHz que anuncia y da el consumo justo que promete 200w o menos según el caso. Si no vas a hacer overclock y tienes una caja con buena ventilación, este modelo podría valerte. Sí quieres tocar frecuencias y exprimir un poco más, te recomiendo modelos que den algo más de TDP y tengan ventiladores más grandes o más ventiladores.

Por las reviews que he visto por ahora sólo evitaría la PNY Dual Fan porque pilla menos frecuencia que la Founders. Esto puede ser consecuencia de disipar peor el calor, porque además es más caliente.

La diferencia de mi Zotac con undervolt, que permite coger casi 100mhz más de manera estable y con mayor frecuencia de VRAM, apenas mejora en un 5% tras estos ajustes. Te puede hacer una idea de la mínima mejora que te van a dar modelos más tochos. Sólo merecen la pena a igualdad de precio... O si cuestan un pelo más y vas a hacer overclock duro.


Es justo la que tengo en el carro, por tamaño la veo perfecta. Contento con ella? Se escucha mucho? Las temperaturas bien? Y otra cosa, con esta gráfica crees que se podrá mover ese Unreal Engine 5? Quiero una duración de al menos 4 años aunque tenga que ir bajando algo. Juego a 1440 y mucho soulslike, por ponerte un ejemplo voy a pillar lies Of p.


Sobre el futuro, quién sabe. No me atrevería a darte una respuesta rotunda. Yo creo que debería de aguantar lo que queda de generación a calidades de PS5 como mínimo (por si alguien lee esta afirmación y se revuelve, no voy a entrar a este debate ahora; soy consciente de que en potencia bruta esta tarjeta es superior a PS5, por el orden de 1.5 veces más potente de hecho).

Si acierto o no, sólo el futuro lo dirá. Por ejemplo el DLSS3 podría ayudar a estirar mucho más la tarjeta, pero me parece una tecnología con muchos condicionantes. Para mí que busco la fluidez extrema en 60 FPS no es viable. Ahora bien, si juegas con un monitor o tele con tasa de refresco variable y no eres muy sensible a los artefactos visuales, quizá te ayude.

Y por último, sobre el ensamble. A mí me parece decente. Suficiente para la potencia de la tarjeta y, sobre todo, pequeña. Para mí esto era obligatorio porque uso una caja mini ITX. Y es bonita, que esto ya va a gustos y a discusiones de la caja.

Pero si te planteas pillar esta por pequeña y por el aspecto, antes me plantearía pillar el modelo propio de Nvidia que me parece que está más guapo. Yo he comprado esta porque en mi caja, la fuente de alimentación taparía el ventilador trasero de la de Nvidia y las temperaturas iban a ser malas.

En lo que respecta al ventilador, son ventiladores que al 100% dan mucha chicha. Tienen muchas revoluciones, mas que los de mi Zotac 3070 anterior. Pero la configuración que viene no es muy sonora y pocas veces necesitará funcionar a más del 50-60% si la ventilación de la caja es suficiente. Piensa que deben disipar un TGP de 200w, que 'no es mucho'.
@zero2006xl Llevo mirando desde el día de salida, el jueves pasado, y no han repuesto stock de la Founders. A mi es el modelo que mas me gusta y el que me quiero comprar, pero de momento, nada :(
Moreno_vk escribió:Estoy leyendo que está habiendo problemas con versiones de la 4070, había abierto un hilo para preguntar si merecía la FE o si merecía más la versión de algún ensamblador en oferta y me han dado el link para que pregunte aquí, así que... ¿Qué versión de ensamblador no tiene tantos problemas con los hotspot?

Evidentemente el problema sera que ahora a la gente le da por mirarlo porque los programas de Nvidia como el geforce experience no lo indican. Y claro es que si miras la review de techpower de la FE y otras........tiene unas temperaturas nada buenas.
Imagen
De seguro que como minimo hay que tocar la ventilación para subirla un poco jugando, pero en el caso de la FE, esos 1787rpm y 82º de hotspot, me dicen que ya esta alta y que es mucho peor que las demas. De esas las mejores la Ventus y la Asus Dual. Eso que pone de la quiet bios, es porque tiene doble bios y permite ser más silenciosa, seguramente perdiendo rendimiento pero de seguro que tiene mejor disipador que el resto. Es el mejor modelo de todos.
_anVic_ está baneado por "clon de usuario baneado"
Esas temps en general que posteas en relación a los decibelios de ruido generado las veo más que correctas. Son niveles de ruido muy decentes.

No veo motivo de alarma por estar entre los 60 y 80 grados.

De tener que elegir una entre todas ellas sin duda la Asus dual sería mi candidata.
Buenas gente, esta tarde me he pillado este modelo de tres ventiladores;

https://www.coolmod.com/gigabyte-geforc ... r6x-dlss3/


Alguien sabe si esta tiene problemas de temperaturas?

Pensaba dejar pasar esta generación y ya irme a las 5000, pero es que ando con una rx 480 desde el 2015 y juego en un monitor de 4k.... así que títulos como el Cyberpunk 2077 aún ni lo he probado y le tengo unas ganas... porque con la 480 puedo jugar bien a 1080p pero es que mi monitor es de 43 pulgadas... y paso de jugarlo a 1080p q se ve borrosillo.... así que me he calentado esta tarde y me he pillado este modelo.

Pero ahora estoy leyendo esto de las temperaturas del hotspot y las vram, etc... y me estoy rayando... estoy por devolverla e ir a tiro fijo y ir a por la asus dual.... pero solo si es peor... porque si este modelo EAGLE se libra y esta bien eso del hostspot etc... me la quedo y tan contento.
Ixigo86 escribió:Buenas gente, esta tarde me he pillado este modelo de tres ventiladores;

https://www.coolmod.com/gigabyte-geforc ... r6x-dlss3/


Alguien sabe si esta tiene problemas de temperaturas?

Pensaba dejar pasar esta generación y ya irme a las 5000, pero es que ando con una rx 480 desde el 2015 y juego en un monitor de 4k.... así que títulos como el Cyberpunk 2077 aún ni lo he probado y le tengo unas ganas... porque con la 480 puedo jugar bien a 1080p pero es que mi monitor es de 43 pulgadas... y paso de jugarlo a 1080p q se ve borrosillo.... así que me he calentado esta tarde y me he pillado este modelo.

Pero ahora estoy leyendo esto de las temperaturas del hotspot y las vram, etc... y me estoy rayando... estoy por devolverla e ir a tiro fijo y ir a por la asus dual.... pero solo si es peor... porque si este modelo EAGLE se libra y esta bien eso del hostspot etc... me la quedo y tan contento.


Es una gráfica con un consumo relativamente bajo. Me habré leído 15 reviews y no he visto que ninguna tenga problemas de temperatura. No parece ser algo generalizado así que, de primeras, no me preocuparía.

¿Que no habrán utilizado los mejores materiales para esta gama? Seguro que no, pero recordemos que las RTX 3000 GDDR6X venían con thermal pads cutrísimos. Al final nada te salva de que el fabricante recorte gastos. Pero como digo, en este caso no estoy viendo algo generalizado. Yo mismo tengo una de las baratas y no le veo problema alguno.

Esta GPU no necesita ensambles super sofisticados. No te ralles ni le des muchas vueltas. Si cuando te llegue hay algo raro la devuelves y listo.
_anVic_ está baneado por "clon de usuario baneado"
Ixigo86 escribió:Buenas gente, esta tarde me he pillado este modelo de tres ventiladores;

https://www.coolmod.com/gigabyte-geforc ... r6x-dlss3/


Alguien sabe si esta tiene problemas de temperaturas?

Pensaba dejar pasar esta generación y ya irme a las 5000, pero es que ando con una rx 480 desde el 2015 y juego en un monitor de 4k.... así que títulos como el Cyberpunk 2077 aún ni lo he probado y le tengo unas ganas... porque con la 480 puedo jugar bien a 1080p pero es que mi monitor es de 43 pulgadas... y paso de jugarlo a 1080p q se ve borrosillo.... así que me he calentado esta tarde y me he pillado este modelo.

Pero ahora estoy leyendo esto de las temperaturas del hotspot y las vram, etc... y me estoy rayando... estoy por devolverla e ir a tiro fijo y ir a por la asus dual.... pero solo si es peor... porque si este modelo EAGLE se libra y esta bien eso del hostspot etc... me la quedo y tan contento.


Tranquilo en principio ese modelo no debería darte ningún problema.

Acabo de encontrar un tipo con el mismo modelo que te has pillado tu
8 juegos testados con dlss3, etc


Y el unboxing



Como verás tiene unos clocks y temperaturas buenas.
En esa tarjeta la Gigabyte 4070 Eagle parece que va todo atornillado como toca. Uno de los modelos en los que se producía el aumento de temperatura era la Ventus de MSI, tanto la de 3 como de 2 ventiladores y creo que en el modelo de pny dijeron que también.

Habría que ver si en las más baratas como son la asus dual o la Gigabyte windforce se produce este calentamiento o no.

Una review de la Asus 4070 dual:
https://www.profesionalreview.com/2023/04/12/asus-dual-rtx-4070-12g-review/

Por el final dice:
Esta tarjeta demuestra una gran optimización en su BIOS al ofrecer consumos de prácticamente 200W iguales a su TGP en stock, y mínimos de 4W en reposo. El disipador ofrece un rendimiento impecable manteniendo la GPU a 61ºC bajo estrés continuado con esta temperatura ambiente, igual e incluso mejor que algunos de triple ventilador.

Así que a este modelo parece que no le afecta lo del calentamiento.
@Ixigo86 yo estaba entre la eagle y la windforce, lo comente aquí y un forero echo pestes del modelo eagle, no se muy bien pq, a priori es inferior que otras gamas como la gaming o modelos superiores en tema de disipación y materiales y tal pero tb son mas compactas y algo mas económicas no se muy bien a veces cuales son los fundamentos de la gente para decir cosas como las que se dicen pero bueno... te puede salir malo como te puede salir bueno un producto de gama baja, media o alta. Yo no me voy a comer mucho la cabeza, como te digo por tamaño/precio/calidad/rendimiento tenia en el punto de mira la windforce y la eagle, al final me he decidido por la windforce... es mas básica pero los análisis que he visto de rendimiento, consumo y temperaturas parece que coinciden todos en que va muy bien tb. Mis dos graficas anteriores fueron EVGA y me fueron bien, ahora quería probar Gigabyte, que parece una marca bastante buena y tb habia opiniones de varios foreros que avalaban la calidad de la marca. La eagle tiene doble bios, RGB y algo mas de velocidad de frecuencia respecto la windforce, seguro que cuando la pruebes, quedas satisfecho y sino la devuelves. Enjoy.

Analisis RTX Gigabyte 4070 Windforce PR
Analisis RTX Gigabyte 4070 Windforce MC
Ayer le hice OC a la RTX 4080 con el software que la propia Nvidia pone a tu disposición, hizo el tunning automático (tardó media horita pero fue subiendo los relojes poco a poco) y bueno, primeras horas guay, algo más de rendimiento pero luego, sin estar jugando me empezaron a salir unos artifacts en la pantalla, me cagué bastante la verdad, tuve que quitar el OC y reiniciar varias veces para conseguir que se fueran. Después estuve jugando y todo correcto pero ya tengo la mosca detrás de la oreja. ¿A alguien más le ha pasado esto haciendo OC?
@zero2006xl
@_anVic_
@LynX
@PLK1

Muchas gracias, me quedo algo más tranquilo, aunque me queda un ronroneo detrás de la oreja por eso que comenta PLK1 de que otro usuario echaba pestes de la EAGLE... me pregunto porque será... si es que tiene algo que no sepamos o que el compañero tuvo mala suerte y le toco alguna mala.
Ixigo86 escribió:@zero2006xl
@_anVic_
@LynX
@PLK1

Muchas gracias, me quedo algo más tranquilo, aunque me queda un ronroneo detrás de la oreja por eso que comenta PLK1 de que otro usuario echaba pestes de la EAGLE... me pregunto porque será... si es que tiene algo que no sepamos o que el compañero tuvo mala suerte y le toco alguna mala.


Porque al menos en la serie RTX 3000 y RX 6000 son modelos muy básicos. Pero esta Eagle en concreto tiene buena pinta. Cuenta con tres ventiladores y un disipador gordito, muy mal lo tendrían que hacer en el ensamblaje para que no diese un resultado como mínimo decente.
@Ixigo86 tb echaron pestes de otro modelo de MSI, El otro compa te ha puesto un video con datos y no son malos ni pinta mala tarjeta. La gama Eagle es inferior en disipacion pq es mas compacta y el disipador es mas pequeño pero que diferencia de temperatura implica?? a lo mejor es algo insignificante. Imagino que los tiros van por habiendo este modelo no cojas este... sinceramente me parece una chorrada, tendrá sus puntos flacos como tiene sus puntos fuertes. Es la mierda de siempre, si lo comparas con la gaming sale perdiendo pero si lo comparas con otra cosa igual barre... pero hay que valorarlo en su justa medida como lo que es.
_anVic_ está baneado por "clon de usuario baneado"
RC9 escribió:Ayer le hice OC a la RTX 4080 con el software que la propia Nvidia pone a tu disposición, hizo el tunning automático (tardó media horita pero fue subiendo los relojes poco a poco) y bueno, primeras horas guay, algo más de rendimiento pero luego, sin estar jugando me empezaron a salir unos artifacts en la pantalla, me cagué bastante la verdad, tuve que quitar el OC y reiniciar varias veces para conseguir que se fueran. Después estuve jugando y todo correcto pero ya tengo la mosca detrás de la oreja. ¿A alguien más le ha pasado esto haciendo OC?



Lo habrás hecho con el Geforce Experience imagino. :-|

Yo te recomiendo usar el OC Scanner del MSi AB es bastante mejor. Aunque lo suyo es hacerlo manual, tanto undervolt como overclock con overvolt. Es como se le saca mejor rendimiento y más partido a la gráfica.

@Ixigo86 habría que ver en que condiciones usó esa gráfica, en que caja / configuración de airflow, temp ambiente,si tenia hecha o no una curva custom de ventilación, etc

De todas formas, para que te quedes más tranquilo te adjunto la peor 4070 que han analizado en Techpowerup hasta la fecha, modelo ( Gainward GeForce RTX 4070 Ghost )

https://www.techpowerup.com/review/gain ... st/38.html

Como verás 75ºC GPU / 70ºC MEM @35dBA & 200W

El modelo es cuestión se ve tan precario en el teardown que dan hasta ganas de apadrinarlo y aun así cumple [+risas]

https://www.techpowerup.com/review/gain ... ost/3.html

763 gr la Gainward... hay modelos que pesan casi el doble ( 1455gr ) como es el caso de la Palit JetStream

https://www.techpowerup.com/review/pali ... eam/3.html

https://www.techpowerup.com/review/pali ... am/38.html

De momento la más fresca que han analizado parece ser la Asus Tuf con 52,2ºC en GPU @35dBA & 200W / 48.3ºC MEM @35dBA & 200W

Veo que han analizado 10 modelos de 4070, la eagle aun no la han testado, imagino en unos días ya saldrá la review.
_anVic_ escribió:
RC9 escribió:Ayer le hice OC a la RTX 4080 con el software que la propia Nvidia pone a tu disposición, hizo el tunning automático (tardó media horita pero fue subiendo los relojes poco a poco) y bueno, primeras horas guay, algo más de rendimiento pero luego, sin estar jugando me empezaron a salir unos artifacts en la pantalla, me cagué bastante la verdad, tuve que quitar el OC y reiniciar varias veces para conseguir que se fueran. Después estuve jugando y todo correcto pero ya tengo la mosca detrás de la oreja. ¿A alguien más le ha pasado esto haciendo OC?



Lo habrás hecho con el Geforce Experience imagino. :-|

Yo te recomiendo usar el OC Scanner del MSi AB es bastante mejor. Aunque lo suyo es hacerlo manual tanto undervolt como overclock con overvolt. Es como se le saca mejor rendimiento y más partido a la gráfica.


Sí, eso mismo, probé con el Geforce Experience. Sabiendo lo del MSI AB, más tarde lo probaré, gracias!
_anVic_ está baneado por "clon de usuario baneado"
RC9 escribió:
_anVic_ escribió:
RC9 escribió:Ayer le hice OC a la RTX 4080 con el software que la propia Nvidia pone a tu disposición, hizo el tunning automático (tardó media horita pero fue subiendo los relojes poco a poco) y bueno, primeras horas guay, algo más de rendimiento pero luego, sin estar jugando me empezaron a salir unos artifacts en la pantalla, me cagué bastante la verdad, tuve que quitar el OC y reiniciar varias veces para conseguir que se fueran. Después estuve jugando y todo correcto pero ya tengo la mosca detrás de la oreja. ¿A alguien más le ha pasado esto haciendo OC?



Lo habrás hecho con el Geforce Experience imagino. :-|

Yo te recomiendo usar el OC Scanner del MSi AB es bastante mejor. Aunque lo suyo es hacerlo manual tanto undervolt como overclock con overvolt. Es como se le saca mejor rendimiento y más partido a la gráfica.


Sí, eso mismo, probé con el Geforce Experience. Sabiendo lo del MSI AB, más tarde lo probaré, gracias!


De nada, tarda también un buen rato, así que paciencia, pero una vez lo termine debería ser 100% estable.
_anVic_ escribió:
RC9 escribió:Ayer le hice OC a la RTX 4080 con el software que la propia Nvidia pone a tu disposición, hizo el tunning automático (tardó media horita pero fue subiendo los relojes poco a poco) y bueno, primeras horas guay, algo más de rendimiento pero luego, sin estar jugando me empezaron a salir unos artifacts en la pantalla, me cagué bastante la verdad, tuve que quitar el OC y reiniciar varias veces para conseguir que se fueran. Después estuve jugando y todo correcto pero ya tengo la mosca detrás de la oreja. ¿A alguien más le ha pasado esto haciendo OC?



Lo habrás hecho con el Geforce Experience imagino. :-|

Yo te recomiendo usar el OC Scanner del MSi AB es bastante mejor. Aunque lo suyo es hacerlo manual tanto undervolt como overclock con overvolt. Es como se le saca mejor rendimiento y más partido a la gráfica.

@Ixigo86 habría que ver en que condiciones usó esa gráfica, en que caja / configuración de airflow, temp ambiente,si tenia hecha o no una curva custom de ventilación, etc

De todas formas, para que te quedes más tranquilo te adjunto la peor 4070 que han analizado en Techpowerup hasta la fecha, modelo en cuestión ( Gainward GeForce RTX 4070 Ghost )

https://www.techpowerup.com/review/gain ... st/38.html

Como verás 75ºC GPU / 70ºC MEM @35dBA & 200W

El modelo es cuestión se ve tan precario en el teardown que dan hasta ganas de apadrinarlo y aun así cumple [+risas]

https://www.techpowerup.com/review/gain ... ost/3.html

763 gr la Gainward... hay modelos que pesan casi el doble ( 1455gr ) como es el caso de la Palit JetStream

https://www.techpowerup.com/review/pali ... eam/3.html

https://www.techpowerup.com/review/pali ... am/38.html

De momento la más fresca que han analizado parece ser la Asus Tuf con 52,2ºC en GPU @35dBA & 200W / 48.3ºC MEM @35dBA & 200W

Veo que han analizado 10 modelos de 4070, la eagle aun no la han testado, imagino en unos días ya saldrá la review.



Si, las temperaturas en el video se ven bien, pero son las temperaturas en la vram y en el hotspot las q me preocupan y eso no se ilustra en el video
_anVic_ está baneado por "clon de usuario baneado"
Ixigo86 escribió:
_anVic_ escribió:
RC9 escribió:Ayer le hice OC a la RTX 4080 con el software que la propia Nvidia pone a tu disposición, hizo el tunning automático (tardó media horita pero fue subiendo los relojes poco a poco) y bueno, primeras horas guay, algo más de rendimiento pero luego, sin estar jugando me empezaron a salir unos artifacts en la pantalla, me cagué bastante la verdad, tuve que quitar el OC y reiniciar varias veces para conseguir que se fueran. Después estuve jugando y todo correcto pero ya tengo la mosca detrás de la oreja. ¿A alguien más le ha pasado esto haciendo OC?



Lo habrás hecho con el Geforce Experience imagino. :-|

Yo te recomiendo usar el OC Scanner del MSi AB es bastante mejor. Aunque lo suyo es hacerlo manual tanto undervolt como overclock con overvolt. Es como se le saca mejor rendimiento y más partido a la gráfica.

@Ixigo86 habría que ver en que condiciones usó esa gráfica, en que caja / configuración de airflow, temp ambiente,si tenia hecha o no una curva custom de ventilación, etc

De todas formas, para que te quedes más tranquilo te adjunto la peor 4070 que han analizado en Techpowerup hasta la fecha, modelo ( Gainward GeForce RTX 4070 Ghost )

https://www.techpowerup.com/review/gain ... st/38.html

Como verás 75ºC GPU / 70ºC MEM @35dBA & 200W

El modelo es cuestión se ve tan precario en el teardown que dan hasta ganas de apadrinarlo y aun así cumple [+risas]

https://www.techpowerup.com/review/gain ... ost/3.html

763 gr la Gainward... hay modelos que pesan casi el doble ( 1455gr ) como es el caso de la Palit JetStream

https://www.techpowerup.com/review/pali ... eam/3.html

https://www.techpowerup.com/review/pali ... am/38.html

De momento la más fresca que han analizado parece ser la Asus Tuf con 52,2ºC en GPU @35dBA & 200W / 48.3ºC MEM @35dBA & 200W

Veo que han analizado 10 modelos de 4070, la eagle aun no la han testado, imagino en unos días ya saldrá la review.



Si, las temperaturas en el video se ven bien, pero son las temperaturas en la vram y en el hotspot las q me preocupan y eso no se ilustra en el video


Bueno, eso ya lo verás tu cuando la pruebes. Si tienes una caja decente bien ventilada no creo que tengas ningún problema al respecto. A no ser que te salga la gráfica defectuosa en cuyo caso sólo te quedará tirar de RMA.

Por si al final te arrepientes por algun motivo, mirate las temps de la colorful y la tuf

COLORFUL Vulcan OC:

https://www.guru3d.com/articles_pages/c ... iew,7.html

ASUS TUF:

https://www.guru3d.com/articles_pages/a ... iew,7.html

Parece la polla esa colorful en cuanto a refrigerio... acabo de ver el pesaje, 2024 gr tienen la culpa [+risas]

https://www.guru3d.com/articles_pages/c ... iew,3.html

Igual hasta pillo una y la pruebo en el pc secundario, me ha puesto palote...

https://www.guru3d.com/articles_pages/c ... ew,31.html
Parece que están ajustando precios.

https://www.pccomponentes.com/zotac-gam ... dr6x-dlss3

7% de descuento en PCComp.

https://www.pccomponentes.com/inno3d-ge ... dr6x-dlss3

La Inno3D sigue a un buen precio, pero no tengo referencias de qué tal va.

Luego hay otros modelos a 800 pavos que yo ni miraba. La mejora en rendimiento en esta tarjeta por exprimir más los clocks va a ser mínima.

Me da en la nariz que en menos de 6 meses vamos a ver esta gráfica en 550 € (la más barata)...
zero2006xl escribió:Parece que están ajustando precios.

https://www.pccomponentes.com/zotac-gam ... dr6x-dlss3

7% de descuento en PCComp.

https://www.pccomponentes.com/inno3d-ge ... dr6x-dlss3

La Inno3D sigue a un buen precio, pero no tengo referencias de qué tal va.

Luego hay otros modelos a 800 pavos que yo ni miraba. La mejora en rendimiento en esta tarjeta por exprimir más los clocks va a ser mínima.

Me da en la nariz que en menos de 6 meses vamos a ver esta gráfica en 550 € (la más barata)...

por 620€ están de Inno3D y Palit desde hace 2 días y me sigue pareciendo caro.
mogurito escribió:
zero2006xl escribió:Parece que están ajustando precios.

https://www.pccomponentes.com/zotac-gam ... dr6x-dlss3

7% de descuento en PCComp.

https://www.pccomponentes.com/inno3d-ge ... dr6x-dlss3

La Inno3D sigue a un buen precio, pero no tengo referencias de qué tal va.

Luego hay otros modelos a 800 pavos que yo ni miraba. La mejora en rendimiento en esta tarjeta por exprimir más los clocks va a ser mínima.

Me da en la nariz que en menos de 6 meses vamos a ver esta gráfica en 550 € (la más barata)...

por 620€ están de Inno3D y Palit desde hace 2 días y me sigue pareciendo caro.


He comparado precios con el lanzamiento de la 1070 en su día y ajustando a la inflación, esta debería valer en torno a 600 euros máximo. El problema es lo que ya sabemos todos, que el salto generacional en rendimiento es bastante pobre en relación al incremento de precio. Y tras mis pruebas, DLSS3 no viene a solventar este problema: artefactos visuales notables, mucha latencia si lo usas para jugar a 60fps, compatible sólo con algunos juegos... Pero aún con todo esto, sigue siendo una mejora si comparamos con la relación precio-potencia de las gamas más altas.
zero2006xl escribió:
mogurito escribió:
zero2006xl escribió:Parece que están ajustando precios.

https://www.pccomponentes.com/zotac-gam ... dr6x-dlss3

7% de descuento en PCComp.

https://www.pccomponentes.com/inno3d-ge ... dr6x-dlss3

La Inno3D sigue a un buen precio, pero no tengo referencias de qué tal va.

Luego hay otros modelos a 800 pavos que yo ni miraba. La mejora en rendimiento en esta tarjeta por exprimir más los clocks va a ser mínima.

Me da en la nariz que en menos de 6 meses vamos a ver esta gráfica en 550 € (la más barata)...

por 620€ están de Inno3D y Palit desde hace 2 días y me sigue pareciendo caro.


He comparado precios con el lanzamiento de la 1070 en su día y ajustando a la inflación, esta debería valer en torno a 600 euros máximo. El problema es lo que ya sabemos todos, que el salto generacional en rendimiento es bastante pobre en relación al incremento de precio. Y tras mis pruebas, DLSS3 no viene a solventar este problema: artefactos visuales notables, mucha latencia si lo usas para jugar a 60fps, compatible sólo con algunos juegos... Pero aún con todo esto, sigue siendo una mejora si comparamos con la relación precio-potencia de las gamas más altas.

Es que están muy caras las gráficas, yo busco 60fps a resolución QHD sin raytracing durante unos años que supongo que con una RX6800XT, RTX 3080 o la RTX 4070 iría mas que bien aunque ya se sube de de precio para lo que quiero gastarme.
zero2006xl escribió:
mogurito escribió:
zero2006xl escribió:Parece que están ajustando precios.

https://www.pccomponentes.com/zotac-gam ... dr6x-dlss3

7% de descuento en PCComp.

https://www.pccomponentes.com/inno3d-ge ... dr6x-dlss3

La Inno3D sigue a un buen precio, pero no tengo referencias de qué tal va.

Luego hay otros modelos a 800 pavos que yo ni miraba. La mejora en rendimiento en esta tarjeta por exprimir más los clocks va a ser mínima.

Me da en la nariz que en menos de 6 meses vamos a ver esta gráfica en 550 € (la más barata)...

por 620€ están de Inno3D y Palit desde hace 2 días y me sigue pareciendo caro.


He comparado precios con el lanzamiento de la 1070 en su día y ajustando a la inflación, esta debería valer en torno a 600 euros máximo. El problema es lo que ya sabemos todos, que el salto generacional en rendimiento es bastante pobre en relación al incremento de precio. Y tras mis pruebas, DLSS3 no viene a solventar este problema: artefactos visuales notables, mucha latencia si lo usas para jugar a 60fps, compatible sólo con algunos juegos... Pero aún con todo esto, sigue siendo una mejora si comparamos con la relación precio-potencia de las gamas más altas.


Si, estoy totalmente de acuerdo, ajustando la inflaccón el precio de una 4070 (comparada con la 3070) deberia estar muy cerca de las 4070 más baratas, el gran problema es que de 4070 tiene solo el nombre, es poco mas de lo que deberia ser una 4060, haciendo entonces los calculos con la inflacción y la 3060....ya no cuadra tanto, pero hay que reconocerle a Nvidia la doble pilleria, cambiarle los nombres a sus graficas y meterle un aumento por encima de la inflacción a las mismas esta generación, son unos cracks
A ver si me podéis ayudar, nunca he utilizado el dlss porque vengo de una GTX 1089, pero tanto se nota ese input lag? Porque de ser así me quedo quieto y sigo con la consola.
Iba a comprar la 4070 zotac de dos ventiladores ( que por cierto no veo análisis en ningún sitio, si sabéis de algún pasad enlace por favor).

Pero sobre todo es el tema del dlss, en juego como forza que juego online voy a notar ese imput lag? O el próximo diablo, sf6… juego que tienen carga gráfica pero se juega online.

Mil gracias a todos
Noliko escribió:A ver si me podéis ayudar, nunca he utilizado el dlss porque vengo de una GTX 1089, pero tanto se nota ese input lag? Porque de ser así me quedo quieto y sigo con la consola.
Iba a comprar la 4070 zotac de dos ventiladores ( que por cierto no veo análisis en ningún sitio, si sabéis de algún pasad enlace por favor).

Pero sobre todo es el tema del dlss, en juego como forza que juego online voy a notar ese imput lag? O el próximo diablo, sf6… juego que tienen carga gráfica pero se juega online.

Mil gracias a todos


Muchas cosas en en tu mensaje.

- ¿Qué consola tienes? Si es una PS5 o Xbox Series X, uno tiene que asumir que entra aquí por vicio. Últimamente las diferencias entre los juegos de consola y PC en calidad Ultra a 4K con todo activado no son tan grandes (a excepción del reciente RT Overdrive del Cyberpunk). Y muchas veces para exprimir al máximo esa diferencia que comento vas a necesitar un hardware muy potente. ¿Con una 4070 te vale? Sí, a día de hoy. Pero aspirarás a jugar a más resolución, más FPS's y en algún juego mejores ajustes de sombras o de Ray Tracing.
- DLSS 2 introduce latencia en la entrega de frames, pero se ve compensada por las ganancias en frames que produce. El resultado es menor latencia de la que tendrías sin usarlo. DLSS 3 no introduce latencia en la entrega de frames, si no en el tiempo de respuesta de los controles. Vas a tener una latencia similar a la que tendrías sin activarlo, algo menor en algunos casos si tenemos en cuenta Nvidia Reflex que es la tecnología que utiliza Nvidia para mejorar la latencia. De todos modos, no es magia. Para conseguir duplicar el rendimiento mediante DLSS3, que la imagen se vea fluida y que la latencia no sea un disparate, dependes de cómo se ha implementado en el juego, de las tecnologías y HZ de tu monitor, etc. No es activar y listo salvo que se den las condiciones adecuadas por casualidad. Esto DLSS3, repito. DLSS2 sí es magia y funciona genial en la mayoría de casos de uso sólo con activarlo.

La pregunta que yo me haría es, ¿para qué quiero comprar esta tarjeta? Empieza por ahí y encontrarás la respuesta. Yo la he comprado por vicio, por poder vender mi 3070 a un precio decente ahora y no tener que andar preocupándome con la VRAM hasta dentro de un tiempo. Pero siendo sinceros, no la necesito. No hay juegos en el horizonte cercano que la vayan a exprimir ni con los que no hubiera podido jugar con la 3070. Esos vídeos que comparan la 3070 con la 4070 y muestran los juegos arrastrándose en la primera son lo más desinformativo del mundo. Usando DLSS / FSR2 / Escalado TAA y bajando Texturas a Alto resuelves el problema en la mayoría de casos sin una pérdida de calidad apreciable (salvo en The Last of Us Part 1).

Además compré una PS5 así que tres cuartos de lo mismo.
Respecto al input lag del DLSS3 FG, yo me he pasado ambos Spider-Man y ahora estoy jugando bastante al FH5 con el DLSS3 activado, si que es verdad que cuando activas/desactivas puedes notar ligeramente ese pequeño input lag que añade el DLSS3, pero cuando llevas un rato jugando yo ya ni me doy cuenta, en mi caso en ambos juegos sin el DLSS3 activado ya consigo unos 100+ fps, pero con el FG activado juego a 138FPS estables 100%. No he llegado a comprobar el comportamiento del DLSS3 partiendo de FPS muy bajos.
Seguramente en juegos MP no lo activaría, pero en SP no molesta para nada.
zero2006xl escribió:
Noliko escribió:A ver si me podéis ayudar, nunca he utilizado el dlss porque vengo de una GTX 1089, pero tanto se nota ese input lag? Porque de ser así me quedo quieto y sigo con la consola.
Iba a comprar la 4070 zotac de dos ventiladores ( que por cierto no veo análisis en ningún sitio, si sabéis de algún pasad enlace por favor).

Pero sobre todo es el tema del dlss, en juego como forza que juego online voy a notar ese imput lag? O el próximo diablo, sf6… juego que tienen carga gráfica pero se juega online.

Mil gracias a todos


Muchas cosas en en tu mensaje.

- ¿Qué consola tienes? Si es una PS5 o Xbox Series X, uno tiene que asumir que entra aquí por vicio. Últimamente las diferencias entre los juegos de consola y PC en calidad Ultra a 4K con todo activado no son tan grandes (a excepción del reciente RT Overdrive del Cyberpunk). Y muchas veces para exprimir al máximo esa diferencia que comento vas a necesitar un hardware muy potente. ¿Con una 4070 te vale? Sí, a día de hoy. Pero aspirarás a jugar a más resolución, más FPS's y en algún juego mejores ajustes de sombras o de Ray Tracing.
- DLSS 2 introduce latencia en la entrega de frames, pero se ve compensada por las ganancias en frames que produce. El resultado es menor latencia de la que tendrías sin usarlo. DLSS 3 no introduce latencia en la entrega de frames, si no en el tiempo de respuesta de los controles. Vas a tener una latencia similar a la que tendrías sin activarlo, algo menor en algunos casos si tenemos en cuenta Nvidia Reflex que es la tecnología que utiliza Nvidia para mejorar la latencia. De todos modos, no es magia. Para conseguir duplicar el rendimiento mediante DLSS3, que la imagen se vea fluida y que la latencia no sea un disparate, dependes de cómo se ha implementado en el juego, de las tecnologías y HZ de tu monitor, etc. No es activar y listo salvo que se den las condiciones adecuadas por casualidad. Esto DLSS3, repito. DLSS2 sí es magia y funciona genial en la mayoría de casos de uso sólo con activarlo.

La pregunta que yo me haría es, ¿para qué quiero comprar esta tarjeta? Empieza por ahí y encontrarás la respuesta. Yo la he comprado por vicio, por poder vender mi 3070 a un precio decente ahora y no tener que andar preocupándome con la VRAM hasta dentro de un tiempo. Pero siendo sinceros, no la necesito. No hay juegos en el horizonte cercano que la vayan a exprimir ni con los que no hubiera podido jugar con la 3070. Esos vídeos que comparan la 3070 con la 4070 y muestran los juegos arrastrándose en la primera son lo más desinformativo del mundo. Usando DLSS / FSR2 / Escalado TAA y bajando Texturas a Alto resuelves el problema en la mayoría de casos sin una pérdida de calidad apreciable (salvo en The Last of Us Part 1).

Además compré una PS5 así que tres cuartos de lo mismo.


Antes de nada agradecerte tu tiempo colega.

La consola de la que hablo es ps5, la cual estoy muy contento con el rendimiento que me da.
El motivo de comprar esa gráfica es por ver esa mejora respecto a la consola, que la verdad 0 quejas y ha día de hoy he visto cosas muy bastas como el demons souls o ratchet ( te los recomiendo si has pillado la consola).

Es más el próximo Diablo lo voy a jugar con mando, lo probé y es comodísimo la verdad.
Pero claro digo, y si en PC lo juego a mas calidad, ¿merecerá la pena la diferencia?.

Pero ese imput lag del que me hablar en los controles es lo que me preocupa, porque el juego de conducción marca la diferencia la verdad.

La verdad que ando un poco... me levanto a veces y digo "hoy pillo la gráfica" y al rato pienso "sigo con la consola y lo pillo todo ahí que por eso la compre".

También pienso si esta gráfica aguantara toda la gen como si hare con la consola. No se, la verdad que tengo muchas dudas.

Los próximos juegos que comprare seran sf6, diablo, ffxvi y Lies of P.

Veo rendimiento por ejemplo de fortnite en PC con 4070 y no es una locura lo que te ofrece de fps, y todo ello con ese dlss activado, en ps5 se ve muy pero que muy bien con lumen y demas.

Mil gracias de antemano. A ver si me puedes dar algo de luz xDDD un saludo.
Baktor escribió:Respecto al input lag del DLSS3 FG, yo me he pasado ambos Spider-Man y ahora estoy jugando bastante al FH5 con el DLSS3 activado, si que es verdad que cuando activas/desactivas puedes notar ligeramente ese pequeño input lag que añade el DLSS3, pero cuando llevas un rato jugando yo ya ni me doy cuenta, en mi caso en ambos juegos sin el DLSS3 activado ya consigo unos 100+ fps, pero con el FG activado juego a 138FPS estables 100%. No he llegado a comprobar el comportamiento del DLSS3 partiendo de FPS muy bajos.
Seguramente en juegos MP no lo activaría, pero en SP no molesta para nada.

+1, 15 ms extra de lag en SP no se notan apenas, quiza aquellos con capacidad de ver el las cosas en "tiempo bala" lo noten y se les haga injugable, pero yo no soy uno de ellos, lo que sí noto es el espactacular aumento de rendimiento y fluidez
zero2006xl escribió:
Sobre el futuro, quién sabe. No me atrevería a darte una respuesta rotunda. Yo creo que debería de aguantar lo que queda de generación a calidades de PS5 como mínimo (por si alguien lee esta afirmación y se revuelve, no voy a entrar a este debate ahora; soy consciente de que en potencia bruta esta tarjeta es superior a PS5, por el orden de 1.5 veces más potente de hecho).

Si acierto o no, sólo el futuro lo dirá. Por ejemplo el DLSS3 podría ayudar a estirar mucho más la tarjeta, pero me parece una tecnología con muchos condicionantes. Para mí que busco la fluidez extrema en 60 FPS no es viable. Ahora bien, si juegas con un monitor o tele con tasa de refresco variable y no eres muy sensible a los artefactos visuales, quizá te ayude.

Y por último, sobre el ensamble. A mí me parece decente. Suficiente para la potencia de la tarjeta y, sobre todo, pequeña. Para mí esto era obligatorio porque uso una caja mini ITX. Y es bonita, que esto ya va a gustos y a discusiones de la caja.

Pero si te planteas pillar esta por pequeña y por el aspecto, antes me plantearía pillar el modelo propio de Nvidia que me parece que está más guapo. Yo he comprado esta porque en mi caja, la fuente de alimentación taparía el ventilador trasero de la de Nvidia y las temperaturas iban a ser malas.

En lo que respecta al ventilador, son ventiladores que al 100% dan mucha chicha. Tienen muchas revoluciones, mas que los de mi Zotac 3070 anterior. Pero la configuración que viene no es muy sonora y pocas veces necesitará funcionar a más del 50-60% si la ventilación de la caja es suficiente. Piensa que deben disipar un TGP de 200w, que 'no es mucho'.

Tengo un itx y tb busco 4k a 60 frames. Me caben solo gpus de 27cm así que estoy bastante limitado en ese sentido.

Por qué dices que el dlss3 no tiene sentido para esa configuración? Si un juego te da 45fps y con dlss3 te llega a 60 no veo el problema. O con fsr. Es que en mi caso es eso o no veo más opciones pq para 4k nativos las gpu miden 30cm o más. Tengo que recurrir a las de 2k potentes y tirar de tecnologías para llegar a los 60.
flo79 escribió:
zero2006xl escribió:
Sobre el futuro, quién sabe. No me atrevería a darte una respuesta rotunda. Yo creo que debería de aguantar lo que queda de generación a calidades de PS5 como mínimo (por si alguien lee esta afirmación y se revuelve, no voy a entrar a este debate ahora; soy consciente de que en potencia bruta esta tarjeta es superior a PS5, por el orden de 1.5 veces más potente de hecho).

Si acierto o no, sólo el futuro lo dirá. Por ejemplo el DLSS3 podría ayudar a estirar mucho más la tarjeta, pero me parece una tecnología con muchos condicionantes. Para mí que busco la fluidez extrema en 60 FPS no es viable. Ahora bien, si juegas con un monitor o tele con tasa de refresco variable y no eres muy sensible a los artefactos visuales, quizá te ayude.

Y por último, sobre el ensamble. A mí me parece decente. Suficiente para la potencia de la tarjeta y, sobre todo, pequeña. Para mí esto era obligatorio porque uso una caja mini ITX. Y es bonita, que esto ya va a gustos y a discusiones de la caja.

Pero si te planteas pillar esta por pequeña y por el aspecto, antes me plantearía pillar el modelo propio de Nvidia que me parece que está más guapo. Yo he comprado esta porque en mi caja, la fuente de alimentación taparía el ventilador trasero de la de Nvidia y las temperaturas iban a ser malas.

En lo que respecta al ventilador, son ventiladores que al 100% dan mucha chicha. Tienen muchas revoluciones, mas que los de mi Zotac 3070 anterior. Pero la configuración que viene no es muy sonora y pocas veces necesitará funcionar a más del 50-60% si la ventilación de la caja es suficiente. Piensa que deben disipar un TGP de 200w, que 'no es mucho'.

Tengo un itx y tb busco 4k a 60 frames. Me caben solo gpus de 27cm así que estoy bastante limitado en ese sentido.

Por qué dices que el dlss3 no tiene sentido para esa configuración? Si un juego te da 45fps y con dlss3 te llega a 60 no veo el problema. O con fsr. Es que en mi caso es eso o no veo más opciones pq para 4k nativos las gpu miden 30cm o más. Tengo que recurrir a las de 2k potentes y tirar de tecnologías para llegar a los 60.


Ojo que en todo momento hablo de DLSS3. No de FSR ni de DLSS2. Hablo del Frame Generation.

Justo ahí está el tema. Que lo que propones es la teoría y suena bien. Pero en la ejecución pasan cosas que lastran la experiencia.

Se puede jugar a 60 FPS de tres maneras:

- Sin vsync y con tearing
- Con vsync y sin tearing pero con un pelo más de latencia que sin vsync.
- Con vsync y gsync/freesync

Las formas comúnmente aceptadas como ideales son la 2 y la 3. Y vaya, también son mis formas preferidas ya que no concibo jugar con tearing y una imagen inestable (opción 1). Las consolas soportan principalmente la opción 2 y la 3. Si tienes un monitor VRR, las fluctuaciones de FPS de un juego que vaya a 45-60 no deberían de molestarte mucho, por lo que activar DLSS3 no es una necesidad extrema. Si no tienes VRR, entonces DLSS3 podría ser una opción interesante a priori. Pero entonces, ¿Cuál es el problema?

Al activar DLSS3, vsync y limitar a 60 fps, este sistema no te completa los frames que te faltan desde 45 hasta 60, si no que renderiza aproximadamente la mitad y el resto lo completa con fake frames. El problema es que el input lag que sufres es el de los 30 FPS. Ahí entra en juego Nvidia Reflex y reduce ligeramente este problema acercando la latencia de DLSS 3 60 FPS a la de la opción 2 (60 FPS vsync). Esta es la teoría, pero a la hora de la verdad la latencia se siente alta. En tasas de framerate renderizado más altas esto se debe notar muy poco, pero al pasar de 30 a 60 FPS, sí. Por otro lado, al partir de una tasa tan baja, los artefactos visuales son notables. Por ejemplo en Hogwarts Legacy las sombras van a 30 FPS igual que los menús. Por otro lado, la solución no se aplica igual en todos los juegos: por ejemplo ni en NFS Unbound ni en The Witcher 3 he conseguido que el frametime sea correcto. En Rivatuner tú lo ves todo bien, 60 FPS, 16.6ms, pero en la realidad algo sucede que afecta a la sincronización de los frames.

Por conclusión, yo a día de hoy veo muy lejos el uso de DLSS3 como alternativa al clásico 60 FPS vsync. Sí se van solventando estos problemas, sobre todo el de la fluidez... Estaré dentro. Ahora mismo no hay nada como bloquear a 60 y tirar millas.
_anVic_ está baneado por "clon de usuario baneado"
Acabo de encontrar la Gigabyte RTX 4070 Gaming OC & Aero OC Review. Por si a alguien le interesa la dejo por aqui:



Imagen

@zero2006xl El FG con la 4090 va de lujo. He testado a fondo el input en diversos juegos a 4k 120hz y suelo andar entre 25 / 50ms lo que es la latencia media del Pc. Ni idea de como será en la gpus inferiores.

Si no son shooters en plan competitivo a mi no me molesta para nada, forzando v-sync, g-sync a 120fps / 120hz, usando dlss calidad con reflex e intentando que el gpu load vaya relajado para mejorar aun más las latencias va cojonudo en mi opinión.

Por otro lado como acompañamiento uso BFI en alto a 120hz con cap a 120fps en la oled para que la experiencia sea aún más fluida si cabe, obteniendo un motion clarity persistance de 312 fps.
¿De verdad les cuesta tanto a los fabricante 4 tornillos que tienen que dejar el disipador medio suelto?

Cuatro tornillos y 4 thermalpads no cuestan 80€ como los modelos más caros que si lo incluyen.
_anVic_ escribió:Acabo de encontrar la Gigabyte RTX 4070 Gaming OC & Aero OC Review. Por si a alguien le interesa la dejo por aqui:



Imagen

@zero2006xl El FG con la 4090 va de lujo. He testado a fondo el input en diversos juegos a 4k 120hz y suelo andar entre 25 / 50ms lo que es la latencia media del Pc. Ni idea de como será en la gpus inferiores.

Si no son shooters en plan competitivo a mi no me molesta para nada, forzando v-sync, g-sync a 120fps / 120hz, usando dlss calidad con reflex e intentando que el gpu load vaya relajado para mejorar aun más las latencias va cojonudo en mi opinión.

Por otro lado como acompañamiento uso BFI en alto a 120hz con cap a 120fps en la oled para que la experiencia sea aún más fluida si cabe, obteniendo un motion clarity persistance de 312 fps.


A esa comparación le falta el dato de dB y RPM. Me suena leer que los modelos de Gigabyte de la 4070Ti eran muy ruidosos ya que tienen una curva muy agresiva. Eso influye también bastante en la temperatura.
_anVic_ está baneado por "clon de usuario baneado"
Baktor escribió:
_anVic_ escribió:Acabo de encontrar la Gigabyte RTX 4070 Gaming OC & Aero OC Review. Por si a alguien le interesa la dejo por aqui:



Imagen

@zero2006xl El FG con la 4090 va de lujo. He testado a fondo el input en diversos juegos a 4k 120hz y suelo andar entre 25 / 50ms lo que es la latencia media del Pc. Ni idea de como será en la gpus inferiores.

Si no son shooters en plan competitivo a mi no me molesta para nada, forzando v-sync, g-sync a 120fps / 120hz, usando dlss calidad con reflex e intentando que el gpu load vaya relajado para mejorar aun más las latencias va cojonudo en mi opinión.

Por otro lado como acompañamiento uso BFI en alto a 120hz con cap a 120fps en la oled para que la experiencia sea aún más fluida si cabe, obteniendo un motion clarity persistance de 312 fps.


A esa comparación le falta el dato de dB y RPM. Me suena leer que los modelos de Gigabyte de la 4070Ti eran muy ruidosos ya que tienen una curva muy agresiva. Eso influye también bastante en la temperatura.


Sip, la pobre chica o no da para más, o no debe disponer de tanto tiempo y ganas para hacer una review con mayor profundidad. Para eso ya está Steve de Gamer Nexus.

Más arriba he puesto algunas 4070 de la site Techpowerup donde si aparecen dBA y rmp de diferentes modelos.

Las habrá testado a stock con lo que normalmente la curva de fans es muy sutil, en torno a los 23 / 36 dBA dependiendo de cada ensamble o moldeo claro. Pero no suelen ser nada ruidosas en general, claro que siempre hay excepciones como todo en la vida.

https://www.techpowerup.com/review/asus ... uf/37.html

Imagen

https://www.techpowerup.com/review/?cat ... order=date

Ahí tienes 10 RTX 4070 testadas en Techpowerup con todo lujo de detalles.

Como verás en TPU no salen esas dos Gigabyte y como a falta de pan buenas son tortas, me he permitido el compartir la review de esta chica para ir añadiendo moldeos nuevos al hilo... aunque no tenga tanto detalle su review me parece valida después de todo.
Yo me quedaba con la 4070 Asus dual y a tirar millas....

No sé si será fiable este vídeo, parece que la Ventus sería el ensamble a evitar.
Buenas chavales:

Me acabo de pillar una 2080ti de segunda mano. ¿Qué pruebas me recomendáis hacerle y con qué programas para ver si funciona y rinde adecuadamente??

Gracias de antemano, [hallow]
Pues visto lo visto las 4070 van a ser una compra cojonuda al final, encima es que da igual el modelo que cojas que no consumen nada. Que lastima lo de los 12gb de VRAM joer, si le llegan a poner 16 dejan ya el modelo perfecto calidad/precio/tecnologias/consumo. Aunque lastrarian ventas de la 4070ti. Malos tiempos para los que quieren vender las 3080....

Que mal esta gen que no se partiera de 16 para todas las graficas
_anVic_ está baneado por "clon de usuario baneado"
the_aeon escribió:Yo me quedaba con la 4070 Asus dual y a tirar millas....


Si no pinta mal , la tuf y la trio serian las mas silenciosas para las temps que consiguen, siendo la trio la mejor en disipación de memos sobre las diez que han testado.

Por cierto veo que tienes en la firma la 4090 FE que tal se porta en cuanto a overclock, temperaturas, etc?... La tienes en remojo con bloque o en aire?

@rammestino Yo a la 2080Ti que tuve le pase el time spy, el superposition 4k optimized, 1080p extreme y no se si también el port royal. En cuanto a juegos pues los más exigentes que tengas tu operativos en el pc o los que más juegues para ver que tal se porta.
the_aeon escribió:Yo me quedaba con la 4070 Asus dual y a tirar millas....


Yo ya puse una review bastante completa un poco más arriba y la ponen bastante bien en todos los aspectos.
Cuando tienen todas tan poco consumo, es que cualquiera te vale... hasta una Eagle
_anVic_ está baneado por "clon de usuario baneado"
snul9 escribió:

No sé si será fiable este vídeo, parece que la Ventus sería el ensamble a evitar.


Hostia puta tiene delito lo de la ventus WTF acabo de verlo [360º]
_anVic_ escribió:
the_aeon escribió:Yo me quedaba con la 4070 Asus dual y a tirar millas....


Si no pinta mal , la tuf y la trio serian las mas silenciosas para las temps que consiguen, siendo la trio la mejor en disipación de memos sobre las diez que han testado.

Por cierto veo que tienes en la firma la 4090 FE que tal se porta en cuanto a overclock, temperaturas, etc?... La tienes en remojo con bloque o en aire?

@rammestino Yo a la 2080Ti que tuve le pase el time spy, el superposition 4k optimized, 1080p extreme y no se si también el port royal. En cuanto a juegos pues los más exigentes que tengas tu operativos en el pc o los que más juegues para ver que tal se porta.

La tengo por aire, de oc core +100 y mem +500, no me quise comer la cabeza, jugando casi siempre está por debajo de 70 grados.
_anVic_ está baneado por "clon de usuario baneado"
the_aeon escribió:
_anVic_ escribió:
the_aeon escribió:Yo me quedaba con la 4070 Asus dual y a tirar millas....


Si no pinta mal , la tuf y la trio serian las mas silenciosas para las temps que consiguen, siendo la trio la mejor en disipación de memos sobre las diez que han testado.

Por cierto veo que tienes en la firma la 4090 FE que tal se porta en cuanto a overclock, temperaturas, etc?... La tienes en remojo con bloque o en aire?

@rammestino Yo a la 2080Ti que tuve le pase el time spy, el superposition 4k optimized, 1080p extreme y no se si también el port royal. En cuanto a juegos pues los más exigentes que tengas tu operativos en el pc o los que más juegues para ver que tal se porta.

La tengo por aire, de oc core +100 y mem +500, no me quise comer la cabeza, jugando casi siempre está por debajo de 70 grados.


Ok entiendo pues que no la has llevado al limite. Si algún día te animas a ver donde llega ya me comentarás que tal.
_anVic_ escribió:Acabo de encontrar la Gigabyte RTX 4070 Gaming OC & Aero OC Review. Por si a alguien le interesa la dejo por aqui:



Imagen

@zero2006xl El FG con la 4090 va de lujo. He testado a fondo el input en diversos juegos a 4k 120hz y suelo andar entre 25 / 50ms lo que es la latencia media del Pc. Ni idea de como será en la gpus inferiores.

Si no son shooters en plan competitivo a mi no me molesta para nada, forzando v-sync, g-sync a 120fps / 120hz, usando dlss calidad con reflex e intentando que el gpu load vaya relajado para mejorar aun más las latencias va cojonudo en mi opinión.

Por otro lado como acompañamiento uso BFI en alto a 120hz con cap a 120fps en la oled para que la experiencia sea aún más fluida si cabe, obteniendo un motion clarity persistance de 312 fps.


¿Cómo lo tienes configurado exactamente?
- ¿Vsync activado / desactivado? Si está activado, entiendo que en el Panel de Nvidia, ¿no?
- ¿Cómo lo limitas?¿Framecap de 120 en el Panel de Nvidia también? Si limito en Rivatuner la imagen se va a la puta con sacudidas en la imagen cada dos segundos. Parece que deja de sincronizar bien.
- ¿Tu tele es compatible con gsync?

A ver si con esta info puedo ir depurando el tema. Ya digo que en mi caso, para conseguir 60 fps la cosa se va de madre por uno o varios de estos motivos: mucha latencia, problemas de fluidez en la imagen y/o artefactos visuales. El problema 1 y 3 creo que son inherentes a que parte de 30 fps para generar los 60. No es lo mismo cuando partes de 60 para generar 120. El salto es brutal muy en favor de tu configuración. Apreciar la latencia ahí es más difícil.
zero2006xl escribió:
_anVic_ escribió:Acabo de encontrar la Gigabyte RTX 4070 Gaming OC & Aero OC Review. Por si a alguien le interesa la dejo por aqui:



Imagen

@zero2006xl El FG con la 4090 va de lujo. He testado a fondo el input en diversos juegos a 4k 120hz y suelo andar entre 25 / 50ms lo que es la latencia media del Pc. Ni idea de como será en la gpus inferiores.

Si no son shooters en plan competitivo a mi no me molesta para nada, forzando v-sync, g-sync a 120fps / 120hz, usando dlss calidad con reflex e intentando que el gpu load vaya relajado para mejorar aun más las latencias va cojonudo en mi opinión.

Por otro lado como acompañamiento uso BFI en alto a 120hz con cap a 120fps en la oled para que la experiencia sea aún más fluida si cabe, obteniendo un motion clarity persistance de 312 fps.


¿Cómo lo tienes configurado exactamente?
- ¿Vsync activado / desactivado? Si está activado, entiendo que en el Panel de Nvidia, ¿no?
- ¿Cómo lo limitas?¿Framecap de 120 en el Panel de Nvidia también? Si limito en Rivatuner la imagen se va a la puta con sacudidas en la imagen cada dos segundos. Parece que deja de sincronizar bien.
- ¿Tu tele es compatible con gsync?

A ver si con esta info puedo ir depurando el tema. Ya digo que en mi caso, para conseguir 60 fps la cosa se va de madre por uno o varios de estos motivos: mucha latencia, problemas de fluidez en la imagen y/o artefactos visuales. El problema 1 y 3 creo que son inherentes a que parte de 30 fps para generar los 60. No es lo mismo cuando partes de 60 para generar 120. El salto es brutal muy en favor de tu configuración. Apreciar la latencia ahí es más difícil.


Para el frame generation las recomendaciones de Nvidia son las siguientes (suponiendo que tienes Gsync)
-Vsync ON en el panel de Nvidia. OFF ingame.
-Reflex ON ingame.
Con esas dos opciones el reflex ya te capa los fps a tus Hz-4fps aprox. Por ejemplo yo jugando a 144Hz me capa los fps a 138.
Baktor escribió:
zero2006xl escribió:
_anVic_ escribió:Acabo de encontrar la Gigabyte RTX 4070 Gaming OC & Aero OC Review. Por si a alguien le interesa la dejo por aqui:



Imagen

@zero2006xl El FG con la 4090 va de lujo. He testado a fondo el input en diversos juegos a 4k 120hz y suelo andar entre 25 / 50ms lo que es la latencia media del Pc. Ni idea de como será en la gpus inferiores.

Si no son shooters en plan competitivo a mi no me molesta para nada, forzando v-sync, g-sync a 120fps / 120hz, usando dlss calidad con reflex e intentando que el gpu load vaya relajado para mejorar aun más las latencias va cojonudo en mi opinión.

Por otro lado como acompañamiento uso BFI en alto a 120hz con cap a 120fps en la oled para que la experiencia sea aún más fluida si cabe, obteniendo un motion clarity persistance de 312 fps.


¿Cómo lo tienes configurado exactamente?
- ¿Vsync activado / desactivado? Si está activado, entiendo que en el Panel de Nvidia, ¿no?
- ¿Cómo lo limitas?¿Framecap de 120 en el Panel de Nvidia también? Si limito en Rivatuner la imagen se va a la puta con sacudidas en la imagen cada dos segundos. Parece que deja de sincronizar bien.
- ¿Tu tele es compatible con gsync?

A ver si con esta info puedo ir depurando el tema. Ya digo que en mi caso, para conseguir 60 fps la cosa se va de madre por uno o varios de estos motivos: mucha latencia, problemas de fluidez en la imagen y/o artefactos visuales. El problema 1 y 3 creo que son inherentes a que parte de 30 fps para generar los 60. No es lo mismo cuando partes de 60 para generar 120. El salto es brutal muy en favor de tu configuración. Apreciar la latencia ahí es más difícil.


Para el frame generation las recomendaciones de Nvidia son las siguientes (suponiendo que tienes Gsync)
-Vsync ON en el panel de Nvidia. OFF ingame.
-Reflex ON ingame.
Con esas dos opciones el reflex ya te capa los fps a tus Hz-4fps aprox. Por ejemplo yo jugando a 144Hz me capa los fps a 138.


Gracias, aunque estas recomendaciones no me valen ya que en la tele no tengo gsync. Te digo lo que sucede:
- Vsync ON en el panel de Nvidia. OFF ingame. -> OK
- Reflex ON ingame.

Resultado: la imagen da tirones. No se sincronizan bien los frames y es un Cristo.

Siguiente paso:

- Framecap en panel de Nvidia a 60 fps.

Resultado: la imagen ya no da tirones y el juego va a 60 fps pero dependiendo del juego pasan algunas o varias de estas cosas:
- La latencia es muy alta.
- El frame pacing es inconsistente, como si hubiera pequeños microparones. Similar a lo que sucede si juegas sin gsync a 58 frames vsync en una pantalla con 60 hz. Esto sólo lo he notado en The Witcher 3. Si desactivo FG este problema no se reproduce.
- Hay artefactos notables en el juego (depende del juego en sí).

Tener una pantalla con gsync y altos hz con un buen rango VRR anula los problemas mencionados arriba. Pero esto es a lo que me refería con caso ideal en mis mensajes anteriores. A día de hoy el DLSS 3 te permite jugar a altas tasas de frames si se dan las condiciones adecuadas. No es válido bajo mis pruebas, a día de hoy, para ganar ese rendimiento extra de 5-10 fps que te puedan faltar para llegar a 60 fps en un juego limitado por CPU en una pantalla sin VRR.
_anVic_ está baneado por "clon de usuario baneado"
zero2006xl escribió:
Baktor escribió:
zero2006xl escribió:
¿Cómo lo tienes configurado exactamente?
- ¿Vsync activado / desactivado? Si está activado, entiendo que en el Panel de Nvidia, ¿no?
- ¿Cómo lo limitas?¿Framecap de 120 en el Panel de Nvidia también? Si limito en Rivatuner la imagen se va a la puta con sacudidas en la imagen cada dos segundos. Parece que deja de sincronizar bien.
- ¿Tu tele es compatible con gsync?

A ver si con esta info puedo ir depurando el tema. Ya digo que en mi caso, para conseguir 60 fps la cosa se va de madre por uno o varios de estos motivos: mucha latencia, problemas de fluidez en la imagen y/o artefactos visuales. El problema 1 y 3 creo que son inherentes a que parte de 30 fps para generar los 60. No es lo mismo cuando partes de 60 para generar 120. El salto es brutal muy en favor de tu configuración. Apreciar la latencia ahí es más difícil.


Para el frame generation las recomendaciones de Nvidia son las siguientes (suponiendo que tienes Gsync)
-Vsync ON en el panel de Nvidia. OFF ingame.
-Reflex ON ingame.
Con esas dos opciones el reflex ya te capa los fps a tus Hz-4fps aprox. Por ejemplo yo jugando a 144Hz me capa los fps a 138.


Gracias, aunque estas recomendaciones no me valen ya que en la tele no tengo gsync. Te digo lo que sucede:
- Vsync ON en el panel de Nvidia. OFF ingame. -> OK
- Reflex ON ingame.

Resultado: la imagen da tirones. No se sincronizan bien los frames y es un Cristo.

Siguiente paso:

- Framecap en panel de Nvidia a 60 fps.

Resultado: la imagen ya no da tirones y el juego va a 60 fps pero dependiendo del juego pasan algunas o varias de estas cosas:
- La latencia es muy alta.
- El frame pacing es inconsistente, como si hubiera pequeños microparones. Similar a lo que sucede si juegas sin gsync a 58 frames vsync en una pantalla con 60 hz. Esto sólo lo he notado en The Witcher 3. Si desactivo FG este problema no se reproduce.
- Hay artefactos notables en el juego (depende del juego en sí).

Tener una pantalla con gsync y altos hz con un buen rango VRR anula los problemas mencionados arriba. Pero esto es a lo que me refería con caso ideal en mis mensajes anteriores. A día de hoy el DLSS 3 te permite jugar a altas tasas de frames si se dan las condiciones adecuadas. No es válido bajo mis pruebas, a día de hoy, para ganar ese rendimiento extra de 5-10 fps que te puedan faltar para llegar a 60 fps en un juego limitado por CPU en una pantalla sin VRR.


En tu caso el hándicap mayor son los 60hz.

La mejor alternativa para ti sería a 60hz / 60fps sería usar BFI alto en una C2 por ejemplo que tiene poco flickering a esos hz y obtendrias un motion clarity equivalente a 156fps/hz
Comprobado por un servidor con el ufo test de blur busters.

En mi caso como tengo la 4090 puedo estirar BFI hasta 120hz en la C1 que tienes 0 flickering pero por tu 4070 sólo podrías optar por usarlo a 60hz ya que pare que funcione correctamente has de poder mantener 60fps rocosos.

La ganancia en fluidez es muy superior a usar dlss3 ya que con FG no se gana apenas motion clariry, pues sigues teniendo 60hz pero con algunos fake frames extras.

Lo ideal para mi es combinar BFI con FG así mantengo unos 120fps rocosos con baja carga de gpu load, con la consiguiente disminución en input lag, cpu de paseo sin dependencia alguna y un motion clarity equivalente a 312fps/312hz según las pruebas realizadas en el citado ufo test.

Obtengo el equivalente a 3.2 ms pixels of motion blur. Lo que equivale haciendo un cálculo simple a 1ms÷3.2ms ×1000= 312fps en motion clarity persistance.

En tu caso seria con BFI alto a 60hz en la C2 equivale a 6.4ms pixels of motion blur, lo que resulta de 1ms÷6.4msx1000= 156fps en motion clarity persistance.
14352 respuestas