[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

BloodBlack está baneado por "clon de usuario baneado"
Strait escribió:
stan01 escribió:Bueno, parece que la 4070 si tendrá FE a diferencia de la versión TI

https://videocardz.com/newz/nvidia-gefo ... -leaks-out

De todos modos, una 4070 que rinde como una 3080 al precio de una 3080 pues no se... por mi se la pueden meter por el mismo sitio que el resto de la serie 4000 (solo que esta al ser más pequeña les amargará un poco menos)

Siento haberos cortado el rollito de offtopic que lleváis, ya podéis seguir con el multiplataforma.


Si la 4070 rinde como una 3080 al precio de una 3080 seguirá mereciendo mucho la pena. En juegos con DLSS 3 va a rendir literlamente el doble y el día de mañana todos los juegos vendrán con DLSS 3. Bueno eso y 2GB más de VRAM y unos 100w menos de consumo con probablemente mucha mejor temperatura.


El que no se consuela con los fakes frames es porque no quiere [carcajad]
Strait escribió:¿Tienes una 4080 o 4090? Son valores muy similares a los que consigo con la 4080. Ahora estoy probando 2820 a 0.995v. Se estabiliza en 2805 cuando alcanza 50º.



4090, la frecuencia de 2790mhz es lo que hace ella sola, por eso lo tengo seteado así el undervolt, para que cuando se estabilice se quede igual de frecuencias pero con menos consumo.
@hh1 sinceramente, no hace mucho hubo una rtx 4080 por 1299€ en coolmod.
La estrenas tú, con garantía a tu nombre.
Yo si fuera por algo menos sí la pillaría. Por 1200€ y garantía de un tercero, como que no.
Aunque claro está, que no tiene por qué fallar, pero por si acaso.

Saludos!
@DaNi_0389 Pues es la misma frecuencia y voltaje a la que trabaja mi 4080. Obviamente con 128 bits menos y muchas otras carencias.

@BloodBlack Los fake frames es el mejor invento que han sacado. Se acabaron los cuello de botella de cpu. Es la primera vez que puedo jugar a juegos a 4k con ray tracing a tope a 100fps. Con la 3080ti me los comía a 40fps.
ajbeas escribió:@hh1 sinceramente, no hace mucho hubo una rtx 4080 por 1299€ en coolmod.
La estrenas tú, con garantía a tu nombre.
Yo si fuera por algo menos sí la pillaría. Por 1200€ y garantía de un tercero, como que no.
Aunque claro está, que no tiene por qué fallar, pero por si acaso.

Saludos!

Sí sí.
Ya me tentó aquella.De hecho el modelo me gustaba más que este, pero eran 100 pavetes más.
La tarjeta la estrenoi yo.Lo de la garantía a nombre de otro, no debería haber problemas que yo sepa.

Yo por 1100€ o así ya dije que no lo pensaba tanto.Pero aún se me hace cara para lo que me ofrece de diferencia.
elcapoprods escribió:
Strait escribió:
stan01 escribió:Bueno, parece que la 4070 si tendrá FE a diferencia de la versión TI

https://videocardz.com/newz/nvidia-gefo ... -leaks-out

De todos modos, una 4070 que rinde como una 3080 al precio de una 3080 pues no se... por mi se la pueden meter por el mismo sitio que el resto de la serie 4000 (solo que esta al ser más pequeña les amargará un poco menos)

Siento haberos cortado el rollito de offtopic que lleváis, ya podéis seguir con el multiplataforma.


Si la 4070 rinde como una 3080 al precio de una 3080 seguirá mereciendo mucho la pena. En juegos con DLSS 3 va a rendir literlamente el doble y el día de mañana todos los juegos vendrán con DLSS 3. Bueno eso y 2GB más de VRAM y unos 100w menos de consumo con probablemente mucha mejor temperatura.

La gravedad del asunto es que es una XX70 a precio de XX80, si tragamos la proxima 5070 costará 1400€ porque rinde como la 4080.


https://wccftech.com/rumor-nvidia-rtx-5 ... s-history/

Ya pueden empezar a ahorrar :p
buenas ,quiero comprar gráfica de la serie 4070ti y no se si tengo fuente suficiente o necesito renovarla.?

Mi equipo para darles mas datos sobre el consumo es este :
12700K , NO PIENSO HACERLE OC , PLACA PRO Z690-A DDR4 , DISIPACION POR AIRE Y LO TIPICO UN PAR DE DISCOS DUROS Y UNOS CUANTOS VENTILADORES..

la fuente que tengo:
EVGA SuperNOVA 750 G3, 80 Plus Gold 750W
https://latam.evga.com/products/product ... G3-0750-RX

En el caso de necesitar renovar me pueden recomendar algún modelo .

grazie mille [tadoramo]
hh1 escribió:
KindapearHD escribió:
hh1 escribió:Hombre...yo creo que 700-750€€ por la 3080Ti ,saco.
Por 600€ no lo hago.

Suelen venderse a esos precios por Walla.
La pondtía también en el foro.

Tú aún poniendo 600€ lo harías?Es para 1440p.


Yo creo que a esos precios estan las 3090, mas que las 3080ti, pero ponla en wallapop y demás y alguien la querrá. Yo aun poniendo 600€, si tu idea es aguantarla el máximo, lo haría. no por rendimiento (que tambien), pero si por eficiencia y temperaturas. Yo tambien juego a 1440p y hubiera pasado de la 3090 a la 4080 si hubiera visto una oportunidad asi.

La verdad es que las temperaturas con la que tengo no es lo que me haría cambiar.
Me acabo de echar una partida a Devil in me y es que es de chiste...47°C.
En otros voy a 50 ,52,55°C.
La eficiencia...bueno,me suele gastar por debajo de 300w.Tampoco es incentivo.

No sé..Le daré vueltas al tema.

Por un lado estoy muy contento con la 3080Ti y me da pereza cambiar.
Tampoco veo que le vaya a sacar buen partido a la diferencia quitando 3 juegos puntuales.

Pero lo mismo en lo que viene sí o en un futuro recupero gran parte de la inversión.
También me como el tarro con la devaluación futura de la mía
Que cuando quiera cambiar, valga bastante menos y el cambio bastante más.

En mi mente está aguantrala 2 años mínimo.Largo tiempo no lo creo salvo que las siguientes sean aún más caras.

No se qué hacer .
Si fuese a 4K o me diese rendimiento notorio en todos los juegos ,ya lo hubiese hecho.



Pues si no lo tienes claro, no lo hagas. Tienes grafica de sobra para años. Espérate a las 5000.
@hh1 ¿Todavía sigues dándole vueltas? Ya se las dabas en diciembre y no recuerdo si antes [carcajad] [carcajad]

Yo me estoy planteando cambiar la 3080 por una 4090 o comprar un monitor adicional más para jugar, dejando el G9 para trabajar. 5120x1440 se está volviendo complicado de gestionar con la 3080 en juegos modernos y me da rabia porque la alternativa de ese monitor es jugar en media pantalla... a 60 Hz

Este año salen Assassin's Creed: Mirage, la expansión del Cyberpunk... y tengo esa duda. Pero menudos precios que se manejan, me gustaba la Asus y casi me da un patatús cuando he visto el precio [qmparto]. Luego la Aorus es mi espinita clavada de la 3080, que estaba agotada y opté por la Vision (que ahora no existe, no sé si la han cambiado de nombre a Aero o qué). Y la Aero en 4090 tampoco la encuentro, sólo en 4080
Senegio escribió:@hh1 ¿Todavía sigues dándole vueltas? Ya se las dabas en diciembre y no recuerdo si antes [carcajad] [carcajad]

Yo me estoy planteando cambiar la 3080 por una 4090 o comprar un monitor adicional más para jugar, dejando el G9 para trabajar. 5120x1440 se está volviendo complicado de gestionar con la 3080 en juegos modernos y me da rabia porque la alternativa de ese monitor es jugar en media pantalla... a 60 Hz

Este año salen Assassin's Creed: Mirage, la expansión del Cyberpunk... y tengo esa duda. Pero menudos precios que se manejan, me gustaba la Asus y casi me da un patatús cuando he visto el precio [qmparto]. Luego la Aorus es mi espinita clavada de la 3080, que estaba agotada y opté por la Vision (que ahora no existe, no sé si la han cambiado de nombre a Aero o qué). Y la Aero en 4090 tampoco la encuentro, sólo en 4080


Por curiosidad, ¿el g9 te está dando muchos problemas para jugar con la 3080 a alta calidad?

Justamente me estoy planteando comprarme un g9 para jugar y es que actualmente con el de 27" 1440p 165hz me va todo al maximo como un tiro. De ahi que me has sembrado la duda cuando he leido tu post. No sabia que la 3080 se quedaba un poco corta a esas resoluciones.
@Wanderlei Te estoy respondiendo en tu hilo jaja. Sólo da problemas con RTX pero tienes que tener en cuenta que super-ultrawide es un 10% menos exigente que 4k, así que más o menos los benchmarks de 4k te pueden dar una idea de lo que te encuentras... y la 3080 4k ultra RTX... no recuerdo ni que fuera posible en 2020 pues imagínate con lo que ha salido después y va a salir.
De nuevo a la venta la 4090 FE en la pagina de Nvidia!
@hh1 te llevo leyendo mucho tiempo (o se me ha hecho largo, no sé) sobre esa decisión del cambio de gráfica. Yo te recomendaría que decidas ya lo que creas que es mejor para ti y así dejes de darle vueltas y dedicar tiempo al mismo tema. Si dudas tanto es que no será muy necesario el cambio. Y sobre el futuro, nadie sabe con seguridad la subida/bajada de precios de los componentes en segunda mano.

A ver, que cada uno dedica el tiempo a lo que quiera, faltaría que te diga qué tienes que hacer o dejar de hacer, pero me da la impresión que estás dedicando demasiado tiempo y pensamientos a una decisión que va a cambiar poco tu día a día.
@Doncel Sí, desde esta tarde están disponibles las Founder, que las he visto echando un vistazo a todas las tiendas.

¿Pero por qué os gusta la Founder? ¿Son mejores que las custom de 3 ventiladores?
Senegio escribió:@Doncel Sí, desde esta tarde están disponibles las Founder, que las he visto echando un vistazo a todas las tiendas.

¿Pero por qué os gusta la Founder? ¿Son mejores que las custom de 3 ventiladores?


Eso me gustaría saber a mi, ya que en cuanto a rendimiento, son peores, menos fps, mas temperatura en general…quizas por la calidad interna?
virtus escribió:buenas ,quiero comprar gráfica de la serie 4070ti y no se si tengo fuente suficiente o necesito renovarla.?

Mi equipo para darles mas datos sobre el consumo es este :
12700K , NO PIENSO HACERLE OC , PLACA PRO Z690-A DDR4 , DISIPACION POR AIRE Y LO TIPICO UN PAR DE DISCOS DUROS Y UNOS CUANTOS VENTILADORES..

la fuente que tengo:
EVGA SuperNOVA 750 G3, 80 Plus Gold 750W
https://latam.evga.com/products/product ... G3-0750-RX

En el caso de necesitar renovar me pueden recomendar algún modelo .

grazie mille [tadoramo]

El 12700K puede consumir 220W en full load en cinebench, la 4070ti tiene un consumo de 285W que en algunos fabricantes puede ser eso o ligeramente más pero no tanto, los HDD y los ventiladores no tiran mucho asi que deberia llegarte de sobra.
@elcapoprods muchas gracias , mi bolsillo y yo nos acabamos de alegrar ...
KindapearHD escribió:
Senegio escribió:@Doncel Sí, desde esta tarde están disponibles las Founder, que las he visto echando un vistazo a todas las tiendas.

¿Pero por qué os gusta la Founder? ¿Son mejores que las custom de 3 ventiladores?


Eso me gustaría saber a mi, ya que en cuanto a rendimiento, son peores, menos fps, mas temperatura en general…quizas por la calidad interna?


A mi personalmente, porque son bastante más "pequeñas" que las custom. También se dice que los mejores chips se reservan para las founders.
hh1 escribió:Mientras si me hago con una 4080 a 1200€, su valor en dos años, si quiero cambiar a una hipotética 5080, será de unos 700-750€ si no pasa nada raro en el mercado.
Eso haría recuperar gran parte de la inversión actual, con el añadido de haber ido dos años con una gráfica mejor y si pasase algo extraño en el mercado, si no quiero cambiar, ir por aquel entonces aún relativamente sobrado de rendimiento.


Esto también era uno de los motivos por los que cambié. Está claro que la 4080 tampoco va a ser como la 3080, que puse 750 y he recuperado 600 habiéndola disfrutado año y medio, porque visto las quejas es posible que la 5080 ya le bajen algo el precio pero aún así se podrá recuperar bastante, y si no a ver cómo está la 4080 en ese momento, porque el dlss irá mejorando.

Es que si llevas tanto tiempo pensándolo y tampoco supone un esfuerzo hacer el gasto... quizás es mejor cambiarla y disfrutar la nueva y ya estás preparado para lo que venga.
virtus escribió:@elcapoprods muchas gracias , mi bolsillo y yo nos acabamos de alegrar ...

Yo tengo esa misma fuente, el mismo procesador y una 4070ti y va sin problemas
BloodBlack está baneado por "clon de usuario baneado"
Strait escribió:@DaNi_0389 Pues es la misma frecuencia y voltaje a la que trabaja mi 4080. Obviamente con 128 bits menos y muchas otras carencias.

@BloodBlack Los fake frames es el mejor invento que han sacado. Se acabaron los cuello de botella de cpu. Es la primera vez que puedo jugar a juegos a 4k con ray tracing a tope a 100fps. Con la 3080ti me los comía a 40fps.


Siempre tendrás cuellos, y no son 100 FPS serian 50fps, y lo otro son frames inventados para darte un sensación de mayor fluidez.

Que en realidad la interpolacion de frames es una técnica vieja, que se ha usado en TV y videos de Youtube solo que hoy te la venden con la IA.

Con la poca potencia de lo saltos generacionales las compañías se ven obligados a venderte tecnología anticuada y que antes era impensable que un PC máster race se jugará reescalado o con interpolacion de frames, y le ponen la etiqueta de IA para que quede guay y moderno.

Y la empresas han sido inteligente han usado el Ray Tracing para obligar y normalizar estos apaños, actualmente están usando un Ray Tracing más tocho de muchos rebotes, para crear la necesidad de usar fake frames.
Rvilla87 escribió:@hh1 te llevo leyendo mucho tiempo (o se me ha hecho largo, no sé) sobre esa decisión del cambio de gráfica. Yo te recomendaría que decidas ya lo que creas que es mejor para ti y así dejes de darle vueltas y dedicar tiempo al mismo tema. Si dudas tanto es que no será muy necesario el cambio. Y sobre el futuro, nadie sabe con seguridad la subida/bajada de precios de los componentes en segunda mano.

A ver, que cada uno dedica el tiempo a lo que quiera, faltaría que te diga qué tienes que hacer o dejar de hacer, pero me da la impresión que estás dedicando demasiado tiempo y pensamientos a una decisión que va a cambiar poco tu día a día.

Dudo en función de los precios.
Según bajan o la veo más baja de precio, dudo.
BloodBlack escribió:
Siempre tendrás cuellos, y no son 100 FPS serian 50fps, y lo otro son frames inventados para darte un sensación de mayor fluidez.

Que en realidad la interpolacion de frames es una técnica vieja, que se ha usado en TV y videos de Youtube solo que hoy te la venden con la IA.

Con la poca potencia de lo saltos generacionales las compañías se ven obligados a venderte tecnología anticuada y que antes era impensable que un PC máster race se jugará reescalado o con interpolacion de frames, y le ponen la etiqueta de IA para que quede guay y moderno.

Y la empresas han sido inteligente han usado el Ray Tracing para obligar y normalizar estos apaños, actualmente están usando un Ray Tracing más tocho de muchos rebotes, para crear la necesidad de usar fake frames.


Hablando asi creo que no has probado el DLSS 3.
El Witcher 3 con raytracing a 4K nativos va a 45 fps con una RTX 4090, con DLSS 3 a 80 fps. La diferencia es como el dia y la noche, hace que un juego que va brusco lo juegues con una suavidad increible.
Flight simulator lo mismo, con todos los graficos a tope mas alla de ultra a 4K no pasa de 35 fps en New York, y con DLSS 3 a mas de 60 fps.
Y como estos muchos mas casos.

Y estoy hablando de Frame generation a secas, que si le sumas el DLSS 2, ya los fps se te van a mas de 100.
BloodBlack escribió:
Strait escribió:@DaNi_0389 Pues es la misma frecuencia y voltaje a la que trabaja mi 4080. Obviamente con 128 bits menos y muchas otras carencias.

@BloodBlack Los fake frames es el mejor invento que han sacado. Se acabaron los cuello de botella de cpu. Es la primera vez que puedo jugar a juegos a 4k con ray tracing a tope a 100fps. Con la 3080ti me los comía a 40fps.


Siempre tendrás cuellos, y no son 100 FPS serian 50fps, y lo otro son frames inventados para darte un sensación de mayor fluidez.

Que en realidad la interpolacion de frames es una técnica vieja, que se ha usado en TV y videos de Youtube solo que hoy te la venden con la IA.

Con la poca potencia de lo saltos generacionales las compañías se ven obligados a venderte tecnología anticuada y que antes era impensable que un PC máster race se jugará reescalado o con interpolacion de frames, y le ponen la etiqueta de IA para que quede guay y moderno.

Y la empresas han sido inteligente han usado el Ray Tracing para obligar y normalizar estos apaños, actualmente están usando un Ray Tracing más tocho de muchos rebotes, para crear la necesidad de usar fake frames.


Estás ciego o eres pobre como yo y te intentas autoconvencer de que no tendrás ninguna 4000 ni 5000 en los próximos 10 años?

BloodBlack está baneado por "clon de usuario baneado"
@beatle

Y te parece bien que una 4090 de casi $2000 vaya 40fps sin fakes frames?, Esto es justamente lo que comento son RT demandante para intentar obligar a usar una tecnología anticuada, porque es más fácil que ofrecer saltos generacionales más grandes de GPU.

Es más curiosamente en TW3 hay un mod donde toqueteando un poco la RT y probes ganas hasta 50% mas de rendimiento con una calidad similar, pero hay que colar los fakes frames de algún modo.
BloodBlack escribió:@beatle

Y te parece bien que una 4090 de casi $2000 vaya 40fps sin fakes frames?, Esto es justamente lo que comento son RT demandante para intentar obligar a usar una tecnología anticuada, porque es más fácil que ofrecer saltos generacionales más grandes de GPU.

Es más curiosamente en TW3 hay un mod donde toqueteando un poco la RT y probes ganas hasta 50% mas de rendimiento con una calidad similar, pero hay que colar los fakes frames de algún modo.


Lo mismo que me parece que en una AMD 7900 XTX de 1300€ vaya a 19 fps.



Y esta no tiene DLSS 3 para arreglarlo un poco.
BloodBlack escribió:@beatle

Y te parece bien que una 4090 de casi $2000 vaya 40fps sin fakes frames?, Esto es justamente lo que comento son RT demandante para intentar obligar a usar una tecnología anticuada, porque es más fácil que ofrecer saltos generacionales más grandes de GPU.

Es más curiosamente en TW3 hay un mod donde toqueteando un poco la RT y probes ganas hasta 50% mas de rendimiento con una calidad similar, pero hay que colar los fakes frames de algún modo.


Esto es como el nitro en un coche, tengo nitro y no lo uso? Para algo esta no?


Lo mismo con dlss3, os escuece mucho algunos que con el dlss3 dupliquen los frames... Oohh va a 45 frames sin dlss, vaya mierda de gráfica tenéis!!!

Espera que si activas dlss va a 100... Ooohh que verguenza!! Tenéis que activar dlss...


Por una razón u otra tenéis algunos que criticar al pepino gráfica que es...

Ray tracing es ray tracing y muchos no entienden aún lo exigente que es...

A quien dice que el the Witcher con el mod gana un 50% toqueteando un poco el Ray tracing, me hace mucha gracia... Porque lo he probado y comparado , y pierde muchísimo visualmente. Así que el colar fake frames... Me das que patinas un pooooquito sólo...
KindapearHD escribió:
Senegio escribió:@Doncel Sí, desde esta tarde están disponibles las Founder, que las he visto echando un vistazo a todas las tiendas.

¿Pero por qué os gusta la Founder? ¿Son mejores que las custom de 3 ventiladores?


Eso me gustaría saber a mi, ya que en cuanto a rendimiento, son peores, menos fps, mas temperatura en general…quizas por la calidad interna?


Yo por lo que he leído en reviews la ponen bien, la mejor que he visto que ponen es la Asus que vale un riñón, luego la Aorus y ya en el resto de posiciones suele haber más debate, pero curiosamente he visto la TUF que no sé si es que ha mejorado mucho la cosa estos últimos 2 años pero cuando salió la 3080 no recuerdo buenas críticas
BloodBlack está baneado por "clon de usuario baneado"
beatle escribió:
BloodBlack escribió:@beatle

Y te parece bien que una 4090 de casi $2000 vaya 40fps sin fakes frames?, Esto es justamente lo que comento son RT demandante para intentar obligar a usar una tecnología anticuada, porque es más fácil que ofrecer saltos generacionales más grandes de GPU.

Es más curiosamente en TW3 hay un mod donde toqueteando un poco la RT y probes ganas hasta 50% mas de rendimiento con una calidad similar, pero hay que colar los fakes frames de algún modo.


Lo mismo que me parece que en una AMD 7900 XTX de 1300€ vaya a 19 fps.



Y esta no tiene DLSS 3 para arreglarlo un poco.


Correcto GPU de 1000 pavos para arriba a 19 y 40fps...

Yo fui muy partidario del Ray Tracing, pero actualmente se les comienza a ver el plumero a estas compañías y como intentan colar estas tecnologías que antes eran impensables, todavía recuerdo cómo nos burlabamos del reescalado en consolas y se presumía de resolución nativa y altos fps....

Pero estas compañías tanto Nvidia como AMD, ante sus pocos avances de arquitectura, esta usando un Ray Tracing pesado para intentar colar tecnologías que no deberían estar presente en GPU de alta gama.

Es que es de risa para cualquiera que sabe un poco de render, ver como en juegos como portal, Cyberpunk overdriver mode, en TW3 etc están colando un Ray Tracing de mucho rebotes y resolución completa, para que las las GPU se arrastren y se tenga un escenario donde sacar pecho de los fakes frames para intentar vender. Ahí tiene a Metro Exodus Enhacend con rebotes infinitos usando una técnica de simulación y Lumen del UE5 hace lo mismo para funcionar a 60fps (reales) en consolas con equivalentes a una 3060/TI.
@chrispro hola, ante todo que sepas que te respeto, tio. No se de que palo vas pero me da igual.

A ver, aqui no se trata de ser un lloron o no, ni de criticar que sin DLSS 3 las graficas son una mierda, se trata de que nos han vendido la moto con un DLSS que en teoria, podria ser ejecutado por cualquier grafica top de la serie 3000, con sus RT cores que son la leche aunque la gente ahora diga que no valen para nada.

Lo que me molesta es que Nvidia nos ha hecho un pufo de la leche, empezando con el DLSS 3, que se puede ejecutar con cualquier grafica, y terminando con que nos quitan el Gamestream, que es la alternativa que teniamos los pobres a no tener PC y consola en casa para poder jugar a todo.

Con todo esto, quiero decir que sois demasiado benevolos con como se esta portando vuestra compañia favorita, gastaros el dinero en lo que querais, pero los que tenemos una 3080 de 12 o casi una 3080Ti, no tenemos una grafica obsoleta, y estos tipejos quieren hacernos ver que si. La potencia esta ahi, y las consolas tienen la mitad de TFLOPS, pese a quien le pese.

Dejaros de estupideces por favor, a cualquier usuario que tenga una 3080ti/3080/3080 12Gb se la tendria que dar al pairo toda esta fumada que se ha pegado Nvidia, se puede jugar igual, sin tener que cambiar de grafica, y sin tener que bajar presets, si no tienes un monitor 4k a 144hz.

Dejar de hacer ver que si no tienes una 4080 o 4090 no eres nadie, porque no es asi, son graficas potentisimas que duplican o triplican el rendimiento de las consolas.

Y que conste que esto no es un post para crear polemicas absurdas, ni que nadie se lo tome a pecho, es que es verdad, no necesitamos la serie 4000 para seguir jugando en 2k a 144, eso es un hecho, por lo menos con gsync.

Que vendan la seria 4000 para jugar a 4k, pues vale, pero que se coman sus 2000 euros de la 4090, porque yo es que no tenga dinero, pero tengo dos dedos de frente y no los voy a pagar porque no me sale del nardo.
En su salida estuve al tanto de ver en que quedaba DLSS 3 y la conclusión que saque fue que ...

-Funciona bien si tienes fps nativos altos, a partir de 90fps +/-. Si los fps nativos son bajos se ven artifacts, con 40/50fps los artifacts son evidentes.
- Problemas con los hud
- Errores con los cambios de cámara donde la IA es imposible que prediga el siguiente frame.
- Aumento de latencia.
- Sensación rara de ir a altos fps con latencia de bajos fps
- Si tienes stuttering por limitación de CPU DLSS 3 no lo va a solucionar, incluso puede empeorar (el stuttering)

Los que lo habéis probado ¿Que hay de todo esto? Es que leyendo a algunos parece que DLSS 3 no tenga contras.
Y por supuesto dependes del soporte que vayan dando.
En mi opinión defender a la serie 4000 agarrándose a DLSS 3 demuestra lo lamentable en cuanto a potencia/precio que es esta generación.

BloodBlack escribió:Que en realidad la interpolacion de frames es una técnica vieja, que se ha usado en TV y videos de Youtube solo que hoy te la venden con la IA.

El resultado del interpolador de una TV está muy lejos de lo que consigue Nvidia con DLSS 3.

Con la poca potencia de lo saltos generacionales las compañías se ven obligados a venderte tecnología anticuada y que antes era impensable que un PC máster race se jugará reescalado o con interpolacion de frames, y le ponen la etiqueta de IA para que quede guay y moderno.


Este ha sido uno de los mayores saltos entre generaciones de la historia. El problema ha sido el precio .

Y la empresas han sido inteligente han usado el Ray Tracing para obligar y normalizar estos apaños, actualmente están usando un Ray Tracing más tocho de muchos rebotes, para crear la necesidad de usar fake frames.


Yo lo tengo claro, en la mayoría de juegos RT que he probado el impacto visual ni de coña justifica la perdida de rendimiento.
JaviGabber escribió:En su salida estuve al tanto de ver en que quedaba DLSS 3 y la conclusión que saque fue que ...

-Funciona bien si tienes fps nativos altos, a partir de 90fps +/-. Si los fps nativos son bajos se ven artifacts, con 40/50fps los artifacts son evidentes.
- Problemas con los hud
- Errores con los cambios de cámara donde la IA es imposible que prediga el siguiente frame.
- Aumento de latencia.
- Sensación rara de ir a altos fps con latencia de bajos fps
- Si tienes stuttering por limitación de CPU DLSS 3 no lo va a solucionar, incluso puede empeorar (el stuttering)

Los que lo habéis probado ¿Que hay de todo esto? Es que leyendo a algunos parece que DLSS 3 no tenga contras.
Y por supuesto dependes del soporte que vayan dando.


Lo que mas he notado yo son los problemas con el hud en spiderman, la señal que te indica la direccion del objetivo.

No he visto artefactos, ni a altos ni a bajos fps.

Y la latencia, no he notado nada diferente a resoluciones nativas.

Y en cuanto al hud, parece que Nvidia lo ha arreglado segun este video que saco hace poco.

BloodBlack está baneado por "clon de usuario baneado"
JaviGabber escribió:En su salida estuve al tanto de ver en que quedaba DLSS 3 y la conclusión que saque fue que ...

-Funciona bien si tienes fps nativos altos, a partir de 90fps +/-. Si los fps nativos son bajos se ven artifacts, con 40/50fps los artifacts son evidentes.
- Problemas con los hud
- Errores con los cambios de cámara donde la IA es imposible que prediga el siguiente frame.
- Aumento de latencia.
- Sensación rara de ir a altos fps con latencia de bajos fps
- Si tienes stuttering por limitación de CPU DLSS 3 no lo va a solucionar, incluso puede empeorar (el stuttering)

Los que lo habéis probado ¿Que hay de todo esto? Es que leyendo a algunos parece que DLSS 3 no tenga contras.
Y por supuesto dependes del soporte que vayan dando.
En mi opinión defender a la serie 4000 agarrándose a DLSS 3 demuestra lo lamentable en cuanto a potencia/precio que es esta generación.

BloodBlack escribió:Que en realidad la interpolacion de frames es una técnica vieja, que se ha usado en TV y videos de Youtube solo que hoy te la venden con la IA.

El resultado del interpolador de una TV está muy lejos de lo que consigue Nvidia con DLSS 3.

Con la poca potencia de lo saltos generacionales las compañías se ven obligados a venderte tecnología anticuada y que antes era impensable que un PC máster race se jugará reescalado o con interpolacion de frames, y le ponen la etiqueta de IA para que quede guay y moderno.


Este ha sido uno de los mayores saltos entre generaciones de la historia. El problema ha sido el precio .

Y la empresas han sido inteligente han usado el Ray Tracing para obligar y normalizar estos apaños, actualmente están usando un Ray Tracing más tocho de muchos rebotes, para crear la necesidad de usar fake frames.


Yo lo tengo claro, en la mayoría de juegos RT que he probado el impacto visual ni de coña justifica la perdida de rendimiento.


No recuerdo muy atrás , pero de manera rápida ya te puedo decir que ni de coña está RTX 4000 es el mayor salto de la historia, la 4090 es la de mayor salto y solo es un 60% superior a su prodecesora, la 4080 es entre 40-50% y la 4070ti entre un 35%.

Pascal era un 70% en casi todas sus gamas superior a Maxwell, no recuerdo si Maxwell hizo algo parecido con Kepler, la GTX 1070 (sin TI) se follaba hasta la Titán X que era lo mas top de Maxwell que costaba $1000, mientras la GTX 1070 $379.

Así que no el rendimiento de esta generación es penoso y aprecio de oro.
leonigsxr1000 escribió:
leonxx escribió:
leonigsxr1000 escribió:Yo todo lo que sea campaña , lo juego en PC en la Oled de 65" con mando y sofá.

Competitivo y cooperativo xbox series x con mi mujer en las Oled de 65" también...

Lo bueno de las consolas que la optimization es acojonante para el hardware que tienen , y si hay algo malo de lanzamiento en segunda lo corrigen

Lo malo es que te comes casi lo que ellos eligen en cuestion de FPS y resolucion, como los 30 FPS de juegos como a plague tale requiem o gotham knights y ya veremos en el futuro

Y los que van a 60 FPS rara vez van a 4K

Pues mira hijo mío no se que será peor comerte los FPS que ellos quieren (aunque la inmensa mayoría puedes elegir 1440p 60 fps ) que tener una grafica de 2.000 pavos con la optimizacion asquerosa que estamos teniendo en los últimos juegos......bueno y no tan ultimos , the witcher 3 que ya le queda poco para cumplir una década....

Y te lo dice uno que tiene una 4090 y una 4080...

@hh1 a mi me gusta mas el oled cuanto mas grande mejor , el sofa y el mando son mis gustos

Tu lo has dicho, la inmensa mayoria te obligan a jugar a 2K o menos ¿y entonces para que tengo yo un monitor 4K?

¿Y los juegos de PC no los arreglan? Por suerte en PC la cosa ha evolucionado muchismo desde hace tiempo porque hace 20 años si que te comias ports lamentables que no se terminaban de arreglar

Yo solo se que me compre PS5 pensando en que con eso me bastaria y a los dos años ya me he pasado a la 4080 viendo el panorama en consola

Con respecto al DLSS 3 similar experiencia que beatle sin mucho rastro de cosas raras y con respecto a la latencia ya puse por aqui datos de la misma del gforce experience y no sube mucho con respecto a sin DLSS sobre todo con el nvidia reflex activado

Lo que si es flipante es pasar de 40 FPS en el cyberpunk a tope a mas de 100
@Strait tenías la FE y un valor relativamente bajo en el punto 1100mv no? Lo normal en una 4080 OC de ensamblador es conseguir estos undervolts 100% estables, al menos en mi Suprim X con la última BIOS y en otras OC de amigos que me han dejado tunear:

2745 a 950mv <-- rendimiento 99% stock, consumo 60%
2865 a 990mv
2880 a 1v
2940 a 1020mv
3030 a 1050mv
3120 a 1075mv <- consumo idéntico a stock, +12% fps

Memoria de +1300 a +1500 (normalmente +1500)

El voltaje stock en plena carga es 1075mv así que no se emplea overclock de voltaje, estos resultados pueden variar obviamente si te encuentras con silicios menos afortunados.
BloodBlack escribió:No recuerdo muy atrás , pero de manera rápida ya te puedo decir que ni de coña está RTX 4000 es el mayor salto de la historia, la 4090 es la de mayor salto y solo es un 60% superior a su prodecesora, la 4080 es entre 40-50% y la 4070ti entre un 35%.

Pascal era un 70% en casi todas sus gamas superior a Maxwell, no recuerdo si Maxwell hizo algo parecido con Kepler, la GTX 1070 (sin TI) se follaba hasta la Titán X que era lo mas top de Maxwell que costaba $1000, mientras la GTX 1070 $379.

Así que no el rendimiento de esta generación es penoso y aprecio de oro.


He dicho uno de los mas grandes y fijandome en la top de salida de la nueva generacion.
La 4090 en TPU ya le saca un +64% a la 3090 y eso que usaron el 5800x en la review, en otras reviews se va al 70%.

Imagen


Y lo anterior en raster por que cuando el RT entra en juego el repaso que le da la 4090 al resto es aun mayor

Imagen
Imagen
Imagen
Imagen


Segun TPU entre la 1080 y la 980 hubo un incremento del +67% y ya sabemos que aun no habia nada de IA.

Imagen


Y entre la 980 y la 780 un triste +30%

Imagen


Es cierto que el salto de la 4080 con respecto a su predecesora es menor, un +50% con respecto a la 3080 y un +72% en precio [qmparto]

Imagen


Mientras que la 3080 le metio un +67% a la 2080 y al mismo precio de salida.
Imagen


Dicho todo esto no estoy nada de acuerdo en que el rendimiento de esta generacion es penoso, no es nada realista decir eso. Lo del precio nadie lo discute.
JaviGabber escribió:En su salida estuve al tanto de ver en que quedaba DLSS 3 y la conclusión que saque fue que ...

-Funciona bien si tienes fps nativos altos, a partir de 90fps +/-. Si los fps nativos son bajos se ven artifacts, con 40/50fps los artifacts son evidentes.
- Problemas con los hud
- Errores con los cambios de cámara donde la IA es imposible que prediga el siguiente frame.
- Aumento de latencia.
- Sensación rara de ir a altos fps con latencia de bajos fps
- Si tienes stuttering por limitación de CPU DLSS 3 no lo va a solucionar, incluso puede empeorar (el stuttering)

Los que lo habéis probado ¿Que hay de todo esto? Es que leyendo a algunos parece que DLSS 3 no tenga contras.
Y por supuesto dependes del soporte que vayan dando.


Yo le he metido más de 100 horas con el dlss3 activo en más de 10 juegos y te digo que las ventajas superan con creces los inconvenientes, antes de probarlo opinaba como tú o peor ya que pensaba era un engaña bobos pero tras verlo en acción la verdad es que parece magia negra xD

Sobre los puntos que comentas, no necesitas 90fps nativos para que vaya bien, los problemas con el hud debes intentar sacarlos ya que jugando normalmente no se ven y a veces ni intentando sacarlos los ves, donde los ves es en los reviews donde te ponen el video al 10% de velocidad y paran justo en el frame concreto que tiene artefactos algo que tu de normal no podrás apreciar cuando te están mostrando 100 por segundo, idem con los cambios de camara, sensación rara cero al menos en mi caso la fluidez es brutal y responde perfecto.

JaviGabber escribió:En mi opinión defender a la serie 4000 agarrándose a DLSS 3 demuestra lo lamentable en cuanto a potencia/precio que es esta generación.


Yo no creo que nadie se agarre solo a eso, simplemente lo ponen como un plus ya que funciona perfectamente y es un avance muy útil.

El único problema del dlss3 es que los hijosputa de nvidia lo han restringido a la serie 4000, la warrada que es eso para mi no tiene nombre.
A ver instaláis reshade, activas dlss 3y miráis las llamadas para ver a que resolución renderiza, tomáis unas capturas a ver que tal, de paso comparais con dlss 2.

Yo sin probar el 3 lo tengo claro.
JaviGabber escribió:En su salida estuve al tanto de ver en que quedaba DLSS 3 y la conclusión que saque fue que ...

-Funciona bien si tienes fps nativos altos, a partir de 90fps +/-. Si los fps nativos son bajos se ven artifacts, con 40/50fps los artifacts son evidentes.
- Problemas con los hud
- Errores con los cambios de cámara donde la IA es imposible que prediga el siguiente frame.
Es lo que más me ha sorprendido que no me pase, en un shooter como este con tanto giro brusco de cámara y tantos efectos visuales entre enemigos y habilidades y demás, no me entra en la cabeza.
- Aumento de latencia.
- Sensación rara de ir a altos fps con latencia de bajos fps
- Si tienes stuttering por limitación de CPU DLSS 3 no lo va a solucionar, incluso puede empeorar (el stuttering)

Los que lo habéis probado ¿Que hay de todo esto? Es que leyendo a algunos parece que DLSS 3 no tenga contras.
Y por supuesto dependes del soporte que vayan dando.
En mi opinión defender a la serie 4000 agarrándose a DLSS 3 demuestra lo lamentable en cuanto a potencia/precio que es esta generación.
...

Yo de momento solo he probado el DLSS 3 de la 4080 con el Warhammer Darktide y Portal RTX, junto con DLSS 2 en calidad y con gsync, y nada que ver uno con otro.

Con el Darktide parto de 55-70, llegando a 85-120(120 el máximo a lo que se puede limitar desde el juego) y no he visto ningun artifact, aunque el juego es muy frenético con muchos efectos en pantalla como para darse cuenta si hay alguno supongo, tampoco no he grabado videos para verlos a camara lenta con zoom par buscarlos ni creo que valga la pena hacerlo.
He tenido 0 problemas con el hud o los subtitulos, y eso que usa muchas líneas finas y hay iconos muy pequeños
La latencia ni la he medido ni la he notado
La sensación "rara" la tengo si se lo quito ya que los bailes de frames entre 55-70 me resultan muy molestos, los bailes entre 85-120 son mucho más suaves y no noto nada raro, de hecho hice pruebas con tiros de precisión con armas balísticas buscando diferencias o irregularidades pero no las encontré.
Stuttering no tengo, tampoco es que me limite la CPU

En cambio con el Portal partiendo de 30 y algo fps y aunque llegase a los 60 y algo al activar el DLSS3, la sensación del movimiento de la cámara era horrible, peor que a 30 sin él, un imput lag bestial y en general lo sentia injugable, lo dejé solo con dlss2 y toqueteando alguna cosilla del RT para dejarlo por encima de 60fps y así se juega muy bien, y si activo el 3 para llegar a los 80-90 otra vez se vuelve horrible la sensación.

Yo no digo que no tenga contras, pero almenos en el Darktide parece que haga magia, y como sea igual en el Cyberpunk será una gozada, por lo que me parece una buena tecnologia aunque no sea la panacea, la guarrada es que la hayan hecho exclusiva de las 4000, deberian tenerla las 3000 almenos también pero entonces todavia se justificarian menos los precios de las nuevas...
Lince_SPAIN escribió:@Strait tenías la FE y un valor relativamente bajo en el punto 1100mv no? Lo normal en una 4080 OC de ensamblador es conseguir estos undervolts 100% estables, al menos en mi Suprim X con la última BIOS y en otras OC de amigos que me han dejado tunear:

2745 a 950mv <-- rendimiento 99% stock, consumo 60%
2865 a 990mv
2880 a 1v
2940 a 1020mv
3030 a 1050mv
3120 a 1075mv <- consumo idéntico a stock, +12% fps

Memoria de +1300 a +1500 (normalmente +1500)

El voltaje stock en plena carga es 1075mv así que no se emplea overclock de voltaje, estos resultados pueden variar obviamente si te encuentras con silicios menos afortunados.


Yo no he tenido ni la mitad de suerte que tú. A 0.990v 2820mhz ya he visto crashear algún juego. Así que ahora lo he subido a 0.995 manteniendo 2820 para que baje como mucho a 2805.
JaviGabber escribió:
BloodBlack escribió:No recuerdo muy atrás , pero de manera rápida ya te puedo decir que ni de coña está RTX 4000 es el mayor salto de la historia, la 4090 es la de mayor salto y solo es un 60% superior a su prodecesora, la 4080 es entre 40-50% y la 4070ti entre un 35%.

Pascal era un 70% en casi todas sus gamas superior a Maxwell, no recuerdo si Maxwell hizo algo parecido con Kepler, la GTX 1070 (sin TI) se follaba hasta la Titán X que era lo mas top de Maxwell que costaba $1000, mientras la GTX 1070 $379.

Así que no el rendimiento de esta generación es penoso y aprecio de oro.


He dicho uno de los mas grandes y fijandome en la top de salida de la nueva generacion.
La 4090 en TPU ya le saca un +64% a la 3090 y eso que usaron el 5800x en la review, en otras reviews se va al 70%.

Imagen


Y lo anterior en raster por que cuando el RT entra en juego el repaso que le da la 4090 al resto es aun mayor

Imagen
Imagen
Imagen
Imagen


Segun TPU entre la 1080 y la 980 hubo un incremento del +67% y ya sabemos que aun no habia nada de IA.

Imagen


Y entre la 980 y la 780 un triste +30%

Imagen


Es cierto que el salto de la 4080 con respecto a su predecesora es menor, un +50% con respecto a la 3080 y un +72% en precio [qmparto]

Imagen


Mientras que la 3080 le metio un +67% a la 2080 y al mismo precio de salida.
Imagen


Dicho todo esto no estoy nada de acuerdo en que el rendimiento de esta generacion es penoso, no es nada realista decir eso. Lo del precio nadie lo discute.

Yo no se como miras los %, pero de un 100% a un 60% por ejemplo, la diferencia es un 40%, porque por las tablas que tu mismo pones y luego tus comentarios, no cuadran.
the_aeon escribió:Yo no se como miras los %, pero de un 100% a un 60% por ejemplo, la diferencia es un 40%, porque por las tablas que tu mismo pones y luego tus comentarios, no cuadran.


Es un error que veo frecuentemente, mucha gente no sabe interpretar las tablas de tpu cosa que me sorprende por qué no deja de ser matemáticas básicas.
De un 60% a un 100% no va un 40%.
BloodBlack está baneado por "clon de usuario baneado"
JaviGabber escribió:
BloodBlack escribió:No recuerdo muy atrás , pero de manera rápida ya te puedo decir que ni de coña está RTX 4000 es el mayor salto de la historia, la 4090 es la de mayor salto y solo es un 60% superior a su prodecesora, la 4080 es entre 40-50% y la 4070ti entre un 35%.

Pascal era un 70% en casi todas sus gamas superior a Maxwell, no recuerdo si Maxwell hizo algo parecido con Kepler, la GTX 1070 (sin TI) se follaba hasta la Titán X que era lo mas top de Maxwell que costaba $1000, mientras la GTX 1070 $379.

Así que no el rendimiento de esta generación es penoso y aprecio de oro.


He dicho uno de los mas grandes y fijandome en la top de salida de la nueva generacion.
La 4090 en TPU ya le saca un +64% a la 3090 y eso que usaron el 5800x en la review, en otras reviews se va al 70%.

Imagen


Y lo anterior en raster por que cuando el RT entra en juego el repaso que le da la 4090 al resto es aun mayor

Imagen
Imagen
Imagen
Imagen


Segun TPU entre la 1080 y la 980 hubo un incremento del +67% y ya sabemos que aun no habia nada de IA.

Imagen


Y entre la 980 y la 780 un triste +30%

Imagen


Es cierto que el salto de la 4080 con respecto a su predecesora es menor, un +50% con respecto a la 3080 y un +72% en precio [qmparto]

Imagen


Mientras que la 3080 le metio un +67% a la 2080 y al mismo precio de salida.
Imagen


Dicho todo esto no estoy nada de acuerdo en que el rendimiento de esta generacion es penoso, no es nada realista decir eso. Lo del precio nadie lo discute.


Prácticamente para ti solo existe la 4090, el rendimiento de la 4070ti ni siquiera lo mencionas por razones obvias.

Lo siento mucho pero quitando la 4090 el resto de gamas el rendimiento es penoso y ya se podía preveer respecto al recorte de chip del AD103.

Pascal fue un salto mas grande en todas las gamas, para 4070 a secas se comenta rendimiento 3080, mientras que la GTX 1070 era superior a una 980ti y Titán X lo que seria hoy una 3090ti.
@the_aeon Si X rinde el 61% de Y, significa que X necesitaria mejorar un 64% para igualar a Y. (64% de 61= esos 39 de "diferencia")

Viene a ser lo mismo decir que X es un 39% menos potente que Y, que decir que Y es un 61% más potente que X, porque estas partiendo de potencias distintas a la hora de calcular el porcentaje.
ak4ever escribió:@the_aeon Si X rinde el 61% de Y, significa que X necesitaria mejorar un 64% para igualar a Y. (64% de 61= esos 39 de "diferencia")

Viene a ser lo mismo decir que X es un 39% menos potente que Y, que decir que Y es un 61% más potente que X, porque estas partiendo de potencias distintas a la hora de calcular el porcentaje.


Pues tenéis razón, me acabáis de dejar loco, no había caído en lo que dices
@BloodBLack

Lo siento mucho pero quitando la 4090 el resto de gamas el rendimiento es penoso y ya se podía preveer respecto al recorte de chip del AD103.


Qué desinformado estás, no?? El AD103 no es un recorte del AD102, es un diseño totalmente diferente pero basado en la misma arquitectura (ADA Lovelace), son especificaciones diferentes pero no se trata de un chip AD102 con transistores deshabilitados en fábrica. Hay una gran diferencia entre quitarle una pata a una silla, que se queda coja y titubea, o diseñarla como un trípode desde el principio para que tu silla de tres patas sea perfectamente estable. Lee más y hatea menos. Por otro lado si a ti el rendimiento de una 4070Ti o 4080 te parece penoso me parece que poco disfrutas de los videojuegos y estás más pendiente de los números del Afterburner en pantalla que de disfrutar tu hobby, igual cuando bajan de 120 a 4K apagas el ordenador en pleno ataque de ansiedad.

Por otro lado... @Strait

Strait escribió:
Lince_SPAIN escribió:@Strait tenías la FE y un valor relativamente bajo en el punto 1100mv no? Lo normal en una 4080 OC de ensamblador es conseguir estos undervolts 100% estables, al menos en mi Suprim X con la última BIOS y en otras OC de amigos que me han dejado tunear:

2745 a 950mv <-- rendimiento 99% stock, consumo 60%
2865 a 990mv
2880 a 1v
2940 a 1020mv
3030 a 1050mv
3120 a 1075mv <- consumo idéntico a stock, +12% fps

Memoria de +1300 a +1500 (normalmente +1500)

El voltaje stock en plena carga es 1075mv así que no se emplea overclock de voltaje, estos resultados pueden variar obviamente si te encuentras con silicios menos afortunados.


Yo no he tenido ni la mitad de suerte que tú. A 0.990v 2820mhz ya he visto crashear algún juego. Así que ahora lo he subido a 0.995 manteniendo 2820 para que baje como mucho a 2805.


Te baja 15MHz (un escalón en el bin de silicio) a qué temperatura? En teoría no debería bajar ningún bin hasta los 70º, si consigues ponerla a esa temperatura claro está, si te baja antes es porque el silicio o el voltaje van al límite de la velocidad especificada. Sabes lo que es una pena, que en la 4080 FE la BIOS está encriptada y no te puedo ayudar a flashear una BIOS OC que te deje estables todos los undervolts que te mencioné.

Por otro lado, el test GPGPU de Aida64 es brutal porque pone al 100% todos los componentes de la tarjeta y recomiendo pasarlo para comprobar estabilidad de una tarjeta con undervolt, aquí pongo uno genérico que yo hago a 3000MHz con 1075mv con el que saber si puedes seguir subiendo o apuntar más abajo en la curva.

Imagen

Resultados Geekbench 5 con estos settings:

CUDA: 330507
https://browser.geekbench.com/v5/compute/6198718
OpenCL: 285964
https://browser.geekbench.com/v5/compute/6198711
Vulkan: 233321
https://browser.geekbench.com/v5/compute/6029990
Yo no veo mal el rendimiento que saca rtx 4000 respecto a las 3000. El gran problema de la generacion es la relacion entre el precio y la ganancia de rendimiento, o la relacion €/fps
BloodBlack está baneado por "clon de usuario baneado"
@Lince_SPAIN

El AD103 es un recorte del AD102 cosa que es natural en cualquier arquitectura.

El AD102 full parte de 12 GPC con 12SM cada uno para un total 18432 FP32 o comercialmente Cudas. El AD 103 es un recorte del mismo quitando o reduciéndolo a 7 GPC con 12SM, uno de ellos recortado a 8 SM:

AD102
Imagen


AD 103
Imagen


En las cosas técnicas no hay haterio, hay hechos.
Disculpad el desconocimiento, pero aprovechando que controláis más que yo tengo unas dudas para los que estáis más puestos:

1. Por qué la 4070ti tiene tan malas reviews sobre el precio? Según he visto, la 4080 rinde un ¿25-30%? más y cuesta aprox un 50% más. Si es un tema general sobre el sobreprecio de las 4000 sí lo entiendo, pero si es concreto de la 4070ti no tanto...

2. Lo de los 192 bits de ancho de banda realmente cómo influye? Es cierto que escala peor en 4k que en resoluciones menores, pero veo que todos dicen que no es adecuada para 4k por los 192 bits, sin embargo al menos en los benchmarks el rendimiento en 4k parece que cumple (en mi caso no tengo problema en usar dlss en calidad o incluso equilibrado, además que yo jugaba 4k con una 3080 10gb y esta rinde un poco más). Ese ancho de banda haría que envejezca peor que una 3090 (por poner un ejemplo)?

3. Los gb de vram, afectan básicamente a las texturas o a más cosas? Es decir, el tener solo 12gb se soluciona bajando texturas y ya está en juegos que puedan pedir más? O afectaría a otros assets?

En mi caso he descartado la 4090 por precio (tiene un rendimiento muy top pero ahora mismo no me quiero gastar tanto), y estaba a 1 clic de pillar la 4080, pero visto todo el rollo que hay con estas 4000, me planteo si no sería mejor opción pillar una 4070ti y cambiarla en un par de años palmando menos pasta en vez de pillar una 4080 e intentar mantenerla un poco más de tiempo... Por otra parte, puedo permitirme una 4080 y está claro que para mi tv (4k 120hz con vrr) sería mucho mejor una 4080. Vamos, que estoy hecho un lío [+risas]
@axis100 yo no veo el lío, la verdad. Tienes una tele 4k 120hz y la pasta para una 4080.
Encima, ya vienes de una 3080... Y aquí no te importa la palmada de pasta con el cambio ganando menos rendimiento con la 4070ti.
Pues blanco y en botella.
14374 respuestas