[HO] NVIDIA GeForce RTX 5000

He visto que casi todas las customs de 5090 son de largas unos 33cms para arriba y en mi caja sólo caben de 30 cms para abajo (la FE si cabría justa) y todo porque tengo el radiador delante ya que encima de la caja no cabe.

Tengo dos opciones. Primero comprar otra gráfica (pero casi todas superan los 30cms por el triple ventilador) o bien comprar una RL más pequeña y ponerla encima del ordenador.

Una putada gorda.
xineloeol escribió:El nuevo modelo transformer en DLSS 4 sí que me parece una pasada, de momento tiene una penalización en rendimiento sobre el antiguo CNN más que razonable, pero que irán mejorando seguro.


Así a bote pronto el DLSS 4 rendimiento › DLSS 3 calidad, tanto en estabilidad de imagen como ghosting, que parece erradicado totalmente.

Y encima funciona en todas las RTX.


Parece que a parte de la perdida de rendimiento la gpu también consume más con el nuevo

Aunque sigue valiendo la pena claramente esto es lo más útil que han sacado esta generacion

Veremos que hace AMD con el fsr4, por que si ya antes iba por detrás en sistema de rescalado ahora más aún
tonicab escribió:He visto que casi todas las customs de 5090 son de largas unos 33cms para arriba y en mi caja sólo caben de 30 cms para abajo (la FE si cabría justa) y todo porque tengo el radiador delante ya que encima de la caja no cabe.

Tengo dos opciones. Primero comprar otra gráfica (pero casi todas superan los 30cms por el triple ventilador) o bien comprar una RL más pequeña y ponerla encima del ordenador.

Una putada gorda.


Cambia de caja por 50€
tonicab escribió:He visto que casi todas las customs de 5090 son de largas unos 33cms para arriba y en mi caja sólo caben de 30 cms para abajo (la FE si cabría justa) y todo porque tengo el radiador delante ya que encima de la caja no cabe.

Tengo dos opciones. Primero comprar otra gráfica (pero casi todas superan los 30cms por el triple ventilador) o bien comprar una RL más pequeña y ponerla encima del ordenador.

Una putada gorda.

hombre tienes otra, cambiar de caja. que tal y como están las RL te saldría creo que mejor. Eso si, tienes que trasladar todo el equipo, con la RL solo es eso y listo.
SnakeElegido escribió:Todas esas pruebas de HW Unboxed usando 30fps como base son basura.

[...]

Lo más gracioso es que todo lo que estoy diciendo, lo dice él en el vídeo. Con lo que no entiendo porqué usan las evidencias de 30fps :-?

Hombre, todo lo que dices dudo que lo digan en el video porque de decirlo estarían diciendo que ese test partiendo de 30 fps es basura y se estarían tirando piedras contra su propio tejado, dejándose de inútiles ellos mismos :Ð

Ya comenté que un caso que veo muy claro es el de la MUCHA gente (la mayoría) que va a comprar la gama 5060 o por ahí, donde los juegos con reescalado ya aplicado puede que les vaya a 30 fps o incluso menos (corregido, dije nativo) y se piense que con MFG x4 tenga 120hz en su TV 120/144hz de forma espectacular... no, eso no va así y muchos pueden malinterpretar el marketing de Nvidia, como explicas con lo de que los fps iniciales son nativos y le falta añadir el reescalado.

El video de Hardware Unboxed es útil, solo que no para todas las personas (quién quiere 240fps en su TV de 60hz?). No entiendo el problema en hacer pruebas bajo unas condiciones concretas las cuales puede tener la mayoría de jugadores ya que la gama x060 es históricamente la mas usada. De hecho es que la misma prueba la hicieron con el FG "normal" y no pasó nada, es una simple demostración para ver hasta cuánto se puede exprimir el FG sin ver demasiados artefactos.

Y por poner un ejemplo de posible mal uso de MFG, review de la 4070 (simulando una 5060 mas o menos) donde Cyberpunk 2077 a 1440p (suponiendo que juega a 4k y ya le ha aplicado el reescalado) con ray tracing (que no path tracing) va a menos de 40 fps. Eso no va a escalar bien con el FG y ya tiene el reescalado aplicado. Eso con ray tracing, pues imagínate si esa persona se piensa que como la 5090 lo mueve con path tracing a 240fps puede configurar el juego con path tracing que total, mientras su 5060 lo mueva a 60 fps con MFGx4 (partiendo por ejemplo de 10 fps nativos) ya le está bien... porque claro de qué ese usuario iba a esperar ver artefactos como puños? Si en el video de Nvidia se ve muy bien :Ð

Quizás a ti te parece muy obvio que una gráfica como la 5060 no es para 4k con gráficos muy altos y ray tracing pero con el marketing y la vendida de moto de Nvidia creo que es muy factible pensar que habrá mucha gente que crea que su 5060 (insisto, la gama mas vendida históricamente) es capaz de cosas inalcanzables para ella.
Rvilla87 escribió:
SnakeElegido escribió:Todas esas pruebas de HW Unboxed usando 30fps como base son basura.

[...]

Lo más gracioso es que todo lo que estoy diciendo, lo dice él en el vídeo. Con lo que no entiendo porqué usan las evidencias de 30fps :-?

Hombre, todo lo que dices dudo que lo digan en el video porque de decirlo estarían diciendo que ese test partiendo de 30 fps es basura y se estarían tirando piedras contra su propio tejado, dejándose de inútiles ellos mismos :Ð

Ya comenté que un caso que veo muy claro es el de la MUCHA gente (la mayoría) que va a comprar la gama 5060 o por ahí, donde los juegos con reescalado ya aplicado puede que les vaya a 30 fps o incluso menos (corregido, dije nativo) y se piense que con MFG x4 tenga 120hz en su TV 120/144hz de forma espectacular... no, eso no va así y muchos pueden malinterpretar el marketing de Nvidia, como explicas con lo de que los fps iniciales son nativos y le falta añadir el reescalado.

El video de Hardware Unboxed es útil, solo que no para todas las personas (quién quiere 240fps en su TV de 60hz?). No entiendo el problema en hacer pruebas bajo unas condiciones concretas las cuales puede tener la mayoría de jugadores ya que la gama x060 es históricamente la mas usada. De hecho es que la misma prueba la hicieron con el FG "normal" y no pasó nada, es una simple demostración para ver hasta cuánto se puede exprimir el FG sin ver demasiados artefactos.

Y por poner un ejemplo de posible mal uso de MFG, review de la 4070 (simulando una 5060 mas o menos) donde Cyberpunk 2077 a 1440p (suponiendo que juega a 4k y ya le ha aplicado el reescalado) con ray tracing (que no path tracing) va a menos de 40 fps. Eso no va a escalar bien con el FG y ya tiene el reescalado aplicado. Eso con ray tracing, pues imagínate si esa persona se piensa que como la 5090 lo mueve con path tracing a 240fps puede configurar el juego con path tracing que total, mientras su 5060 lo mueva a 60 fps con MFGx4 (partiendo por ejemplo de 10 fps nativos) ya le está bien... porque claro de qué ese usuario iba a esperar ver artefactos como puños? Si en el video de Nvidia se ve muy bien :Ð

Quizás a ti te parece muy obvio que una gráfica como la 5060 no es para 4k con gráficos muy altos y ray tracing pero con el marketing y la vendida de moto de Nvidia creo que es muy factible pensar que habrá mucha gente que crea que su 5060 (insisto, la gama mas vendida históricamente) es capaz de cosas inalcanzables para ella.

El vídeo es perfecto para desmontar el marketing de Nvidia de "5070 = 4090 performance", es la estafa de la estampita para los desprevenidos/poco informados.

Jamás vas a tener unos FPS base similares entre ambas gráficas sobre los que aplicar FG, por tanto no se deberían comparar FPS resultantes con MFG 3x o 4x, porque también vas a tener latencias mucho peores, pero eso no lo dicen. En el vídeo de HUB sin embargo queda bastante claro.

Más sobre DLSS 4:
SG_SIYU escribió:hombre tienes otra, cambiar de caja. que tal y como están las RL te saldría creo que mejor. Eso si, tienes que trasladar todo el equipo, con la RL solo es eso y listo.


Borlanchos escribió:Cambia de caja por 50€



Creo que voy a probar a ver si entra y si no entra pues pillo mejor otra RL (con dos ventiladores) y la pongo encima. Venderé la que tengo y ya esta.
Rvilla87 escribió:
SnakeElegido escribió:Todas esas pruebas de HW Unboxed usando 30fps como base son basura.

[...]

Lo más gracioso es que todo lo que estoy diciendo, lo dice él en el vídeo. Con lo que no entiendo porqué usan las evidencias de 30fps :-?

Hombre, todo lo que dices dudo que lo digan en el video porque de decirlo estarían diciendo que ese test partiendo de 30 fps es basura y se estarían tirando piedras contra su propio tejado, dejándose de inútiles ellos mismos :Ð

Ya comenté que un caso que veo muy claro es el de la MUCHA gente (la mayoría) que va a comprar la gama 5060 o por ahí, donde los juegos con reescalado ya aplicado puede que les vaya a 30 fps o incluso menos (corregido, dije nativo) y se piense que con MFG x4 tenga 120hz en su TV 120/144hz de forma espectacular... no, eso no va así y muchos pueden malinterpretar el marketing de Nvidia, como explicas con lo de que los fps iniciales son nativos y le falta añadir el reescalado.

El video de Hardware Unboxed es útil, solo que no para todas las personas (quién quiere 240fps en su TV de 60hz?). No entiendo el problema en hacer pruebas bajo unas condiciones concretas las cuales puede tener la mayoría de jugadores ya que la gama x060 es históricamente la mas usada. De hecho es que la misma prueba la hicieron con el FG "normal" y no pasó nada, es una simple demostración para ver hasta cuánto se puede exprimir el FG sin ver demasiados artefactos.

Y por poner un ejemplo de posible mal uso de MFG, review de la 4070 (simulando una 5060 mas o menos) donde Cyberpunk 2077 a 1440p (suponiendo que juega a 4k y ya le ha aplicado el reescalado) con ray tracing (que no path tracing) va a menos de 40 fps. Eso no va a escalar bien con el FG y ya tiene el reescalado aplicado. Eso con ray tracing, pues imagínate si esa persona se piensa que como la 5090 lo mueve con path tracing a 240fps puede configurar el juego con path tracing que total, mientras su 5060 lo mueva a 60 fps con MFGx4 (partiendo por ejemplo de 10 fps nativos) ya le está bien... porque claro de qué ese usuario iba a esperar ver artefactos como puños? Si en el video de Nvidia se ve muy bien :Ð

Quizás a ti te parece muy obvio que una gráfica como la 5060 no es para 4k con gráficos muy altos y ray tracing pero con el marketing y la vendida de moto de Nvidia creo que es muy factible pensar que habrá mucha gente que crea que su 5060 (insisto, la gama mas vendida históricamente) es capaz de cosas inalcanzables para ella.

Imagen

Acabamos de recibir totalmente gratis la primera clase para no caer en el marketing de Nvidia.
Rvilla87 escribió:
SnakeElegido escribió:Todas esas pruebas de HW Unboxed usando 30fps como base son basura.

[...]

Lo más gracioso es que todo lo que estoy diciendo, lo dice él en el vídeo. Con lo que no entiendo porqué usan las evidencias de 30fps :-?

Hombre, todo lo que dices dudo que lo digan en el video porque de decirlo estarían diciendo que ese test partiendo de 30 fps es basura y se estarían tirando piedras contra su propio tejado, dejándose de inútiles ellos mismos :Ð


Pues sí que lo dicen sí, desde el segundo puto minuto:

Imagen

Dicen que son incapaces de grabar y reproducir correctamente 240fps (por limitaciones de grabado y que youtube solo permite 60fps), asi que parten de 30.

Unfortunately this means that for the visual analysis of multiframe gen we are effectively limited to 4K 120fps capture. This means a base render of 30fps, a configuration we absolutely DO NOT RECOMMEND. And one that doesn't show frame generation in the best light.
(Minuto 2:35)

Luego dice que a Nvidia estas comparaciones les parecen bien, asi que por eso las hacen. Pero no creo que Nvidia quiera que hagas FG sobre 30fps de base, sin upscaler ni nada.

Y como te digo, si simplemente escuchas hablar al tío, dice CONSTANTEMENTE lo mismo que yo dije en mi post. Y al final del video lo refuerza una y otra vez.

Imagen

That's a really good experience because artifacts are not very noticeable with these kinds of framerates and the latency experience we typically associate with 85 to 100 FPS single player gaming is very good.

Imagen

And if you don't care too much about the responsiveness of a high refresh rate, then the minimum I'd recommend for MFG is a starting framerate of 70 to 80fps. Enabling MFG will lower your rendered FPS to 60fps while pumping out 180 to 240fps, maxing out your very high refresh rate monitor while still delivering the responsiveness of 60fps gaming. Anything below this and the feel of the frame generated output becomes quite bad.

Aparte de eso, creo que tu argumento de las 5060 no es algo que el tio esté realmente teniendo en cuenta aquí. De hecho solo tienes que fijarte en lo que acabo de mencionar para darte cuenta de que él mismo está hablando de monitores con refresco alto usando la tarjeta gráfica mas potente del mercado. No digo que tu comentario de las 5060 no sea interesante, pero no creo que la intención de HW Unboxed fuese esa en absoluto.

Usan los 30fps de base porque no les ha quedado otra, no porque realmente quieram hacerlo, ni mucho menos porque quieran ponerse en la piel de gente que vaya a utilizar MFG incorrectamente. Recordemos que incluso el penoso marketing de Nvidia involucra DLSS upscaler, no solo MFG.
Imagen

Que el video también argumenta que el marketing de Nvidia es una mierda? Sí, pero no nos hacia falta ningun video para saberlo. Es sentido común y estamos todos de acuerdo. Y no sé hasta qué punto esa gente que se pueda creer que "5070 = 4090 performance" se va a comer y entender un video de 32 minutos de HW Unboxed...

Un saludo,
Seguro que la mayoría de los que critican los “fake frames” no distinguiría frames nativos de los fake
Borlanchos escribió:Seguro que la mayoría de los que critican los “fake frames” no distinguiría frames nativos de los fake


Duros argumentos.
@HakiGold

Permíteme añadir: Duros, impactantes e inesperados argumentos.
Yo le he puesto FG y DLSS a mi coche y aunque tiene 90cv, ahora me marca x4 la velocidad. Flipa como voy a 320km/h, niño. Gracias Nvidia!
xineloeol escribió:Así a bote pronto el DLSS 4 rendimiento › DLSS 3 calidad, tanto en estabilidad de imagen como ghosting, que parece erradicado totalmente.

Y encima funciona en todas las RTX.

Yo dije eso mismo cuando salió el vídeo de DF con el Cyberpunk y algún usuario de este foro se me tiró al cuello y me pidió modificar mi mensaje por desinformar, en fin el que tenga ojos en la cara que lo vea y el que no quiera verlo no lo verá.
MrKafka escribió:Yo le he puesto FG y DLSS a mi coche y aunque tiene 90cv, ahora me marca x4 la velocidad. Flipa como voy a 320km/h, niño. Gracias Nvidia!


El debate es mas bien en torno al FG (y en particular al FGx4) con las otra tecnologias DLSS, a saber, SR y RR, hay cuasi unanimidad que mejora en todo a la anterior versión. Mas calidad de imagen y/o mas FPS, no agrega latencia y es "gratis" para todas las graficas RTX. Me parece espectacular.
Tengo que decir que yo en un post de tantos que hice en los días posteriores a la presentación, no pensaba que la latencia subiera demasiado con respecto al frame generator de las 4000. Parece que estaba bastante equivocado.

También pensaba que el multiframe no iba a ser una carga demasiado alta para los tensor cores y viendo lo que se ve ahora mismo, pues también parece que me estaba equivocando.

De todas formas yo voy a seguir pidiendo el multiframe para las anteriores a las 5000, porque supongo que una 3080 por ejemplo va a poder de sobra calcular un multiframe X2. Hace dos años fue una porquería que dejaran a la serie 3000 sin frame generator, igual de marranada que ahora dejar sin multiframe a todas las anteriores.

Pero es que ahora me da por pensar por ejemplo que una 5060 no va a dar la talla para un X4 y el X3 será una birria, bueno, esto mismo ya lo decía yo no hace mucho. Y ya veremos que pasará con una 5070 cuando quiera uno activar el X4. Moverá el ratón y ya si eso la imagen se moverá cuando la tarjeta tenga a bien de representar esos cuadros nuevos.

Rendimiento similar a una 4090, desía el chino juan con toda su polla. O quizás todo esto se arregle con los drivers de salida de las diferentes gráficas, especialmente la 5070.

Mientras tanto yo voy a ir disfrutando del regalito de ayer, que eso también hay que reconocerlo.

PD: Post nº 1024, o sea, ya tengo un kilopost en base 2.
El gamer promedio debe estar preocupadísimo y echando pestes del MFG. Supongo que les preocupa mucho que con: drivers beta, sin Reflex 2 (frame warp reduce el input lag más), partiendo de 30 FPS con MFG X4, limitando aposta a 120 FPS, ralentizando el juego al 10-25-50 % y ampliando la imagen entre un 300-500 %, salen artefactos de vez en cuando y aumenta el input lag. Claramente van a jugar así. [qmparto]

La realidad es que MFG X4 en un escenario de uso normal, sin los frames bloqueados, partiendo de 40-50 FPS base da un resultado muy bueno y un input lag de 8-10 ms. Eso con drivers beta, forzando transformers en juegos que no tienen parche oficial y sin Reflex 2.

Los artefactos se han pulido mucho, especialmente el ghosting con transformers, en la vegetación o en las aspas de ventiladores en CP2077 siguen habiendo artefactos que ya estaban presentes en el FG de las RTX 40. Nadie ha dicho que la tecnología sea perfecta, pero es perfectamente jugable y tiene todo el sentido para monitores con alta tasa de refresco o para juegos muy exigentes, el típico juego en el que si quieres ir en ultra y con RT te quedas entre 40-55 FPS con DLSS, y con FG o MFG obtienes entre 80-240 FPS, logrando una mayor fluidez y un input lag muy jugable. Ese es el escenario de uso, no es para shooters competitivos (se juegan en bajo con cientos de FPS nativos y Reflex), ni para partir de 30 FPS (sin DLSS, ese escenario no es realista).
Sicopro escribió:El gamer promedio debe estar preocupadísimo y echando pestes del MFG. Supongo que les preocupa mucho que con: drivers beta, sin Reflex 2 (frame warp reduce el input lag más), partiendo de 30 FPS con MFG X4, limitando aposta a 120 FPS, ralentizando el juego al 10-25-50 % y ampliando la imagen entre un 300-500 %, salen artefactos de vez en cuando y aumenta el input lag. Claramente van a jugar así. [qmparto]

La realidad es que MFG X4 en un escenario de uso normal, sin los frames bloqueados, partiendo de 40-50 FPS base da un resultado muy bueno y un input lag de 8-10 ms. Eso con drivers beta, forzando transformers en juegos que no tienen parche oficial y sin Reflex 2.

Los artefactos se han pulido mucho, especialmente el ghosting con transformers, en la vegetación o en las aspas de ventiladores en CP2077 siguen habiendo artefactos que ya estaban presentes en el FG de las RTX 40. Nadie ha dicho que la tecnología sea perfecta, pero es perfectamente jugable y tiene todo el sentido para monitores con alta tasa de refresco o para juegos muy exigentes, el típico juego en el que si quieres ir en ultra y con RT te quedas entre 40-55 FPS con DLSS, y con FG o MFG obtienes entre 80-240 FPS, logrando una mayor fluidez y un input lag muy jugable. Ese es el escenario de uso, no es para shooters competitivos (se juegan en bajo con cientos de FPS nativos y Reflex), ni para partir de 30 FPS (sin DLSS, ese escenario no es realista).



Imagen

Creo que no hay mas que añadir.
tonicab escribió:He visto que casi todas las customs de 5090 son de largas unos 33cms para arriba y en mi caja sólo caben de 30 cms para abajo (la FE si cabría justa) y todo porque tengo el radiador delante ya que encima de la caja no cabe.

Tengo dos opciones. Primero comprar otra gráfica (pero casi todas superan los 30cms por el triple ventilador) o bien comprar una RL más pequeña y ponerla encima del ordenador.

Una putada gorda.


Por si te ayuda Nvidia tiene un listado oficial de modelos SFF para cajas pequeñas. Yo estoy igual que tu, no me gusta tener una caja gigante y en la mia, que en principio sólo caben hasta 30cm metí una 4080 Super de 32cm, eso si, me toca quitar disipador de la CPU y RAM si quiero sacarla.

https://www.nvidia.com/en-us/geforce/ne ... sff-ready/
Sicopro escribió:El gamer promedio debe estar preocupadísimo y echando pestes del MFG. Supongo que les preocupa mucho que con: drivers beta, sin Reflex 2 (frame warp reduce el input lag más), partiendo de 30 FPS con MFG X4, limitando aposta a 120 FPS, ralentizando el juego al 10-25-50 % y ampliando la imagen entre un 300-500 %, salen artefactos de vez en cuando y aumenta el input lag. Claramente van a jugar así. [qmparto]

La realidad es que MFG X4 en un escenario de uso normal, sin los frames bloqueados, partiendo de 40-50 FPS base da un resultado muy bueno y un input lag de 8-10 ms. Eso con drivers beta, forzando transformers en juegos que no tienen parche oficial y sin Reflex 2.

Los artefactos se han pulido mucho, especialmente el ghosting con transformers, en la vegetación o en las aspas de ventiladores en CP2077 siguen habiendo artefactos que ya estaban presentes en el FG de las RTX 40. Nadie ha dicho que la tecnología sea perfecta, pero es perfectamente jugable y tiene todo el sentido para monitores con alta tasa de refresco o para juegos muy exigentes, el típico juego en el que si quieres ir en ultra y con RT te quedas entre 40-55 FPS con DLSS, y con FG o MFG obtienes entre 80-240 FPS, logrando una mayor fluidez y un input lag muy jugable. Ese es el escenario de uso, no es para shooters competitivos (se juegan en bajo con cientos de FPS nativos y Reflex), ni para partir de 30 FPS (sin DLSS, ese escenario no es realista).



Ole, muy bien dicho. Los haters te van a criticar, pero más les valdría empezar a asumir que el futuro es IA, no fuerza bruta
Los dos o tres fans de Nvidia del foro apluandiendose y dándose la razón entre ellos XD.

Y ha notad la frase de que "esos artefactos solo se notan en cámara lenta y zoom 500% , y no jugando" cuando salga FSR4 veremos cómo nos intentan convencer que en cámara lenta y zoom 500% el DLSS es muy superior y es un factor determinante.
SnakeElegido escribió:
retabolil escribió:
Pero es que a partir de 120Hz también es mucho más difícil percibir mejora, que a partir de 30.


Estoy de acuerdo en que a mayor FPS, más dificil es notar la diferencia en fluidez. Pero también pienso que es una cuestión subjetiva, con lo que no tiene sentido discutir si es mejor o peor. Cada persona lo verá de una forma distinta. Personalmente, yo creo que no soy capaz de notar facilmente mas de 120fps, pero entiendo que habrá gente que sí. O que como minimo, quiera que la tasa de refresco que sale de su pantalla sea la mayor posible, por comodidad visual.

retabolil escribió:Según como funcione de 30fps a 60, va a funcionar de 60 a 120. Va a acentuar lo bueno y lo malo en la misma proporción. Los artefactos no se van a apreciar tanto de 60 a 120fps como de 30 a 60fps, pero lo bueno -la mejora en fluidez- tampoco. A mí sí me parece bien usar 30fps como banco de pruebas, porque es donde mejor se puede apreciar la capacidad de esa tecnología basada en AI.


En esto no estoy de acuerdo. Corregidme si me equivoco, pero estamos hablando de interpolación de frames, con lo que tiene que insertar uno (o 3) frames generados por IA entre dos frames reales. Usemos este gif random para explicar mi argumento de forma bien entendible:

Imagen

Vale, si partimos de una tasa de frames baja, ponte que este es el Frame A:
Imagen

Y este es el Frame B:
Imagen

Es un ejemplo exagerado pero sigueme el rollo.
Si la IA tiene que inventarse la transición entre los frames A (preparando el puño) y B (el tipo golpeado), seguramente lo que se invente sea bastante desastroso.

Si por el contrario partimos de una tasa de frames mucho más alta (70 u 80 por ejemplo, que es más del doble), quiere decir que el Frame B sería este:

Imagen

En el que se ve el puño en movimiento. Si la IA tiene que generar lo existente entre los Frames A y B, la similitud es mucho más alta. La transición es mucho más facil de dibujar de forma correcta. Y además, como bien dices, cuanto mayor framerate, menos oportunidad de ver dichos artefactos.

Pero es que además, no solo es eso. Sino que esta técnica solo añade frames visualmente hablando, no a la lógica del juego. De modo que, imaginémonos que FG no añade latencia y no añade artefactos. Aun con ese supuesto soñado, si con 30fps sacas 120fps, verás 120fps, pero seguirás teniendo la sensación de jugar a 30fps, con lo que no has ganado mucho. Mientras que si con 80fps sacas 320fps, pues al menos sigues teniendo la sensación de jugar a 80fps, que es super fluido.

De nuevo, corregidme si me equivoco. Cuanto más sabio se vuelva uno, mejor.

Un saludo,


Respecto a notar la diferencia con alta tasa de FPS, aquí le hacen un test a una persona no gamer comparando entre monitores con 144, 240 y 360 Hz.



Al tener más FPS base, los frames renderizados tienen menos diferencia en el movimiento de los objetos entre ellos, la distancia visual entre el frame A y el B es menor. Eso hace que la IA tenga que hacer menos cálculos para generar los frames sintéticos, ya que las transiciones son más predecibles. Con tasas de FPS más bajas los cambios entre frames reales son más bestias, lo que obliga a la IA a tener que hacer más cálculos y aumentar la probabilidad de artefactos. Es como si la distancia entre los frames se ampliara a menor FPS base, eso genera transiciones más difíciles de predecir para la IA.

En el proceso de interpolación la IA utiliza los vectores de movimiento generados del frame A y el B para crear los frames intermedios, aunque no es necesario que el frame B esté completamente renderizado para empezar a generar los frames sintéticos. Solamente necesitas cierta información, como los vectores de movimiento de ambos frames. Aquí se introduce el input lag, ya que tienes que esperar a tener la información de los dos frames consecutivos antes de poder generar los intermedios, pese a que no necesitas que el frame B esté renderizado del todo. La latencia todavía sería mayor si tuvieses que esperar a que se renderizara por completo el frame B.

Con una tasa de FPS más alta los artefactos generados son menos visibles, ya que las transiciones son más rápidas y el ojo humano tiene menos tiempo para detectarlos, y encima los frames son más predecibles para la IA. En muchos casos para notar los errores tienes que ralentizar mucho la imagen, que es lo que hacen en HUB.

Para rizar más el rizo, hay que tener en cuenta que Reflex 2 con frame warp deforma los frames renderizados para mover la cámara a la entrada del ratón más reciente, los huecos generados se rellenan mediante IA, esto en teoría debería reducir aún más la latencia con MFG, pero seguimos anclados a los FPS renderizados, así que algo de latencia va a seguir habiendo especialmente con una baja tasa de FPS base, pero debería ser menor que con Reflex.

El problema es que si el algoritmo no lo hace bien podría haber artefactos al rellenar esos huecos. Hay que esperar para ver el resultado final de MFG con Reflex 2, ahora mismo hacer pruebas de latencia y calidad de imagen es poco fiable. Hacen falta los controladores finales y Reflex 2 para ver en que punto estamos. Con Reflex 2 pasa lo mismo que con el renderizado neural, hay que esperar que lo vayan implementando en los juegos para poder ver los resultados.

https://www.nvidia.com/es-la/geforce/ne ... rame-warp/
parh escribió:
MrKafka escribió:Yo le he puesto FG y DLSS a mi coche y aunque tiene 90cv, ahora me marca x4 la velocidad. Flipa como voy a 320km/h, niño. Gracias Nvidia!


El debate es mas bien en torno al FG (y en particular al FGx4) con las otra tecnologias DLSS, a saber, SR y RR, hay cuasi unanimidad que mejora en todo a la anterior versión. Mas calidad de imagen y/o mas FPS, no agrega latencia y es "gratis" para todas las graficas RTX. Me parece espectacular.


Creo que nadie podrá decir que tener un nuevo DLSS para todas gamas de Nvidia sea algo malo, más bien todo lo contrario, y debería ser lo esperable de la empresa más rica del mundo que se dedica a hacer tarjetas gráficas, y que es la que más invierte en I+D para este tipo de tecnologías. Eso de privar al resto de usuarios que han confiado en ellos de mejoras que se pueden realizar técnicamente es feo, muy feo. Así que por ese lado creo que todos estamos de acuerdo, y cuando nos sorprendimos al ver que el DLSS 4 se extendía al resto de gamas, TODO el mundo se sorprendió viniendo de Nvidia (por algo sería también). Pero como digo, por este lado, sólo pueden haber buenas palabras.

Por otro lado, vender que una 5070 tiene el mismo performance que una 4090 es directamente reirte de tus compradores. La gente empieza a estar un poco harta del humo y de las técnicas de marketing de Nvidia, que la mayoría empieza a tener un mínimo de conocimientos, y al totalmente neofito le vas a vender que con una 5070 vas a jugar a 4K como con una 4090, pero ya estamos viendo por todos los foros en donde hay gente que empieza a interesarse por estas gráficas que esta vez Nvidia va a tener que untar mejor que nunca a sus "youtubers" de referencia.

Por último, es que las cosas yo las veo muy claras:

5090: Para quien tiene un monitor 4K a más de 200Hz, y quiere lo mejor de lo mejor, pagando 2500€ siempre que quieras tener unas temperaturas de memorias decentes. Tambíen para VR pueden ser una muy buena opción.
5080: Para el que puedan engañar haciendo que no compre la 5070Ti
5070Ti: La mejor relación calidad precio para jugar a 2K-4K hasta 140HZ. Estoy seguro que la gente que la compre y venga de una serie 4000 o una serie inferior lo va a notar y lo disfrutará mucho por unos 1200€. Quien tenga una 4090 o una 4080 le diría que esperen a las versiones Super que saldrán mas tarde o temprano.
5070: Directamente esta tarjeta es el gancho para que vayas a una 5070Ti, o es valida si vas a jugar a 1080 o 2K (con matice) a 120Hz . Empiezas mirando la 5070, te pones a comparar y ves que por muy poco más tienes la 5070Ti que le mete una paliza por todos lados.

El resto de MFG y mierdas de marketing se las dejo a Nvidia y a sus comerciales. Para mi y para muchos los datos son básicamente estos.
Borlanchos escribió:Seguro que la mayoría de los que critican los “fake frames” no distinguiría frames nativos de los fake


Ni las diferencias de input lag, estaría bien en pruebas ciegas. Iba a pasar como con las catas ciegas de ginebra premium y ginebra de mercadillo.

Aquí hay gente q habla de diferencias brutales de input lag cuando estamos hablando de 10 ms o menos.
Se te olvida los que jugamos en VR y sí necesitamos una 5090 para mover unas Varjo o unas Pimax, que son 4k x2 a 90fps
@Borlanchos

Cierto, en ese caso una 5090 puede ser una buena elección. Ahora lo añado a la lista. Ya has visto que te he hecho caso porque tienes razón, así que llamarme hater a mi demuestra justo lo contrario y te deja en evidencia a ti exponiendo como eres tú [oki]
Nueva info de una posible 5080 con OC siendo un 4% mas lenta que una 4090 en 3D Mark Time Spy y 15% mas rapida que la 4080 Super

Fuente

Un saludo
Mi post anterior fue antes de ver el vídeo de hardware unboxed y ahora mismo acabo de verlo.

Después de todo esto, yo estoy más con los que decís que esto en cuanto haya drivers de salida, reflex2 y todas las tecnologías en la calle, no debería ser tan problemático como lo es ahora.

También estoy con el que ha dicho que cuando conviene la gente hace lo que critica en otras ocasiones. Una manera de ver la ley del embudo es eso a fin de cuentas.

Yo lo que digo es lo que dije en los días siguientes a la presentación. Que la primera versión de algo que sale nunca es la definitiva, ahora mismo es que ni podría llamarse primera versión porque no será la que podrán instalar los que consigan pillar una 5090 ó 5080 de salida. Son drivers preliminares que se han enviado junto con las gráficas que están probando los que están haciendo de periodistas.

Una vez dicho todo esto, sigo pensando que el chino juan podía haberse callado la boca cuando dijo lo de la 5070 como la 4090. Eso es confirmar de alguna manera que para ese los demás somos tontos y manipulables.

En esta generación también se ha creado la necesidad artificial de los monitores de 1000hz y el camino está claro ya para mi. Cuando salgan las 6000 no es que solamente podrán generar más cuadros imaginados (interpolados, falsos, como cada uno quiera llamarlo). Es que seguro que la próxima arquitectura tendrá optimizaciones para este cometido que no tiene la actual.

Me voy a mojar, las rtx 6000 serán poco mejores en raster, algo mejores en rt, mucho mejores en ia y mucho mejores en generación de cuadros falsos. Se presentarán en agosto o septiembre de 2027, con litografía de 3 nanómetros y costarán directamente los dos riñones, los cojones y la polla (suman 23) porque la tasa de chips defectuosos por oblea todavía será exorbitante.
@NAILIK

Gran post salvo por la parte final, en todo lo demás estoy de acuerdo, pero el MFG tiene su utilidad y yo personalmente utilizo FG en todos los juegos single player exigentes con RT, no tengo ningún problema. Te lo digo siendo alguien que ha competido en rango GM en juegos como Overwatch, así que algo de sensibilidad al input lag creo que tengo. Obviamente no lo utilizo partiendo de una tasa de 30 FPS y sin DLSS, entre 40-60 FPS con DLSS funciona bastante bien.

Lo de que una RTX 5070 fuese a rendir como una RTX 4090 no creo que nadie se lo haya creído, es tan ridículo que no merece la pena ni comentarlo. Es marketing puro y duro sin más, para el meme puede estar bien, pero no creo que nadie con un mínimo de idea vaya a pensar eso.

La RTX 5070 Ti es la que yo voy a comprar, siempre le he recomendado a todo el mundo que no merece la pena la RTX 5080 salvo que la diferencia de precio sea mínima o que tuviese 24 GB de VRAM. Eso también pasaba con la RTX 4070 Ti Super y la RTX 4080 Super. La RTX 4070 Ti Super ofrecía una mejor relación calidad precio. Mientras las xx70 Ti utilicen el mismo chip que las xx80 algo recortado y con la misma cantidad de VRAM, las xx80 no van a merecer mucho la pena.

pakolo1977 escribió:Me voy a mojar, las rtx 6000 serán poco mejores en raster, algo mejores en rt, mucho mejores en ia y mucho mejores en generación de cuadros falsos. Se presentarán en agosto o septiembre de 2027, con litografía de 3 nanómetros y costarán directamente los dos riñones, los cojones y la polla (suman 23) porque la tasa de chips defectuosos por oblea todavía será exorbitante.


Oh, Dios mio, se ven artefactos jugando al 6% de velocidad y con un zoom de 500% [carcajad] [carcajad]

Hardware Unboxed son pro AMD y Nvidia haters de toda la vida.

Imagen

6,25% speed [carcajad] [carcajad]
SnakeElegido escribió:
Rvilla87 escribió:
SnakeElegido escribió:Todas esas pruebas de HW Unboxed usando 30fps como base son basura.

[...]

Lo más gracioso es que todo lo que estoy diciendo, lo dice él en el vídeo. Con lo que no entiendo porqué usan las evidencias de 30fps :-?

Hombre, todo lo que dices dudo que lo digan en el video porque de decirlo estarían diciendo que ese test partiendo de 30 fps es basura y se estarían tirando piedras contra su propio tejado, dejándose de inútiles ellos mismos :Ð


Pues sí que lo dicen sí, desde el segundo puto minuto:

Imagen


Dicen que son incapaces de grabar y reproducir correctamente 240fps (por limitaciones de grabado y que youtube solo permite 60fps), asi que parten de 30.

No me has entendido. ¿Te fijaste que limpié tu post y solo dejé 2 frases? No me refería a todo tu post.

Concretamente cuando dije que me parece evidente que TODO lo que dijiste no lo dicen ellos, no es por el 99% que has dicho y que ellos habrán dicho, sino por las 2 frases que dejo que seguro que ellos no han dicho, porque sería decir que han hecho una basura de trabajo. Lo puedo repetir de mas formas pero no creo que sea necesario. ¿En serio que no lo entendiaste?

Tú has dicho que esas pruebas de HW partiendo de 30 fps son una basura. Dice HU que sus pruebas son una basura? Dicen que su trabajo es una basura? Entiendes lo surrealista de lo que te digo y de ahí la risa absurda (" :Ð ")?

Luego, dices que "no entiendo por qué usan las evidencias de 30 fps"... de nuevo, dicen HU que no entienden por qué hacen esas pruebas? Te das cuenta de, de nuevo, lo absurdo de la situación?

Era eso lo que te estaba diciendo que NO decía HU, porque de decirlo es que sería un video en plan cachondeo, no tiene ningún sentido un video serio así.


Y lo que explicas, porque te he leído en diagonal porque me has respondido otra cosa que yo NO dije, ya lo sé. No era necesaria tanta explicación para responder algo que yo no he dicho ni negado, qué pérdida de tiempo y total por no leer con detenimiento. Si te repito, que esto ya lo hicieron con el 1º FG, no necesito que me expliques algo que ya sé y de hecho te dije en mi anterior post. No leíste cuando dije lo de "es que la misma prueba la hicieron con el FG "normal" y no pasó nada, es una simple demostración para ver hasta cuánto se puede exprimir el FG sin ver demasiados artefactos".
@Sicopro

Gracias compañero, dentro de la poca visibilidad que te da un foro como EOL, hago lo que está en mis humildes manos e intento poner mi granito de arena para ayudar a los compañeros en caso de tener que cambiar de gráfica y que no se gasten más de lo que no van a poder utilizar. Si con una 5070Ti te va a sobrar para que una 5090? Que no me meto en quien quiera gastarse el dinero en lo que le salga de ahí abajo sabiendo lo que compra y que son conscientes que no le van a poder sacar todo el potencial al no tener un monitor acorde, pero también hay muchos usuarios poco versados en estos temas a los que se les puede ayudar a escoger en vez de que los engañen.
Sobre lo del MFG, te doy la razón [oki] y por eso puse expresamente MFG, pienso que para cualquier usuario con un monitor 4K120HZ el FG X2 a secas le puede ser más que suficiente, que en parte estás un poco más cubierto "a futuro" pudiendo poner un X3 o un X4 y estirar la vida de la gráfica? también es verdad y eso con la 5070Ti se podrá hacer.

Estoy seguro que disfrutarás muchísimo de esa 5070Ti [oki] es la mejor gráfica calidad/precio de las 5000
xineloeol escribió:El MFG lo ha pintado muy bonito Nvidia en sus gráficas, pero más allá de la latencia, que es similar al FG 2x tradicional (+7ms), su mayor problema actualmente son los artefactos que produce:


MFG genera una cantidad de artefactos mucho mayor en detalles como la vegetación, como muestran en Harry Potter o Star Wars Outlaws. En Alan Wake 2 directamente es un festival casi en cualquier escena que se gira la cámara, para mí personalmente lo hace injugable en su estado actual para este juego en concreto.

También hay que tener en cuenta que la tasa base de renderización baja a medida que aplicamos MFG 3x, 4x:
Imagen
Esto es otro problema en juegos donde vayamos pelín justos de fps de forma nativa, en este emplo pasamos de 83 en FG 2x a 72 en MFG 4x.


Una tecnología (MFG) que funciona mejor conforme menos la necesitas.

En fin...
kamy33 escribió:
tonicab escribió:He visto que casi todas las customs de 5090 son de largas unos 33cms para arriba y en mi caja sólo caben de 30 cms para abajo (la FE si cabría justa) y todo porque tengo el radiador delante ya que encima de la caja no cabe.

Tengo dos opciones. Primero comprar otra gráfica (pero casi todas superan los 30cms por el triple ventilador) o bien comprar una RL más pequeña y ponerla encima del ordenador.

Una putada gorda.


Por si te ayuda Nvidia tiene un listado oficial de modelos SFF para cajas pequeñas. Yo estoy igual que tu, no me gusta tener una caja gigante y en la mia, que en principio sólo caben hasta 30cm metí una 4080 Super de 32cm, eso si, me toca quitar disipador de la CPU y RAM si quiero sacarla.

https://www.nvidia.com/en-us/geforce/ne ... sff-ready/


Muchas gracias. Me has salvado. Realmente entraría hasta 32cm, pero quiero que el límite sea 30.
No hay ninguna 5090 salvo la FE, aunque yo esa no la compraría por precio, calentamiento y gasto en Watios.
De 5080 veo que hay muchos modelos, el problema será que si hay problemas de stock de modelos grandes no me quiero imaginar de modelos más reducidos, pero ver que hay hasta de 28cm me ha alegrado la tarde.
Es que ya me veía cambiando la caja recién comprada o la RL recién comprada y ambas cosas pagué para la instalación, por lo que tendría que remontar el ordenador en una caja nueva o una RL nueva.

Por cierto según ese enlace habrá 5070 FE. Por si acaso no pillo la 5080 tendría otra oportunidad.


PD: Lo que veo es que el DLSS4 multiframe funciona bien con más de 60 fps que realmente no hará falta un multiframe con ese mínimo. Por lo que estoy con lo que dicen antes, que será válido para los que tengan un mínimo de frames y no lo necesiten.
Esta tabla va dura, directa al higado de los de la iglesia del input lag

Imagen

Hay que buscar otro clavo ardiendo al que agarrarse
Tanto AMD con UDNA y Sony con PS6 van a seguir el mismo camino que Nvidia con el renderizado neural y la IA. No hay otra alternativa, la realidad tecnológica y el coste de las obleas se impone. Cada vez es más caro reducir el nodo, más los problemas de tunelización cuántica, fugas de corriente, etc.

El renderizado neural va a ir cogiendo fuerza en unos meses, en 1-2 años tendrá más impacto en videojuegos, y en 3 años con la llegada de PS6 estaremos de lleno en el renderizado neural y RT en la mayoría de videojuegos recientes. Una RTX 50 ya te ofrece compatibilidad con toda esa tecnología, simplemente van por delante de la competencia. La gente no cambia de GPU en todas las generaciones, mucha gente compra una GPU para 4 años o incluso más.

Para ese entonces las GPUs más utilizadas en Steam serán las RTX 5060, 5060 Ti, 5070, 6060, 6060 Ti 6070 y sus equivalentes en AMD con UDNA. Todas esas GPUs ya tendrán soporte de renderizado neural.

Alguno puede pensar: "para eso me espero a una RTX 60", pues adelante. Basta que pongas RTX 6000 en este hilo para ver la cantidad de veces que he dicho que el que quiera más potencia bruta o tenga una GPU de gama alta RTX 40, no es necesario que compre una RTX 50 y que puede esperar a las RTX 60. Pero en cualquier caso os podéis ir olvidando de grandes saltos de potencia bruta. De hecho, el último gran salto va a ser el de los 2 nm, luego ya van a ser saltos de décimas de nanómetro.

La potencia estimada con el nodo a 3 nm de TSMC, en concreto con el nodo N3P, debería rondar algo así:

RTX 6090: 133 TFLOPS (26.000 núcleos CUDA a 2.55 GHz). Es un 27 % más respecto a la RTX 5090.
RTX 6080: 66 TFLOPS (12.500 núcleos CUDA a 2.65 GHz). Es un 18 % más respecto a la RTX 5080.
RTX 6070 Ti: 55 TFLOPS (10.500 núcleos CUDA a 2.6 GHz). Es un 23 % más respecto a la RTX 5070 Ti.
RTX 6070: 36 TFLOPS (7.000 núcleos CUDA a 2.6 GHz). Es un 17 % más respecto a la RTX 5070.

Eso es solo en TFLOPS para rasterizado (FP32 e INT32), luego hay que añadir el aumento en RT TFLOPS y AI TOPS, así que sumando eso el salto en rendimiento va a ser mayor que el visto de las RTX 40 a las 50, pero tampoco va a ser una locura de drogas. Si finalmente tiran del proceso a 2 nm si que estaríamos hablando de un salto mayor (es probable que lo dejen para las RTX 70), pero en cualquier caso sería el último gran salto. Luego ya entramos en procesos de décimas de nanómetro en cada nuevo nodo. Se acabó la fiesta de la ley de Moore.

No entiendo a los que renegáis de la IA y echáis pestes del I+D vinculado a toda esa tecnología. El sentido de la IA es precisamente dar solución a los límites de la ley de Moore permitiendo que la evolución gráfica en los videojuegos siga progresando.

- No os gusta que gracias a la IA puedas tener RT o PT, la iluminación es una de las características que más impacto tiene en la calidad visual de los videojuegos. Afecta a múltiples aspectos.
- No os gusta el NTC que permite ahorrar hasta 7 veces más VRAM, eso permite meter texturas enormes y aumentar drásticamente la calidad visual. Para el que no lo sepa, el NTC es como aplicar DLSS pero a la compresión de texturas.
- No os mola que se pueda conseguir un RT con un menor costo computacional con técnicas como la radiance cache.
- Tampoco el reescalado mediante DLSS o FSR.
- Ni los frames interpolados.
- Ni tampoco una mayor geometría, mejoras en las caras de los NPC o incluso tener IA generativa en dichos NPC para una mayor rejugabilidad y una narrativa más dinámica.
- Mejoras en texturas complejas con transparencias.

Si solamente se centraran en la potencia bruta en rasterizado seguiríamos en el pleistoceno a nivel de avance gráfico, es precisamente ahora cuando hemos llegado a un punto de inflexión a la hora de reducir más el nodo. El timing para meter el renderizado neural ha sido perfecto.

En la décima generación de consolas vamos a tragar RT y renderizado neural hasta en la sopa, y yo que me alegro, ya que gracias a eso vamos a tener una generación con muchas más innovaciones que en la novena, y no solo con respecto a la calidad de los gráficos.

Esa décima generación que se va a estrenar en noviembre de 2027 nos va a pillar casi con la salida de las RTX 60 Super, así que ya estaremos en la segunda iteración del renderizado neural y los RTX shaders. AMD ya estará de lleno metida en UDNA y con su propia versión de esa tecnología, lo mismo las consolas basadas en el hardware de AMD y UDNA. Todo eso os debería poner palotes de cara a lo que se viene, vamos a ver más avances en esa generación que en la mayoría de las anteriores (excepto el paso del 2D al 3D), y no solo en gráficos, también en los NPCs.
xineloeol escribió:El MFG lo ha pintado muy bonito Nvidia en sus gráficas, pero más allá de la latencia, que es similar al FG 2x tradicional (+7ms), su mayor problema actualmente son los artefactos que produce:


MFG genera una cantidad de artefactos mucho mayor en detalles como la vegetación, como muestran en Harry Potter o Star Wars Outlaws. En Alan Wake 2 directamente es un festival casi en cualquier escena que se gira la cámara, para mí personalmente lo hace injugable en su estado actual para este juego en concreto.

También hay que tener en cuenta que la tasa base de renderización baja a medida que aplicamos MFG 3x, 4x:
Imagen
Esto es otro problema en juegos donde vayamos pelín justos de fps de forma nativa, en este emplo pasamos de 83 en FG 2x a 72 en MFG 4x.


Es que es de cajón que en juegos gráficamente top como AW2, se va a jugar con PT activado, al menos lo que el usuario promedio que se gasta 2k en una gpu va a poner. Y en ese escanario ya no partes de 90fps, partes de 30-40 con dlss. Ese sería el escenario más realista para evaluar el FG.
papatuelo escribió:Esta tabla va dura, directa al higado de los de la iglesia del input lag

Imagen

Hay que buscar otro clavo ardiendo al que agarrarse


Uffff duro para los haters fakeframes
Uy cuidado, que partiendo de 100fps produciendo 200 fake el personaje que manejas no responde como un autobús de dos plantas.
Sicopro escribió:Tanto AMD con UDNA y Sony con PS6 van a seguir el mismo camino que Nvidia con el renderizado neural y la IA. No hay otra alternativa, la realidad tecnológica y el coste de las obleas se impone. Cada vez es más caro reducir el nodo, más los problemas de tunelización cuántica, fugas de corriente, etc.

El renderizado neural va a ir cogiendo fuerza en unos meses, en 1-2 años tendrá más impacto en videojuegos, y en 3 años con la llegada de PS6 estaremos de lleno en el renderizado neural y RT en la mayoría de videojuegos recientes. Una RTX 50 ya te ofrece compatibilidad con toda esa tecnología, simplemente van por delante de la competencia. La gente no cambia de GPU en todas las generaciones, mucha gente compra una GPU para 4 años o incluso más.

Para ese entonces las GPUs más utilizadas en Steam serán las RTX 5060, 5060 Ti, 5070, 6060, 6060 Ti 6070 y sus equivalentes en AMD con UDNA. Todas esas GPUs ya tendrán soporte de renderizado neural.

Alguno puede pensar: "para eso me espero a una RTX 60", pues adelante. Basta que pongas RTX 6000 en este hilo para ver la cantidad de veces que he dicho que el que quiera más potencia bruta o tenga una GPU de gama alta RTX 40, no es necesario que compre una RTX 50 y que puede esperar a las RTX 60. Pero en cualquier caso os podéis ir olvidando de grandes saltos de potencia bruta. De hecho, el último gran salto va a ser el de los 2 nm, luego ya van a ser saltos de décimas de nanómetro.

Tampoco sabemos si van a utilizar el proceso a 2 nm de TSMC o el de 3 nm para ahorrar costes en las RTX 60, si optan por el proceso a 3 nm el salto que vamos a tener es similar a esto (siendo optimista):

- RTX 6090: 140 TFLOPS (+35 %)
- RTX 6080: 70 TFLOPS (+30 %)
- RTX 6070 Ti: 58 TFLOPS (+32 %)
- RTX 6070: 40 TFLOPS (+29 %)

Eso es solo en TFLOPS para rasterizado (FP32), luego hay que añadir las mejoras en RT y Tensor, así que el salto en rendimiento va a ser mayor que con respecto a las RTX 50, pero tampoco va a ser una locura de drogas. Si finalmente tiran del proceso a 2 nm si que estaríamos hablando de un salto mayor, pero en cualquier caso sería el último gran salto. Luego ya entramos en procesos de décimas de nanómetro en cada nuevo nodo. Se acabó la fiesta de la ley de Moore.

No entiendo a los que renegáis de la IA y echáis pestes del I+D vinculado a toda esa tecnología. El sentido de la IA es precisamente dar solución a los límites de la ley de Moore permitiendo que la evolución gráfica en los videojuegos siga progresando.

- No os gusta que gracias a la IA puedas tener RT o PT, la iluminación es una de las características que más impacto tiene en la calidad visual de los videojuegos. Afecta a múltiples aspectos.
- No os gusta el NTC que permite ahorrar hasta 7 veces más VRAM, eso permite meter texturas enormes y aumentar drásticamente la calidad visual. Para el que no lo sepa, el NTC es como aplicar DLSS pero a la compresión de texturas.
- No os mola que se pueda conseguir un RT con un menor costo computacional con técnicas como la radiance cache.
- Tampoco el reescalado mediante DLSS o FSR.
- Ni los frames interpolados.
- Ni tampoco una mayor geometría, mejoras en las caras de los NPC o incluso tener IA generativa en dichos NPC para una mayor rejugabilidad y una narrativa más dinámica.
- Mejoras en texturas complejas con transparencias.

Si solamente se centraran en la potencia bruta en rasterizado seguiríamos en el pleistoceno a nivel de avance gráfico, es precisamente ahora cuando hemos llegado a un punto de inflexión a la hora de reducir más el nodo. El timing para meter el renderizado neural ha sido perfecto.

En la décima generación de consolas vamos a tragar RT y renderizado neural hasta en la sopa, y yo que me alegro, ya que gracias a eso vamos a tener una generación con muchas más innovaciones que en la novena, y no solo con respecto a la calidad de los gráficos.

Esa décima generación que se va a estrenar en noviembre de 2027 nos va a pillar casi con la salida de las RTX 60 Super, así que ya estaremos en la segunda iteración del renderizado neural y los RTX shaders. AMD ya estará de lleno metida en UDNA y con su propia versión de esa tecnología, lo mismo las consolas basadas en el hardware de AMD y UDNA. Todo eso os debería poner palotes de cara a lo que se viene, vamos a ver más avances en esa generación que en la mayoría de las anteriores (excepto el paso del 2D al 3D), y no solo en gráficos, también en los NPCs.


Hablas ya de 2Nm pero los 3nm ni siquiera se aprovechan ahora
beatle escribió:Oh, Dios mio, se ven artefactos jugando al 6% de velocidad y con un zoom de 500% [carcajad] [carcajad]

Hardware Unboxed son pro AMD y Nvidia haters de toda la vida.

Imagen

6,25% speed [carcajad] [carcajad]

Creo que debo tener el ordenador roto o algo, porque acabo de probar el Hogwarts Legacy con el DLSS 4 forzado y el generador de fotogramas se nota muchísimo: hay halos alrededor del personaje, los subtítulos se ven dobles y demás. Igual van a sacar un parche o puede que las series 5000 lo gestionen mucho mejor.

Y esto, tirado en la cama a 3 metros de la pantalla.
Borlanchos escribió:
papatuelo escribió:Esta tabla va dura, directa al higado de los de la iglesia del input lag

Imagen

Hay que buscar otro clavo ardiendo al que agarrarse


Uffff duro para los haters fakeframes


A mi me explotaba la cabeza. Leyendo en el foro las malas latencias del MFG y luego cuando veia este tipo de pruebas e intentaba documentarme veia que mejoraba respecto del nativo.
Ricardo__ escribió:
beatle escribió:Oh, Dios mio, se ven artefactos jugando al 6% de velocidad y con un zoom de 500% [carcajad] [carcajad]

Hardware Unboxed son pro AMD y Nvidia haters de toda la vida.

Imagen

6,25% speed [carcajad] [carcajad]

Creo que debo tener el ordenador roto o algo, porque acabo de probar el Hogwarts Legacy con el DLSS 4 forzado y el generador de fotogramas se nota muchísimo: hay halos alrededor del personaje, los subtítulos se ven dobles y demás. Igual van a sacar un parche o puede que las series 5000 lo gestionen mucho mejor.

Y esto, tirado en la cama a 3 metros de la pantalla.

Es que artefactos se notan en todos los juegos, otra cosa es que haya gente que no los quiera ver o los perdone. En el Indy, cuando haces fotos con la cámara (que es básico en el juego) el propio hud de la cámara se vuelve loco y es muy desagradable, pero vamos digo eso en concreto porque es lo más evidente pero se notan en muchas más ocasiones los artefactos provocados por el FG. En lugar de ir hacia adelante en el tema gráfico, estamos yendo hacia atrás, y lo peor es que algunos tragan a gusto con ello.
Mas nos vale que vayamos asumiendo que el futuro son frames por AI. A mi me jode infinito porque juego en VR y el DLSS, entero en todas sus funciones, no me vale de nada. Y cuando no juego en VR (pocas veces) lo hago en una oled de 60fps así que no voy a aprovechar el FG. Pero es lo que hay
esami escribió:
Borlanchos escribió:
papatuelo escribió:Esta tabla va dura, directa al higado de los de la iglesia del input lag

Imagen

Hay que buscar otro clavo ardiendo al que agarrarse


Uffff duro para los haters fakeframes


A mi me explotaba la cabeza. Leyendo en el foro las malas latencias del MFG y luego cuando veia este tipo de pruebas e intentaba documentarme veia que mejoraba respecto del nativo.


Eso es porque na sabes leer la tabla, en esa tabla MFG agrega más latencia 9ms.

Sin saber los FPS reales tampoco se puede sacar mucho, recordemos que entre menos FPS reales más latencia meten lo Frames Imaginarios, y también si hay ayuda de reflex cosa que sin MFG no tenga.
Borlanchos escribió:Mas nos vale que vayamos asumiendo que el futuro son frames por AI. A mi me jode infinito porque juego en VR y el DLSS, entero en todas sus funciones, no me vale de nada. Y cuando no juego en VR (pocas veces) lo hago en una oled de 60fps así que no voy a aprovechar el FG. Pero es lo que hay

Pues yo espero que te equivoques y todo esto de la IA se vaya a tomar viento más pronto que tarde XD
Existe alguna actualización de a que hora empiezan las compras en España de la 5080 el Jueves dia 30 ??

Van a ser todas las webs a partir de las 15:00 ?
Tengo en mente
neobyte, coolmod, pccomponentes, ldlc.

Me gustaria Amazon pero por lo que vi el día 30 no las tendrán, el tema sera ver si todas las webs lo activaran a las 15:00
Yo leo q una 5090 con FG 2X tiene el mismo input lag q una 4090 solo con dlss. Que con una 5090 con dlss tienes un input lag 5ms inferior al de una 4090 con dlss q son los mismos 5 ms q separan el FG 4X de una 5090 y el dlss de una 4090.

Asi q si tanta os duelen los 5 ms del FG 4X lo mismo os dolerán los 5 ms q gay de la 5090 a la 4090.

No os va a quedar más remedio q comprar una 5090.


Menos mal q yo no noto 5 ms de input lag, así me podré quedar con la 4070.
8971 respuestas