Nvidia anuncia DLSS 3.5, añadiendo una técnica impulsada por la IA que mejora la calidad del traz...

Nvidia ha anunciado que este otoño lanzará DLSS 3.5, una nueva versión de su tecnología de supermuestreo que presenta como gran novedad la reconstrucción de rayos DLSS, una técnica diseñada para mejorar la calidad del trazado de rayos. Los primeros títulos en lucir esta novedad serán Alan Wake II, Cyberpunk 2077 y Portal RTX. A diferencia de la generación de fotogramas DLSS que solo está disponible en las tarjetas gráficas RTX 40, la reconstrucción de rayos DLSS estará al alcance en todas las tarjetas RTX desde la serie RTX 20.

Actualmente la tecnología DLSS utiliza eliminadores de ruido ajustados a mano para dar vida a píxeles en una escena iluminada con trazado de rayos. Se trata de un proceso que puede llevar a pérdidas en la precisión del color, iluminación poco ajustada e incluso crear imágenes fantasma. Con la reconstrucción de rayos DLSS que aporta DLSS 3.5, se mejora la calidad de imagen generando píxeles adicionales para escenas de trazado de rayos completo, nada de juegos que solo lo usan en sombras o reflejos. El secreto de esta técnica se encuentra en la sustitución de los eliminadores de ruido ajustados a mano por una red de IA entrenada.


El uso de DLSS 3.5 con reconstrucción de rayos debería dar como resultado juegos con trazado de rayos que lucen píxeles generados de mayor calidad. El proceso de adopción de esta técnica por parte de los desarrolladores podría ser largo debido a que solo se puede usar en los juegos que cuentan con trazado de rayos completo. Pero no solo los juegos se beneficiarán de DLSS 3.5. Nvidia ha comunicado que esta nueva versión de DLSS permitirá a las aplicaciones o plataformas de edición en 3D como Chaos Vantage, D5 Render y Nvidia Omniverse, proporcionar vistas previas de renderizados más precisas y de mayor calidad.

Por otro lado, Nvidia ha anunciado que la tecnología DLSS 3 llegará a más juegos, incluyendo Call of Duty: Modern Warfare III, PayDay 3 y Fortnite. La compañía también ha comunicado que un grupo de modders está desarrollando Half-Life 2 RTX con soporte para DLSS 3 y RTX IO. Se trata de una iniciativa que usará las mismas herramientas que han dado vida a Portal RTX.



Fuente: Nvidia
Benzo escribió:A diferencia de la generación de fotogramas DLSS que solo está disponible en las tarjetas gráficas RTX 40, la reconstrucción de rayos DLSS estará al alcance en todas las tarjetas RTX desde la serie RTX 20.



Esto es lo que quería oir, gracias.
Para mí DLSS es de lo mejorcito que se ha inventado en los últimos años, aunque también tiene sus detractores. Si con esto mejora el rendimiento del RT sin perder calidad de forma perceptible, por mí cojonudo.

Un saludo,
Nvidia le está pintando la cara a AMD con esta tecnología. A ver si estos se ponen las pilas para poder disfrutar de algo similar en nuestras consolas limitadas al tener chips AMD
Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
Perfecto, ahora los desarrolladores podrán optimizar aún menos sus juegos
hadoken está baneado del subforo hasta el 19/3/2025 06:51 por "hater continuado de Xbox"
Esta tecnología parece magia en el.plage tale pasas de 70fps a 130-140fps con un 4070 en 2k todo en ultra y sin ojo bionico ni te enteras
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.


De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.

Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.

Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.
@Nodens te equivocas se acordarán si algún juego no lo trae [qmparto]
Nodens escribió:
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.


De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.

Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.

Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.

En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.
Xzess escribió:En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.


Igualito vamos. Anda que... xD

Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.

Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).
viendo el vídeo del half life 2 me hace imaginar que ahora en vez de discusiones de si x juego es un port, un remaster o un remake ahora será, port/remaster/remake/RTX
El Rt ha llegado con un renderizado diferido que roza la perfección, las diferencias son mínimas y los recursos necesarios para el trazado de rayos brutales, esto casi que solo interesa a Nvidia.
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.

Es lo que tiene optimizar juegos como el culo.

Las compañías de hardware quieren seguir vendiendo y las desarrolladoras no están dispuestas a perder pasta optimizando los juegos como deben. La ruleta sigue girando.
Riwer escribió:
Xzess escribió:En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.


Igualito vamos. Anda que... xD

Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.

Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).


Frame interpolation de nvidia si genera artefactos, y lag lo mismo que mi TV, igual, no es ninguna revolución ni nada nuevo, efecto telenovela ocurre en películas no en videojuegos.
Eso sí, no esperes que un frame interpolation en una tv de 600 euros se parezca al de una tarjeta gráfica que vale más que la TV y lleva procesadores dedicados, eso sí te vas a una TV de 2mil y sí lo tienes aunque claro sigue sin ser tan bueno pero se acerca, y a te digo yo lo llevo usando eso años, y créeme que no en todos los juegos porque genera algún artefacto, pero en muchos se ve perfecto, siempre que admitas algo de lag.
Nodens escribió:
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.


De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.

Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.

Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.

Perdona, pero no creo que no has entendido mi mensaje.
Salvo la 4090 que tiene potencia para aburrir, salvar los muebles en la gama media (a precio de gama alta) abusando de "triquiñuelas" me parece exprimir la vaca en exceso, máxime sabiendo que no tienen competencia.
No me habrás leído decir que no vale para nada, pero lo cierto es que valga o no, la tecnología está muy verde puesto que la penalización en rendimiento es muy alta, y andar con trucos como este lo demuestran.
Por otro lado, bienvenido sea, pero no deja de ser una tecnología propietaria de nVIDIA, al contrario que el T&L.
Y sí, tal y como dice el compañero @xzess, el frame gen mete todavía artifacts bastante cantosos, que desvirtúan el resultado final.
SnakeElegido escribió:
Benzo escribió:A diferencia de la generación de fotogramas DLSS que solo está disponible en las tarjetas gráficas RTX 40, la reconstrucción de rayos DLSS estará al alcance en todas las tarjetas RTX desde la serie RTX 20.



Esto es lo que quería oir, gracias.
Para mí DLSS es de lo mejorcito que se ha inventado en los últimos años, aunque también tiene sus detractores. Si con esto mejora el rendimiento del RT sin perder calidad de forma perceptible, por mí cojonudo.

Un saludo,


Yo también he entrado para leer eso, que mi RTX 3070ti estaba llorando por volverse """obsoleta""" un año después, que todavía no he amortizado los 2000€ que me gasté en el PC.
Vamos sumando si señor! [beer]
@WyrmCule algo imposible, porque aunque en AMD ya existe el FSR, funciona a nivel de software, en Nvidia llevan generaciones con hardware exclusivo en las tarjetas (conocido como los tensor cores) es por ello que AMD al no tener hardware en las gráficas dedicado para estas tareas poco o nada va a conseguir a día de hoy, mucho menos en las consolas que de serie no lo tienen.
Xzess escribió:
Riwer escribió:
Xzess escribió:En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.


Igualito vamos. Anda que... xD

Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.

Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).


Frame interpolation de nvidia si genera artefactos, y lag lo mismo que mi TV, igual, no es ninguna revolución ni nada nuevo, efecto telenovela ocurre en películas no en videojuegos.
Eso sí, no esperes que un frame interpolation en una tv de 600 euros se parezca al de una tarjeta gráfica que vale más que la TV y lleva procesadores dedicados, eso sí te vas a una TV de 2mil y sí lo tienes aunque claro sigue sin ser tan bueno pero se acerca, y a te digo yo lo llevo usando eso años, y créeme que no en todos los juegos porque genera algún artefacto, pero en muchos se ve perfecto, siempre que admitas algo de lag.


Yo no he dicho que no genere artefactos, pero con Nvidia reflex no genera nada de lag respecto a nativo sin reflex. (Nativo con reflex evidentemente seguirá ganando). Ademas que no tiene nada que ver con el interpolado de las televisiones (ni en resultado, ni en algoritmo, ni en casi nada).
Yo tambien lo llevo usando años el de las teles y su interpolado da ese efecto de mezclado "pastoso" de frames en videojuegos al igual que en series y pelis. (que no deja de ser el fotograma 1 y 3 fusionados con cierta transparencia para crear un fotograma intermedio). El frame generation crea un fotograma único y nitido, no "algo no identificable por si mismo para que pase rapido".

En resumen. El interpolado de las televisiones crea "frames fantasma" como se utiliza en animación 2D. El frame generation crea nuevos fotogramas reales independientes como si fuesen nuevos "keyframes".
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.

+1
Hard Fake a precio de robo, mira que quiero renovar mi PC gaming pero con perlas como esta da que pensar.
Jhonny escribió:
Nodens escribió:
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.


De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.

Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.

Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.

Perdona, pero no creo que no has entendido mi mensaje.
Salvo la 4090 que tiene potencia para aburrir, salvar los muebles en la gama media (a precio de gama alta) abusando de "triquiñuelas" me parece exprimir la vaca en exceso, máxime sabiendo que no tienen competencia.
No me habrás leído decir que no vale para nada, pero lo cierto es que valga o no, la tecnología está muy verde puesto que la penalización en rendimiento es muy alta, y andar con trucos como este lo demuestran.
Por otro lado, bienvenido sea, pero no deja de ser una tecnología propietaria de nVIDIA, al contrario que el T&L.
Y sí, tal y como dice el compañero @xzess, el frame gen mete todavía artifacts bastante cantosos, que desvirtúan el resultado final.


Que si, que las gráficas siguen estando a un precio prohibitivo, eso nadie lo va a discutir, al igual que optimizan muy mal algunos juegos.
Las "triquiñuelas" en juegos 3D se están usando desde el inicio de los tiempos: menos polígonos a distancias altas de dibujado, renderizar solo lo que ve el jugador, luces precalculadas...
Las patentes existen, y en cierta manera es bueno, hace que haya competencia. AMD no hubiese sacado FSR si no hubiese existido el DLSS.
La penalización no es tan alta, y ahí entra lo que quiera cada sacrificar por verlo mejor. A mi con que llegue a 60 fps me vale.
El frame generation ya no mete tantos artefactos como antes, y cuando los metía el 90% ni te dabas cuenta. Si lo grabas en vídeo y buscas el frame exacto, lo verás, pero jugando no te das ni cuenta.

Ahora resulta que los avances tecnológicos son "triquiñuelas". Lo que hay que oír.
Y el FSR3 para cuándo, AMD? QUE VA A HACER CASI UN AÑO QUE LO ANUNCIÁSTEIS Y NO SE HA VUELTO A SABER NADA DE ELLO!

Al César lo que es del César, y mira que soy pro AMD, pero nVidia le está pasando la mano por la cara en todo este tema a AMD. Fuerza bruta quizás no, pero entre los nVcodecs, las herramientas de generación de contenidos y edición de vídeo, y ahora esto del RayTracing, o quieres la gráfica sólo para jugar y no te importa el RT, o casi que es mejor opción una nVidia a pesar de los churros que han sacado esta generación de la 4070Ti para abajo.

Edito: por otro lado, si esta versión supera en rendimiento al DLSS3 y es compatible con las RTX 20 y 30, qué argumento de compra les queda a las 4060 y 4060Ti respecto a las equivalentes de la generación anterior, más baratas (mucho a veces) y con prácticamente el mismo rendimiento? El menor consumo eléctrico? Poca cosa veo yo.
Riwer escribió:
Xzess escribió:
Riwer escribió:
Igualito vamos. Anda que... xD

Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.

Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).


Frame interpolation de nvidia si genera artefactos, y lag lo mismo que mi TV, igual, no es ninguna revolución ni nada nuevo, efecto telenovela ocurre en películas no en videojuegos.
Eso sí, no esperes que un frame interpolation en una tv de 600 euros se parezca al de una tarjeta gráfica que vale más que la TV y lleva procesadores dedicados, eso sí te vas a una TV de 2mil y sí lo tienes aunque claro sigue sin ser tan bueno pero se acerca, y a te digo yo lo llevo usando eso años, y créeme que no en todos los juegos porque genera algún artefacto, pero en muchos se ve perfecto, siempre que admitas algo de lag.


Yo no he dicho que no genere artefactos, pero con Nvidia reflex no genera nada de lag respecto a nativo sin reflex. (Nativo con reflex evidentemente seguirá ganando). Ademas que no tiene nada que ver con el interpolado de las televisiones (ni en resultado, ni en algoritmo, ni en casi nada).
Yo tambien lo llevo usando años el de las teles y su interpolado da ese efecto de mezclado "pastoso" de frames en videojuegos al igual que en series y pelis. (que no deja de ser el fotograma 1 y 3 fusionados con cierta transparencia para crear un fotograma intermedio). El frame generation crea un fotograma único y nitido, no "algo no identificable por si mismo para que pase rapido".

En resumen. El interpolado de las televisiones crea "frames fantasma" como se utiliza en animación 2D. El frame generation crea nuevos fotogramas reales independientes como si fuesen nuevos "keyframes".


Sí, sin duda es mejor el Frame generation, eso no lo discuto, pero es algo ya inventado y créeme en una buena TV se ve de lujo la interpolación, nada de efectos pastosos.
Mira un video y es antiguo ya.

https://www.youtube.com/watch?v=ZvojaUXGfig
22 respuestas