› Foros › Noticias › Tecnología
Benzo escribió:A diferencia de la generación de fotogramas DLSS que solo está disponible en las tarjetas gráficas RTX 40, la reconstrucción de rayos DLSS estará al alcance en todas las tarjetas RTX desde la serie RTX 20.
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
Nodens escribió:Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.
Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.
Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.
Xzess escribió:En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
Riwer escribió:Xzess escribió:En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.
Igualito vamos. Anda que... xD
Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.
Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).
Nodens escribió:Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.
Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.
Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.
SnakeElegido escribió:Benzo escribió:A diferencia de la generación de fotogramas DLSS que solo está disponible en las tarjetas gráficas RTX 40, la reconstrucción de rayos DLSS estará al alcance en todas las tarjetas RTX desde la serie RTX 20.
Esto es lo que quería oir, gracias.
Para mí DLSS es de lo mejorcito que se ha inventado en los últimos años, aunque también tiene sus detractores. Si con esto mejora el rendimiento del RT sin perder calidad de forma perceptible, por mí cojonudo.
Un saludo,
Xzess escribió:Riwer escribió:Xzess escribió:En realidad la tecnología del frame interpolation lleva años inventada y cualquier televisor la tiene, en algunos casos funciona muy bien, igual que la tarjeta de nvidia vamos, yo juego a juegos de 30fps como si fueran 60 hace tiempo, eso sí los artefactos extraños son los mismos.
Igualito vamos. Anda que... xD
Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.
Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).
Frame interpolation de nvidia si genera artefactos, y lag lo mismo que mi TV, igual, no es ninguna revolución ni nada nuevo, efecto telenovela ocurre en películas no en videojuegos.
Eso sí, no esperes que un frame interpolation en una tv de 600 euros se parezca al de una tarjeta gráfica que vale más que la TV y lleva procesadores dedicados, eso sí te vas a una TV de 2mil y sí lo tienes aunque claro sigue sin ser tan bueno pero se acerca, y a te digo yo lo llevo usando eso años, y créeme que no en todos los juegos porque genera algún artefacto, pero en muchos se ve perfecto, siempre que admitas algo de lag.
Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
Jhonny escribió:Nodens escribió:Jhonny escribió:Después de los fake frames llegan los fake rays.
Y ojo, que si el resultado visual es el mismo ni tan mal, pero el hecho de vender hardware "limitadito" dopado con tecnologías de maquillaje, con los precios desplazados una gama y sin competencia seria por parte de AMD pinta mal de cara a la gama 5000.
De verdad, la gente es una cansina con que si el raytracing no vale para nada, que si el DLSS y los frames inventados. Se puede discutir sobre el precio de las tarjetas, sobre si es viable DLSS 3 en tarjetas que no sean la serie 40, pero por mucho que pataleen, la tecnología avanza, le pese a quien le pese.
Todavía me acuerdo, allá por 1999 cuando nvidia empezó a sacar sus tarjeta con T&L (Transformación y luces), algunos juegos te lo empezaban a pedir y lo más vendido en aquella época eran las Voodoo, que no tenían T&L. Aún me acuerdo la gente pataleando por lo mismo que el raytracing ahora: "que si no vale para nada", "que solo consume recursos", "que yo no veo la diferencia"... A ver quien se acuerda ahora del T&L.
Dentro de 10 años RT vendrá tan de serie que nadie se va a acordar de él.
Perdona, pero no creo que no has entendido mi mensaje.
Salvo la 4090 que tiene potencia para aburrir, salvar los muebles en la gama media (a precio de gama alta) abusando de "triquiñuelas" me parece exprimir la vaca en exceso, máxime sabiendo que no tienen competencia.
No me habrás leído decir que no vale para nada, pero lo cierto es que valga o no, la tecnología está muy verde puesto que la penalización en rendimiento es muy alta, y andar con trucos como este lo demuestran.
Por otro lado, bienvenido sea, pero no deja de ser una tecnología propietaria de nVIDIA, al contrario que el T&L.
Y sí, tal y como dice el compañero @xzess, el frame gen mete todavía artifacts bastante cantosos, que desvirtúan el resultado final.
Riwer escribió:Xzess escribió:Riwer escribió:
Igualito vamos. Anda que... xD
Me vas a comparar un algoritmo de interpolado básico con uno reconstructivo por IA.
Los interpolados de los televisores son muy básicos y producen el llamado "efecto telenovela" que da una fluidez artificial que se nota, y mucho. Cosa que no pasa con DLSS3 porque a nivel de tecnologia es muy diferente.
Ademas los alrogitmos básico aumentan muchisimo el tiempo de respuesta (el propio v-sync, aunque no tenga nada que ver, tambien aumenta mucho el input lag). Pero DLSS3 se combina con Reflex para tener la misma latencia que nativo sin reflex. (Y aparte la gran ganancia de rendimiento por el reconstructor temporal desde una resolución base inferior).
Frame interpolation de nvidia si genera artefactos, y lag lo mismo que mi TV, igual, no es ninguna revolución ni nada nuevo, efecto telenovela ocurre en películas no en videojuegos.
Eso sí, no esperes que un frame interpolation en una tv de 600 euros se parezca al de una tarjeta gráfica que vale más que la TV y lleva procesadores dedicados, eso sí te vas a una TV de 2mil y sí lo tienes aunque claro sigue sin ser tan bueno pero se acerca, y a te digo yo lo llevo usando eso años, y créeme que no en todos los juegos porque genera algún artefacto, pero en muchos se ve perfecto, siempre que admitas algo de lag.
Yo no he dicho que no genere artefactos, pero con Nvidia reflex no genera nada de lag respecto a nativo sin reflex. (Nativo con reflex evidentemente seguirá ganando). Ademas que no tiene nada que ver con el interpolado de las televisiones (ni en resultado, ni en algoritmo, ni en casi nada).
Yo tambien lo llevo usando años el de las teles y su interpolado da ese efecto de mezclado "pastoso" de frames en videojuegos al igual que en series y pelis. (que no deja de ser el fotograma 1 y 3 fusionados con cierta transparencia para crear un fotograma intermedio). El frame generation crea un fotograma único y nitido, no "algo no identificable por si mismo para que pase rapido".
En resumen. El interpolado de las televisiones crea "frames fantasma" como se utiliza en animación 2D. El frame generation crea nuevos fotogramas reales independientes como si fuesen nuevos "keyframes".