› Foros › Noticias › Tecnología
El ejemplo de Death Stranding, de hecho es el video que pusieron antes en este hilo. Tú este video ves el DLSS mucho peor como decías? Min 15:06:
Orestes escribió:Rvilla87 escribió:Por lo tanto con esa prueba puedes determinar tú mismo que el DLSS sin activar la nueva función "beta" del RR no destroza la imagen. ¿Ahora mejor?
El argumento original es que DLSS puede mejorar la imagen nativa y eso es una mentira como un castillo porque mucho o poco siempre la empeora.
Orestes escribió:¿Es una técnica cojonuda para ganar FPS? Sin duda. ¿Puede producir mejor (o si me apuras igual) calidad que una imagen nativa? No, no puede. Es físicamente imposible.
Algunos no estáis entendiendo (o comentando) que gracias al reescalado como el del DLSS se gana un rendimiento que te puede aportar otras mejoras de calidad de imagen: aumentar la calidad de sombras/iluminación/texturas/etc del juego. O te puedes quedar con mayor fps con una calidad muy similar (sobre todo a simple vista).
En la comparación de esa imagen del Cyberpunk estás comparando el mismo juego a la misma calidad gráfica. Ponte a comparar el juego a calidad media a 4k en nativo (por ejemplo yendo a 60fps) vs 4k con DLSS con calidad alta (o la que sea que vaya a 60fps) y me vuelves a hablar de calidad de imagen
Rvilla87 escribió:No cambies el tema de nuestra conversación. Yo no he entrado a debatir las declaraciones de Nvidia. En nuestra conversación, tú empezaste citando mi frase donde dije lo de que la gente dice tonterías del DLSS, ese es el argumento original de nuestro debate.
Rvilla87 escribió:El DLSS se compone, entre otras cosas, en el módulo de Superresolución y Antialiasing de deep learning (el de toda la vida) que es el que puede mejorar incluso la resolución nativa al aplicar ese Antialiasing (en respuesta a lo que preguntaba hugoboss69x del DLSS calidad).
Rvilla87 escribió:Si luego entré a tu debate de la calidad de imagen no fue para debatir "si DLSS puede mejorar la imagen nativa", sino para que vieras como precisamente tú que me citaste esa frase dijiste una tontería al comparar la calidad de imagen sin tener en cuenta que no era el SR quien la "destrozaba" sino el RR y atribuías esos "destrozos" en general al "DLSS".
Rvilla87 escribió:Orestes escribió:¿Es una técnica cojonuda para ganar FPS? Sin duda. ¿Puede producir mejor (o si me apuras igual) calidad que una imagen nativa? No, no puede. Es físicamente imposible.
Por si no quedaba claro con todo lo que ya te he dicho, ¿me dices dónde yo he afirmado eso? A ver si vamos a estar discutiendo por algo que no he dicho.
Rvilla87 escribió:Dejando de lado que desvíes mas o menos el tema de nuestra conversación, como me da la impresión que te interesa saber qué opino de la calidad de imagen del DLSS, esto es lo que opino:
Algunos no estáis entendiendo (o comentando) que gracias al reescalado como el del DLSS se gana un rendimiento que te puede aportar otras mejoras de calidad de imagen: aumentar la calidad de sombras/iluminación/texturas/etc del juego. O te puedes quedar con mayor fps con una calidad muy similar (sobre todo a simple vista).
Rvilla87 escribió:En la comparación de esa imagen del Cyberpunk estás comparando el mismo juego a la misma calidad gráfica. Ponte a comparar el juego a calidad media a 4k en nativo (por ejemplo yendo a 60fps) vs 4k con DLSS con calidad alta (o la que sea que vaya a 60fps) y me vuelves a hablar de calidad de imagen
Linkale2 escribió:Yo solo digo que estamos pidiendo raytracing, mejores shaders, mejores modelos y texturas, todo esto a la vez que cuadruplicar resolución respecto a 1080p. Creo que la época de la calidad cuadruplicándose de una consola a otra ya ha pasado. Hay una razón por la que los juegos de PS5 te dan a elegir 60fps "rendimiento" o 30fps "calidad": que ambas cosas no pueden ser. Desarrolladores vagos puede haber en un juego, pero no en todos. Tema gráficas lo mismo: La muestra es que ni la tarjeta más potente de Nvidia puede mover a 4K nativo algunos juegos en su calidad más alta ¿Nvidia son vagos y timadores? Bueno ¿y entonces donde está la tarjeta de AMD o Intel que sí lo consigue? La realidad es que está claro que el salto es demasiado.
Mr_Touchdown escribió:y AMD va a la zaga, para variar. Quien marca el camino a seguir es Nvidia, por que es quien tiene mayor cuota de mercado. No importa cuanto innoves y mejores la industria si nadie compra tus productos, al final no te queda otra que seguir al lider si quieres seguir a flote.
AMD lanzo en 2013 las memorias HBM que son superiores a la memoria GDDR5 (menor consumo y tamaño con un rendimiento muy superior, tienen un bus de 4096 bits, las memorias GDDR tienen un bus de 512 bits como maximo) aunque algunas tarjetas graficas han usado este tipo de memoria, es muy minoritario. Por que quien maneja la batuta es Nvidia.
Valhan escribió:Y mis disculpas porque me he marcado un off-topic paralelo digno de la Marvel.
Mr_Touchdown escribió:Los estudios pasan de optimizar, es algo que se ha implantado en la industria. Tanto es asi que los juegos que se lanzan hoy dia hace 20 años se considerarian betas o incluso alfas.
[Akira] escribió:Efectivamente DLSS en Calidad deberia ofrecer mejor aspecto que TAA en Nativo. Dependiendo de la implementación puede haber glitches o ghosting aqui o allá, pero eso ya es más de cara al curro que se haya metido el desarrollador.
La cosa está clara señores, o usamos DLSS/FSR o ya podeis ir olvidandoos del Ray Tracing en general a resoluciones 4K. Y ya ni hablemos de Path Tracing....
Y a quien DLSS y/o Frame Generation les parezcan "frames falsos" que se ponga a leer documentación técnica. Que a lo mejor esos "frames falsos" son más reales que la mitad de efectos visuales que nos llevamos 20 años comiendo como el Screen Space Reflection.
De hecho haceos a la idea de que en consola va a ser FSR o similar hasta el fin de los tiempos. Y bien que hacen.