Nvidia dice que el escalado de imagen de DLSS y no la resolución nativa es el futuro para una mej...

1, 2, 3
Me parece sorprendente que a día de hoy la gente siga comparando el DLSS y las tecnologías similares con los escalados tradicionales, como si los resultados y lo que son capaces de ofrecer fueran remotamente parecidos. En fin, supongo que será el tiempo el encargado de hacerles ver que seguir renderizando imágenes a resoluciones gigantescas mediante fuerza bruta mientras llaman "falsa" a cualquier cosa que no entienden no es el camino.
¿Qué tal si nos informamos del DLSS y vemos ejemplos con resolución nativa (de hecho ya han puesto videos, y la red está llena) antes de decir tonterías? Joder cuánto usuario que no ha debido probar ni ver el DLSS, la de cosas que hay que leer...

metalgear escribió:@Valhan dlss y las evoluciones que ha tenido no lo noto diferencia alguna, y hablo de un monitor aw3423dwf y una 4090 que sin llegar a 4K y siendo oled no noto diferencia, si encima añade frame generation ni hablamos.

Pues precisamente al añadir el frame generation es cuando empeora la calidad de imagen, otra cosa es que lo notes.

El DLSS se compone, entre otras cosas, en el módulo de Superresolución y Antialiasing de deep learning (el de toda la vida) que es el que puede mejorar incluso la resolución nativa al aplicar ese Antialiasing (en respuesta a lo que preguntaba @hugoboss69x del DLSS calidad).

Pero otro módulo diferente es el Frame Generation que se "inventa" completamente el frame y esos frames generados pueden tener bastantes fallos (ejemplo, el video explica en detalle mas ejemplos), solo que como se duplican los fps a simple vista es mas difícil de ver... pero claro, depende de los FPS origen, con una 4090 tiene mas pinta que al tener unos FPS altos apenas lo notarás, con menos potencia seguro que se nota la peor calidad de imagen.

No lo he hecho y creo que el de DF lo comentaba, pero si capturas el vídeo deberías ver claro el frame generado porque la diferencia de calidad respecto a uno normal salta a la vista.


jcdr escribió:2 gráficas de nVidia misma serie, una más potente que otra, 60 fps fijos con todas las configuraciones gráficas iguales pero una va a 4K nativos y otra a “2k” reescalado a 4K mediante DLSS.
Cual se ve mejor? Imagino que la nativa.

Ahora coge la tarjeta que está escalando el juego, ponla a 4K nativos quitando el dlss y bajando las configuraciones para mantener el rendimiento.
Como se ve mejor, con la resolución nativa y bajando opciones gráficas o sin bajar las opciones pero con dlss?
Imagino que en este caso será la que tenga dlss, no?

Puede que no sea la nativa la que se vea mejor sino la de 2k reescalado. Y aunque no lo fuera la diferencia podría ser casi inapreciable (al menos no a simple vista, excepto algún problema que pudiera haber con ese juego en concreto). Y dicho esto ya no tiene sentido responder a la 2º pregunta.

Pero es que son 2 cosas totalmente diferente lo que planteas. En el tema reescalado (un mal reescalado) lo que vas a perder es definición de imagen, si bajas la calidad del juego, exagerando mucho, va a parecer que en lugar de jugar a un juego de PS4 estés jugando a un juego de PS3.
No sé si estará directamente relacionado o no, pero desde que estos nuevos sistemas de escalado han empezado a popularizarse los juegos parece que salen peor optimizados.
a mi me parecen una maravilla de solucion, sinceramente no se que se piensa la gente que se podria obtener sin escalado con una videoconsola actual intentando renderizar a 4k...
Pues ya te digo que los juegos no se verian como se ve ahora.
Te da la posibilidad de meterle mas caña, permitir modos en los que se pueda prorizar rendimiento+fps vs calidad-fps a gusto del usuario y sobre todo en pc dando oportunidades a que personas con ordenadores potato puedan jugar a juegos de una manera relativamente buena.
Pero vamos, en PC apuntando a 1440p sacas unos resultados espectaculares, para mi no tiene color vamos, ademas de que ya es bastante mas viable poder tener un pc que tire a esa resolucion muy decentemente, sobre todo si no abusas de Raytracing que es un puto tragon de fps.

Resumen: DLSS: bueno, futuro? Anda, no jodas.
Todo lo que sea quitar recursos a la gráficas y utilizarlos en mejorar la inmersión y ia de los enemigos, yo lo veo genial.

Esto para las consolas es la hostia.
Gluch escribió:Pues llamame tradicional, pero no lo veo...

Donde este nativo yo dlss y fsr los veo borrosos o glicheados


No se te puede llamar tradicional, porque en tradicional todo esto pasa a muchos niveles.
El Bump mapping por ejemplo ya es un truco de imagen para hacer parecer que un modelo tiene mas detalle y poligonaje del que tiene.
O el LOD, o el baked lighting o luz precalculada, la vieja prerrenderización y un eterno etc.

Precisamente a lo que crees que te aferras como "tradicional" son mil cosas del mismo estilo que DLSS (llegar a X con imitaciones más ligeras).

Y ojo, no estoy diciendo que se tenga que abusar de DLSS como sustituto de la (no)optimización.

Pero se ha hecho tanto marketing a esta tecnica (sumado al tema de la IA) que se hace ver como algo separado y único cuando toda la historia del procesamiento gráfico consiste precisamente en lo mismo.
Rvilla87 escribió:¿Qué tal si nos informamos del DLSS y vemos ejemplos con resolución nativa (de hecho ya han puesto videos, y la red está llena) antes de decir tonterías? Joder cuánto usuario que no ha debido probar ni ver el DLSS, la de cosas que hay que leer...

Solo hay que tener ojos funcionales para ver el destrozo que hace. Hoy han publicado un artículo en TPU diciendo que la imagen con DLSS es mejor que la nativa. Hay que tener una vista realmente destrozada e ir hasta las tetas de farlopa para soltar semejante gilipollez.

https://www.techpowerup.com/review/nvid ... ion/3.html

En la primera imagen se puede ver como el DLSS se ha follado la progresión de la dureza de las sombras por el mismísimo culo, como aumenta el contraste para generar una ilusión de definición enguarrando las texturas y transformado el material del muro del edificio del fondo para que tenga relieve. Por favor no miréis el muro de la derecha con DLSS si no queréis llevaros la decepción de vuestra vida.

La segunda es delirante porque se ve perfectamente que mientras en la nativa el edificio del fondo está tras una nube de humo en la del DLSS simplemente está cubierto de barro. Eso por no hablar de la forma en la que añade cell-shading a los extremos de los tubos.

La tercera impresiona la forma en la que directamente cambia la iluminación de la escena.

Y así todas.
El problema es que los desarrolladores crean el juego en base a estas tecnologías, por lo que se olvidan de optimizar y dejan a su suerte que el DLSS/FSR haga su trabajo, por lo que vamos a tener la misma calidad de juegos pero con peor rendimiento [carcajad] .
Rvilla87 escribió:
jcdr escribió:2 gráficas de nVidia misma serie, una más potente que otra, 60 fps fijos con todas las configuraciones gráficas iguales pero una va a 4K nativos y otra a “2k” reescalado a 4K mediante DLSS.
Cual se ve mejor? Imagino que la nativa.

Ahora coge la tarjeta que está escalando el juego, ponla a 4K nativos quitando el dlss y bajando las configuraciones para mantener el rendimiento.
Como se ve mejor, con la resolución nativa y bajando opciones gráficas o sin bajar las opciones pero con dlss?
Imagino que en este caso será la que tenga dlss, no?

Puede que no sea la nativa la que se vea mejor sino la de 2k reescalado. Y aunque no lo fuera la diferencia podría ser casi inapreciable (al menos no a simple vista, excepto algún problema que pudiera haber con ese juego en concreto). Y dicho esto ya no tiene sentido responder a la 2º pregunta.

Pero es que son 2 cosas totalmente diferente lo que planteas. En el tema reescalado (un mal reescalado) lo que vas a perder es definición de imagen, si bajas la calidad del juego, exagerando mucho, va a parecer que en lugar de jugar a un juego de PS4 estés jugando a un juego de PS3.

No puedo hablar sobre el dlss ya que no estoy muy puesto, y quizás no me haya expresado bien, pero a donde quería llegar (en referencia a los críticos del dlss) es que aunque se viese algo mejor la imagen nativa (que no digo que sea así) realmente esa no es la comparación que hay que hacer, si no en valorar como se ve mejor un juego, si empleando la potencia de la gráfica en jugar a 4K nativos, o en usar dlss y emplear la potencia sobrante (al renderizar a una resolución más baja) en mejorar el resto de apartados gráficos (o en conseguir una mejor tasa de fps) y en este punto sale ganado el dlss.
@Orestes No se yo si estoy de acuerdo con que la "decepción de nuestra vida" sean 4 detalles tontos que hay que mirar con lupa ignorando cómo se triplica el framerate....
Linkale2 escribió:@Orestes No se yo si estoy de acuerdo con que la "decepción de nuestra vida" sean 4 detalles tontos que hay que mirar con lupa ignorando cómo se triplica el framerate....

Es que lo que te está diciendo Nvidia (y mucho convencido) es que el DLSS mejora la calidad de la imagen cuando es precisamente lo contrario.
Hay ciertos casos en los que el DLSS da mejor resultado que la resolución nativa, probablemente debido a una mala implementación del antialiasing (recordad que en 4k sigue haciendo falta antialiasing (si no es una pantalla de 5" de móvil) ya que no es resolución suficiente para no ver los dientes de sierra). Por otro lado decir que el DLSS va muy bien A PARTIR DE RESOLUCIÓN 4K. Yo, que tengo ojo de ciborg para estas cosas, estoy contento con lo que se ha conseguido en ese aspecto, pero siempre hay que partir de una resolución alta (4k en adelante).

Supongo que los que os quejáis del DLSS lo hacéis porque tendéis a utilizarlo en resoluciones bajas (1080p/2k), lo que se traduce en 720p o 1080p y los posibles artefactos serán mucho mas evidentes.

Ya os digo que yo era bastante escéptico, pero en vista de cómo están evolucionando los motores gráficos y las resoluciones, se está haciendo indispensable su uso, y el resultado es bastante satisfactorio.

Luego está el DLAA, que también lo veo una buena opción para cuando vas algo mas holgado de recursos. Se trata de un antialiasing bastante decente, sin llegar a la pureza del Super Sampling, pero mejor que el MSAA (y por supuesto mejor que el TAA y demás empastres) pero consumiendo muchos menos recursos.
Yo prefiero usar resolución nativa mientras el equipo me saque 60 fps estables y cuando dentro de unos años ya vaya justo, usar DLSS o FSR para alargar un tiempo la vida de ése hardware.

Creo que es el uso lo más lógico que tiene.

Salu2 ;cool:
millenium escribió:Yo prefiero usar resolución nativa mientras el equipo me saque 60 fps estables


El problema es que hoy en día los 120hz/120fps son los nuevos 60fps, y para llegar a rellenar esa tasa de refresco se necesita muchas veces de una tecnología que reescale eficientemente, ya que (al menos para mi) siempre es preferible una buena suavidad/claridad de movimiento que una resolución muy alta.

Con el LG C1 OLED 120hz/4k estás prácticamente obligado a llegar a esos 120fps ya que de otra forma todo se ve borroso en movimiento (si lo comparas con 60fps), y sin el DLSS/frame generation solo pillas esos 120fps si juegas a algún juego minimalista.
Que el dlss se ve mejor que a resolución nativa? Que prueben Warzone/Mw2.
jcdr escribió:
Rvilla87 escribió:
jcdr escribió:2 gráficas de nVidia misma serie, una más potente que otra, 60 fps fijos con todas las configuraciones gráficas iguales pero una va a 4K nativos y otra a “2k” reescalado a 4K mediante DLSS.
Cual se ve mejor? Imagino que la nativa.

Ahora coge la tarjeta que está escalando el juego, ponla a 4K nativos quitando el dlss y bajando las configuraciones para mantener el rendimiento.
Como se ve mejor, con la resolución nativa y bajando opciones gráficas o sin bajar las opciones pero con dlss?
Imagino que en este caso será la que tenga dlss, no?

Puede que no sea la nativa la que se vea mejor sino la de 2k reescalado. Y aunque no lo fuera la diferencia podría ser casi inapreciable (al menos no a simple vista, excepto algún problema que pudiera haber con ese juego en concreto). Y dicho esto ya no tiene sentido responder a la 2º pregunta.

Pero es que son 2 cosas totalmente diferente lo que planteas. En el tema reescalado (un mal reescalado) lo que vas a perder es definición de imagen, si bajas la calidad del juego, exagerando mucho, va a parecer que en lugar de jugar a un juego de PS4 estés jugando a un juego de PS3.

No puedo hablar sobre el dlss ya que no estoy muy puesto, y quizás no me haya expresado bien, pero a donde quería llegar (en referencia a los críticos del dlss) es que aunque se viese algo mejor la imagen nativa (que no digo que sea así) realmente esa no es la comparación que hay que hacer, si no en valorar como se ve mejor un juego, si empleando la potencia de la gráfica en jugar a 4K nativos, o en usar dlss y emplear la potencia sobrante (al renderizar a una resolución más baja) en mejorar el resto de apartados gráficos (o en conseguir una mejor tasa de fps) y en este punto sale ganado el dlss.


Es que ahí está el punto de todo esto, yo creo.

Independientemente de que el DLSS pueda o no (que yo sigo sin estar muy convencido) ofrecer una imagen incluso mejor que la nativa, lo que está claro es que a mismo rendimiento, con DLSS se vera infinitamente mejor, básicamente porque como dices, para igualar el rendimiento de tener el DLSS activado, lo que te toca es sacrificar configuración gráfica por todas partes.

Los gráficos van de la mano del rendimiento. Quien quiera tocarse comparando imágenes estáticas pues... bueno. Pero hay que valorar cuál es el rendimiento mínimo tolerable de cada uno y la mayor calidad que puede conseguir respetando ese rendimiento. Y ahí el DLSS ayuda lo que no está escrito...
Manny Calavera escribió:Es que llevamos 10 años de 4k y sigue siendo una trituradora de recursos. Es una resolución totalmente fuera de su tiempo que nos han metido con calzador. 1080p en sus inicios iba infinitamente mejor que 4k tras 10 años


Esta es la clave.
@radeonxt En modo calidad ya le veo mucho las costuras (y nunca mejor dicho porque el problema, donde más lo noto, es en los bordes). También es verdad que hablo de superar las 40" pulgadas, que son todas las TVs en las que he probado el DLSS. En monitores pequeños o incluso en la Deck puedo llegar a entender que en general no se aprecie la pérdida, aunque en mi caso lo veo igual de feo incluso en pocas pulgadas (tengo la Deck y prefiero no jugar a un juego antes que tener que activarlo), pero como he mencionado en mi post, quizás tengo un ojo "demasiado entrenado/exquisito", lo que admito es más un problema que un don.

- - -

AlbertX escribió:LOL [facepalm]

Me da risa todos los que dicen "pixeles falsos" "frames falsos" Todo en un puto juego es un pixel y frame falso, todos son hacks tratando de simular lo que se quiere, se simula la luz, los arboles, los detalles, etc etc.

TODO son pixeles falsos.

Te has equivocado al citar, compañero. Yo no he hecho referencia absolutamente a nada de lo que mencionas, a menos que tengas el DLSS3 activado en el foro y se esté inventando la mitad de mi post. [toctoc]

- - -

@metalgear Mi queja solo va con la pérdida de IQ al activar el DLSS (el tema de la ganancia de rendimiento es obvio). Yo sí lo noto, y mucho. Que otros no lo noten no quiere decir que por gracia divina yo lo tenga que ver bien. Yo jamás intentaría convencer a nadie de que un brick de Don Simón sabe mejor que un vino de mil euros porque personalmente tengo el paladar de un muerto, pero entiendo que haya gente que sí note algo tan evidente, y por supuesto no voy a entrar en un debate con ellos.

Que se me hace extremadamente extraño que la gente no aprecie la pérdida de calidad al activar DLSS, sí. Me es tan evidente que se me hace difícil de creer, pero soy consciente de que hay mucha gente que no lo nota y ya sea por el ojo, o por el monitor/TV, su apreciación es totalmente opuesta a la mía.

Que haya gente que prefiere perder un poco de calidad a cambio de poder alcanzar los frames necesarios, me quito el sombrero. Me parece lógico y normal si con potencia bruta no llegamos al nativo.

Todo esto no quita que algún día tope con una TV/monitor donde no aprecie la diferencia y me deje claro que estaba equivocado, pero hasta ahora, no ha sido el caso, lo ponga donde lo ponga, lo veo feo, dejando a un lado, evidentemente, la ganancia de frames, a la que yo no he hecho mención, ya que mi post solo hablaba de la IQ.

Otro tema aparte es el FG, aunque aquí tenga que dar la razón a @Rvilla87 acerca de la pérdida de calidad a pesar de haberme metido en el saco de los "tontos". Llevo años deseando que se sacara algo así en gráficas. Ahí si que me dejo llevar porque me parece un avance brutal y sobre todo para máquinas como podrían ser la Deck/Switch que van justas de potencia, esta tecnología es un regalo.

Recuerdo comprar en su día el Driveclub de PS4 y a los cinco minutos dejarlo a un lado porque no podía con los 30fps, hasta que me hice con una TV con interpolación (el FG del paleolítico) y completarlo al 100%. Por supuesto que creaba fallos en la imagen, y distorsionaba el HUD, pero la ganancia en fluidez era brutal.

Los fallos que genera el FG no me molestan (y reconozco que pueden llegar a ser mucho más notorios) pero en cambio no puedo con los bordes de los objetos que pasan por DLSS, y por lo que veo es algo muy subjetivo viendo que hay gente que no lo aprecia.

...

Rara es la vez que no acabo con un tocho que nadie va a leer. [ayay]
@paq

Uso una televisión Samsung de 32" y para mí, que no soy muy exigente (vengo de los tiempos del Zx-Spectrum) me basta y sobra con 1080p 60fps.

Muchos no necesitamos monitores 4K 120hz para disfrutar un rato echando una partida cuando tenemos tiempo.

Ese tipo de "estándar" que mencionas lo veo lógico en gente que tiene mucho tiempo libre para jugar o gamers profesionales.

Es mi humilde opinión, ojo!
Cada cual que decida qué es lo mejor para disfrutar de los videojuegos.

Salu2 [oki]
Veo mucha polemica, cuando lo que dice es ciertoo parcialmente. El escalado de imagen mejorado por IA es obvio que es el futuro, como ha sido cualquier tecnica de optimizacion para ahorrar recursos, como en su dia fue renderizar solo los elementos visibles o el uso extensivo de resoluciones dinamicas, efectos escalables, etc.

Lo que pasa es que nvidia siempre barre para sus soluciones propietarias y no SEÑORES, por cabezones que se pongan nunca una de sus soluciones propietarias sera el futuro sino un estandar negociado, al final microsoft, unreal amd y otros implementaran una solucion consensuada de escalado y creacion de frames por IA y le daran porsaco a lo de nvidia, como paso con su phsyx acelerado por gpu y tantas y tantas de sus movidas.
@Valhan

No me he equivocado, para ti va el LOL

todo lo demas no tiene que ver contigo.

Es un LOL porque lo que dices es mentira pura y dura.

Ya con decir que lo nativo es mejor y todo lo mejor es peor ya es falso.

Partamos que la resolucion nativa NO da los mejores resultados solo por ser nativo.

Ya que un juego renderizado a 8K y luego haciendo downsampling lo llevas a 4K se vera mucho mejor que el juego a 4K nativo, asi que ya alli cometes un error.

Por ende DLSS puede dar un resultado mejor que el nativo porque puede completar detalles de mejor manera que lo puede hacer el nativo en muchos casos.
Esto lo arreglo yo a favor de nvidia en ná y menos. Le meto una mierda filtro que emborrone la imagen nativa y no puedas desactivarlo o elegir otro y después te lo quito con el dlss y taaachaann ya se ve mejor [qmparto]

Prefiero la resolución nativa siempre que pueda y acompañarla de un buen reshade que la solución que propone nvidia ;)
Mr_Touchdown escribió:
Linkale2 escribió:Yo veo la cosa sencilla. 4K y a la vez mas y mejores gráficos, no puede ser.

¿Pero que gilipollez es esta? ¿Tendriamos que seguir jugando con graficos de la NES? Segun tu no se puede aumentar la resolucion ni los graficos a la vez. o jugamos al Mario de la NES en HD pero con grafios y sprites de 8 bits o tenemos al Mario Odyssey con sus graficos modernos a 224p. ¿Pero jugar a un Mario en HD con graficos actuales? Imposiburu

Supongo que hara falta el chip gordo o algo para tener las dos cosas, ¿no?


Cada vez es mas dificil meter mas transistores en tan poco espacio. Y saltar de 30fps 1080p a 60fps 4k es jodido.

El futuro pasa por esto si o sí, y es una maravilla porque tiene mucho mas margen de mejora.
Orestes escribió:
Rvilla87 escribió:¿Qué tal si nos informamos del DLSS y vemos ejemplos con resolución nativa (de hecho ya han puesto videos, y la red está llena) antes de decir tonterías? Joder cuánto usuario que no ha debido probar ni ver el DLSS, la de cosas que hay que leer...

Solo hay que tener ojos funcionales para ver el destrozo que hace. Hoy han publicado un artículo en TPU diciendo que la imagen con DLSS es mejor que la nativa. Hay que tener una vista realmente destrozada e ir hasta las tetas de farlopa para soltar semejante gilipollez.

https://www.techpowerup.com/review/nvid ... ion/3.html

En la primera imagen se puede ver como el DLSS se ha follado la progresión de la dureza de las sombras por el mismísimo culo, como aumenta el contraste para generar una ilusión de definición enguarrando las texturas y transformado el material del muro del edificio del fondo para que tenga relieve. Por favor no miréis el muro de la derecha con DLSS si no queréis llevaros la decepción de vuestra vida.

La segunda es delirante porque se ve perfectamente que mientras en la nativa el edificio del fondo está tras una nube de humo en la del DLSS simplemente está cubierto de barro. Eso por no hablar de la forma en la que añade cell-shading a los extremos de los tubos.

La tercera impresiona la forma en la que directamente cambia la iluminación de la escena.

Y así todas.

Con tu mensaje me das la razón en lo que dije que antes de criticar al DLSS habría que informarse para evitar decir tonterías.

Respóndeme esto sin leer nada más: sabes la diferencia entre el super resolution, frame generation y ray reconstruction? Ya te digo yo que no la sabes, porque si lo supieras no habrías dicho la tontería que dijiste.

Básicamente todo eso pertenece al DLSS 3.5 y son módulos que se pueden activar o desactivar de forma separada, con lo cual no se puede decir "qué bien/mal se ve con DLSS" (que es justo lo que has hecho generalizando al hablar de "DLSS"), hay que indicar qué modulo/s está/n activos y entonces tendrá sentido la comparación.

De hecho es que ya lo expliqué en el mismo mensaje, fue lo que le dije a metalgear. Diferencio entre el "el módulo de Superresolución y Antialiasing de deep learning" (el mal llamado DLSS 2) y "el módulo de el Frame Generation" (el mal llamado DLSS 3).

Ahora haz el mismo ejercicio que hiciste pero en lugar de elegir el "DLSS Q + FG + RR" elige solo el "DLSS Quality":

    - La 1º parte no sé si te sigo, pero lo del relieve y el muro de la derecha sí, y no ocurre.

    - No ocurre, pero aquí es que encima lo gracioso es que quizás has cometido el típico error de no saber que en ciertas capturas hay elementos que se mueven (como las nubes) y por lo tanto no era justo el mismo momento. Con lo cual quizás ni siquiera hay problema con FG + RR. Faltan datos para confirmarlo.

    - Diferente no tiene por qué ser peor, informarte un poco en cómo funciona el ray reconstruction y verás que aplican una serie de mejoras: https://www.nvidia.com/en-us/geforce/ne ... struction/

De hecho lo gracioso es que de lo que te quejabas del cell-shading resulta que era una mejora :Ð :
Imagen


Es más, gracias a que han hecho la prueba solo con el RR podemos ver como quien rompe todo eso es el RR (algo nuevo y que casi podría considerarse beta) y no el FG... significa eso que el FG va perfecto? Faltan datos, pero lo dudo, creo que el frame generado se vería claramente mal, pero claro, habría que coger justo el frame generado, y eso entiendo que no lo han hecho (a menos que digan lo contrario). De hecho no acabo de entender que digan lo del FG si eligen el frame que NO es el generado... no he leído el análisis, quizás lo dicen, y si es así me extrañaría mucho de lo perfectamente bien que se ve el FG.


Insisto, antes de criticar habría que informarse en lo que es el DLSS porque hay mucho que no sabe ni lo que es, y otros tantos creen saberlo pero no lo saben (y mucha culpa de esto es por Nvidia porque ha dejado una nomenclatura muy confusa).


@jcdr a, vale, sí, es que eso es lo que veo como gran ventaja. Como dices, no es simplemente un tema de que se vea peor o mejor, sino que si ya se ve muy similar (sin importar si un poco peor o un poco mejor), coño, pues eso es un gran avance respecto a reescalados tradicionales. Porque la mejora del rendimiento que aporta te da para elegir: mas fps, mas calidad gráfica de sombras, texturas, iluminación... lo que te permita el juego. Es un avance importante. No hablamos de un cutre reescalado que hace que se vea borroso. La gente se cree que reescalado significa emborronar y DLSS cambió esas reglas del juego. Que no es un interpolarizador de mierda de una TV XD


@Linkale2 pero es que tampoco es como dice, le he contestado en este mensaje.


@Valhan si lo de meterte en el saco de los tontos es por que has dicho que "DLSS se ve peor que la resolución nativa, y personalmente diría que por mucho"... no pensé concretamente en tu mensaje pero entiendo que te sientas aludido.

El problema que tienes con el DLSS (pero el módulo super resolution, eh? nada de frame generation) te ocurre en todos los juegos? Te has parado a comparar una captura sin DLSS y otra con DLSS? Que haya juegos que no estén conseguidos es una cosa (y mira que ha mejorado), pero que lo digas de forma generalizada me parece extraño. Me da la impresión como si hablaras del frame generarion, pero con tu RTX 3070 no será el caso... o hablas de una 4000 que te han dejado o de algún amigo?

No sé, puedes adjuntar 2 capturas de pantalla, una en nativo y otra con DLSS 2 y nos dices lo mal que se ve? Quizás tienes un problema en tu PC. Has visto casos en internet como el tuyo? Ya te digo, me sorprende un poco esto y que encima digas que se ve mucho peor, cuando hay muchísimas comparaciones desde hace años y normalmente las diferencias se ven con mucho zoom y no es nada exagerado.
Orestes escribió:
Rvilla87 escribió:¿Qué tal si nos informamos del DLSS y vemos ejemplos con resolución nativa (de hecho ya han puesto videos, y la red está llena) antes de decir tonterías? Joder cuánto usuario que no ha debido probar ni ver el DLSS, la de cosas que hay que leer...

Solo hay que tener ojos funcionales para ver el destrozo que hace. Hoy han publicado un artículo en TPU diciendo que la imagen con DLSS es mejor que la nativa. Hay que tener una vista realmente destrozada e ir hasta las tetas de farlopa para soltar semejante gilipollez.

https://www.techpowerup.com/review/nvid ... ion/3.html

En la primera imagen se puede ver como el DLSS se ha follado la progresión de la dureza de las sombras por el mismísimo culo, como aumenta el contraste para generar una ilusión de definición enguarrando las texturas y transformado el material del muro del edificio del fondo para que tenga relieve. Por favor no miréis el muro de la derecha con DLSS si no queréis llevaros la decepción de vuestra vida.

La segunda es delirante porque se ve perfectamente que mientras en la nativa el edificio del fondo está tras una nube de humo en la del DLSS simplemente está cubierto de barro. Eso por no hablar de la forma en la que añade cell-shading a los extremos de los tubos.

La tercera impresiona la forma en la que directamente cambia la iluminación de la escena.

Y así todas.


Pues discrepo totalmente, no se donde ves tu ahí "destrozos". Pero es que encima pareces obviar que esos "destrozos" son a cambio de pasar de un juego injugable - 25-30 fps con suerte a tener un buen rendimiento 80-90fps.
Claro claro…

Y comer gusanos e insectos, son más ricos que un buen churrasco. Las proteínas del “futuro”.

[facepalm]
@Rvilla87

¿Me lo resumes por favor? Qué pereza.

Trabajo habitualmente con Cycles en Blender y estoy acostumbrado a detectar artefactos y comparar renders. Ya te he comentado algunas diferencias que he visto y estoy cansado de luchar con gente incapaz de verlas o entender el motivo por el que una es mejor que otra. En la segunda imagen tienes una rejilla que genera una sombra. A mí no me cuesta entender que la rejilla más definida es peor que la difusa porque la difusión indica una calidad RT mayor. La mayoría de la gente ve la rejilla definida y piensa que eso es mejor. El cell-shading de las tuberías lo mismo. Ese efecto es horroroso e inaceptable porque no se dá nunca en la vida real, tendrías que tener una fuente de luz mucho más potente que la reflejada por el ambiente. Para que la gente lo entienda tendrías que tener una lámpara de 4000W detrás de tu personaje.

Os están vendiendo la moto de la mayor calidad cuando no es así y lo único que os ofrecen es lo que queréis ver: contraste por las nubes que confundís con mayor definición, sombras más definidas que confundís con un mayor grado de RT, reflejos como si fuesen espejos cuando eso se da muy rara vez (el barro no brilla, joder) y lo que os molan los bordes afilados, es que no podéis vivir sin ellos.
@Rvilla87 Lo del "saco de los tontos" lo he puesto de manera jocosa, no me lo he tomado a mal, de hecho, iba a decir que valoro los posts como el tuyo, aunque no los comparta, por la información que añades, pero lo he omitido porque iba a alargar más el texto que desde un principio sabía que iba a tirar a la mayoría atrás (y sobre todo, porque hubiera acabado dándole valor a tu opinión, que es contraria a la mía). XD

Sobre lo otro, soy consciente de que puedo estar equivocado porque no he probado todos los casos posibles, pero a día de hoy, en todos los escenarios que he vivido (como digo, pasando las 55", entre ellos LG C9, Sony A80J, Sony XG95...), el DLSS se carga por completo los bordes de la imagen, y esa es mi opinión a falta de ver lo contrario, pero como bien dices, toda la experiencia está basada en DLSS y DLSS2, que es lo que da mi GPU. El resto es lo visto cuando tenía interés en hacerme con una 4000, y siguió sin convencerme, con lo que no puedo hablar del DLSS3 con propiedad por no disponer de una, aunque admito que valoro mucho el FG y es un camino que me gusta, pero lo de los bordes que genera el DLSS lo veo tan obvio que se me hace raro que el resto defendáis lo contrario.
De todas formas lo que comentáis del Sharpening, por ejemplo, en capturas bien y como dicen puede inducir a pensar tiene mayor calidad la imagen, pero con briznas de hierba en según que tonos al moverte se nota que flipas.
Menuda panda de sinvergüenzas, tienen suerte de que la gente no piensa mucho actualmente porque si así fuera, ni dios les compraba una gráfica más.

Capaces son de meter más cómputo a las gráficas simplemente para fomentar el reescalado por IA y no usarlo para lo realmente necesario.
@Orestes interesante descripción de lo que sería más realista
@Orestes el resumen es que lo que dices de que esas capturas se ven peor con el DLSS es una mentira a medias (y aquí entra el no entender qué es el DLSS).

Confundes los diferentes componentes del DLSS ya que son 3 y para ti todo es 1 (de nuevo, insisto que parte de la culpa es de Nvidia por el lío que ha causado).

Si en el comparador eliges la opción "DLSS Quality" verás que no pasa nada de lo que dices, porque el causante del problema es la nueva tecnología "beta" Ray Reconstruction (RR en el selector).

Por lo tanto con esa prueba puedes determinar tú mismo que el DLSS sin activar la nueva función "beta" del RR no destroza la imagen. ¿Ahora mejor?


@Valhan no puedo opinar sobre lo que tú veas. Tú mejor que nadie sabe lo que ve y cómo lo ve. Lo que te digo es que me extraña que lo veas tan mal cuando en la gran mayoría de comparaciones y gente que ha usado el DLSS 2 (no el frame generation) ve generalmente una calidad muy buena (a veces un poco peor, a veces casi idéntica y a veces incluso mejor).

A parte que es muy fácil, para decir que se ve tan mal es tan sencillo como adjuntar 2 capturas y que todo el mundo lo vea. Quizás un detalle insignificante de 1pixel para casi todo el mundo para ti es un destrozo inaceptable, sin ver imágenes no podemos analizarlo.

No, si tu opinión sin la serie 4000 es lo mejor que me puedes decir, cuando veas el FG te va a parecer un bodrio. Si ya con el DLSS 2 eres capaz de verlo tan mal (en serio, me cuesta creer), con FG ni lo imagino.

Te dije que puedes explicar qué ves mal en los ejemplos que ves para que cualquier otra persona con el mismo juego pueda sacar el mismo ejemplo y, quizás, demostrarte que posiblemente tengas un problema con tu PC y/o con tu pantalla o a saber qué puedes tener. O quizás es un problema del juego y si pruebas otro lo ves perfecto. Pueden ser muchas cosas, pero limitarse a decir que simplemente lo ves muy mal cuando hay muchas evidencias de lo contrario (insisto, hablo del DLSS 2), cuando menos llama la atención.
El jamonero dice que el jamón es mejor que la carne de ternera.
Pretextos para recortar las prestaciones de las gráficas pero sin recortar los precios, y la gente aplaudiendo, pagando y atacando al que señale los recortes al hardware que le están haciendo a las GPU en esta generación, y viendo lo bien recibidas que son, en las siguientes también
@Rvilla87 La imagen pasada por DLSS no la veo nítida, compañero. Tengo el ojo exquisito, y es algo que me dice todo el mundo, puede que sea demasiado perfeccionista y con esto no quiero ponerme la pegatina de "mi opinión es la buena", quiero decir que entiendo que a mi me moleste como se come la calidad de imagen, y al resto pueda no importarle o no notarla tan acusada, pero lo que no entiendo es que me digan que no exista esa pérdida (permitiéndote por supuesto la duda con el DLSS3, ya que no puedo opinar del mismo).

No voy a ponerme a grabar videos para enseñarte donde le veo las costuras porque voy a perder un tiempo que no tengo para que tú me contestes que no lo ves, porque ambos hemos hecho ese camino antes, donde a mi me molesta y tu lo ves igual o mejor que el nativo y esto se va a convertir en otro bucle más de internet.

Antes he puesto el ejemplo del vino, pero ahora te pongo el del sonido: Mi padre es un sibarita del mismo, y se deja miles de euros en equipos, pero me pone sus auriculares y me suenan exactamente igual que mis auriculares marca "LaCabra" que me costaron 20€ en Amazon, pero nunca he discutido con el para decirle que suenan igual, porque estoy convencido de que no, sé que el problema está en mi oído y lo poco "trabajado" que está.

Valoro tus aportes como te he comentado, pero son muchos años en foros para meterme en estos bucles sin fin. Estoy convencido de que (dejando de nuevo lo que hayan conseguido con DLSS3), el problema no está ni en mi hardware, ni en mi ojo. Yo sí veo el problema, y eso hace que esté ahí, la pregunta es por qué no lo ves tu. Has hablado de evidencias, pero parece que en el hilo, la mayoría opina que el DLSS empeora la calidad de imagen, con lo que la postura que se sale de la norma es la tuya.

Y dejo debate, compañero, sin malos rollos por mi parte. Simplemente no compartimos opinión. Respeto y entiendo la tuya, y por supuesto, esperaría lo mismo por tu parte.
Rvilla87 escribió:@Orestes el resumen es que lo que dices de que esas capturas se ven peor con el DLSS es una mentira a medias (y aquí entra el no entender qué es el DLSS).

Confundes los diferentes componentes del DLSS ya que son 3 y para ti todo es 1 (de nuevo, insisto que parte de la culpa es de Nvidia por el lío que ha causado).

Si en el comparador eliges la opción "DLSS Quality" verás que no pasa nada de lo que dices, porque el causante del problema es la nueva tecnología "beta" Ray Reconstruction (RR en el selector).

Siempre se ven peor con DLSS. En "Quality" en la primera captura la textura del muro de la derecha sigue emborronándola y es lo que más canta muy probablemente porque el filtro anistrópico se le atraganta más de la cuenta. Después está la peor calidad de todas las texturas como por ejemplo el cemento a los pies del personaje o el muro debajo del cartel que pone "Caliente". En la segunda basta con fijarse en las texturas de los tubos. En la tercera el DLSS se come gran parte de la iluminación de la escena. En la cuarta puedes ver que los faros del coche alumbran menos y lo que alumbran está menos definido. Y así con todo.

Rvilla87 escribió:Por lo tanto con esa prueba puedes determinar tú mismo que el DLSS sin activar la nueva función "beta" del RR no destroza la imagen. ¿Ahora mejor?

El argumento original es que DLSS puede mejorar la imagen nativa y eso es una mentira como un castillo porque mucho o poco siempre la empeora. Si me pones de base una puta mierda de juego te lo compro porque en algunas ocasiones reduce el flickering (que no debería existir en primer lugar) pero en muchas más lo que hace es añadirlo. Después está el "halo" que produce el movimiento rápido y otros artefactos inherentes a este tipo de reescalado.

¿Es una técnica cojonuda para ganar FPS? Sin duda. ¿Puede producir mejor (o si me apuras igual) calidad que una imagen nativa? No, no puede. Es físicamente imposible.
Gluch escribió:Pues llamame tradicional, pero no lo veo...

Donde este nativo yo dlss y fsr los veo borrosos o glicheados

hay gente que teneis un ojo mucho mas desarrollado pero sois el 0.,00001% , yo no diferencio en absoluto el dlss del nativo y ninguno de mis amigos tampoco, estoy a favor de poner ilusiones opticas si va a ir mejor y lo vamos a ver mejor, aunque no sea real :=)
https://imgsli.com/MjA4MDc0

DLSS vs nativa 1080P y no hace falta tener ojo de Halcón.

Imagen
Duendeverde escribió:Pues a mí no me gusta. Esto empezó con las consolas. En xbox 360 y ps3, querían juegos a 720p nativos, pero muchos iban a una resolución interna inferior.

Luego en ps4 y xbox one fue la moda la resolución dinámica, porque muchos juegos no soportaban 1080p en todo momento. Eso después se pasó al pc.

Que me digáis que esto vale para el que pilla una gráfica de 150€ y poder estirarla más, pues vale. Pero que te lo vendan como opción estrella para el buque insignia. [facepalm]

Esto luego hace que sea más vagos, tanto la marca, como las desarrolladoras de juegos. Si un juego va mal activa el dlss y listo, aunque te engañen diciendo que se ve igual que nativo. [qmparto]

Llevo un tiempo dándole vueltas a un concepto..... y me pasa con varias cosas.
Si analizamos la potencia que hacia falta para mover half life cuando salio y los gráficos y físicas que teníamos, y analizamos las potencias que tenemos hoy en día en los pc's y los gráficos que tenemos, y los problemas y necesidades de dlss, fsr y demás hay algo en lo que me he perdido, porque es verdad que hay evolución en los gráficos pero no suficiente en relación a la potencia. y algo parecido pasa con los emuladores, al principio se podia emular n64 en un P166MMX con S3 virge y ahora necesitas algo potente para mover bien los juegos. En serio hemos multiplicado la velocidad por 20, añadido 16 nucleos........... es como si tuvieramos 320 P166MMX........ y estamos peor que entonces. no se quien no esta haciendo su trabajo, pero es obvio que algo falla. o el hardware no rinde lo que nos dicen o los desarolladores de antes hacian un trabajo que ahora no se hace
mikyworld escribió:
Duendeverde escribió:Pues a mí no me gusta. Esto empezó con las consolas. En xbox 360 y ps3, querían juegos a 720p nativos, pero muchos iban a una resolución interna inferior.

Luego en ps4 y xbox one fue la moda la resolución dinámica, porque muchos juegos no soportaban 1080p en todo momento. Eso después se pasó al pc.

Que me digáis que esto vale para el que pilla una gráfica de 150€ y poder estirarla más, pues vale. Pero que te lo vendan como opción estrella para el buque insignia. [facepalm]

Esto luego hace que sea más vagos, tanto la marca, como las desarrolladoras de juegos. Si un juego va mal activa el dlss y listo, aunque te engañen diciendo que se ve igual que nativo. [qmparto]

Llevo un tiempo dándole vueltas a un concepto..... y me pasa con varias cosas.
Si analizamos la potencia que hacia falta para mover half life cuando salio y los gráficos y físicas que teníamos, y analizamos las potencias que tenemos hoy en día en los pc's y los gráficos que tenemos, y los problemas y necesidades de dlss, fsr y demás hay algo en lo que me he perdido, porque es verdad que hay evolución en los gráficos pero no suficiente en relación a la potencia. y algo parecido pasa con los emuladores, al principio se podia emular n64 en un P166MMX con S3 virge y ahora necesitas algo potente para mover bien los juegos. En serio hemos multiplicado la velocidad por 20, añadido 16 nucleos........... es como si tuvieramos 320 P166MMX........ y estamos peor que entonces. no se quien no esta haciendo su trabajo, pero es obvio que algo falla. o el hardware no rinde lo que nos dicen o los desarolladores de antes hacian un trabajo que ahora no se hace


En un P 166 no movías bien un UltraHLE, ni siquiera en un P2 400 y a 640x480. Si a eso le sumas que los emuladores ahora intentan correr en procesadores RISC... pues bueno, podrías pensar que hay una regresión.
A ver, yo pienso que está claro. Con los métodos de escalado se gana rendimiento y se pierde calidad. No se va a ver la resolución inventada como la resolución real. Se puede acercar más o menos, pero nunca la va a igualar. La cuestión es si esa perdida de calidad se compensa con el incremento de rendimiento.

En muchos casos, yo opino que tanto estos métodos como la resolución dinámica compensan. Al fin y al cabo, cuando se está jugando en lugar de contar píxeles de una imagen estática, no se suele dar uno cuenta de esos detalles si hay una calidad mínima en el proceso.
Stylish escribió:
mikyworld escribió:
Duendeverde escribió:Pues a mí no me gusta. Esto empezó con las consolas. En xbox 360 y ps3, querían juegos a 720p nativos, pero muchos iban a una resolución interna inferior.

Luego en ps4 y xbox one fue la moda la resolución dinámica, porque muchos juegos no soportaban 1080p en todo momento. Eso después se pasó al pc.

Que me digáis que esto vale para el que pilla una gráfica de 150€ y poder estirarla más, pues vale. Pero que te lo vendan como opción estrella para el buque insignia. [facepalm]

Esto luego hace que sea más vagos, tanto la marca, como las desarrolladoras de juegos. Si un juego va mal activa el dlss y listo, aunque te engañen diciendo que se ve igual que nativo. [qmparto]

Llevo un tiempo dándole vueltas a un concepto..... y me pasa con varias cosas.
Si analizamos la potencia que hacia falta para mover half life cuando salio y los gráficos y físicas que teníamos, y analizamos las potencias que tenemos hoy en día en los pc's y los gráficos que tenemos, y los problemas y necesidades de dlss, fsr y demás hay algo en lo que me he perdido, porque es verdad que hay evolución en los gráficos pero no suficiente en relación a la potencia. y algo parecido pasa con los emuladores, al principio se podia emular n64 en un P166MMX con S3 virge y ahora necesitas algo potente para mover bien los juegos. En serio hemos multiplicado la velocidad por 20, añadido 16 nucleos........... es como si tuvieramos 320 P166MMX........ y estamos peor que entonces. no se quien no esta haciendo su trabajo, pero es obvio que algo falla. o el hardware no rinde lo que nos dicen o los desarolladores de antes hacian un trabajo que ahora no se hace


En un P 166 no movías bien un UltraHLE, ni siquiera en un P2 400 y a 640x480. Si a eso le sumas que los emuladores ahora intentan correr en procesadores RISC... pues bueno, podrías pensar que hay una regresión.

lo movias a 640x480 a 20 frames pero lo movias. si quieres pensamos en la potencia que habia en un 486dx2 y movia doom 2. y salvando algunas diferencias, es poner texturas sobre un mapeado........ espera que eso se sigue haciendo...... la comparativa rendimiento vs supuestas prestaciones no sale por ningun lado.
La calidad de imagen en general es muy buena en dlss, comparada con la original a 4k nativos no hay casi diferencia. Digo casi.
Si eres detallista, te das cuenta de cosas como:



Cuando sale el neón de la tipa con el hacha, se ve abajo a la derecha como una valla de barrotes horizontales. En 4k nativos se ven unos muy ligeros dientes de sierra. En DLSS2 se aprecian un poco más, y en DLSS3 son muy cantosos.

Lo mismo aquí:



Cuando se ven los taburetes de la barra del bar, se ve un pequeño luminoso amarillo con flechas hacia la izquierda. Y lo mismo... en 4k nativos no se aprecia casi dientes de sierra, y en DLSS2 se aprecia ligeramente más, y en 3 bastante más.

Si pulen esas cosas, por mi ok. Aunque con DLSS2 me conformo... No es lo mismo ponerte a jugar que mirar todo con lupa.
mikyworld escribió:
Stylish escribió:
mikyworld escribió:Llevo un tiempo dándole vueltas a un concepto..... y me pasa con varias cosas.
Si analizamos la potencia que hacia falta para mover half life cuando salio y los gráficos y físicas que teníamos, y analizamos las potencias que tenemos hoy en día en los pc's y los gráficos que tenemos, y los problemas y necesidades de dlss, fsr y demás hay algo en lo que me he perdido, porque es verdad que hay evolución en los gráficos pero no suficiente en relación a la potencia. y algo parecido pasa con los emuladores, al principio se podia emular n64 en un P166MMX con S3 virge y ahora necesitas algo potente para mover bien los juegos. En serio hemos multiplicado la velocidad por 20, añadido 16 nucleos........... es como si tuvieramos 320 P166MMX........ y estamos peor que entonces. no se quien no esta haciendo su trabajo, pero es obvio que algo falla. o el hardware no rinde lo que nos dicen o los desarolladores de antes hacian un trabajo que ahora no se hace


En un P 166 no movías bien un UltraHLE, ni siquiera en un P2 400 y a 640x480. Si a eso le sumas que los emuladores ahora intentan correr en procesadores RISC... pues bueno, podrías pensar que hay una regresión.

lo movias a 640x480 a 20 frames pero lo movias. si quieres pensamos en la potencia que habia en un 486dx2 y movia doom 2. y salvando algunas diferencias, es poner texturas sobre un mapeado........ espera que eso se sigue haciendo...... la comparativa rendimiento vs supuestas prestaciones no sale por ningun lado.


Estoy de acuerdo contigo pero entonces igualemos. ¿Qué carga grafíca moverías ahora a 640x480 a 20 fps con la gráfica al 100%?
Stylish escribió:
mikyworld escribió:
Stylish escribió:
En un P 166 no movías bien un UltraHLE, ni siquiera en un P2 400 y a 640x480. Si a eso le sumas que los emuladores ahora intentan correr en procesadores RISC... pues bueno, podrías pensar que hay una regresión.

lo movias a 640x480 a 20 frames pero lo movias. si quieres pensamos en la potencia que habia en un 486dx2 y movia doom 2. y salvando algunas diferencias, es poner texturas sobre un mapeado........ espera que eso se sigue haciendo...... la comparativa rendimiento vs supuestas prestaciones no sale por ningun lado.


Estoy de acuerdo contigo pero entonces igualemos. ¿Qué carga grafíca moverías ahora a 640x480 a 20 fps con la gráfica al 100%?

Venga...... pongamos en contexto, estoy hablando de emular un sistema actual en su momento, con un ordenador de los que había en las casas de cualquier chaval, comprados por los padres para que estudiáramos en esas tiendas de informática del barrio que a tus padres les engañaban como a chinos. Que podría ser hoy el equivalente........ un ordenador sin grafica dedicada comprado en mediamarkt o el corte ingles...... dime que mueves sin grafica dedicada.........
Pues normal. Cada vez los juegos son más complejos y requieren de más potencia. O se reduce la cantidad de objetos en pantalla y la calidad visual de estos o se hace algo para que las gráficas puedan moverlo.
Llevo una década leyendo comentarios de ("suben relojes y ya", "más de lo mismo", "sólo mejora un x%"...) y claro, ("es una estufa", "central nuclear para alimentarlo"...).
Esto ha venido a liberar a las gráficas y corregir todas las quejas antes mencionadas. Lo que no se puede corregir es el hate, por desgracia. ¿No te gusta? no lo actives.
"Los programadores no optimizan", "el rendimiento...", "los requisitos..." haz tú el juego, macho.
pero es que hay que recordar que pagamos por los juegos??? por las graficas??? por lo procesadores??? en serio 0 vision critica..... que si en vez de desarollar el dlss desarrollan kit para programadores para mejorar la optimizacion a lo mejor saliamos ganando no?
Esperando dlss en starfield
O´Neill escribió:Esperando dlss en starfield

A eso me refiero....
119 respuestas
1, 2, 3