[SOLUCIONADO] Dudas generales sobre reescalados con IA en juegos

Buenas!

Este año posiblemente monte un nuevo PC (para jubilar el que me compré hará ya casi 13 años).

He visto que ahora existen reescalados por IA como el DLSS, pero tengo unas dudas:

- Por ejemplo, si activo el DLSS con calidad ¿siempre reescala desde la misma resolución? Me explico, ponga el juego a 2K o a 4K, ¿me va a reescalar siempre desde 1080p? ¿O reescala desde "la mitad" de la resolución que fije?

- el DLSS es "universal"? O sólo lo tienen los juegos adaptados?

- Si sólo está disponible en juegos adaptados, ¿qué tal es el apoyo de esta tecnología? ¿se usa mucho, poco? Mis dudas vienen más que nada por los AAA (que son los que usualmente más máquina piden, y es donde vería más necesario el DLSS)
Puedes habilitarlo en juegos que no tengan esta opcion mediante MODs, como el siguiente que funciona tambien con RTG|AMD FSR3 e intel XeSS, entonces NO, no es universal.
-->>nexusmods.com/site/mods/757

hilo_hilo-super-upscalers-por-ia-i-el-dlss-del-futuro-i-hiperrealismo-en-videojuegos_2493334

La resolucion real en la que se crea el juego depende del perfil de DLSS que hayas elegido y la resolucion final a la que se deba mostrar en la pantalla; ergo entonces, ni siempre es a 1080p ni siempre es 'a la mitad' de la resolucion final. Mas o menos recuerdo que a DLSS de calidad se escala a 1.5x, si es equilibrado a 1.75x y en la que da mas fps [rendimiento] es al doble el escalado. Con DLSS rendimiento el renderizado real para tener 2160p seria a los 1080p, en equilibrado a 1232p y para calidad a 1440p, o eso es lo que recuerdo de memoria y en las versiones 2 y 3 la actual 4 no se si es igual o a cambiado
Como te han dicho, el reescalado varía mucho dependiendo del modo, no siempre es desde 1080p, puede ser desde 1800p, 1400p, etc...

Aquí tienes una lista oficial de NVIDIA sobre el soporte:
https://www.nvidia.com/en-us/geforce/ne ... ines-apps/

Veo que al Hellblade 2 no le han puesto soporte DLSS como activado y yo estoy usando DLSS en el juego, puede que algunos juegos lleven DLSS pero que no estén marcados como que lo tienen en la lista, es raro porque Star wars outlaws salió después y si tiene marcado DLSS
Imagen

Además del reescalado DLSS hay generación de frames (FG).
Gracias por las respuestas :)

He estado buscando un poco más, y es como decís.

Aquí el factor que aplican:

- Calidad - 1.50x
- Equilibrado - 1.72x
- Rendimiento - 2.00x
- Rendimiento Ultra - 3.00x

Por dejar los cálculos ya hechos:

Con resolución "objetivo" a 4K (2160p):

- Calidad - 1.50x => 2160 / 1.5 = 1440p => nativa a 2K y reescala con IA hasta 4K
- Equilibrado - 1.72x => 2160 / 1.72 = 1255p aprox
- Rendimiento - 2.00x => 1080p
- Rendimiento Ultra - 3.00x => 720p

Con resolución "objetivo" a 2K (1440p):

- Calidad - 1.50x => 960p
- Equilibrado - 1.72x => 837p aprox
- Rendimiento - 2.00x => 720p
- Rendimiento Ultra - 3.00x => 480p

Con resolución "objetivo" a 1080p:

- Calidad - 1.50x => 720p
- Equilibrado - 1.72x => 627p aprox
- Rendimiento - 2.00x => 540p
- Rendimiento Ultra - 3.00x => 360p

https://www.reddit.com/r/nvidia/comments/10athxr/if_i_play_at_4k_with_dlss_in_ultra_performance/?rdt=39326

Ahora me queda la duda (pero ya para otro hilo), qué monitor me pillo?...

Porque si me pillo un monitor 2K, y para juegos demandantes pongo DLSS en calidad, partiría de una resolución de base MENOR que 1080p :( A mi me molaría que reescalase de 1080p a 2K, pero no parece que exista esa opción.
Magnifico, y pues dicho lo dicho ya seria meomento para editar el titulo del hilo agregando la etiqueta de [SOLUCIONADO] y asi otros con la misma duda e inquietud puedan darle prioridad al hilo, y asi como le pediste al foro y este respondio, le estarias dando en reciprocidad algo al foro.

Pasando al otro punto que mencionas...
@sutalu ya estamos llegando al punto de querer usar solo porque si una tecnologia solo porque esta ahi. RTG|AMD FSR, intel XeSS o nVidia DLSS no es para cualquier situacion, cumple el cometido de aprovechar la potencia actual de computo del GPU para salvar la barrera de las resoluciones ultra altas de manera aceptable sin requerir de aumentar los recursos brutos en componentes ni capacidades [y costo al comprador final].

Usar resoluciones inferiores a 1080p pues no tiene sentido porque se le daria mas carga al procesador que al GPU [no digo que pienses realmente poner un juego desde 480p a los 768p o 1024p, pero hay que decirlo], de igual manera los GPUs estan diseñados para tener su mejor rendimiento y aprovechamiento a resoluciones altas, entonces el pasar de 1080p a 1440p no deberia presentar gran perdida en calidad y rendimiento para justificarlo. Amen de que a nivel ventas tampoco seria buena opcion que lo hiciera pensando en tarjetas ya viejas pero de gama media o tarjetas de diseño reciente pero de gama baja.

Lo anterior es a nivel juegos.

Ya donde cobraria cierto sentido usar estas resoluciones 'bajas' seria en el campo de generacion de animaciones CGI empleando exclusivamente rasterizado por hardware de video [el gpu, vamos], donde ya no importa el rendimiento instantaneo de la generacion de las imagenes en el GPU. En este escenario para estudiantes o estudios pequeños puedan usar hardware algo viejo o poco potente para generar con un consumo de tiempo algo menor imagenes de bastante buena calidad, reduciendo costos y aprovechando al maximo su infraestructura.

Otro lugar donde tendria tambien un porque de usarlo a resoluciones inferiores a 1080p seria en consolas sencillas de videojuegos, o en los SoCs futuros ARM con hardware para IA de smartphones, tablets o TVBox para el uso en juegos. Se harian GPUs disñados para resoluciones medias y usar algo menos de energia mejorando el tiempo de uso de la bateria.
4 respuestas