Rvilla87 escribió:Hablamos hace días sobre el rendimiento del FSR3 y la comparación con DLSS3, aquí un video de hace unos días de DF:
No sé si en su día con las pruebas comentasteis algo relacionado, pero el frame generation de AMD usa una versión mas vieja del código si se desactiva el VSync con el VSync activado en cambio usa una versión mas actualizada, por eso recomiendan activar VSync (min 10:50 del video).
El VRR no funciona pero eso creo que ya lo dijeron.
A nivel de comparativa de calidad en ese video no han entrado apenas, harán otro video, pero en general a parte de problemas de frame-time con el frame generation de AMD, en el ejemplo del Aveum se ve en general bien pero en el min 16 se ve claramente peor en FSR pero comentan que mas que del frame generatión es debido al módulo de super resolution (mejor el de DLSS que el de FSR).
Tema antilag+, otro tema importante. Pues caso raro, porque en el min 17:30 se puede ver como el antilag+ precisamente no está funcionando bien con el frame generation activo. Aunque bueno, en ese ejemplo el frame generation apenas aumenta de 56ms a 65ms, no es ninguna exageración.
Pero vamos, que como dice el tío, que esta solución a nivel de software esté casi haciendo lo mismo que Nvidia con hardware dedicado... tiene tela, a mi me cuesta un poco de creer y eso habla muy bien del trabajo de AMD (o del timo de Nvidia, no sé
). Eso sí, falta por ver si van a solucionar los problemas encontrados y el comportamiento del antilag+ en juegos donde el frame generation aumente mucho la latencia, porque si no se comportara igual o mejor que DLSS3 ya se entiende mas la diferencia de que uno use hardware dedicado y la otra no.
Realmente Nvidia lo que tiene es hardware dedicado a accelerar redes de neuronas.
DLSS es una red de neuronas que recibe la imagen actual y algunas anteriores y el vector de movimiento de la imagen y te produce una imagen de mayor calidad.
Como lo hace, la red de neuronas son miles de nodos conectados entre si, cada nodo es una funcion matematica simple que tiene unos pesos. Estos pesos no son fijos y se pueden ir cambiando, lo que se hace al "entrenar" la red de neuronas es darle el input y el output esperado y un proceso matematico ajusta los pesos para reducir el error lo maximo posible.
Esto al final te da una red entrenada que hace el upscaling de la imagen.
Que es lo que pasa, que aunque es "preciso" es una burrada computacionalmente porque tienes que ejecutar todas las funciones de la red neuronal, posiblemente muchas no hagan nada.
Amd en cambio ha usado tecnicas matematicas conocidas y las ha aplicado para realizar el escalado de la imagen, es mucho mas "simple" y eficiente computacionalmente, pero claro, la red de neuronas abarca muchos mas casos y puede dar mejores resultados porque digamos que se puede inventar cosas en base a patrones que detecta en la imagen.
Vamos, que es algo parecido a cuando le preguntas a chatgpt que te haga una suma, te la hace (muchas veces mal o imprecisa), vs a cuando se lo haces a la app de la calculadora (esta si es precisa y mas rapida). Aunque en este caso, la solución de Amd dificilmente conseguirá la calidad del DLSS ya que requeriria de programar muchisimos patrones para realizar escalados más precisos.
Lo que pasa que la gente lee uhh escalado a traves de IA, Machine Learning Super Sampling y se le hacen los ojos chiribitas, cuando realmente es una solución bastante deficiente en muchos aspectos.