› Foros › Multiplataforma › General
LordVulkan escribió:Intel ha presentado una tecnología de extrapolación de frames.
https://asia.siggraph.org/2023/presenta ... ss=sess155
A diferencia de DLSS y FSR3, que necesitan 2 frames para generar el intermedio, añadiendo inevitablemente un frame de latencia, Intel hace una extrapolación a partir de los frames anteriores para generar un frame en el futuro, no añadiendo latencia alguna.
Veremos el resultado.
LordVulkan escribió:Intel ha presentado una tecnología de extrapolación de frames.
https://asia.siggraph.org/2023/presenta ... ss=sess155
A diferencia de DLSS y FSR3, que necesitan 2 frames para generar el intermedio, añadiendo inevitablemente un frame de latencia, Intel hace una extrapolación a partir de los frames anteriores para generar un frame en el futuro, no añadiendo latencia alguna.
Veremos el resultado.
rethen escribió:
Creo que estás confundiendo causalidad con correlación. Switch tiene muchísimos factores para vender más, y la cantidad de exclusivos es definitivamente un factor, pero mucho más importante me parece
- la calidad de los mismos, que raro es el juego de Nintendo que sale chufa
- el énfasis 100% en jugabilidad y experiencia de usuario
- el precio inferior de la consola
- que saliera mucho antes que PS5 y XS (no puedes comparar cifras directamente, aunque seguro que si comparas con 3 años después de su salida, sigue ganando)
- que sea una consola híbrida
(Y más factores que me estaré dejando)
Por otro lado, si nos ceñimos a tu hipótesis, Xbox está jodidisima, porque tienen 0 exclusivos, ya que todos los sacan en pc
mocolostrocolos escribió:LordVulkan escribió:Intel ha presentado una tecnología de extrapolación de frames.
https://asia.siggraph.org/2023/presenta ... ss=sess155
A diferencia de DLSS y FSR3, que necesitan 2 frames para generar el intermedio, añadiendo inevitablemente un frame de latencia, Intel hace una extrapolación a partir de los frames anteriores para generar un frame en el futuro, no añadiendo latencia alguna.
Veremos el resultado.
¿Cómo?
Stanjov escribió:rethen escribió:
Creo que estás confundiendo causalidad con correlación. Switch tiene muchísimos factores para vender más, y la cantidad de exclusivos es definitivamente un factor, pero mucho más importante me parece
- la calidad de los mismos, que raro es el juego de Nintendo que sale chufa
- el énfasis 100% en jugabilidad y experiencia de usuario
- el precio inferior de la consola
- que saliera mucho antes que PS5 y XS (no puedes comparar cifras directamente, aunque seguro que si comparas con 3 años después de su salida, sigue ganando)
- que sea una consola híbrida
(Y más factores que me estaré dejando)
Por otro lado, si nos ceñimos a tu hipótesis, Xbox está jodidisima, porque tienen 0 exclusivos, ya que todos los sacan en pc
Si por eso precisamente lo dice. Es el relato que transmite en cada mensaje que pone.
DiGiL escribió:mocolostrocolos escribió:LordVulkan escribió:Intel ha presentado una tecnología de extrapolación de frames.
https://asia.siggraph.org/2023/presenta ... ss=sess155
A diferencia de DLSS y FSR3, que necesitan 2 frames para generar el intermedio, añadiendo inevitablemente un frame de latencia, Intel hace una extrapolación a partir de los frames anteriores para generar un frame en el futuro, no añadiendo latencia alguna.
Veremos el resultado.
¿Cómo?
Si no lo he entendido mal, interpreta la trayectoria probable del siguiente frame intermedio sin esperar a que el frame real que va detras este generado. Sigue siendo inventarse frame sin calcularlos, pero en vez de mezclando 2 frames reales para generar uno en medio, predicen ese frame intermedio a partir de la serie de frames reales anteriores.
mocolostrocolos escribió:LordVulkan escribió:Intel ha presentado una tecnología de extrapolación de frames.
https://asia.siggraph.org/2023/presenta ... ss=sess155
A diferencia de DLSS y FSR3, que necesitan 2 frames para generar el intermedio, añadiendo inevitablemente un frame de latencia, Intel hace una extrapolación a partir de los frames anteriores para generar un frame en el futuro, no añadiendo latencia alguna.
Veremos el resultado.
¿Cómo?
DiGiL escribió:@rethen
Realmente me cuesta creer que aun no te hayas leido su libro, ha estado en todas las estanterias durante unas semanas.
LordVulkan escribió:mocolostrocolos escribió:LordVulkan escribió:Intel ha presentado una tecnología de extrapolación de frames.
https://asia.siggraph.org/2023/presenta ... ss=sess155
A diferencia de DLSS y FSR3, que necesitan 2 frames para generar el intermedio, añadiendo inevitablemente un frame de latencia, Intel hace una extrapolación a partir de los frames anteriores para generar un frame en el futuro, no añadiendo latencia alguna.
Veremos el resultado.
¿Cómo?
Imaginate una linea de tiempo donde están los frames i-n...i-3,i-2, i-1 y se acaba de presentar en la pantalla el frame i.
Toca preparar el frame i+1, que va a ser generado artificialmente mientras la GPU renderiza el frame i+2.
FSR3 y DLSS3 esperan a que el frame i+2 esté renderizado, y con i e i+2 generan el frame i+1, retrasando la presentación del frame i+2 para poder mostrar el artificial en medio, añadiendo latencia.
Intel en cambio genera i+1 utilizando la información acumulada de i-n...i-3,i-2, i-1, es decir, lo predice sin necesitar que el frame i+2 esté renderizado, pudiendo mostrarlo justo cuando le toca y así no añadir latencia alguna.
Si sigue sin quedar claro preparo un dibujo xD.
rethen escribió:En realidad si Intel solo planea usar los dos frames anteriores, lo que perderá en vez de latencia es en precisión, pero intuyo que Nvidia y AMD podrían hacer lo mismo de una forma sencilla, ya que dudo que sus algoritmos estén acoplados a qué frames son, ¿No? Al final en algún punto extrapolarán un tercer frame a partir de dos, y que los dos sean T-2 y T-1 en vez de los actuales T-1 y T0 no creo que sea difícil de cambiar.
Lo que habría que ver es si Intel hace algo más para minimizar artefactos, o acepta sin más que en situaciones de mucho movimiento la cagará pero no será perceptible.
En cualquier caso, interesante ver alternativasDiGiL escribió:@rethen
Realmente me cuesta creer que aun no te hayas leido su libro, ha estado en todas las estanterias durante unas semanas.
No sé, tampoco le presto mucha atención tan solo me ha sorprendido esa conclusión tan sesgada que ha sacado
DiGiL escribió:@LordVulkan
Y como sabe el interpolar que la pelota viene de la derecha y no esta cayendo desde arriba?
Al final no deja de ser un frame inventado.
DiGiL escribió:@LordVulkan
Entonces imagino que la extrapolacion tambien tendra sus herramientas de apoyo no?
Me parece simplificar demasiado a favor de la interpolacion esa imagen.
LordVulkan escribió:rethen escribió:En realidad si Intel solo planea usar los dos frames anteriores, lo que perderá en vez de latencia es en precisión, pero intuyo que Nvidia y AMD podrían hacer lo mismo de una forma sencilla, ya que dudo que sus algoritmos estén acoplados a qué frames son, ¿No? Al final en algún punto extrapolarán un tercer frame a partir de dos, y que los dos sean T-2 y T-1 en vez de los actuales T-1 y T0 no creo que sea difícil de cambiar.
Lo que habría que ver es si Intel hace algo más para minimizar artefactos, o acepta sin más que en situaciones de mucho movimiento la cagará pero no será perceptible.
En cualquier caso, interesante ver alternativasDiGiL escribió:@rethen
Realmente me cuesta creer que aun no te hayas leido su libro, ha estado en todas las estanterias durante unas semanas.
No sé, tampoco le presto mucha atención tan solo me ha sorprendido esa conclusión tan sesgada que ha sacado
Interpolar y extrapolar son 2 conceptos matemáticos totalmente distintos.
En la práctica se ve muy claro en la siguiente imagen:
En el caso de arriba, que es lo que hacen AMD y NVIDIA, como se esperan al frame i+2 para construir el frame intermedio, tienen la información de cualquier elemento nuevo que vaya a aparecer en la pantalla, están interpolando algo a partir de los datos de 2 extremos.
En el caso de abajo, el frame i+2 todavía no existe, se está extrapolando a partir de frames anteriores, por lo que es imposible predecir que un elemento nuevo va a aparecer.
rethen escribió:Por cierto, en tu imagen, en la extrapolación, lo suyo sería meter también un frame anterior, ¿No?
LordVulkan escribió:rethen escribió:Por cierto, en tu imagen, en la extrapolación, lo suyo sería meter también un frame anterior, ¿No?
Sí, pero para ilustrar los problemas de la extrapolación frente a la interpolación es irrelevante, el frame anterior tampoco tiene ninguna información sobre que por la derecha viene una pelota.
LordVulkan escribió:Es una sobresimplificación para que se entienda que hay información que no te puedes inventar.
Pensad en texturas, polígonos y sombras. Imaginad ahora que estáis en un mundo 3D al aire libre girando la cámara, cada frame va a aparecer en pantalla nueva geometría, con sus texturas y sus sombras, y no es algo que simplemente te puedas inventar a partir de los frames anteriores.
rethen escribió:
Creo que estás confundiendo causalidad con correlación. Switch tiene muchísimos factores para vender más, y la cantidad de exclusivos es definitivamente un factor, pero mucho más importante me parece
- la calidad de los mismos, que raro es el juego de Nintendo que sale chufa
- el énfasis 100% en jugabilidad y experiencia de usuario
- el precio inferior de la consola
- que saliera mucho antes que PS5 y XS (no puedes comparar cifras directamente, aunque seguro que si comparas con 3 años después de su salida, sigue ganando)
- que sea una consola híbrida
(Y más factores que me estaré dejando)
Por otro lado, si nos ceñimos a tu hipótesis, Xbox está jodidisima, porque tienen 0 exclusivos, ya que todos los sacan en pc
rethen escribió:LordVulkan escribió:Es una sobresimplificación para que se entienda que hay información que no te puedes inventar.
Pensad en texturas, polígonos y sombras. Imaginad ahora que estáis en un mundo 3D al aire libre girando la cámara, cada frame va a aparecer en pantalla nueva geometría, con sus texturas y sus sombras, y no es algo que simplemente te puedas inventar a partir de los frames anteriores.
Pero si sabes en hacia dónde está todo y dónde se mueve y acelera todo en los dos últimos frames, puedes estimar dónde debería estar la cosa en un frame intermedio adicional.
Imagino que a 60fps funcionará más o menos bien (aunque peor que interpolando), o no se hubieran aventurado en Intel a anunciar esto.
Quizás, para juegos con necesidades de input lag mínimo esto sea mejor solución que las alternativas de interpolación.
LordVulkan escribió:Es una sobresimplificación para que se entienda que hay información que no te puedes inventar.
Pensad en texturas, polígonos y sombras. Imaginad ahora que estáis en un mundo 3D al aire libre girando la cámara, cada frame va a aparecer en pantalla nueva geometría, con sus texturas y sus sombras, y no es algo que simplemente te puedas inventar a partir de los frames anteriores. No puedes saber si va a aparecer una roca nueva en pantalla, el tronco de un arbol o simplemente hierba.
Vamos, a mi me intriga mucho ver cual es la solución de intel para esto, porque si NVIDIA ha descartado la extrapolación es por algo.
LordVulkan escribió:rethen escribió:LordVulkan escribió:Es una sobresimplificación para que se entienda que hay información que no te puedes inventar.
Pensad en texturas, polígonos y sombras. Imaginad ahora que estáis en un mundo 3D al aire libre girando la cámara, cada frame va a aparecer en pantalla nueva geometría, con sus texturas y sus sombras, y no es algo que simplemente te puedas inventar a partir de los frames anteriores.
Pero si sabes en hacia dónde está todo y dónde se mueve y acelera todo en los dos últimos frames, puedes estimar dónde debería estar la cosa en un frame intermedio adicional.
Imagino que a 60fps funcionará más o menos bien (aunque peor que interpolando), o no se hubieran aventurado en Intel a anunciar esto.
Quizás, para juegos con necesidades de input lag mínimo esto sea mejor solución que las alternativas de interpolación.
Solo sabes lo que tienes en pantalla en un momento dado y lo que ha aparecido durante unos pocos frames anteriores, todo lo que todavía no ha aparecido no lo sabes y no te lo puedes imaginar.
rethen escribió:@Forzagamer ¿Tienes cifras de ventas de Xbox Series S Vs Xbox Series X? Por curiosidad nada másLordVulkan escribió:rethen escribió:
Pero si sabes en hacia dónde está todo y dónde se mueve y acelera todo en los dos últimos frames, puedes estimar dónde debería estar la cosa en un frame intermedio adicional.
Imagino que a 60fps funcionará más o menos bien (aunque peor que interpolando), o no se hubieran aventurado en Intel a anunciar esto.
Quizás, para juegos con necesidades de input lag mínimo esto sea mejor solución que las alternativas de interpolación.
Solo sabes lo que tienes en pantalla en un momento dado y lo que ha aparecido durante unos pocos frames anteriores, todo lo que todavía no ha aparecido no lo sabes y no te lo puedes imaginar.
¿Trabajan solo en base a lo renderizado? Si se integra en el motor podrían tener bastante mas información, me parecería raro que fuera solo con la información visual del frame
Pero, de nuevo, estás diciendo que lo de Intel no es posible, pero yo no soy Intel estamos de acuerdo en que va a ser menos preciso que interpolar, pero algo saldrá, ¿No crees? O no hubieran dicho nada
Forzagamer escribió:rethen escribió:@Forzagamer ¿Tienes cifras de ventas de Xbox Series S Vs Xbox Series X? Por curiosidad nada másLordVulkan escribió:Solo sabes lo que tienes en pantalla en un momento dado y lo que ha aparecido durante unos pocos frames anteriores, todo lo que todavía no ha aparecido no lo sabes y no te lo puedes imaginar.
¿Trabajan solo en base a lo renderizado? Si se integra en el motor podrían tener bastante mas información, me parecería raro que fuera solo con la información visual del frame
Pero, de nuevo, estás diciendo que lo de Intel no es posible, pero yo no soy Intel estamos de acuerdo en que va a ser menos preciso que interpolar, pero algo saldrá, ¿No crees? O no hubieran dicho nada
Según los últimos datos se está vendiendo más o menos por igual que la X o un poco más. El ser más.barata no le está ayudando en las ventas.
rethen escribió:¿Trabajan solo en base a lo renderizado? Si se integra en el motor podrían tener bastante mas información, me parecería raro que fuera solo con la información visual del frame
Pero, de nuevo, estás diciendo que lo de Intel no es posible, pero yo no soy Intel estamos de acuerdo en que va a ser menos preciso que interpolar, pero algo saldrá, ¿No crees? O no hubieran dicho nada
On the top row the leftmost image shows the GameMotionVectorFieldVectors.
On the top row the middle image shows GameMotionVectorFieldDepthPriority.
On the top row the right image shows the OpticalFlowMotionVectorField.
The middle row consists of only the generated frame output.
On the bottom row the left image shows the disocclusion mask.
On the bottom row the middle image shows the interpolation source image (without User Interface)
On the bottom row the right image shows the latest real backbuffer (only if HUDless mode is used)
rethen escribió:Forzagamer escribió:rethen escribió:@Forzagamer ¿Tienes cifras de ventas de Xbox Series S Vs Xbox Series X? Por curiosidad nada más
¿Trabajan solo en base a lo renderizado? Si se integra en el motor podrían tener bastante mas información, me parecería raro que fuera solo con la información visual del frame
Pero, de nuevo, estás diciendo que lo de Intel no es posible, pero yo no soy Intel estamos de acuerdo en que va a ser menos preciso que interpolar, pero algo saldrá, ¿No crees? O no hubieran dicho nada
Según los últimos datos se está vendiendo más o menos por igual que la X o un poco más. El ser más.barata no le está ayudando en las ventas.
¿Cifras totales de ventas de ambas? Me suena que en 2022 eran 3/4 de ventas hacia XSS, pero igual ha cambiado la tendencia, no les sigo la pista
También es verdad que ahora mismo la XSX lleva tiempo bajando y bajando hasta el punto de que es normal que tener un precio inferior ya no tenga tanto efecto
LordVulkan escribió:rethen escribió:¿Trabajan solo en base a lo renderizado? Si se integra en el motor podrían tener bastante mas información, me parecería raro que fuera solo con la información visual del frame
Pero, de nuevo, estás diciendo que lo de Intel no es posible, pero yo no soy Intel estamos de acuerdo en que va a ser menos preciso que interpolar, pero algo saldrá, ¿No crees? O no hubieran dicho nada
En la web de AMD se puede ver que información utiliza.
https://gpuopen.com/fsr3-source-available/On the top row the leftmost image shows the GameMotionVectorFieldVectors.
On the top row the middle image shows GameMotionVectorFieldDepthPriority.
On the top row the right image shows the OpticalFlowMotionVectorField.
The middle row consists of only the generated frame output.
On the bottom row the left image shows the disocclusion mask.
On the bottom row the middle image shows the interpolation source image (without User Interface)
On the bottom row the right image shows the latest real backbuffer (only if HUDless mode is used)
Según eso los inputs son imágenes finales sin HUD, vectores de movimiento asocidados a esas imágenes, búferes de profundidad asociados a esas imágenes y máscara de desoclusión. Y algunos son opcionales.
Pero nada de información fuera del frame.
LordVulkan escribió:Aquí tienes el paper.
https://dl.acm.org/doi/pdf/10.1145/3610548.3618224
La gracia de estas soluciones es que al final los desarrolladores solo tienen que construir buffers con cierta información y enchufarselo a los generadores, por eso son tan fáciles de integrar.
DiGiL escribió:@mocolostrocolos
Segun dicen, los anuncios salen mas en las consolas imaginarias, comprueba a ver si es tu caso
Ojo, ya aviso que las fotos no son una prueba, si el usuario es un parautilitario puede usar el ODP paint para insertar estas imagenes desde su fantasia delirante. La mejor forma de detectar las consolas imaginarias es jugar mas de 80 horas a Starfield, si aun asi no te parece el mejor juego jamas creado probablemente tu consola forme parte de El Relato.
rethen escribió:LordVulkan escribió:Aquí tienes el paper.
https://dl.acm.org/doi/pdf/10.1145/3610548.3618224
La gracia de estas soluciones es que al final los desarrolladores solo tienen que construir buffers con cierta información y enchufarselo a los generadores, por eso son tan fáciles de integrar.
Estoy un poco pez a estas horas, pero por lo que entiendo, en realidad lo que busca este paper es precisamente aplicar Spatial Supersampling (DLSS2/3 y FSR2/3 sin FG) y Temporal Supersampling (DLSS 3 FG y FSR3 FG) de forma combinada para mejorar la imagen pero intentando reducir duplicidades, ¿No?
Parece que van por renderizar imagen a muy baja resolución (540p) y luego usar SSS + TSS para subirlo.
No sé, lo tengo que leer con calma, pero desde lejos no suena tanto a extrapolar a lo loco como esperaba.
Disoccluded and Out-of-screen Areas. Temporal Super Sampling
usually re-uses the information from the history frames by motion
vectors. Therefore, it becomes harder when the temporal informa-
tion is not available, where we call them disoccluded areas and
out-of-screen areas. Frame interpolation [Baker et al. 2011; Choi
et al. 2020; Kong et al. 2022; Meyer et al . 2015; Niklaus et al . 2017]
usually fills the disoccluded areas from the latter frames but it
increases the latency as discussed before. ExtraNet utilizes more
reliable occlusion motion vectors proposed by Zeng et al. [2021]
and an in-painting network to fill in those areas but still fails when
shading becomes complex. There are some other hole-filling meth-
ods for image in-painting which are usually too slow for real time
rendering as discussed by Guo et al [2021]. Although the exact
position in the previous frame is occluded, the shading information
nearby is still useful to predict the shading for the disoccluded
pixels. Therefore, we propose a G-buffer guided warping method
to re-use the temporal and spatial information to generate better
warped frames.
...
The two consecutive frames are first warped to the
current frame by using the G-buffer guided warping. The warped
frames have almost correct shading and more importantly fill the
disoccluded and some out-of-screen areas.
LordVulkan escribió:rethen escribió:LordVulkan escribió:Aquí tienes el paper.
https://dl.acm.org/doi/pdf/10.1145/3610548.3618224
La gracia de estas soluciones es que al final los desarrolladores solo tienen que construir buffers con cierta información y enchufarselo a los generadores, por eso son tan fáciles de integrar.
Estoy un poco pez a estas horas, pero por lo que entiendo, en realidad lo que busca este paper es precisamente aplicar Spatial Supersampling (DLSS2/3 y FSR2/3 sin FG) y Temporal Supersampling (DLSS 3 FG y FSR3 FG) de forma combinada para mejorar la imagen pero intentando reducir duplicidades, ¿No?
Parece que van por renderizar imagen a muy baja resolución (540p) y luego usar SSS + TSS para subirlo.
No sé, lo tengo que leer con calma, pero desde lejos no suena tanto a extrapolar a lo loco como esperaba.
A lo que se refiere es que tanto FSR3 como DLSS3 interpolan un frame directamente en su resolución de salida, mientras que lo que ellos proponen es extrapolar un frame con sus buffers a baja resolución y luego escalarlo. Pero eso no resuelve los problemas de la extrapolación, para eso proponen el uso de más buffers como el de geometría para intentar adivinar lo que no se ve en función de lo que hay alrededor, pero precisamente hablan de que el caso concreto que hablábamos antes no tiene solución.Disoccluded and Out-of-screen Areas. Temporal Super Sampling
usually re-uses the information from the history frames by motion
vectors. Therefore, it becomes harder when the temporal informa-
tion is not available, where we call them disoccluded areas and
out-of-screen areas. Frame interpolation [Baker et al. 2011; Choi
et al. 2020; Kong et al. 2022; Meyer et al . 2015; Niklaus et al . 2017]
usually fills the disoccluded areas from the latter frames but it
increases the latency as discussed before. ExtraNet utilizes more
reliable occlusion motion vectors proposed by Zeng et al. [2021]
and an in-painting network to fill in those areas but still fails when
shading becomes complex. There are some other hole-filling meth-
ods for image in-painting which are usually too slow for real time
rendering as discussed by Guo et al [2021]. Although the exact
position in the previous frame is occluded, the shading information
nearby is still useful to predict the shading for the disoccluded
pixels. Therefore, we propose a G-buffer guided warping method
to re-use the temporal and spatial information to generate better
warped frames.
...
The two consecutive frames are first warped to the
current frame by using the G-buffer guided warping. The warped
frames have almost correct shading and more importantly fill the
disoccluded and some out-of-screen areas.