› Foros › Xbox Series › General
darksch escribió:kepacha escribió:darksch escribió:Al revés, eso es para futuro, no para pasado. Cuando los requisitos de render suban, se baja resolución y aplica ML para compensar. Como dijera el ML va a ser crucial para adaptarse a los cambios.
Por qué sólo para futuro? Que hagan referencia a una resolución nativa como 540p no creo que sea una coincidencia hablando de Remedy, es justo la nativa que tiene el Alan Wake de X360. Todo esto lo veo muy interesante de cara a mejorar la calidad gráfica de los juegos retrocompatibles ADEMAS de para lo que tu bien indicas.
Los antiguos imagino que hará como la XOneX hace respectivamente, supersampling AA a 4K. Le sobra potencia para hacerlo.
Pablopictures escribió:Ojo que el DLSS no siempre da resultados convincentes. Son algoritmos de machine learning que básicamente se inventan pixels para reconstruir la imagen. Si por ejemplo al fondo tenemos un cartel con un texto, en 4K reales ese texto será legible y tendrá sentido, en una reconstrucción con DLSS veremos un cartel muy nítido pero con un texto ilegible, ya que el algoritmo evidentemente no entiende del contexto de la escena ni que ahí debe haber escrito algo.
El DLSS tiene mucho sentido cuando tu hardware ya no da para más, pero siempre y cuando haya recursos disponibles la resolución nativa me parece claramente mejor opción.
euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?
Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.
https://blogs.nvidia.com/blog/2020/03/2 ... -ultimate/
euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?
Perkum escribió:euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?
Lo es pero algún forero te dice que si nvidia lo tiene AMD lo tiene mas mejor. Como con el RT.
Alguno debería empezar a diferenciar la realidad de los deseos.
darksch escribió:Perkum escribió:euromillón escribió:¿Pero eso no es propio de nvidia? Es decir, ¿las rdna2 de amd lo traen?
Lo es pero algún forero te dice que si nvidia lo tiene AMD lo tiene mas mejor. Como con el RT.
Alguno debería empezar a diferenciar la realidad de los deseos.
DLSS usa ML para la técnica de escalado. Si se tiene ML, puedes replicar el algoritmo.
DLSS no es más que un nombre comercial.
So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning
Mulzani escribió:@kepacha
Sí, han colaborado en cuanto a DirectML, es más, existen vídeos de Forza Horizon 3, de la GDC y SiphGraph del año pasado, corriendo con DirectML SuperSampling que muestra cómo se puede hacer lo mismo que DLSS mediante ésta API, corriendo sobre Nvidia:
http://on-demand.gputechconf.com/siggra ... tx-12.html (A partir del 16:05)
Ahí se ven las diferencias entre el filtrado Bilinear y el SS de DirectML.
Ahora bien, existen grandes diferencias en cómo se puede conseguir.
DirectML puede correr de diferentes maneras:
- Con hardware especializado, como los Tensor Cores de Nvidia Turing o las futuras GPUs CDNA de AMD (son para uso de workstations y servidores).
- Solución híbrida de AMD que se usa en Series X, que es utilizar los shaders para la computación de enteros (obteniendo hasta 97 TOPS en INT4 en el caso de Series X), es de esperar que toda RDNA2 pueda utilizar dicho sistema, aunque no ha habido información de ello.
- Mediante GPU, todas las GPUs actuales y muchas pasadas, es decir, tanto GCN como Kepler, incluso Haswell, que soporten DirectX 12, y ya ha llovido desde entonces, pueden correr DirectML aunque no de manera tan eficiente como las GPUs, puesto que se usan sus shaders para dicho funcionamiento, aquí es interesante saber hasta dónde pueden llegar en computación, una GPU que pueda usar FP16 tendrá mejor rendimiento que una que sólo pueda con FP32.
- Mediante CPU, todas los ordenadores pueden usar DirectML por "software", no es necesario tener la última GPU para poder hacer uso.
Por tanto, según cómo funcione, tendría mayor o menor eficiencia, no es lo mismo usar los Tensor Cores de Nvidia, como se usa el DLSS, que utilizar la CPU para realizar dichas mejoras.
With DLSS 2.0, AI Continues to Revolutionize Gaming
March 23, 2020
DirectX 12 Ultimate
Last week, Microsoft unveiled DirectX 12 Ultimate, the latest version of the widely used DirectX graphics standard.
DirectX 12 Ultimate codifies NVIDIA RTX’s innovative technologies, including ray tracing, variable rate shading, mesh shading, and texture space shading, as the standard for multi-platform, next-gen games.
Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.
Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Perkum escribió:Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Efectivamente. Yo creo que el uso principal del ML en SX será, como ya ha salido en varias noticias, que juegos antiguos luzcan mucho mejor.
Para los nuevos que necesiten toda la potencia de la GPU no le darán tanto uso
Esto dice NVIDIA, por si alguno dice que es lo mismo que DIRECTML
Once the presentation was over, we asked Tamasi whether NVIDIA considered using Microsoft's DirectML API for Deep Learning Super Sampling or if it would be simply redundant. Here's what he had to say about that:
We did consider that. It is redundant since have essentially a direct path to the Tensor Cores in the GPU, so there'd be no advantage to us to making use of DirectML. That's not to say we might never do that, but at least right now the plan is to handle this natively through the Tensor Cores and our own API.
Mulzani escribió:Perkum escribió:Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Efectivamente. Yo creo que el uso principal del ML en SX será, como ya ha salido en varias noticias, que juegos antiguos luzcan mucho mejor.
Para los nuevos que necesiten toda la potencia de la GPU no le darán tanto uso
Esto dice NVIDIA, por si alguno dice que es lo mismo que DIRECTML
Once the presentation was over, we asked Tamasi whether NVIDIA considered using Microsoft's DirectML API for Deep Learning Super Sampling or if it would be simply redundant. Here's what he had to say about that:
We did consider that. It is redundant since have essentially a direct path to the Tensor Cores in the GPU, so there'd be no advantage to us to making use of DirectML. That's not to say we might never do that, but at least right now the plan is to handle this natively through the Tensor Cores and our own API.
Claro, eso depende de cómo se use.
DirectML es propietario de Microsoft, mientras que DLSS es de Nvidia, a ellos le interesa hacer uso de su propio sistema, eso está claro. Pero al igual que el DirectML puede utilizar los shaders, también puede utilizar los Tensor Cores, aquí la cuestión será la aceptación por parte de los desarrolladores de uno u otro método, pero ya sabes lo que sucede con los métodos propietarios, que al final acaban por quedarse en un rincón.
Eso sí, no creo que no se use en juegos actuales, para juegos donde el RT tenga un impacto importante en rendimiento, se puede utilizar bastante bien, renderizando en 1080p y luego superescalando a 4K.
También, y eso que me ha salido al azar, viendo los datos que han salido en mi ejemplo, en un juego multiplataforma que saliera a 1440p / 60 fps en PS5, podría superescalarse a 4K en Xbox Series X, usando sólo 8 CUs, en vez de necesitar 2,5 veces la potencia de procesado. Sería la diferencia entre ver un juego ligeramente borroso y ver otro con total nitidez.
darksch escribió:VRS junto a ML puede compensar el quitar TF del render rasterizado, sin que apenas se note. Todo adornado con una capacidad RT fija y conocida, 380 billones de intersecciones por segundo.
Al final va a ser una combinación de uso de todos los recursos disponibles.
Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
djber escribió:@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.
kepacha escribió:Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.
De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.
Machine learning is a feature we've discussed in the past, most notably with Nvidia's Turing architecture and the firm's DLSS AI upscaling. The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores. With over 12 teraflops of FP32 compute, RDNA 2 also allows for double that with FP16 (yes, rapid-packed math is back). However, machine learning workloads often use much lower precision than that, so the RDNA 2 shaders were adapted still further.
"We knew that many inference algorithms need only 8-bit and 4-bit integer positions for weights and the math operations involving those weights comprise the bulk of the performance overhead for those algorithms," says Andrew Goossen. "So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning."
djber escribió:@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.
DirectX 12 Ultimate
Last week, Microsoft unveiled DirectX 12 Ultimate, the latest version of the widely used DirectX graphics standard.
DirectX 12 Ultimate codifies NVIDIA RTX’s innovative technologies, including ray tracing, variable rate shading, mesh shading, and texture space shading, as the standard for multi-platform, next-gen games.
Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.
Szasz escribió:DLSS no deja de ser un algoritmo replicable. Microsoft tiene servidores de sobra cómo para realizar su algoritmo. Que poco a poco irá mejorando como lo ha hecho Nvidia. Y SeX tiene potencial de sobra en ML cómo para ver resultados increíbles. Y no solo para la resolución.
Perkum escribió:Szasz escribió:DLSS no deja de ser un algoritmo replicable. Microsoft tiene servidores de sobra cómo para realizar su algoritmo. Que poco a poco irá mejorando como lo ha hecho Nvidia. Y SeX tiene potencial de sobra en ML cómo para ver resultados increíbles. Y no solo para la resolución.
Si no me convence lo que veo me monto mis películas.
Luego alguno se queja de sony y su ssd mágico.
kepacha escribió:Pablopictures escribió:Ojo que el DLSS no siempre da resultados convincentes. Son algoritmos de machine learning que básicamente se inventan pixels para reconstruir la imagen. Si por ejemplo al fondo tenemos un cartel con un texto, en 4K reales ese texto será legible y tendrá sentido, en una reconstrucción con DLSS veremos un cartel muy nítido pero con un texto ilegible, ya que el algoritmo evidentemente no entiende del contexto de la escena ni que ahí debe haber escrito algo.
El DLSS tiene mucho sentido cuando tu hardware ya no da para más, pero siempre y cuando haya recursos disponibles la resolución nativa me parece claramente mejor opción.
Tu has visto el video? No siempre es así, y aquí la demostraciones que hacen justo eso que dices. Por veces, incluso mejora una nativa 4K o está casi a la par:
Y esto son capturas cutres de un video de youtube que aún ha perdido más calidad. En vivo la diferencia aún sería mayor.
usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad.
Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One.
Mulzani escribió:kepacha escribió:Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.
De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.
https://www.eurogamer.net/articles/digi ... full-specs
El extracto de cómo funciona:Machine learning is a feature we've discussed in the past, most notably with Nvidia's Turing architecture and the firm's DLSS AI upscaling. The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores. With over 12 teraflops of FP32 compute, RDNA 2 also allows for double that with FP16 (yes, rapid-packed math is back). However, machine learning workloads often use much lower precision than that, so the RDNA 2 shaders were adapted still further.
"We knew that many inference algorithms need only 8-bit and 4-bit integer positions for weights and the math operations involving those weights comprise the bulk of the performance overhead for those algorithms," says Andrew Goossen. "So we added special hardware support for this specific scenario. The result is that Series X offers 49 TOPS for 8-bit integer operations and 97 TOPS for 4-bit integer operations. Note that the weights are integers, so those are TOPS and not TFLOPs. The net result is that Series X offers unparalleled intelligence for machine learning."
Utiliza los CUs o shaders que normalmente calculan en FP32 para calcular en INT8 o INT4, que son los utilizados para el Machine Learning, por lo que si los estás usando para INT4, no los puedes estar usando para el cálculo tradicional en FP32, esa CU. Como cada CU tiene su SIMD, tienen que, al menos, usarse 1 CUs para cada tipo de operación (aunque la GPU viene estructurada en unidades de trabajo de 2 CUs, por lo que lo mismo tiene que usarse cada 2 CUs).
Lo bueno, es que puede utilizarse de manera no paralela, no tiene que esperar como lo hacen los Tensor Cores (lo que implica una merma en rendimiento), lo malo, que estás quitando de un sitio para dárselo a otro. Es más eficiente pero, por el contrario, no es tan potente como tener tantas unidades como tienen las RTX.
Mulzani escribió:djber escribió:@kepacha Increible..... de la version 1.9 al 2.0 hay un mundo y nvidia ha confirmado que series X lo tiene.
Xbox Series X no tiene DLSS, es una tecnología propietaria de Nvidia, puede utilizar un método similar a DLSS, porque su hardware está adaptado al Machine Learning.
Las palabras de Nvidia se refieren a DirectX 12 Ultimate, que incluye DirectML, no DLSS:
https://blogs.nvidia.com/blog/2020/03/2 ... -ultimate/DirectX 12 Ultimate
Last week, Microsoft unveiled DirectX 12 Ultimate, the latest version of the widely used DirectX graphics standard.
DirectX 12 Ultimate codifies NVIDIA RTX’s innovative technologies, including ray tracing, variable rate shading, mesh shading, and texture space shading, as the standard for multi-platform, next-gen games.
Game developers can take full advantage of all these technologies knowing they’ll be compatible with PCs equipped with NVIDIA RTX GPUs and Microsoft’s upcoming Xbox Series X console.
Chris Larson, COO at Hi-Rez Studios and GM/EP of Rogue Company:
DirectX 12 Ultimate is going to accelerate the adoption of cutting edge graphics features in games because development platforms are not fragmented. With DirectX 12 Ultimate I know that I can adopt new graphics features immediately and that they will work in PC and Xbox games. We are already experimenting with DirectX Ultimate for Rogue Company, which will launch in 2020.
Koen Deetman, CEO & Game Director at KeokeN Interactive:
As a developer, a single API for PC and Xbox is a boon for my business. If my programmers know DX12 Ultimate they can code for either PC or console.
Mina Boström Nakicenovic, CTO at Paradox:
DirectX 12 Ultimate will accelerate next-gen tech adoption and shrink development cycles. The tools and samples that NVIDIA provides for DirectX Raytracing are world-class, and DirectX 12 Ultimate means they now benefit the Xbox version of my game.
Pablopictures escribió:kepacha escribió:Pablopictures escribió:Ojo que el DLSS no siempre da resultados convincentes. Son algoritmos de machine learning que básicamente se inventan pixels para reconstruir la imagen. Si por ejemplo al fondo tenemos un cartel con un texto, en 4K reales ese texto será legible y tendrá sentido, en una reconstrucción con DLSS veremos un cartel muy nítido pero con un texto ilegible, ya que el algoritmo evidentemente no entiende del contexto de la escena ni que ahí debe haber escrito algo.
El DLSS tiene mucho sentido cuando tu hardware ya no da para más, pero siempre y cuando haya recursos disponibles la resolución nativa me parece claramente mejor opción.
Tu has visto el video? No siempre es así, y aquí la demostraciones que hacen justo eso que dices. Por veces, incluso mejora una nativa 4K o está casi a la par:
Y esto son capturas cutres de un video de youtube que aún ha perdido más calidad. En vivo la diferencia aún sería mayor.
Es impresionante lo que es capaz de hacer, pero su efectividad está condicionada por el contexto.
En la segunda captura te puedes hacer una idea, el DLSS recrea la imagen más nítida, pero si te fijas el texto es más ilegible que el 4K nativo, dónde puedes intentar intuir un poco mejor que dice en los carteles.
Fíjate también en el icono de la cámara de vigilancia del cartel de "NOTICE", en la imagen 4K nativa podemos ver que es un icono minimalista, formado por dos rectángulos separados por un espacio en blanco. Fíjate ahora lo que hace DLSS, lo convierte en un único rectángulo negro muy nítido, eso está mal.
Esto es porque DLSS no entiende lo que está haciendo, sólo hace lo que hace basándose en un algoritmo derivado de una enorme base de datos que calcula por probabilidad que color deber tener un pixel que aún no existe. Desconoce si lo que está "restaurando" pertenece a un cabello, a una gota de lluvia o a una letra del alfabeto, tal sólo sabe que ese pixel tiene un % de parecido con imágenes anteriores a las que se enfrentó y restauró con % de éxito, y aplica el mismo patrón. Esto va a hacer que en la mayoría de casos resuelva el problema con éxito, pero siempre va a haber un pequeño grupo de casos inevitables donde al deducir esta nitidez distorsione el acabado original.
En cualquier caso los resultados de DLSS son fantásticos, y cualquier equipo que se vea incapaz de mover con soltura la resolución nativa me parece muy recomendable usarlo. Pero si no es el caso, mi opinión al menos, es que merece más la pena disfrutar del juego sin procesar, tal y como es concebido en su origen.
pepalex escribió:usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad.
Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One.
Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF
kepacha escribió:Mulzani escribió:@kepacha
Todas las GPUs pueden hacerlo, pero para hacerlo de la manera más eficiente necesitas que tenga unidades de computación de enteros.
Así pues, en rendimiento quedaría así:
CPU<FP32<FP16<INT8<INT4
Series X puede hacerlo usando los shaders de la GPU en formato INT4, permitiendo hasta 97 TOps en INT4, pero para hacerlo tiene que quitar uso de las CUs en FP32, por lo que si usas dos CUs para dicho cálculo, por ejemplo, se te queda que la consola estaría en 10,28 TFlops y, a su vez, en 14,95 TOps.
Las GPUs Turing de Nvidia tienen Tensor Cores, que se utilizan para las operaciones de enteros, por tanto, serán más potentes que la GPU de Series X en éste caso, pues no tienen que quitar potencia al resto de la GPU para poder hacerlo.
Pero entonces, ya sabes como funciona esta feature en Series X? Se agradecería un enlace a donde lo explican, porque estás afirmando cosas que en ningún sitio he visto que lo digan.
De hecho, los tensor cores de Nvidia he leído que tienen sus mermas con el raytracing y que se pierde rendimiento al tener que esperar por estos la GPU en ciertos momentos. En Series X en teoría eso no pasa, ya que la capacidad de RT va en paralelo y no afecta al rendimiento global del hardware según he leído.
Dictator escribió:The tensor cores are just hardware support to deal with int matrix math. Both consoles have hardware for that even if not dedicated cores
We still do not know if PS5 supports increased rate int8.
XSX does.
XSX is like 49 int8 TOPs - RTX 2080 Ti is 220 at ca. 1500mhz (most 2080 Tis run at 1800-1950 mhz in real life though).
So if 2080 ti has ~220tops, 2060 rtx has ~100 tops and xsx 49 tops, according to this graph the rtx 2060 will do roughly ~2.83ms @ 4k, hipothetically the xsx with same algorithm should cost about 5.5ms @4k.
Dictator escribió:Assuming linear scaling, yeah this is what we have basically calculated out for ourselves as well.
5.5 ms btw is still A LOT faster than running the game at 4x the resolution.
Thats huge devs can push the XSX at 1080p and use ML to render at 4K. Can’t wait for more demos like the path tracing on XSX
The CU will be occupied running the ML code, while on NVIDIA, the CUs will be free to run normal code, while Tensors run the ML code.
Again, what is the problem here? The CUs were modified physically to accelerate machine learning code. Actual hardware was added to the CU to enable them to accelerate machine learning code.
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.
Mulzani escribió:iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.
¿Por qué iba a hacer eso?
Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.
iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.
pepalex escribió:usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad.
Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One.
Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF
Mulzani escribió:iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.
¿Por qué iba a hacer eso?
Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.
iaFx escribió:Mulzani escribió:iaFx escribió:Yo creo que Microsoft va a usar algo parecido a DLSS 1.9 (FP16, no usa tensor cores) para no cargarse los shaders en INT4.
¿Por qué iba a hacer eso?
Los CUs los puede usar en FP32, FP16, INT8 o INT4, tendrá que usar el que mejor le convenga y, se supone, que en INT4 da más rendimiento, INT4 ofrece 4 veces más operaciones por segundo que en FP16, si para el DLSS que desarrolle Microsoft, éste le da mejor rendimiento en INT4, será el que use.
Por lo que sé no es para nada el mismo algoritmo, lo digo por lo mismo que le pasó a Nvidia, que en DLSS 1.9 tuvieron que quitarle el trabajo a los tensor cores porque no lograban hacer que estos hicieran el trabajo en INT4 por lo que cambiaron el algoritmo para que los CUDA lo hicieran en FP16.
Mulzani escribió:Ah, ¿entonces no estaría usando los Tensor Cores, para el DLSS?
Bueno, supongo que en el caso de DirectML, entonces, al tener que usar otro tipo de algoritmo que al de Nvidia, pues buscarán diferentes maneras de aplicarlo, incluso es posible que haya diferentes métodos de SuperSampling, según se necesite para cada juego, pudiendo hacerlo en el formato que ellos crean mejor, al poder elegir entre FP32, INT8 e INT4.
gerberu escribió:pepalex escribió:usuariopc escribió:A ver si con esas tecnologías que hemos visto en el video podemos asegurar los 4k 60fps en todos los juegos. Además de mejorar bastante los gráficos en la retrocompatibilidad.
Viendo Doom Eternal correr a 60fps en una Xbox One normal (1'8TF), no me quiero imaginar lo que van a poder hacer con la Xbox Series X que más o menos tendrá un rendimiento real próximo a 10 veces el de la Xbox One.
Es milagroso lo de Doom Eternal en One básica, tiene 1,34TF
rula a 720p y todo en low
no hay milagros y encima no mantiene los 60 al 100%
iaFx escribió:Mulzani escribió:Ah, ¿entonces no estaría usando los Tensor Cores, para el DLSS?
Bueno, supongo que en el caso de DirectML, entonces, al tener que usar otro tipo de algoritmo que al de Nvidia, pues buscarán diferentes maneras de aplicarlo, incluso es posible que haya diferentes métodos de SuperSampling, según se necesite para cada juego, pudiendo hacerlo en el formato que ellos crean mejor, al poder elegir entre FP32, INT8 e INT4.
La cosa va así:
DLSS 1.0 Tensor Cores
DLSS 1.9 CUDA (Shaders en AMD)
DLSS 2.0 Tensor cores
Al tener XSX muchos Shaders (mas eficiente en FP16) y tener desventaja en IA (2060 Tensor cores = 2x Toda la GPU de XSX) creo que es mas conveniente usar el 1.9, pero vamos que visto desde la ignorancia, igual DLSS 2.0 solo consume un par de CUs o todos los CUs están libres en la reconstrucción de la imagen, no tengo idea.
Dictator escribió:So what are the advantages of the tensor cores then? From what I gather, 1 is that they can actually perform matrix 4x4 calculations on an FP16 space
I think the advantage is the relative TOPs to die space - an RTX 2060 will be slower than XSX GPU in almost everything most likely, but separate tensor cores means it is 2x faster at int8, int4 etc.
Which is really not too horrible for such a small GPU - makes ML really practical for real time with those numbers.
jjuanji escribió:Xbox Series X Backward Compatibility Will Natively Run Select Games In Higher Resolutions
https://gamingbolt.com/xbox-series-x-wi ... esolutions
pepalex escribió:gerberu escribió:rula a 720p y todo en low
no hay milagros y encima no mantiene los 60 al 100%
7 años después se puede seguir jugando en esa máquina a todos los títulos actuales, para eso es lo importante.
darksch escribió:Pues a mí me suena que todas esas mejoras en la retro es mediante ML. Sabemos que el HDR es lo que usa, y como no pueden cambiar el código de algo que ya está compilado, igual usan ML para analizar el juego y, al igual que aplican HDR, aplicar técnicas de mejora de resolución o interpolar algún fotograma (sería usando sólo 1 frame para no generar retardo) en base a aprendizaje de esos juegos, pues ML requiere de dicho aprendizaje, y por eso es en "juegos seleccionados".
Cabe esperar, de ser así, que se vayan añadiendo juegos a medida que los metan en el sistema de aprendizaje. Sería más o menos como lo que hace Nvidia cuando mete juegos en sus drivers para usar sus mejoras.
Yui Shojei escribió:John_Carpenter escribió:Si sacan el Crysis para Xbox Series X, por fin se podría jugar a full a 60fpsYui Shojei escribió:@EternoTitan tiene un parecido al Metro, pero basada en los enfrentamientos en la frontera de Polonia con la URSS
Te refieres a la toma de posiciones en el Este de Polonia de 1939? Porque eso de la foto es un AK-47 (no existía por entonces)
M refiero a que el nombre del juego es el mismo que se le dió a aquel acontecimiento, y que la propia desarrolladora comenta. Es un juego de horror survival, y no quiere decir que sea en esas fechas, si no acontecimientos posteriores en la misma frontera.