David Ricardo escribió:A ver si va a ser verdad lo que decía Xlooser de menos teraflops pero mejores gráficos...
Work at studio...in the US. OP is technically correct. We have had ps5 devkit for three weeks and scarlett dev kit for one week.
Right now, ps5 has more tf than anaconda. From our limited testing, anaconda will will actually push better visuals though. Anaconda has a pretty advanced (maybe not advanced I'm not a chip nerd) custom version of navi. Basically, MS did a lot of custom work on navi that helps push better visuals than ps5. OP nailed the tf number but it was either a lucky guess or he is lying because ps5 devkit isn't more powerful or advanced than Anaconda.
https://www.resetera.com/threads/next-gen-ps5-and-next-xbox-speculation-launch-thread-my-anaconda-dont-want-none.112607/post-20773809Dice que Anaconda lleva una versión muy customizada de navi que permitirá mejores gráficos. Es más avanzada y potente que PS5, aunque la cifra de teraflops será menor.
No es seguro, pero puede ser que sí. Por eso creo que esas optimizaciones deberían ser automáticas o, en su defecto, exigir lo menos posible a los desarrolladores en su implementación. Expongo mi razonamiento:
- PS4 es un 40% más potente que Xbox One, pero en los juegos top no se ve ese 40%. Hay dos factores: Xbox One está diseñada así y que las GPUs de PS4 y One escalan con peor rendimiento a partir de 14 CUs. En juegos multiplataforma no se igualan porque hay que usar la ESRAM muy bien, y nadie está por la labor de hacer dos códigos tan diferentes (yo tampoco lo haría), y encima el beneficio de las ventas de Xbox suelen ser menores.
- Es imposible el RT híbrido en 4K, eso ya lo debemos tener claro, no habrá potencia suficiente. Si el RT se hace con chips dedicados, la eficiencia es 5-6 veces mayor. Se puede ver claramente cómo la RTX2080 es mucho más rápida con la demos de Star Wars que una Tesla V100.
- Con DirectML se puede implementar la super-resolución. El DLSS de Nvidia, que es la única implementación de la super-resolución en videojuegos, se renderiza a 1440p y se escala a 4K mediante Deep Learning. Las diferencias entre este 4K escalado y el nativo son tan minúsculas que no se apreciarán, menos aún quienes ahora no noten nada entre 4K CB y 4K nativo. Pues bien, 1440p son menos de la mitad de los píxeles que 4K nativo, imagina cuánto se podría aumentar la carga gráfica.
- Los chips que hicieran estas tareas (RT y super-resolución) también se podrían usar para otras tareas, como el audio 3D, físicas e IA, por eso me parece razonable que se adopten.
- Estos chips ocupan espacio en el SoC (o MCM), con lo que si tienes una GPU de 12 TF, difícilmente se tendrá espacio para otros cores. La calidad perdida por tener menos TF se recuperan con creces con la eficiencia.
- Si seguimos escalando parecido y con el modelo generación/revisión que todo el muncho cree, en 2024 las revisiones de PS5 y Scarlett deberán tener más de 40 TF, y en 2028 más de 90 TF. A mi me parece que no se conseguiría. El camino es la eficiencia, y cuanto antes se empiece, mejor.
Dije antes que prefiero la misma GPU de la X, con esas optimizaciones, un Zen2(,5) y SSD NVMe a una GPU de 12 TF. Me reafirmo, creo que alucinaría más con los juegos de una consola así que con la otra. La IA y las físicas serían excelentes, RT, mundos enormes o cargas rápidas/inexistentes, texturas de calidad, audio 3D...........