Hablemos de las nuevas consolas

Encuesta
¿La retrocompatibilidad es importante a la hora de comprar una consola nueva?
77%
1261
10%
166
13%
209
Hay 1636 votos.
Mapache Power escribió:¿Hay juegos de mundo abierto que expriman un Ryzen 7 en PC?

Lo pregunto porque lo desconozco, y en los vídeos de que he visto parecían ir muy sobrados con los juegos que probaban.

De haberlos serían juegos de próxima generación [+risas]
Unerico está baneado por "troll"
jose2488 escribió:En verdad si lo lees bien de nuevo, no se retracta en nada, sino en la forma de decirlo.

El habla de los mundos abiertos porque son muy exigentes en la cpu, y esto hará que la gpu baje el rendimiento y no pueda ir al máximo cuando sea necesario si la potencia lanza.la cpu. Es la forma en la que trabaja el sistema smartshift, va usando potencia en gpu o cpu dependiendo de las necesidades.


Es verdad. Tiene logica verlo asi. Porque cuando habla de mundos abiertos masivos lo hace aclarando que se refiere a los juegos de thirds. Y esas cuando hagan un multi lo van a hacer pensando en xbox y pc con frecuencias fijas y estables y cuando lleven ese codigo cerrado para pensar asi no van a adaptarlo para que se nivele segun potencia consumida de cada componente. Van a ir por lo facil de rebajar uso de gpu o cpu.
Unerico escribió:
jose2488 escribió:En verdad si lo lees bien de nuevo, no se retracta en nada, sino en la forma de decirlo.

El habla de los mundos abiertos porque son muy exigentes en la cpu, y esto hará que la gpu baje el rendimiento y no pueda ir al máximo cuando sea necesario si la potencia lanza.la cpu. Es la forma en la que trabaja el sistema smartshift, va usando potencia en gpu o cpu dependiendo de las necesidades.


Es verdad. Tiene logica verlo asi. Porque cuando habla de mundos abiertos masivos lo hace aclarando que se refiere a los juegos de thirds. Y esas cuando hagan un multi lo van a hacer pensando en xbox y pc con frecuencias fijas y estables y cuando lleven ese codigo cerrado para pensar asi no van a adaptarlo para que se nivele segun potencia consumida de cada componente. Van a ir por lo facil de rebajar uso de gpu o cpu.

Lo que vamos a ver mucho en ps5 son juegos con resoluciones variables, debido a que su gpu y cpu nunca paran de subir y bajar.
Yo creo que lo ideal sería dejarlas fijas en la.media, tanto a la cpu como a la gpu, se te quedaría en 3.3ghz la cpu y 9.74 te la cpu. Pero bueno, sony sabra...
Las frecuencias a las que correran tanto CPU como GPU van a ser deterministas. Vamos que estas no van a cambiar de forma aleatoria y los desarrolladores sabran que frecuencias van a tener en los momentos de maxima carga.

Al final todo se basa en lo mismo, si quieres un frame rate estable o dejas margen en la carga de CPU y GPU (la que limite en cada caso) o utilizas una resolucion variable (como ya hacen muchos juegos). Pero eso va a ser asi desarrolles para la consola (o PC) que desarrolles.

Y en cuanto a que sufra una consola con respecto a la otra, eso es obvio si buscas paridad en cuanto a resolucion. Pero si bajas un poco la resolucion en PS5 no vas a tener ningun problema en que corra el mismo juego con el mismo frame rate que la XsX. Imagino que el desarrollador se referia al primer caso.

Un saludo!
En principio, la logica, seria que ps5 sacrificara la resolucion para mantener todo lo demas intacto frente a la version de xbox, pero claro, no van a poder venderla como una consola real de 4k (ya usaran otro termino).

Con los reescalados que hay ahora, yo creo que renderizando nativamente a 1440p o cosas asi, la diferencia con 2180p es irrisoria. Y eso para nosotros los frikis que sabemos, la mayoria no lo nota ni de palo, pero claro... el marketing igual pesa.

Yo soy de la opinion que ps5 no va a tener resolucion o framerate variable, al menos en los multis. Los diseñadores no van a mirar cuanto tiempo puede la consola ir a mas gas sin que pete, seria un cristo hacer eso. Lo logico es, que los momentos en que ahora las consolas hacen ese tipo de cosas, la ps5 no las haga aumentando su potencia momentaneamente, proporcionando en todo momento la misma resolucion y mismo framerate, lo cual es tambien un punto positivo.
Nuhar escribió:En principio, la logica, seria que ps5 sacrificara la resolucion para mantener todo lo demas intacto frente a la version de xbox, pero claro, no van a poder venderla como una consola real de 4k (ya usaran otro termino).

Con los reescalados que hay ahora, yo creo que renderizando nativamente a 1440p o cosas asi, la diferencia con 2180p es irrisoria. Y eso para nosotros los frikis que sabemos, la mayoria no lo nota ni de palo, pero claro... el marketing igual pesa.

Yo soy de la opinion que ps5 no va a tener resolucion o framerate variable, al menos en los multis. Los diseñadores no van a mirar cuanto tiempo puede la consola ir a mas gas sin que pete, seria un cristo hacer eso. Lo logico es, que los momentos en que ahora las consolas hacen ese tipo de cosas, la ps5 no las haga aumentando su potencia momentaneamente, proporcionando en todo momento la misma resolucion y mismo framerate, lo cual es tambien un punto positivo.

Si estoy deacuerdo contigo, si con los juegos next gen ambas consolas nompuedennir a 4k, los estudios deben bajar algo.la resolución de ps5 para que no ocurra como en GTAV que por ir en box one a 1080p sacrificaron muchísimas vegetación respecto a.ps4
eloskuro está baneado del subforo por "flames"
Es que en pc tmb es de lo primero que se sacrifica cuando vas a jugar. La vegetación xD

Me hizo mucha gracia en su momento el arbustogate.
Es un homenaje a los 4 espectadores que quedan ahora mismo en tiwtch

[hallow]
Nuhar escribió:En principio, la logica, seria que ps5 sacrificara la resolucion para mantener todo lo demas intacto frente a la version de xbox, pero claro, no van a poder venderla como una consola real de 4k (ya usaran otro termino).

Con los reescalados que hay ahora, yo creo que renderizando nativamente a 1440p o cosas asi, la diferencia con 2180p es irrisoria. Y eso para nosotros los frikis que sabemos, la mayoria no lo nota ni de palo, pero claro... el marketing igual pesa.

Yo soy de la opinion que ps5 no va a tener resolucion o framerate variable, al menos en los multis. Los diseñadores no van a mirar cuanto tiempo puede la consola ir a mas gas sin que pete, seria un cristo hacer eso. Lo logico es, que los momentos en que ahora las consolas hacen ese tipo de cosas, la ps5 no las haga aumentando su potencia momentaneamente, proporcionando en todo momento la misma resolucion y mismo framerate, lo cual es tambien un punto positivo.


Si tienen las narices de meter el sello 4K en la caja de PS4, imagina en la de PS5...
Alejandro_Tomas escribió:Si tienen las narices de meter el sello 4K en la caja de PS4, imagina en la de PS5...

La PS5 va a tener contenido 4k. No me parece que haya que tener "narices" para ponerlo en la caja.
Tampoco es que Sony destaque generando expectativas irreales respecto a la competencia. Más bien al contrario:
Imagen

Imagen
David Ricardo escribió:
Alejandro_Tomas escribió:Si tienen las narices de meter el sello 4K en la caja de PS4, imagina en la de PS5...

La PS5 va a tener contenido 4k. No me parece que haya que tener "narices" para ponerlo en la caja.
Tampoco es que Sony destaque generando expectativas irreales respecto a la competencia. Más bien al contrario:
Imagen

Imagen

Al menos has elegido la all digital. Ya que hasta la One S tiene un Blu-ray 4K y reproduce contenido real a 4K y HDR. (La all digital también si dispones de la fuente de video adecuada).
Szasz escribió:
David Ricardo escribió:
Alejandro_Tomas escribió:Si tienen las narices de meter el sello 4K en la caja de PS4, imagina en la de PS5...

La PS5 va a tener contenido 4k. No me parece que haya que tener "narices" para ponerlo en la caja.
Tampoco es que Sony destaque generando expectativas irreales respecto a la competencia. Más bien al contrario:
Imagen

Imagen

Al menos has elegido la all digital. Ya que hasta la One S tiene un Blu-ray 4K y reproduce contenido real a 4K y HDR. (La all digital también si dispones de la fuente de video adecuada).

Esto me hace preguntarme, la Series X reproducirá video a 8K?
@David Ricardo
Pués supongo que los tiros irán por ahí. Video 8K. En juegos lo dudo. De todas formas en el SoC final creo que han quitado el 8K.
David Ricardo escribió:
Alejandro_Tomas escribió:Si tienen las narices de meter el sello 4K en la caja de PS4, imagina en la de PS5...

La PS5 va a tener contenido 4k. No me parece que haya que tener "narices" para ponerlo en la caja.
Tampoco es que Sony destaque generando expectativas irreales respecto a la competencia. Más bien al contrario:
Imagen

Imagen


Ya.

Yo más bien me refería a juegos. No a vídeo/reproducción.

Jugando en PC veo lo que cuesta mover juegos más allá de 1440p en la actualidad.

Por eso me entraba la risa cuando oía "4K" con PS4 Pro y X1 durante su lanzamiento.

Hoy en día me entra cuando oigo "RayTracing + 4K nativos + altos fps estables" para Series X y PS5. No hay PC hoy día que mueva esas 3 cosas a la vez dignamente.
Nowcry está baneado del subforo por "troleos y flames"
Después de mucho estudiar puedo demostrar teóricamente que la XBox Serx NO TIENE CUELLO DE BOTELLA en L1 a diferencia de lo que pasaba en RDNA1.

Ojo que es denso pero después de mucho estudiar (me aburro con el confinamiento) creo que lo he conseguido.

Voy a empezar con los cálculos de una GPU de RDNA1 para tener una referencia y porque podemos comprobar los resultados y saber si estamos bien.
Resultados según fabricante : L0 bandwith 9,76 TB/s L1 Bandwith 3.90 TB/s L2 Bandwith 1.95 TB/s
560 GB/s / 320 bits * 8 = 40 canales / 8 canales por controlador de memoria de 64 bits = 5 controladores de memoria o arrays de CU.

RDNA1 GPU Boots Clock 1905 MHz CU = 40 ancho de banda = 448 GB/s interface memoria 256 bits.
Reloj de Memoria 1750 Mhz.

Lo primero es sacar el reloj base a las que funcionan las cache, (1905 MHz / 1750 MHz) * 448 = 487.68 GB/s Esta es la velocidad de los controladores de memoria.

Ancho de banda cache L2 = 487.68 * 4 controladores de memoria = 1950.72 GB/s = lo del fabricante
Ancho de banda cache L1 = el doble que L2 = 3900 GB/s = lo del fabricante
Ancho de banda cache L0 = Reloj base * numero de cache L0 = 487.68*20 = 9750 GB/s = lo del fabricante

Ahora hago lo mismo en Xbox:

Calculamos el reloj base de las cache (1860/1750) * 560 = 595.2 GB/s

Ancho de banda cache L2 = 595.2 GB/s * 5 controladores de memoria = 2976 GB/s
Ancho de banda cache L1 = el doble que la L2 = 5952 GB/s
Ancho de banda cache L0 = 595.2 * 26 cache L0 (1 por cada 2 CU) = 15475.2 GB/s

Ahora hago lo mismo en PS5:

Calculamos el reloj base de las cache (2260/1750) * 448 = 578.56 GB/s

Ancho de banda cache L2 = 578.56 GB/s * 4 controladores de memoria = 2314.24 GB/s
Ancho de banda cache L1 = el doble que la L2 = 4628.48 GB/s
Ancho de banda cache L0 = 578.56 * 20 cache L0 = 11571.2 GB/s
(esta vez no es 1 por cada 2 CU han metido 4 arrays de 9 CU osea hay 1 CU sola en un DCU)


Ahora hago lo mismo en 2080Ti:

Calculamos el Reloj base de las cache: (1350/1750) * 616 = 475.2 GB/s

Ancho de banda cache L2 = 475.2 * 6 controladores de memoria = 2851.2 GB/s
Ancho de banda cache L1 = 475.2 * 68 SM = 32313.6 GB/s


Y ahora es cuando viene la comprobación de fuego:

El consumo teórico de una CU/SM esta basado en que tiene 64 unidades de calculo en FP32.

Desarrollo formula:
5700XT
(64 (stream procesor ) * cada stream procesor cogerá un paquete de 32 bits de L0 * Clock 1860*10^6 ) *1 instruction rate / 8 Bits to Byte = 476.16 GB/s. para Xbox
Xbox SerX
(64 (stream procesor ) * cada stream procesor cogerá un paquete de 32 bits de L0 * Clock 1905*10^6 ) *1 instruction rate / 8 Bits to Byte = 487.68 GB/s. para GPU RDNA1
PS5:
(64 (stream procesor ) * cada stream procesor cogerá un paquete de 32 bits de L0 * Clock 2260*10^6 ) *1 instruction rate / 8 Bits to Byte = 578.56 GB/s. para GPU RDNA1


(64 (FP32 ) * cada stream procesor FP32 cogerá un paquete de 32 bits de L0 * Clock 1350*10^6 ) *1 instruction rate / 8 Bits to Byte + (64 (INT32 ) * cada stream procesor INT32 cogerá un paquete de 32 bits de L0 * Clock 2260*10^6 ) *1 instruction rate / 8 Bits to Byte = 345.6 GB/s + 345.6 GB/s = 691.2 GB/s. Después de mucho leer en el libro Whitebook de nvidia dice que han conseguido usar una compresión en la memoria del 50% y que es esencial para mantener la arquitectura centrada. 691.2/1.5 = 460.5 SOlo nos queda creernoslo. Pero por lo visto la descompresion llega hasta las Shaders Unit y Texture Units.
Whitepaper Nvidia pagina 27.



Saquemos numeros por CU:
Lcache GPU RDNA1
L2 cache 1950/40 = 48.75 GB/s
L1 cache 3900/40 = 97.5 GB/s
L0 cache 9750/40 = 244 GB/s
TOTAL 390.25 GB/s <<<<487.68 GB/s
Cuello de botella famoso Cache bandwich/

Cache Bandwidth/FLOP CU 390.15 / 487.68 = 80%

XBOX SerX
2976/52 = 57.23 GB/s
5952 / 52 = 114.4615
15475.2 / 52 = 297.6
57.23+114.46+297.6 = 470 GB/s == 476.16 (Las diferencias de poco serán decimales o algo)
COMO ANILLO AL DEDO han hecho el OC exacto
Cache Bandwidth/FLOP CU 470 / 476.68 = 98.6% sera del 100% por los decimales.



Hago los números para PS5
2314.24/36 = 64.28 GB/s
4628.48 / 36 = 128.57
11571.2 / 36 = 321.42
57.23+114.46+297.6 = 514.26 GB/s <<< 578.65 GB/s Son las CU con mejor ancho de banda pero no podrán ejecutar ser alimentadas solo desde cache en el caso de que todas las operaciones que se hagan sean de 32 bits.
Cache Bandwidth/FLOP CU 390.15 / 487.68 = 88.98% ---> 90 % por los decimales.

2080Ti
2851.2/68 = 41.93 GB/s
32313.6 / 68 =475.2 GB/s
TOTAL = 517.13 GB/s >>> 460.5 GB/s. Sin compresion <<<<691.2.
No estoy muy seguro de mis cuentas en Nvidia . Ademas de que me faltan los tensor y RT por meterlos pero no se ni por donde empezar. Por otro lado por lo visto Nvidia tiene una Cache L1.5 y tiene cache L0 pero hay muy poca información sobre ella.



Con esto quiero decir lo siguiere:

La Xbox SerX no tiene cuello de botella en L1 que ha sido corregido al poner 5 controladores de memoria y tener un reloj mas bajo que la 5700 XT. La arquitectura esta centrada en el rendimiento teórico. A su vez han diseñado la consola robusta con 12,15 tflops de potencia FP32 y los entrega sin margenes. Lo que hará sobrar ancho de banda en la mayor parte de las ocasiones, muy interesante si finalmente hay un modo windows y permite hacerle OC, de forma que se pudiera exprimir ese extra. Este ancho de banda podría ser útil en Raytracing pero quedo a la espera de ver la arquitectura real de RDNA2. Es un producto muy solido.

En PS5 las CU son las mejor alimentadas de todas las maquinas excepto de la 2080Ti pero la arquitectura esta centrada al rendimiento económico. Esto no es malo porque hay un estudio en el Whitepaper de Nvidia en el que estudia estadisticamente cuantas operaciones de FP32 hay en el mismo ciclo.
El estudio dice que alrededor del 30% de los cálculos son escalares. Cada juego es diferente pero el margen estadístico sitúa la que varia entre [10%-50%]. Ademas de cálculos que no ocupan los 32 bits y también habrá algunos cálculos de FP16. Lo que diseñar las APU con un 10% de margen por debajo esta tocando el mínimo de la variaran y es una buena forma de diseñar y ahorrar dinero. Para mi es el OC exacto para desarrollar toda la potencia y que de cada euro gastado se saque el máximo provecho. La parte negativa es que no hay margen para RT y quedo a la espera de ver la arquitectura REAL haber descubierto esto me incita a pensar que va ha haber cambios en cuanto al ancho de banda de las cache del paso de RDNA1 a 2 o quizá algún tipo de compresión de datos.

Como digo todo puede ser papel mojado si en RDNA2 han mejorado el ancho de banda de alguna cache, lo cual debería ser lo lógico, la cache L0 debería mejorarse para dar entrada al RTX en cualquiera de las 2 maquinas, o la utilización de compresión al estilo de Nvidia para dar cabida a los datos que chuparan RTX. Podría darse la inclusión de un L0 por CU en vez de cada dos CU para evitar el cuello de botella que generan al ir haciendo OC.

En mi entendimiento esto sitúa que los 12,15 Tflops de la Xbox podrán exprimirse y que los 10,21 Tflops también podrán exprimirse. La diferencia radica en que la Xbox puede tener 12,15 Tflops en coma flotante 32 al mismo tiempo. Y la PS5 tendrá 10,21 Tflops pero solo podrá genera unos 9.189 Tflops en coma flotante 32 y el resto se quedaría a la espera. O podría generar 8 Tflops en coma flotante 32 y 2,21 Tflops en coma flotante 16. Como digo todo esto es si los datos que tenemos las consolas se configuraran como RDNA 1 5700XT. No debéis tomar esto como algo malo ni un engaño, todos los juegos desde el mejor al peor tienen un mínimo un 10% de cálculos que no son en FP32 y un máximo de 50%. Una CU aunque tenga ancho de banda si esta haciendo una FLOP a 16 o con escalares no puede realizar una en FP32. Tener eso en cuenta para mi es ahorro y es el OC exacto para exprimir al máximo.

Recomiendo estar atentos a ver si hay cambios en las cache y como se alimenta RTX. Pero en principio para hacerse una idea esta bien.

En cuanto al SSD, para mi generara un cambio enorme en los videojuegos tanto a diseño como gráficamente.
Debo decir que es un SSD menor que otro en principio no debería lastrar la una a la otra y se podría optar por reducir las texturas mas alejadas en la Xbox de forma que se ajustara el ancho de banda y la diferencia seria mínima. De la misma forma que 2 Tflops. Una calcularía mas polígonos y en la otra se podrían reducir en las estructuras mas alejadas que son los menos efectivos pero se llevan los mismos cálculos.

El SSD lo que nos va a permitir es poder poner en el tiro de la camara mucha mas memoria debido a que ya no hay que cargar lo que va a pasar a 30 segundos vista. Si tardas 2-4 segundos en renovar la GDDR completa, con 2 seg PS5 o 4 segundos Xbox. Esto hará que sea la primera vez que en un tiro de cámara podamos ver entre (9-12 GB de VRAM del tirón) incluido en PC que el unico juego que aprovecha el SSD realmente es StarCitizen.

Calculo que como mas o menos vemos los modelos poligonales de los objetos con las consolas actuales 4,5-6 Tflops parecen perfectos, lo que si que ha flojeado esta generación es en texturas que se cargaba los modelos y en la cantidad de objetos distintos (VARIABILIDAD).

Debido a este nuevo ancho de banda, las texturas podrán mejorar considerablemente y a su vez la variabilidad podrá por fin entrar en escena. Es posible que sea el cambio mas emocionante desde PS2. Ya que en la variabilidad tanto de objetos como de texturas esta el realismo.

Espero haberos mejorado la tarde, y haberos pegado mi entusiasmo por la nueva GEN.

Se que algunas de mis teorías van dando bandazos de un lado al otro, pero según aprendo mas cosas van cambiando porque voy descubriendo errores en mis interpretaciones, también algunas basadas en errores o "simplificaciones" de las explicaciones de AMD en su documentación que después leyendo mas detenidamente o según avanzo en el libro voy aprendiendo cosas que pensaba que no se podían hacer abriendo camino.

Quien sabe quizá dentro de 3 días descubra algo y cambie de nuevo toda mi teoría.

Como es un tocho no espero que nadie se lo lea pero lo dejo aquí a modo de apuntes. Y creo que voy a dejar un tiempo de estudiar hardware que llevo ya una semana enfrascado en aprender como funciona y ahora que creo que he resuelto el puzzle quedo a la espera de que den mas detalles.

Un saludo.
@Nowcry espectacular y que trabajo no soy experto ni mucho menos pero me lo he leído por que me parece muy interesante, y sobre todo el empeño y esfuerzo que le pones, saludos!!!
Al final de todo habrá una diferencia a favor de Series X (quien no vea esto esto es ciego o le ciegan), pero tampoco creo que la diferencia va a ser lo que refleja en el papel los teraflops.


Lo siento, tochaco incoming: [+risas]

En términos de teraflops puros y duros la diferencia porcentual es un 15%. La diferencia entre PS4 y One es del 30% a favor de PS4 y entre PS4 y One X es también del 30%, esta vez a favor de One X. Es decir, ya de base la diferencia sería "la mitad" que hay en la generación actual

Es cierto que las frecuencias de la GPU PS5 son variables pero también son más altas (a igualdad de tflops daría más fps). Como en una consola/juego generalmente se trabaja con la GPU al 100 y la CPU se rasca las bolas, la frecuencia de la GPU no variaría mucho. Pero bueno, vamos a suponer una cosa (frecuencia variable) compensa con la otra (mayor frecuencia de gpu) y ese 15% de diferencia en rendimiendo gráfico es constante para este caso:

Ahora pillamos una desarrolladora que haga una versión "a la carrera" para cada una poniendo una resolución fija y carretera. En ese caso (posiblemente el más desfavorable) un juego de Series X que funcionase a 4K nativo (3840x2160p) y uno de PS5 lo haría a sub-4K con un 15% menos de resolución (3539x1991p, vamos a redondearlo a una cifra "bonita" para arriba 3555x2000p, que es un 14,3% menos de resolución que 2160p).

Es decir, en el peor de los casos un juego en Series X iría a 2160p y a 2000p en PS5: es una diferencia "en número de p" similar a la que hay entre One y PS4, pero a resoluciones 4K esa diferencia no se nota ni de lejos como se hace a 1080p a 900p y ya ni hablamos de cuando era de 900p a 720p
Y eso hablando de que pongan resolución fija: ya no me meto con gente que meta resoluciones dinámica u otras soluciones

El tema de la diferencia de la CPU tiene su truco porque, si bien los número dicen 3,8GHz vs 3,5GHz variables, Microsoft ha sido muy cuca y ha puesto en grande el dato de frecuencia sin SMT (8 núcleos - 8 hilos) y en chiquitín con el SMT (8 núcleos - 16 hilos). El dato del procesador de PS5 es con SMT y el de Series X con SMT baja a 3,66GHz: así que la diferencia en realidad ya son 166MHz (alguno más) y no 300.

Pero es que además hay otra derivada en este tema y es que a cuanta más resolución juegues menor influencia tiene el procesador en tema de los fps ya que el limitante es la GPU.
Os paso un video de una comparativa extrema: una mierda de Athlon 200GE de 2 núcleos y 4 hilos (50€ de procesador) con un Ryzen 7 2700X con pruebas o a distintas resoluciones (1080p, 4K y 8K) para demostrar que cuanto más resolución hay la diferencia entre os fps se reduce hasta ser la misma.



Y en el video hablan de procesadores distintos: aquí hablamos del mismo procesador con menos de 200MHz de diferencia en frecuencia. Vamos, la diferencia será de ¿1 fps?.


En donde sí puede notarse más la cosa en el tema de RT, pero ahí reconozco que no tengo ni puñetera idea en tema de RT. Presupongo que será notoria la diferencia por el tema de los CU


Y para acabar, en el tema de las frecuencias variables, hay otro concepto no se tiene en cuenta: está la frecuencia de la CPU y la GPU pero también está su nivel de carga. Una cosa es que la CPU y la GPU vayan a una frecuencia y otra distinta es que su uso sea del 100%. Seguramente PS5 no pueda mover la CPU y la GPU a máxima frecuncia con su carga en ambas al 100%, pero es que eso no pasa nunca jugando: sólo hay que ver el video que he puesto antes en la parte del Ryzen 7 2700x para ver que en los juegos la GPU va al 100% y la CPU se va "rascando los huevos". Y más aún en resoluciones 4K
Además, en el peor de los casos se baja un poco la resolución dinámica en el momento puntual que requisiese y ya




Resumen del gran tochaco: al final los juegos multiplataformade PS5 y Series X irán prácticamente a la misma resolución y calidad en prácticamente todo el tiempo, con la excepción de que la posible resolución dinamica u otras técnicas del juego sean más agresiva en PS5, pero a nivel de tener que poner Digital Foundry y hacer zoom para notarlo. Incluso si fuesen a resoluciones fijas. En donde habrá más diferencia creo que es en el RT.
Unerico está baneado por "troll"
Lo que algunos criticaron de xbox x series hoy es alabado..., un desarrollador considera que el ancho de banda de xbox x series es lo mejor que tiene y lo considera mas importante que el SSD. Esto despues de las criticas que se dieron al tema de que ser divididas podrian ser un cuello de botella.

-

Es decir, en el peor de los casos un juego en Series X iría a 2160p y a 2000p en PS5: es una diferencia "en número de p" similar a la que hay entre One y PS4, pero a resoluciones 4K esa diferencia no se nota ni de lejos como se hace a 1080p a 900p y ya ni hablamos de cuando era de 900p a 720p


Aunque seguramente será cierto. Lo divertido va a ser ver a aquellos que tenian ojos bionicos que podian ver ese supuesto pixel de diferencia y shader de diferencia que segun decian hacia la grandiosa diferencia de poder grafico entre lo bueno y la excelencia que dio lugar a argumentos como que los 1600x900p de ryse cortaban la vista con jaggies pero despues por motivo misterioso decian no ver diferencia entee 1920x1080 y 960x1080... ahora teniendo que decir que "no hay diferencia" porque "todo a 4k y casi 4k la diferencia no se nota"

-

David Ricardo escribió:La PS5 va a tener contenido 4k. No me parece que haya que tener "narices" para ponerlo en la caja.
Tampoco es que Sony destaque generando expectativas irreales respecto a la competencia. Más bien al contrario:
Imagen

Imagen


Los antecedentes de sony de fardar con la resolucion que despues no cumple ya vienen desde ps3 cuando salio a prometer los 1080p y despues aparecian esas cosas como los 960x1080 de killzone 3 o los falsos 1080p de los gran turismo.

Microsoft tambien con cosas como la "resolucion de muchos buffers" de alan wake de 360 solo para disimular que no era 720p
Unerico escribió:Aunque seguramente será cierto. Lo divertido va a ser ver a aquellos que tenian ojos bionicos que podian ver ese supuesto pixel de diferencia y shader de diferencia que segun decian hacia la grandiosa diferencia de poder grafico entre lo bueno y la excelencia que dio lugar a argumentos como que los 1600x900p de ryse cortaban la vista con jaggies pero despues por motivo misterioso decian no ver diferencia entee 1920x1080 y 960x1080... ahora teniendo que decir que "no hay diferencia" porque "todo a 4k y casi 4k la diferencia no se nota"

Es que amigo, hay que diferenciar entre valor absoluto y valor relativo:

No es lo mismo la diferencia de resolución entre 540p y 720p (44% menos de píxeles), entre 720p y 900p (36% menos de píxeles), entre 900p y 1080p (30% menos de píxeles), entre 1260p y 1440p (24% menos de píxeles), entre 1980p y 2160p (16% menos de píxeles) y entre 4140p y 4320p (8% menos de píxeles).


En todos los ejemplos la diferencia de resolución es de """""180p verticales""""" pero, dependiendo de la resolución, los porcentajes de pérdida de resolución son otros.


Y ya no es eso, es que cuando más baja es la resolución más notas la diferencia. Joder, la diferencia entre 900p y 1080p se nota a la legua: me acuerdo estrenar la PS4 con Battlefield 4 (que iba a 900p) y notabas que no iba a la resolución nativa de la imagen. En 4K ya es más difícil ver distinguir si la imagen va a 4K nativo o sub-4K.

Por no hablar de que la diferencia entre One y PS4 era de un tercio en potencia....y es que encima era 100€ más cara. Aquí es de un 15% y a saber los precios.





Ah, y otro dato: PS2 era la peor consola en términos de prestaciones respecto a sus rivales. No las ganó: las sodomizó. Si esta nueva generación vuelve a ganar sin tener la mejor potencia muchos van a reventar en bilis
Nowcry está baneado del subforo por "troleos y flames"
phfceramic escribió:Al final de todo habrá una diferencia a favor de Series X (quien no vea esto esto es ciego o le ciegan), pero tampoco creo que la diferencia va a ser lo que refleja en el papel los teraflops.


Lo siento, tochaco incoming: [+risas]

En términos de teraflops puros y duros la diferencia porcentual es un 15%. La diferencia entre PS4 y One es del 30% a favor de PS4 y entre PS4 y One X es también del 30%, esta vez a favor de One X. Es decir, ya de base la diferencia sería "la mitad" que hay en la generación actual

Es cierto que las frecuencias de la GPU PS5 son variables pero también son más altas (a igualdad de tflops daría más fps). Como en una consola/juego generalmente se trabaja con la GPU al 100 y la CPU se rasca las bolas, la frecuencia de la GPU no variaría mucho. Pero bueno, vamos a suponer una cosa (frecuencia variable) compensa con la otra (mayor frecuencia de gpu) y ese 15% de diferencia en rendimiendo gráfico es constante para este caso:

Ahora pillamos una desarrolladora que haga una versión "a la carrera" para cada una poniendo una resolución fija y carretera. En ese caso (posiblemente el más desfavorable) un juego de Series X que funcionase a 4K nativo (3840x2160p) y uno de PS5 lo haría a sub-4K con un 15% menos de resolución (3539x1991p, vamos a redondearlo a una cifra "bonita" para arriba 3555x2000p, que es un 14,3% menos de resolución que 2160p).

Es decir, en el peor de los casos un juego en Series X iría a 2160p y a 2000p en PS5: es una diferencia "en número de p" similar a la que hay entre One y PS4, pero a resoluciones 4K esa diferencia no se nota ni de lejos como se hace a 1080p a 900p y ya ni hablamos de cuando era de 900p a 720p
Y eso hablando de que pongan resolución fija: ya no me meto con gente que meta resoluciones dinámica u otras soluciones

El tema de la diferencia de la CPU tiene su truco porque, si bien los número dicen 3,8GHz vs 3,5GHz variables, Microsoft ha sido muy cuca y ha puesto en grande el dato de frecuencia sin SMT (8 núcleos - 8 hilos) y en chiquitín con el SMT (8 núcleos - 16 hilos). El dato del procesador de PS5 es con SMT y el de Series X con SMT baja a 3,66GHz: así que la diferencia en realidad ya son 166MHz (alguno más) y no 300.

Pero es que además hay otra derivada en este tema y es que a cuanta más resolución juegues menor influencia tiene el procesador en tema de los fps ya que el limitante es la GPU.
Os paso un video de una comparativa extrema: una mierda de Athlon 200GE de 2 núcleos y 4 hilos (50€ de procesador) con un Ryzen 7 2700X con pruebas o a distintas resoluciones (1080p, 4K y 8K) para demostrar que cuanto más resolución hay la diferencia entre os fps se reduce hasta ser la misma.



Y en el video hablan de procesadores distintos: aquí hablamos del mismo procesador con menos de 200MHz de diferencia en frecuencia. Vamos, la diferencia será de ¿1 fps?.


En donde sí puede notarse más la cosa en el tema de RT, pero ahí reconozco que no tengo ni puñetera idea en tema de RT. Presupongo que será notoria la diferencia por el tema de los CU


Y para acabar, en el tema de las frecuencias variables, hay otro concepto no se tiene en cuenta: está la frecuencia de la CPU y la GPU pero también está su nivel de carga. Una cosa es que la CPU y la GPU vayan a una frecuencia y otra distinta es que su uso sea del 100%. Seguramente PS5 no pueda mover la CPU y la GPU a máxima frecuncia con su carga en ambas al 100%, pero es que eso no pasa nunca jugando: sólo hay que ver el video que he puesto antes en la parte del Ryzen 7 2700x para ver que en los juegos la GPU va al 100% y la CPU se va "rascando los huevos". Y más aún en resoluciones 4K
Además, en el peor de los casos se baja un poco la resolución dinámica en el momento puntual que requisiese y ya




Resumen del gran tochaco: al final los juegos multiplataformade PS5 y Series X irán prácticamente a la misma resolución y calidad en prácticamente todo el tiempo, con la excepción de que la posible resolución dinamica u otras técnicas del juego sean más agresiva en PS5, pero a nivel de tener que poner Digital Foundry y hacer zoom para notarlo. Incluso si fuesen a resoluciones fijas. En donde habrá más diferencia creo que es en el RT.


La diferencia va a ser muy baja porque a mayor Tflops mas dificil es notar las diferencias. Ya hay muchos poligonos en pantalla.

Hago un ejemplo cutre tengo una pelota aproximada:
Imagen

La diferencia de polígonos no va a estar en los modelos de los personajes, donde se recorta es en la lejanía uno a lo lejos se vera mejor el polígono de la hierba pero peor texturizada y en la otra se vera mejor la textura pero el polígono sera peor.

En realidad da lo mismo, porque las dos consolas van a ser muy parecidas, si que es cierto que yo pienso que en la PS5 los first si se centran el usar al máximo el SSD para arrojar una variedad de objetos importante y unas texturas realistas y variadas, aunque la suma final de polígonos sea inferior a la Xbox, nos van a parecer mas reales.

Y con esto no estoy desmintiendo mi anterior post, pero si Nauty dog utiliza la estrategia de eliminar las texturas y los polígonos del fondo para ponerlos mas cerca y según te acercas van mejorando con mejores texturas y polígonos hasta el extremo si lo sumas con una variedad de objetos con unas buenas texturas podría darse una apariencia muy realista que a Xbox le costaría por el tema de carga de texturas al segundo donde popearian o tendria que acercar demasiado las texturas del 50%. Ya que la diferencia entre los SSD es bastante importante.

Por supuesto en Xbox los estudios First partys harían lo propio con sus polígonos pero al igual que pasa en la pelota no puedes agregar una subdivisión mas a los personajes porque pasarían de 10.000 polígonos frente a 11.000 polígonos creo que no veríamos mucho la diferencia. Ya que es difícil percibir mejor algo que ya esta muy bien hecho.

No se como explicarlo porque es muy dificil de decir. Como siempre solo se me ocurre el caso extremo del cajon.
Imaginaos un juego tipo RDR2 en el que le dicen que habra un cajon. EN las dos consolas tienes 300ms de carga desde que pulsa el botón y se agacha y abre el cajón, supongamos que lo abre del tirón. Pongamos que despues de cargarlos en la GDDR disponemos del tiempo suficiente para que la grafica cargue en las caches y los meta en las CU quiza que podria necesitar la GDDR 10 ciclos?

10/2260*10^6 o 10/1860*10^6 en segundos. Osea que inapreciable por dentro de la grafica los datos se mueven a una velocidad que ya se nos escapan.

Lógicamente no había nada de nada cargado en la memoria global en ninguna de las dos maquinas sobre lo que habia dentro del cajón porque estabas usándolo todo para cargar la tienda y el vendedor. (caso extremo). Lo unico cargado con anterioridad es el mueble, las puertas y la textura de la madera. El resto hay que cargarlo desde 0.

EN 300 ms la PS5 puede traer desde el SSD 2700 MB y la Xbox puede traer 1350 MB.

Voy a calcular porque alguno leerá y dirá la GDDR de la Xbox es mas rápida y podria paliar el efecto y ahora le voy a explicar su efecto para que quede claro.

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms.

Como veis el ancho de banda de las GPU se encuentra totalmente lastrado pero de lleno por las velocidad del HDD para traer los objetos. Podriamos descontar los 6 ms de tiempo y los 2,4 ms de tiempo de los 300 ms pero el efecto seria que la PS5 podria traer 2646 MB y la Xbox podria traer 1339. Voy a despreciarlo por dejar los números bonitos. <-----Debido a esto no puedo entender como alguien dice que le ha sorprendido mas el ancho de banda de la GDDR que de el SSD. Para mi eso es impensable pero yo hay muchas cosas que desconozco así que algo habrá que yo no sepa, una lastima que no dijera porque.

Supongamos que PS5 puede con 10.000 polígonos y que Xbox puede con 11.000 polígonos.
Y que cada taza ocupa 1000 polígonos y el objeto pesa 100mb y 100 mb en texturas (tenemos una biblioteca de tazas infinita con todos los tamaños formas y colores y es inamovible no se pueden reducir polígonos ni texturas en ellas porque el usuario las va a ver en gigante en su pantalla en un primer plano. Entonces el diseñador que esta ajustando a mano la escena (eso no pasa). Se da cuenta de que en la PS5 solo puede mostrar mas que 10 tazas y en xbox puede mostrar 11 tazas. Y se da cuenta de que para traer cada taza al final necesita un ancho de banda de 200 megas que traer desde el SSD y solo tiene 1350 en una y 2700 en la otra.

EN PS5 cargara 10 * 100 MB + 10*100MB = 2000 todas las tazas diferentes y todas las texturas diferentes. Solo muestra 1000 poligonos.
En Xbox caraga 11 * 100 MB + 11* 1000 MB = 2200 ummm Mierda no da. Que podemos hacer, claro pues repetimos texturas y alguna taza. ¿si repito una y una llegare? 10*100 + 10*100 = 2000 + 1 taza repetida. Mierda tampoco. y si repiito 5? 6*100 MB + 6 * 100 = 1200 + 5 tazas repetidas. En total tengo 11 tazas de las cuales 6 son diferentes y 5 iguales a las otras seis, para esconderlo pongo que solo hay tazas iguales 2 a 2 excepto la 11 que es diferente.

Al final cuando veamos la escena en una consola y en la otra que veremos:

EN una se mostrara una escena con 10 Tazas todas diferentes y con todas las texturas diferentes, en la otra veremos 11 tazas pero hay 5 de ellas repetidas 2 a 2.

¿Si te pregunto quien tiene mejores gráficos? Estaríais seguros de la respuesta? Es un caso extremo porque se pueden reducir un poco las texturas y incluso un poco los modelos para que al final las dos tengan lo mismo, (no tiene sentido reducir los modelos porque entonces desaprovechas la potencia de la Xbox SerX). Pero con este ejemplo se puede apreciar que los Tflops no lo son todo, todos los anchos de banda y en concreto el que mas estaba lastrando los videojuegos era el del HDD. Y sigue siendo el peor ancho de banda incluso en la next gen.

Esto quiere decir algo malo de Xbox para nada el cambio va a ser brutal, en los multis nadie hara los cambios a mano, programaran para el mas bajo osea para un SSD de nvme con 4500 MB de cambio en comprimido y los de PS5 nos tendrán como lastre en este sentido a la Xbox SerX y para obtener 10 Tflops en pantalla y los de Xbox se comerán el lastre a la PS5 en ese sentido. Después en Xbox mejoraran la hierba del fondo inapreciable y en PS5 dejaran algunas texturas con mejor calidad un poco mas al fondo inapreciable. Y total que lo mismo da que da lo mismo.

Pero en los first partys habrá mas diferencia sobre todo por la variedad de los objetos y texturas que darán mucho realismo.

Claramente esto para mi es mi opinión personal, que tengo preferencia hacia mayor variedad de objetos porque los modelos y la cantidad de polígonos con 10 Tflops ya me parece muy buena.

En cualquier caso creo que las dos consolas van a suponer un fuerte cambio en los videojuegos por la inclusión del SSD que lastraba enormemente a las consolas y que han hecho muy bien en ponerlo. Va a generar un cambiazo en los videojuegos y si os digo la verdad deberiamos estar celebrandolo entre todos con una buena fiesta loca con mucha cerveza [beer] [beer][beer] [beer][beer] [beer][beer] [beer] . Pero la realidad es que estamos confinados. [tomaaa] [tomaaa] [tomaaa] [tomaaa]
Unerico está baneado por "troll"
phfceramic escribió:Ah, y otro dato: PS2 era la peor consola en términos de prestaciones respecto a sus rivales. No las ganó: las sodomizó. Si esta nueva generación vuelve a ganar sin tener la mejor potencia muchos van a reventar en bilis


Y supuestamente ps3 era todopoderosa porque cell y vino wii con un hardware inclusive peor que el de una xbox 1 y le robo todas las ventas en la cara con la facilidad que se movia el mando en cooking mama... y 360 le hizo un empate tecnico usando el mismo desarrollo interno de cell que ibm tambien le dió a microsoft por detras pero mejor terminado, con mejor gpu y a 100 napos menos. La era de sony es la que mas vende ya se fue hace tiempo. Ahora es nintendo la favorita en ventas y las otras dos se quedan con lo que a nintendo le sobra empatando. Si lo vemos asi, Sony de ser la lider en ventas en una mala desición de diseño, precio y fecha de lanzamiento con PS3 y una Nintendo inesperada; perdió todo su liderato de ventas de un plumazo, que de no ser Sony con todo su capital por detras, hubiera terminado como Sega. Ni siquiera a Microsoft con los horrendos errores de Juan (precio, kinetc, internet obligatoria al principio, hardware) le fue tan mal. Si los errores de elecciones comerciales PS3 costaron que hasta despidieran al gran Kutaragi, de quien se decia despues de PS1 y PS2 era alguien que jamas podia errar.

Igualmente el hardware en lo de ps2 no tuvo nada que ver con sus ventas (si lo hubiera tenido que ver Sony dejaba el mercado). Lo tuvo que ver que nadie confiaba en sega despues de saturn, que nintendo despues de la 64 tampoco era muy querida por el publico general y menos por las thirds (tanto que hasta xbox le ganó en ventas), y xbox llegó tan tarde y con tantas limitaciones de genero en su catalogo que nadie queria arriesgarse ni a comprarla o programarle. Como PS2 hubiera tenido una competencia decente con Dreamcast si Sega hubiera podido seguir economicamente esas ventas no las tenia, mucho menos si Shenmue hubiera salido mas cerca del lanzamiento de la consola y las thirds le hubieran tenido mas confianza (la falta de EA y Rockstar le pasaron factura)

phfceramic escribió:Y ya no es eso, es que cuando más baja es la resolución más notas la diferencia. Joder, la diferencia entre 900p y 1080p se nota a la legua


Todo es relativo, si no se aclara en que tamaño de monitor estas jugando, es dificil decir cuanto se puede notar o no tanto una resolución menor (a monitores mas chicos mas dificil notar la diferencia entre resoluciones superiores e inferiores). Lo que si no es relativo es que

1920x1080 = 2.0763,60 pixels totales
1600x900 = 1.440 pixels totales (Ryse)
960x1080 = 1.036,80 pixels totales (multi de Killzone S.F.)

Y si con estas cuentas hubo fanaticos que condenaron a Ryse por ser 900p diciendo que los jaggies se veian y resulta que decian esto viendo los "nativos 1080p" del multi de Killzone Shadow Fall donde decian no ver jaggies... osea simplemente demostraron que no solo no tienen ojos bionicos que pueden ver ese pixel de diferencia que hace la superioridad grafica sino que su fanatismo les hacia ver algo peor como "si fuera mejor"
Unerico escribió:La era de sony es la que mas vende ya se fue hace tiempo. Ahora es nintendo la favorita en ventas y las otras dos se quedan con lo que a nintendo le sobra empatando.

¿En tu mundo paralelo PS4 ha vendido 40 millones?
@Nowcry

Vuelves al asunto del tiro de cámara.

Vamos a ver, lo primero, estas haciendo asunciones en base a cifras frías de tasa de transferencia de datos de los SSD y te estás dejando en el tintero cosas tan importantes como: tecnologías de compresión/descompresión, coprocesadores asociados, optimización del acceso a caché, el cómo se almacenan, tratan y recuperan los datos almacenados.

En Ms llevan mucho tiempo trabajando en esto con DX12 no dudo que en PS también, pero no reduzcamos todo a la potencia bruta del SSD únicamente.

Segundo. Quizás en el fragor de traernos todos esos números no te has parado a pensar en lo que significan.

Hablamos de que ambos SSD son capaces de ofrecer a las respectivas GPUs del orden de 1/2 Gb de datos en cuestión de ms, recalco: milisegundos.

Hablas de texturas más detalladas y variadas. Bien, ¿ de verdad crees que algún desarrollador va a necesitar Gbs de texturas en tiempos tan cortos? Hablamos de que a 60 FPS tenemos un frametime de 16 ms y a 30 FPS 33 ms redondeando. El frametime es el tiempo entre un frame y otro, ¿en que casos vamos a ver la necesidad de meter tanta información de texturas en ese orden de tiempos? Nunca. Porque es descabellado pensarlo y es un supuesto del todo llevado al extremo. ¿Cuánto pesarían los juegos, Gigateras? Ambos SSD van sobrados y no son lastre ni factor determinante respecto a lo que se muestra en pantalla. Lo siento.

Como ya se ha dicho, donde quizás se vea alguna diferencia será en tiempos de carga.

Es por eso que SI que es importante el ancho de banda de las memorias, ya que lo que se va a hacer es acceder a PEQUEÑOS paquetes de información MUCHAS veces en periodos pequeños de tiempo. Porque la memoria es LIMITADA y ha de estar reciclándose.

Resumiendo, los SSD gráficamente no determinan nada y ambos van holgados hasta el extremo. La GPU y las memorias, sin embargo, si.

Un saludo.

Editado.
No entiendo esto

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms.


Según tus cuentas la GDDR de xbox tarda menos que la de ps5 en leer la misma cantidad de datos, ¿Por qué es peor la configuraciónde Xbox entonces? No lo entiendo, gracias si me lo pones más corto.

@Nowcry
Eaniel Kashal escribió:No entiendo esto

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms. [/b]

Según tus cuentas la GDDR de xbox tarda menos que la de ps5 en leer la misma cantidad de datos, ¿Por qué es peor la configuraciónde Xbox entonces? No lo entiendo, gracias si me lo pones más corto.

@Nowcry


No soy él, pero creo que puedo aclarar tu duda. Si te fijas, no procesan la misma cantidad de datos. PS5 estaría procesando más, en concreto esa cantidad de megas corresponde a lo que puede ofrecer su SSD en 300 ms. Siempre, en teoría, claro.

Un saludo.
Eaniel Kashal escribió:No entiendo esto

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms.


Según tus cuentas la GDDR de xbox tarda menos que la de ps5 en leer la misma cantidad de datos, ¿Por qué es peor la configuraciónde Xbox entonces? No lo entiendo, gracias si me lo pones más corto.

@Nowcry

Lo que dice que es peor es el ancho de banda del SSD. La RAM es más rápida en Xbox con la única pega de que no toda la RAM es más rápida y eso hace que los desarrolladores tengan que controlar qué archivos meten dónde para exprimirla al máximo.
eloskuro está baneado del subforo por "flames"
GABITIN escribió:
Eaniel Kashal escribió:No entiendo esto

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms. [/b]

Según tus cuentas la GDDR de xbox tarda menos que la de ps5 en leer la misma cantidad de datos, ¿Por qué es peor la configuraciónde Xbox entonces? No lo entiendo, gracias si me lo pones más corto.

@Nowcry


No soy él, pero creo que puedo aclarar tu duda. Si te fijas, no procesan la misma cantidad de datos. PS5 estaría procesando más, en concreto esa cantidad de megas corresponde a lo que puede ofrecer su SSD en 300 ms. Siempre, en teoría, claro.

Un saludo.


Te estas liando.

Ps5 2700 megas en 6 ms
Xbox Series X 1350 megas en 2,4 ms
Xbox Series X 2700 megas en 4,8 ms
Xbox series X 3425 megas en 6 ms

---

Ojo. Que yo ni idea de estas cosas. Pero son los datos que ha puesto el usuario.

Pd: Y huelga decir que tiene mi agradecimiento por el aporte al hilo. Se ha pegado buen curro.
@David Ricardo pero si la X lee 1350 en 2.4, lee 2700 en 4.8.
Es decir 1.2 más rápido que Ps5, eso es lo que no entiendo, según sus números X es mejor que PS5 pero el que dice que peor, y como no tengo ni idea, a ver si alguno me lo puede explicar con palabras de primero de injeniero aprobado en septiembre, que es el título que tengo [tomaaa] [reojillo]

@GABITIN No te había visto, es que según sus datos y con mis nulos conocimientos me salen las cuentas de @eloskuro , por eso que me lo aclaren.

Perdón por las ediciones.
@Eaniel Kashal creo que @Nowcry dice:

Que a mismo tiempo (300ms) el SSD de PS5 lleva 2700MB a la GPU y el de XBOX 1350MB.

Luego comenta que procesar esos 2700MB del SSD lleva a la GPU de PS5 unos 6ms, y la GPU de XBOX tarda en procesar los 1350MB unos 2,4ms.

Por lo que el ancho de banda esta condicionado por la velocidad del SSD, entiendo que puedes tener un ancho de banda más rápido como el de XBOX pero estará desaprovechado ya que estará esperando al SSD.

Pero que lo aclare el, que yo solo estoy intentando interpretarlo.


Escrito por Nowcry
EN 300 ms la PS5 puede traer desde el SSD 2700 MB y la Xbox puede traer 1350 MB.

Voy a calcular porque alguno leerá y dirá la GDDR de la Xbox es mas rápida y podria paliar el efecto y ahora le voy a explicar su efecto para que quede claro.

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms.

Como veis el ancho de banda de las GPU se encuentra totalmente lastrado pero de lleno por las velocidad del HDD para traer los objetos. Podriamos descontar los 6 ms de tiempo y los 2,4 ms de tiempo de los 300 ms pero el efecto seria que la PS5 podria traer 2646 MB y la Xbox podria traer 1339. Voy a despreciarlo por dejar los números bonitos. <-----Debido a esto no puedo entender como alguien dice que le ha sorprendido mas el ancho de banda de la GDDR que de el SSD. Para mi eso es impensable pero yo hay muchas cosas que desconozco así que algo habrá que yo no sepa, una lastima que no dijera porque.
Eaniel Kashal escribió:@David Ricardo pero si la X lee 1350 en 2.4, lee 2700 en 4.8.
Es decir 1.2 más rápido que Ps5, eso es lo que no entiendo, según sus números X es mejor que PS5 pero el que dice que peor, y como no tengo ni idea, a ver si alguno me lo puede explicar con palabras de primero de injeniero aprobado en septiembre, que es el título que tengo [tomaaa] [reojillo]

@GABITIN No te había visto, es que según sus datos y con mis nulos conocimientos me salen las cuentas de @eloskuro , por eso que me lo aclaren.

Perdón por las ediciones.

Te lo acabo de explicar. Él dice que PS5 es mejor en el ancho de banda del SSD. Las cifras que tú estás comentando son de transferencia de la RAM. Y en su parte óptima, la memoria RAM de series X es un 25% más rápida.
Yo no tengo ni puta idea de esto, pero en mi cabeza (según creo que funciona esto) va así:

El problema con el cálculo es pensar que el SSD va a estar mandando los datos todo el rato a la RAM y que no va a hacer ningún tipo de precarga en los más de 10 Gigas de ambas RAMs.

Pongamos que un juego pesa 100GB y cada "nivel" son 10GB. Estamos hablando que el SSD de SX tardaría 1 segundo y medio en cargar todos los datos del nivel y el de PS5 medio segundo en la RAM. Y luego ya tiramos de ahí.

Y lo mismo en mundos abiertos, las lecturas las va haciendo según llegamos. No va a mostrar 11 tazas la SX repetidas y 10 diferentes la PS5, las van a cargar en la RAM según estemos cerca y cuando entremos en la habitación de las tazas las veremos todas bonitas y diferentes y todas llegando desde la RAM, no desde el SSD.
@pers46 ahora sí, lo de los 300ms es lo que no entendía, pensaba que los SSD daban esos 2700/1350 por ms.

@David Ricardo no entendí tu explicación sorry, ya te digo que mi título de injeniero no da para más.

Gracias a todos, pues entonces en lenguaje tarugo (el mio) X moverá paquetes pequeños más rápido y Ps5 paquetes más grandes más rápido.

Los juegos cargaran antes en PS5 y las texturas y demás cosas dentro del juego (que por lo que os leo son más pequeñas) cargarán antes en X ¿No?
Unerico está baneado por "troll"
aaalexxx escribió:
Unerico escribió:La era de sony es la que mas vende ya se fue hace tiempo. Ahora es nintendo la favorita en ventas y las otras dos se quedan con lo que a nintendo le sobra empatando.

¿En tu mundo paralelo PS4 ha vendido 40 millones?


Yo recuerdo como Wii barrio al piso a 360 y PS3, que, encima tuvieron un empate tecnico en un lejano segundo puesto a Nintendo, despues de eso ya nada volvió a ser lo mismo. Despues de ese fracaso de sony en volver a ser las mas vendida, vino el vs entre Juan y PS4, donde PS4, por logica (viendo el desastre que era Juan en general por varios motivos) le supera en el doble las ventas a fecha de hoy y de WiiU ni hablo porque fue un batacazo.

Ahora bien, ahora viene la parte divertida, PS4 y Juan se lanzan en el 2013, por lo que la comparación de ventas por numeros pelados sin contar nada mas, es lógica, porque ambas saliendo al mismo tiempo pueden compararse en términos similares; pero, Switch, se lanza en el 2017 (cuatro años luego de PS4 y Juan) y ya superó a Juan y esta con cuatro años de desventaja en un numero levemente menor que la mitad de PS4... hace falta decir que hubiera pasado si Switch salia en el 2013 junto con PS4 y Juan? y cuando PS4 deje de venderse porque ya esta PS5 en mercado y sus ventas decrezcan hasta cero, yo no veo que haya sucesora de Switch a la vista, lo que significa que Switch seguirá vendiendose aun cuando ya ni una sola PS4 se venda. Por lo que entonces los valores de PS4 seran alcanzados y superados por Nintendo a la larga.. En resumen, no, sony no es la reina de las ventas, esa epoca se fue con PS2 y cuando llego Wii todo cambio y Nintendo es la que gana hoy en ventas, y de no ser por WiiU, eso seria aun mas notorio. El problema es que algunos creen que ya se termina la generación porque la miden con las fechas de Microsoft y Sony y dejan de contar las ventas cuando despues aparece la nueva generación, pero con Nintendo esas reglas de fechas ya no corren. Nintendo volvió con todo (cuando ya nadie daba dos duros por ella despues de N64 y NGC y hasta decian que se haria third los haters) y nada parece que vaya a bajarla del podio de ventas en el que supo colocarse.

Ventas actualizadas al 2020
Según analistas, Nintendo Switch tendrá más vida en el mercado (superara los 100 millones)
Eaniel Kashal escribió:@pers46 ahora sí, lo de los 300ms es lo que no entendía, pensaba que los SSD daban esos 2700/1350 por ms.

@David Ricardo no entendí tu explicación sorry, ya te digo que mi título de injeniero no da para más.

Gracias a todos, pues entonces en lenguaje tarugo (el mio) X moverá paquetes pequeños más rápido y Ps5 paquetes más grandes más rápido.

Los juegos cargaran antes en PS5 y las texturas y demás cosas dentro del juego (que por lo que os leo son más pequeñas) cargarán antes en X ¿No?


¡Ojo!, que yo no se si lo he entendido bien, es algo que solo puede aclarar el compañero. Yo te he comentado lo que mi discapacidad lectora me ha permitido entender.
XD
eloskuro escribió:
GABITIN escribió:
Eaniel Kashal escribió:No entiendo esto

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms. [/b]

Según tus cuentas la GDDR de xbox tarda menos que la de ps5 en leer la misma cantidad de datos, ¿Por qué es peor la configuraciónde Xbox entonces? No lo entiendo, gracias si me lo pones más corto.

@Nowcry


No soy él, pero creo que puedo aclarar tu duda. Si te fijas, no procesan la misma cantidad de datos. PS5 estaría procesando más, en concreto esa cantidad de megas corresponde a lo que puede ofrecer su SSD en 300 ms. Siempre, en teoría, claro.

Un saludo.


Te estas liando.

Ps5 2700 megas en 6 ms
Xbox Series X 1350 megas en 2,4 ms
Xbox Series X 2700 megas en 4,8 ms
Xbox series X 3425 megas en 6 ms

---

Ojo. Que yo ni idea de estas cosas. Pero son los datos que ha puesto el usuario.

Pd: Y huelga decir que tiene mi agradecimiento por el aporte al hilo. Se ha pegado buen curro.


En absoluto. Precisamente lo que digo es que XSX, en ese ejemplo dado, tarda menos porque procesa menos cantidad de datos amén de que su memoria es más rápida. Ya que el compañero pensaba que estaban procesando la misma cifra.

Un saludo.
Unerico escribió:
aaalexxx escribió:
Unerico escribió:La era de sony es la que mas vende ya se fue hace tiempo. Ahora es nintendo la favorita en ventas y las otras dos se quedan con lo que a nintendo le sobra empatando.

¿En tu mundo paralelo PS4 ha vendido 40 millones?


Yo recuerdo como Wii barrio al piso a 360 y PS3, que, encima tuvieron un empate tecnico en un lejano segundo puesto a Nintendo, despues de eso ya nada volvió a ser lo mismo. Despues de ese fracaso de sony en volver a ser las mas vendida, vino el vs entre Juan y PS4, donde PS4, por logica (viendo el desastre que era Juan en general por varios motivos) le supera en el doble las ventas a fecha de hoy y de WiiU ni hablo porque fue un batacazo.

Ahora bien, ahora viene la parte divertida, PS4 y Juan se lanzan en el 2013, por lo que la comparación de ventas por numeros pelados sin contar nada mas, es lógica, porque ambas saliendo al mismo tiempo pueden compararse en términos similares; pero, Switch, se lanza en el 2017 (cuatro años luego de PS4 y Juan) y ya superó a Juan y esta con cuatro años de desventaja en un numero levemente menor que la mitad de PS4... hace falta decir que hubiera pasado si Switch salia en el 2013 junto con PS4 y Juan? y cuando PS4 deje de venderse porque ya esta PS5 en mercado y sus ventas decrezcan hasta cero, yo no veo que haya sucesora de Switch a la vista, lo que significa que Switch seguirá vendiendose aun cuando ya ni una sola PS4 se venda. Por lo que entonces los valores de PS4 seran alcanzados y superados por Nintendo a la larga.. En resumen, no, sony no es la reina de las ventas, esa epoca se fue con PS2 y cuando llego Wii todo cambio y Nintendo es la que gana hoy en ventas, y de no ser por WiiU, eso seria aun mas notorio. El problema es que algunos creen que ya se termina la generación porque la miden con las fechas de Microsoft y Sony y dejan de contar las ventas cuando despues aparece la nueva generación, pero con Nintendo esas reglas de fechas ya no corren. Nintendo volvió con todo (cuando ya nadie daba dos duros por ella despues de N64 y NGC y hasta decian que se haria third los haters) y nada parece que vaya a bajarla del podio de ventas en el que supo colocarse.

Ventas actualizadas al 2020
Según analistas, Nintendo Switch tendrá más vida en el mercado (superara los 100 millones)


Tio, que PS4 ha superado los 100 millones y es una de las consolas mas vendidas de todos los tiempos, siendo además la consola que más rápido ha llegado a los 100 millones en la historia.

No digo que Switch no pueda superarla, pero si lo hace será un logro de la ostia
En todo caso, Switch pertenece a la generación de XSX y PS5 y WiiU fue la que compitió con PS4 y Xbox One.
Nintendo siempre va aparte, saca sus consolas cada menos tiempo por lo que es dificil definir la generacion. También suele optar por un tipo de publico diferente al coregamer.

El publico que opta por las consolas mas “tradicionales”, mas o menos entre xbox y ps suelen ser como 150 millones de ventas, y aqui playstation es donde suele dominar el mercado, solo una generación acabó “empatando” ... asi que lo logico y normal es que la proxima generación siga el mismo camino.
Nowcry está baneado del subforo por "troleos y flames"
GABITIN escribió:@Nowcry

Vuelves al asunto del tiro de cámara.



El concepto del tiro de la cámara va a ser el gran protagonista esta generación. Poder cargar los mundos abiertos en la GDDR a medida que avanzas o giras la cámara en vez de tener un área extensa que no estas viendo porque esta a la espalda o fuera de la cámara. Cuando mas puedas acercar el campo de carga al concepto del tiro de la cámara, mejores detalles podrás conseguir y mejor usaras la GDDR. El que lo consiga sera el que mejor gráficos tenga, y eso nos guste o no es DINERO.

En esta gen el diseño para cargar niveles ha sido una superficie cuadrada de unos 30 segundos a tu alrededor y esa dividida en pequeñas superficies cuadradas 10 segundos para todos los lados. Según avanzabas 10 segundos se cargaban los siguientes 10 segundos de un área completa y desaparecían los de tu espalda, como se tarda 10 segundos en precargar cada cuadrado pequeño si te das la vuelta no puedes encontrar un barranco, así que calculo que de los 9 cuadrados eres capaz de ver unos 3 a la vez. Los otros 6 están precargados a la espera de que te des la vuelta. De los 8 Gb de memoria gráfica 6 se usaban en gráficos, pues de esos 6 gb tu solo ves 2 en la cámara, el resto están esperando.

Con el SSD ya no se cargan cuadrados, se carga lo que hay en el tiro de la cámara y unos margenes de alrededor unos 200 ms OSea seria un triangulo un poco mas abierto que se desplazaría con la vista del personaje. De tal forma que lo que vas a ver en vez de ser los 2 GB igual alcanzas a ver 14 GB de VRAM. El cambio es sustancial. Porque aunque los polígonos sean los mismo, ahora podemos tener bibliotecas mas grandes de plantas, bibliotecas de piedras, bibliotecas de tipos de suelo, mejores texturas todo va a mejorar. Según el ancho de banda del SSD el triangulo estará mas abierto o mas cerrado.

Eso significa que en Xbox pueden tener mas polígonos y incluso texturas mas grandes pero una vez que ya estén cargadas en la GDDR, el problema estará en hacerlo al vuelo, cuando tengas el tiempo limitado para meterlas habrá que reducir el numero de plantas diferentes y de texturas diferentes para no exceder el ancho de banda y eso va a ser lo mas frecuente. Y en cualquier caso tiene un SSD normal así que las ganancias van a ser brutales, para flipar.

De esta no me bajo es el gran cambio que se anuncia en muchos sitios de esta generación, lo que dicen el cambio mas emocionante desde PS2 es por esto. Y va a ser así si o si. Con otros algoritmos mejores que el mio si hay pero todo ira enfocado a que por fin podamos usar la GDDR en la pantalla en su conjunto en vez de ver solo una parte.

GABITIN escribió:Vamos a ver, lo primero, estas haciendo asunciones en base a cifras frías de tasa de transferencia de datos de los SSD y te estás dejando en el tintero cosas tan importantes como: tecnologías de compresión/descompresión, coprocesadores asociados, optimización del acceso a caché, el cómo se almacenan, tratan y recuperan los datos almacenados.

En Ms llevan mucho tiempo trabajando en esto con DX12 no dudo que en PS también, pero no reduzcamos todo a la potencia bruta del SSD únicamente.


Yo no creo que Direct X 12 ultimare sea mejor que Vulkan, y eso esta mas que demostrado que Vulkan al final aunque sea de código abierto muchas empresas desarrollan y comparten librerías para no necesitar realizar pagos de royalties.
Las tecnologías de compresión al final serán lo mismo, ya hay casi un 50% de compresión sin perdidas, que podrán ganar un 5% mas gracias a optimizar? nuevos algoritmos? no creo que sony este desarrollando su algoritmo lo que han hecho es contratar a los que se dedican a ello y comprarles el hardware para incluirlo.

Por eso no dudo que MS tenga el suyo y sea bueno es solo que no creo que haya diferencia. MS tiene mucha experiencia en muchas cosas y hace las cosas bien pero tampoco creo que sea mucho mejor que los que están especializados en ello.

Sobre cooprocesadores asociados no los he tenido en cuenta porque PS5 tiene el Geometry y por otro lado se comenta que el chip custom del SSD vuelva muy rapido en del SSD sin pasar por la GPU equivalente a 2 hilos de Ryzen eso podría ahorrar latencias y otra serie de teorías que por ahora no sabemos nada.
En Xbox su sistema de compresión que podría o no ser mejor que el kraken pero que no tiene custom chip lo que aumentara las latencias y usara CPU para ello. Pero no sabemos como afectara solo puedo basarme
Lo mismo pasa con todos los hilos asociados. En cuanto a optimizacion de la cache depende del SO, no voy a poner a nadie por encima considero que los dos desarrollan bien sistemas, creo que la optimizacion y acceso de datos es justo donde destaca la PS5 gracias al custom chip del SSD.

Ningun SSD es un lastre todos van a mejorar mucho, pero tengo que ser justo y con ese caso extremo que he propuesto.

De todas formas lo logico es comparar en potencia bruta, porque en realidad en todos las teorias que he desarrollado he tratado la potencia bruta de las maquinas sin tratar ni el geometry ni tempest ni ningun hardware dedicado porque eso luego puede salir bueno o malo.

Si tratamos la potencia bruta de la GPU porque no tenemos otra cosa, habrá que tratar también la potencia bruta del SSD como referencia porque no tenemos otra cosa. Y desestimar las cosas nuevas hasta que las veamos. Todo esto es especular, si tuviéramos las consolas no estaríamos aquí hablando de nada de esto.


GABITIN escribió:Segundo. Quizás en el fragor de traernos todos esos números no te has parado a pensar en lo que significan.

Hablamos de que ambos SSD son capaces de ofrecer a las respectivas GPUs del orden de 1/2 Gb de datos en cuestión de ms, recalco: milisegundos.

Hablas de texturas más detalladas y variadas. Bien, ¿ de verdad crees que algún desarrollador va a necesitar Gbs de texturas en tiempos tan cortos? Hablamos de que a 60 FPS tenemos un frametime de 16 ms y a 30 FPS 33 ms redondeando. El frametime es el tiempo entre un frame y otro, ¿en que casos vamos a ver la necesidad de meter tanta información de texturas en ese orden de tiempos? Nunca. Porque es descabellado pensarlo y es un supuesto del todo llevado al extremo. ¿Cuánto pesarían los juegos, Gigateras? Ambos SSD van sobrados y no son lastre ni factor determinante respecto a lo que se muestra en pantalla. Lo siento.

Como ya se ha dicho, donde quizás se vea alguna diferencia será en tiempos de carga.

Es por eso que SI que es importante el ancho de banda de las memorias, ya que lo que se va a hacer es acceder a PEQUEÑOS paquetes de información MUCHAS veces en periodos pequeños de tiempo. Porque la memoria es LIMITADA y ha de estar reciclándose.

Resumiendo, los SSD gráficamente no determinan nada y ambos van holgados hasta el extremo. La GPU y las memorias, sin embargo, si.

Un saludo.


Hace unos días se filtro un benchmark de una gráfica se especula que la proxima Quadro en su versión pequeña y grande y la pequeña tenia 24 Gb de memoria GDDR con 22 Tflops y la grande tenia 32 GB de memoria HBM2 con 25 Tflops. Tu crees que no van a diseñar para necesitar tener unos 10 Gb en todo momento mostrándose y necesitar reposiciones al vuelo? Yo creo que el salto se va a producir y va a ser rápido.

Tal y como veo que van ha avanzar los videojuegos gracias al SSD, a los 10-12 Tflops no veo porque no no van a poder usar las texturas tal y como quieran usando el ancho de banda que quieran. Yo desde luego si quiero destacar graficamente para que mi juego venda bien pues utilizare todo lo que este a mi alcance (en cuanto tu pones hardware sobre la mesa no se como aunque parezca que va sobrado, al final se ocupa todo.
Asique si pienso que seran necesarios esa cantidad de Gbos y no van a tardar mucho. A lo bueno uno se acostumbra rapido y los diseñadores ese ancho de banda les sabe a gloria bendita, cualquiera de las 2 consolas.

En el hilo de Xbox mismamente habeis posteado unas escenas de unos arboles y playas, esas texturas superan por mucho a las de un MOD 4k de skyrim el cual esta diseñado para ocupar los 11 Gb de la 1080Ti.

En cuanto al frame rate, gracias a dios no hay que cargar datos desde el SSD para que varíen en un solo frame, haría popear cosas en la pantalla en cada frame, los cambios vienen en cambios de entorno y aunque nos guste o no habra que poner acciones del personaje que duren aunque sean 300ms para cargar lo que hay dentro.
Si en vez de poner un cajon pongo el ejemplo de una puerta con una casa entera, esta casa esta dentro de una ciudad muy detallada que hace que los 10 gb de GDDR estén a tope mientras paseas por ella y no queda mucho casi nada de margen.
Ahora en 300 ms que es lo que el personaje tarda en tocar el pomo y abrir la puerta tienes que tener cargado el interior. Tienes 2700 mb en PS5 para diseñar una casa, y en xbox 1350. En esta escala ya si empieza a doler no tener megas porque no es lo mismo una cajón que una casa. Esto puede suceder, sucederá y muchas veces. Hay 2 opciones o con 1350 mb diseñan una casa que va a ser una casa estupenda porque 1350 mb son muchos, o recortas un poco de la ciudad para tener margen y tener algunas cosas precargadas.

Si el caso es que pensáis en los tiempos de carga como una pantalla negra pero ya no se lleva casi, ahora los tiempos de carga son pasar por una pared estrecha o un ascensor y eso va a desaparecer. LOS TIEMPOS DE CARGA VAN A DESAPARECER, TODAS LAS CARGAS HABRÁ QUE HACERLAS AL VUELO MIENTRAS SE MUEVE EL JUEGO .
Hay que sacar partido a los ms, lo que te acabo de contar de las casas va a suceder y va a ser asi tal cual. 300ms para traer la casa entera PJ o enemigos en el interior incluidos.

Es lo que le pasa a Starcityzen que una vez que cargas la nave estación espacial ya no hay puntos de carga. Y pasa hasta con planetas enteros que ya no hay cargas hay que apañarselas como uno pueda para cargar al vuelo por ejemplo en las cuevas de mireria de StarCityzen es que no se carga, ves una cueva y para dentro que vas, no hay ni una puerta ni tampoco se pone la pantalla negra como skyrim, es un juego pensado para SSD, entrar en la cueva es entrar, e tocara cargar la cueva o al menos la parte visible en los proximos 2-4 segundos segun te acerques a ella, en caso de que haya demasiadas cosas y no haya margen para cargar tocara poner una animacion de por ejemplo adaptacion de los ojos a la oscuridad. 300 ms o 500 ms.

Ganas 300 ms con el efecto de la adaptacion de los ojos pero luego toca entrar en ella y cargarla mientras avanzas en ella. La longitud de la primera vista o la cantidad de objetos diferentes con texturas diferentes en su interior cambiara. Entiendo que objetos no van a quitar tocara quitar texturas o repetir o ponerlas de peor calidad.

Bueno que no se si te he convencido porque es muy dificil de explicar, las consecuencias del SSD son muy altas y por eso PS5 invirtio un poco por alli. A su vez como es tan dificil de explicar la conferencia fue una mierda, lo que tiene que hacer Sony es enseñar una escena usando los 14 gb de VRAM en el tiro de cámara y que gire con una actualización de VRAM de 9gb por variedad y luego coger otra con un HDD y otra con un SSD normal. Poner todas una al lado de las otras con la reducción de texturas. Es la unica forma de enseñar correctamente lo que puede cambiar el SSD.

Eaniel Kashal escribió:No entiendo esto

La GDDR de Xbox va a 560 GB/s lo que en procesar 1350 megas tardaria 1350* 10^6 bits/s / 560 * 10 ^9 bits/s = 0.0024. Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 2,4 ms.

La GDDR de PS5 va a 448 GB/s lo que en procesar 2700 megas tardaria 2700* 10^6 bits/s / 448 * 10 ^9 bits/s = 0.006 . Osea en viajar por dentro de la grafica y procesarlo la grafica tarda 6 ms.


Según tus cuentas la GDDR de xbox tarda menos que la de ps5 en leer la misma cantidad de datos, ¿Por qué es peor la configuraciónde Xbox entonces? No lo entiendo, gracias si me lo pones más corto.

@Nowcry
[/quote]

Creo que ya lo has entendido, el problema como te han comentado es que los tiempos de carga desaparecen ya no habrá tiempos de cargas todo debe cargarse en espacios de tiempo corto que se hacen coincidir con las acciones del jugador. Es decir en 300 ms es lo que tienes para que el personaje haga la acción te tiene que dar tiempo a traerlo desde el SSD a la GDDR y mételos en las caches. Para que cuando termine el tiempo los polígonos estén texturizados.

Es algo así como colocar los colorines a los triángulos. Pero los colorines están en una bolsa muy grande.

Primero tienes el tiempo de búsqueda del color que buscas. (Latencia de busqueda del SSD casi 0)

Una vez encontrado lo coges. (Lo metes en la GDDR) 300 ms

Después aplicarlo (la gráfica mete los datos en las caches y procesa) si diseñas los polígonos para 30 fps unos 33 ms.

Por ultimo mostrarlo. (lo envía a los ROPS y lo muestra en pantalla) <------Este si esta bien alimentado es Cte 4k 30 fps 33ms.

El peor paso de todos es justamente el coger el color. Afecta tanto que los juegos se diseñan entorno a el, tener grandes variaciones en este paso cambia la forma de diseñar el juego desde el mismísimo concepto de como cargar el mundo a tu alrededor.
eloskuro está baneado del subforo por "flames"
El tema es que en la RAM, cada "textura" por así decirlo, está repartida en trozos por cada chip. Eso se hace porque es más rápido leer de 10 chips a la vez, que solo de 1. (O de 8 como en PS5)
En un capitulo no estas vaciando la ram y cargando nuevo contenido constantemente.
El sistema predice lo que debe ir cargando con tiempo de sobra. No de la misma.

A nivel práctico carga mucho antes en Series X porque tiene más velocidad de Ram.

Sin contar que SFS consigue que esa Ram cuente entre 2 y 3 veces su tamaño. Por lo que debe cargar menos veces la ram.

Tiene que copiar en la ram menos veces y los carga antes en pantalla.
@Nowcry
Las cargas iniciales de los juegos como serán?
Si el próximo GTA VI es 100% nextgen nos libraremos de esa carga inicial tan tipica? Lo mismo para los viajes "rápidos" No termino de creerme que nos libremos de las pantallas de carga con el típico consejo.
Eaniel Kashal escribió:@David Ricardo pero si la X lee 1350 en 2.4, lee 2700 en 4.8.
Es decir 1.2 más rápido que Ps5, eso es lo que no entiendo, según sus números X es mejor que PS5 pero el que dice que peor, y como no tengo ni idea, a ver si alguno me lo puede explicar con palabras de primero de injeniero aprobado en septiembre, que es el título que tengo [tomaaa] [reojillo]

@GABITIN No te había visto, es que según sus datos y con mis nulos conocimientos me salen las cuentas de @eloskuro , por eso que me lo aclaren.

Perdón por las ediciones.


En resumen:

Imagen
Nowcry está baneado del subforo por "troleos y flames"
eloskuro escribió:El tema es que en la RAM, cada "textura" por así decirlo, está repartida en trozos por cada chip. Eso se hace porque es más rápido leer de 10 chips a la vez, que solo de 1. (O de 8 como en PS5)
En un capitulo no estas vaciando la ram y cargando nuevo contenido constantemente.
El sistema predice lo que debe ir cargando con tiempo de sobra. No de la misma.

A nivel práctico carga mucho antes en Series X porque tiene más velocidad de Ram.

Sin contar que SFS consigue que esa Ram cuente entre 2 y 3 veces su tamaño. Por lo que debe cargar menos veces la ram.

Tiene que copiar en la ram menos veces y los carga antes en pantalla.


Yo creo que el sistema de predicción esta basado en HDD, el sistema de predicción es el resultado de los bajos anchos de banda, y según han cambiado las cosas, entiendo que el predictor cambiara en consecuencia, según se cambie el diseño de carga el sistema cambiara, dejara de predecir por donde vas a ir para ir precargando, para empezar a predecir hacia donde vas a girar el personaje, y si hay algo que pueda suponer un problema precargarlo.

El predictor tendra mucho protagonismo pero ya no a 30 segundos vista, sera a 2 segundos 4 segundos vista. Y no siempre sera util, si tardas 300ms en cargar la casa completa para que vas a gastar datos y ancho de banda en el predictor si puedes meterlo a pelo en la animación de abrir la puerta. Abra puntos y zonas que no necesites predictor precisamente porque tienes tiempos de carga basados en el movimiento por ejemplo abrir la puerta, abrir un cajón, o destello del sol cuando sales a un sitio luminoso que te hace ganar 200 ms mientras la pantalla esta casi en blanco para que el usuario no vea popear cosas en la pantalla.

El predictor estará diseñado para predecir como moverás la cámara que elementos son mas pesados y no daría tiempo a cargarlos al vuelo para ir precargando o para mantenerlos y no borrarlos por si te das la vuelta. Esos elementos serian assets de mas de 4 gb o asi.

Todo son suposiciones sobre como diseñar de nuevo la carga de un mundo abierto. No tengo ni la mas remota idea de como se va a estructurar seguro que unreal y unity ya lo tiene requete desarrollado en PC y fijo que me dan mil vueltas haciendo que el sistema pueda ahorrarse lo maximo posible para mostar el máximo posible en el tiro de la camara, el otro dia vi un video sobre ello y la verdad es que los assets se cargaban a medida que avanzabas y girabas la cámara.

No lo pongo porque el tio era demasiado

Era un video en Unity estaba en la fase de diseño sin texturas y podía ver todo en las 4 vistas, por lo que entiendo porque las gráficas de diseño necesitan tanto GDDR. En ese video vi el sistema funcionar y como borraba incluso el camino que estas pisando y lo ponia delante, iba un par de metros por detrás de la camara no mucho mas borrando.
Sin embargo en la longitud osea lo mas lejano del tiro de la cámara estaba ya cargado y listo.

Yo estoy deseando ver algo en movimiento aprovechando al máximo el SSD de xbox o de PS5. Creo que el cambio nos va a sorprender a todos. Al igual que lo hace Starcitizen.

Tmac_1 escribió:@Nowcry
Las cargas iniciales de los juegos como serán?
Si el próximo GTA VI es 100% nextgen nos libraremos de esa carga inicial tan típica? Lo mismo para los viajes "rápidos" No termino de creerme que nos libremos de las pantallas de carga con el típico consejo.


No mas largas de 2- 4 segundos. Sera mas bien casi inexistente pero con algunos trucos. Por ejemplo no habrá carga pero harán un fundido negro, luego una recuperación del negro a la luminosidad con quizá un poco de deslumbramiento o desenfoque de fondo con pestañeo de ojos. Lo suficiente para esconderte los 2-4 segundos de carga que necesitas. Pero ojo los tiempos de carga serán solo al iniciar el juego.

Depende del diseño del juego pero un buen juego que haya sido diseñado desde 0 para la nueva gen / pc con ssd debería ser capaz de eliminar todos los tiempos de carga con mas o menos "trucos" excepto la carga inicial. Al entrar en tu vivienda en el GTA no debería haber una pantalla de carga, deberías abrir la puerta exterior, en lo que se hace la animación cargar lo que son los pasillos y todo el interior de las zonas comunes y escaleras, entre que subes las escaleras y abrir la puerta deberían cargar todo el piso y entrarías por la puerta.

Y esto va a las dos consolas, las dos podrán eliminar los tiempos de carga salvo el inicial que sera de 2-4 segundos.
También el caso es en casos extremos llevar este sistema al extremo es donde se verán las diferencias y dudo mucho que los multis vayan a usarlo.
Diseñaran para SSD normal y luego intentaran meter alguna mejora de lo que puedan en PS5 por ejemplo algunas texturas diferentes para agregar algo de variedad porque hay ancho de banda y se lo pueden permitir o puede que simplemente cojan las texturas y las pongan un poco mejores mientras aguanten los TFLOPS.

Si el juego es intergeneracional o no utiliza el sistema el sistema del "tiro de cámara" si no que se basa en los antiguo y por lo tanto no lleva al limite ni el SSD de la xbox, entonces Xbox tendrá mejores gráficos y mejores texturas. Pero tampoco va a ser un juego TOP en gráficos porque ser TOP en gráficos esta ligado a aprovechar el sistema "tiro de cámara".
Ok. Gracias. Siguiendo con el ejemplo del GTA, esa pequeña primera carga inicial que dices se podría camuflar con una transición tipo vista aérea que se usaba en GTAV cuando cambiabas de personaje.
Tmac_1 escribió:@Nowcry
Las cargas iniciales de los juegos como serán?
Si el próximo GTA VI es 100% nextgen nos libraremos de esa carga inicial tan tipica? Lo mismo para los viajes "rápidos" No termino de creerme que nos libremos de las pantallas de carga con el típico consejo.


A mi, la carga inicial me preocupa poco, mientras los viajes "rápidos" sean realmente rápidos como mostraron en el Spider-man para hacer la prueba.

En realidad hay que tener en cuenta que el GTA V en realidad es de PS360 con aumento de texturas en PS4 y poca cosa más, es decir, que realmente no hicieron el juego desde 0, si no que es una adaptación.

Con esto me refiero a que de base, el juego quedó limitado en parte a la "potencia" de PS360....

Sinceramente espero que GTA VI sea ÍNTEGRAMENTE exclusivo de NextGen y no sea otro intergeneracional....

A ver si así, de una p*** vez acabamos con el puñetero síndrome de las puertas cerradas...

Si sacan por fin un juego donde puedas entrar en cada maldito edificio....
Aunque el interior sea una mierda y sean repetidos, me da igual. Pueden hacerlos en plan aleatorio y a ver que sale y luego ya retocarán si hace falta...

Un GTA Online en el que se pueda entrar en todos los edificios y que puedas robar en plan San Andreas... Con atracos a bancos y todo... Eso si que es NextGen
@Nowcry Si la carga tarda 2-4 segundos no hace falta fundidos ni nada. El menú del juego te lo puede cargar en menos de 1 segundo. Entre que haces click y le das a jugar partida no te enteras de la carga. No hace falta ni fundido ni nada yo creo.
David Ricardo escribió:@Nowcry Si la carga tarda 2-4 segundos no hace falta fundidos ni nada. El menú del juego te lo puede cargar en menos de 1 segundo. Entre que haces click y le das a jugar partida no te enteras de la carga. No hace falta ni fundido ni nada yo creo.


Hombre... yo espero que así sea...

La PS4 tiene unos juegos impresionantes, pero lo que es una puta basura es lo que tardan en cargar...¡La virgen!

Iniciar el Death Stranding, el Days Gone, el horizon.... pfff..

Sin exagerar, ha habido veces que me he tirado más tiempo cargando que jugando, porque me ha surgido algo y como se ha pegado 5-10 minutos cargando entre encender la consola y todo el rollo...
Unerico escribió:
aaalexxx escribió:
Unerico escribió:La era de sony es la que mas vende ya se fue hace tiempo. Ahora es nintendo la favorita en ventas y las otras dos se quedan con lo que a nintendo le sobra empatando.

¿En tu mundo paralelo PS4 ha vendido 40 millones?


Yo recuerdo como Wii barrio al piso a 360 y PS3, que, encima tuvieron un empate tecnico en un lejano segundo puesto a Nintendo, despues de eso ya nada volvió a ser lo mismo. Despues de ese fracaso de sony en volver a ser las mas vendida, vino el vs entre Juan y PS4, donde PS4, por logica (viendo el desastre que era Juan en general por varios motivos) le supera en el doble las ventas a fecha de hoy y de WiiU ni hablo porque fue un batacazo.

Ahora bien, ahora viene la parte divertida, PS4 y Juan se lanzan en el 2013, por lo que la comparación de ventas por numeros pelados sin contar nada mas, es lógica, porque ambas saliendo al mismo tiempo pueden compararse en términos similares; pero, Switch, se lanza en el 2017 (cuatro años luego de PS4 y Juan) y ya superó a Juan y esta con cuatro años de desventaja en un numero levemente menor que la mitad de PS4... hace falta decir que hubiera pasado si Switch salia en el 2013 junto con PS4 y Juan? y cuando PS4 deje de venderse porque ya esta PS5 en mercado y sus ventas decrezcan hasta cero, yo no veo que haya sucesora de Switch a la vista, lo que significa que Switch seguirá vendiendose aun cuando ya ni una sola PS4 se venda. Por lo que entonces los valores de PS4 seran alcanzados y superados por Nintendo a la larga.. En resumen, no, sony no es la reina de las ventas, esa epoca se fue con PS2 y cuando llego Wii todo cambio y Nintendo es la que gana hoy en ventas, y de no ser por WiiU, eso seria aun mas notorio. El problema es que algunos creen que ya se termina la generación porque la miden con las fechas de Microsoft y Sony y dejan de contar las ventas cuando despues aparece la nueva generación, pero con Nintendo esas reglas de fechas ya no corren. Nintendo volvió con todo (cuando ya nadie daba dos duros por ella despues de N64 y NGC y hasta decian que se haria third los haters) y nada parece que vaya a bajarla del podio de ventas en el que supo colocarse.

Ventas actualizadas al 2020
Según analistas, Nintendo Switch tendrá más vida en el mercado (superara los 100 millones)

Mira, te la voy a poner cortita y al pie:

WiiU 14M + Switch 55M = 69M
PS4 + PS4 PRO = 104M

Mañana dios dirá, actualmente esos son los datos, si no lo quieres ver pues perfecto pero no vendas películas para no dormir.
eloskuro está baneado del subforo por "flames"
Se está hablando de que RDNA3 vá a tener 250 GB de assets al instante para juegos.

Xbox Series X oficialmente tiene 100 GB.

Me parece una pasada como se vá moviendo este tema en las nuevas arquitecturas.
Nowcry está baneado del subforo por "troleos y flames"
David Ricardo escribió:@Nowcry Si la carga tarda 2-4 segundos no hace falta fundidos ni nada. El menú del juego te lo puede cargar en menos de 1 segundo. Entre que haces click y le das a jugar partida no te enteras de la carga. No hace falta ni fundido ni nada yo creo.


¿Y si seleccionas otro partida? Es decir puede precargar la ultima, pero y si seleccionas la tercera partida con tu otro personaje? No puede predecirlo, los 2 o 4 segundos hay que poner algo, o pantalla negra o algunos fundidos para que parezca instantaneo. Pero el tiempo tendrá que contar desde que le das a cargar partida y seleccionas la que es.

eloskuro escribió:Se está hablando de que RDNA3 vá a tener 250 GB de assets al instante para juegos.

Xbox Series X oficialmente tiene 100 GB.

Me parece una pasada como se vá moviendo este tema en las nuevas arquitecturas.


¿Que significa eso? Hay alguna limitación de assets? yo creía que podrias llenar el SSD si te da la gana. No entiendo la necesidad de limitarse a 100 Gb?
31430 respuestas