Hablemos de las nuevas consolas

Encuesta
¿La retrocompatibilidad es importante a la hora de comprar una consola nueva?
77%
1261
10%
166
13%
209
Hay 1636 votos.
Nowcry escribió:
Hay un problema en todo esto un poco complejo a ver si me explico:

En un ciclo te comunicas por todos los canales con las partes del 1gb/s, hablando en cristiano uso los 4 canales de cada chip para extraer memoria de los 10 chip de memoria.

Eso me deja la duda de lo siguiente:

¿Como puedo acceder a la parte del sistema a la memoria lenta y a la rapida al mismo tiempo?

Es imposible, si tengo ocupados todas los canales en el ciclo solo puedo comunicarme con la parte rápida, y tendré que esperarme al siguiente ciclo para comunicarme con la lenta.
Es decir no existe acceso simultaneo ha una parte y a la otra, físicamente es imposible, entendiendo que las texturas y los archivos estan presentes en los 10 chip de forma entrelazada para que funcionen a 560 GB/s. Si quieres usar la parte lenta debes turnar un ciclo para uno un ciclo para el otro y ademas el sistema creara interrupciones en los ciclos.

En cristiano no puedes acceder a las zona de la memoria a 560 GB/s a la vez que a las zonas de 336 GB/s, deben ser en ciclos diferentes. No generara esto interrupciones en toda la memoria? Eso bajaría el ancho de banda considerablemente ya que cuando estas leyendo la zona rápida la tasa de trasferencia de la zona lenta sera de 0GB/s. Y cuando lees la zona lenta la trasferencia de la zona rapida es 0GB/s.

Soluciones?


La solucion logica, mete los datos que mas se usen en la parte rapida de la memoria y los que menos en la lenta. Cuanto mas porcentaje del tiempo estes usando la rapida mas cerca de ese ancho de banda maximo de 560 GB/s estaras.

Tampoco creo que sea un gran problema para los desarrolladores.

Un saludo!
Nowcry escribió:
jose2488 escribió:
Nowcry escribió:
Te voy a decir yo otra ---->Eso es imposible.
Ya se como se hace:
Son 10 chip que funcionan como un raiz 0, asique 10 chip hasta 1 GB cada uno funcionan nutriendo todos a la vez 560 GB y cuando se supera los 6 GB siguientes te hace funcionar a 336 GB/s.
En teoria tienes que programar las direcciones de memoria a mano para no ocupar la parte de los chips de memoria que estan por encima de 1 GB. Que debería ser la parte de la memoria del sistema.

Molaria que por una vez alguien respondiera algo cientifico en vez de comentarios de guerra de consolas inteligentes.

Mas o menos.

Te hace funcionar a 336 gb/s pero solo sobre ese giga extra si es necesario para la gpu

Los 560gb/s van por un canal y los 336gb/s por otro.


Hay un problema en todo esto un poco complejo a ver si me explico:

En un ciclo te comunicas por todos los canales con las partes del 1gb/s, hablando en cristiano uso los 4 canales de cada chip para extraer memoria de los 10 chip de memoria.

Eso me deja la duda de lo siguiente:

¿Como puedo acceder a la parte del sistema a la memoria lenta y a la rapida al mismo tiempo?

Es imposible, si tengo ocupados todas los canales en el ciclo solo puedo comunicarme con la parte rápida, y tendré que esperarme al siguiente ciclo para comunicarme con la lenta.
Es decir no existe acceso simultaneo ha una parte y a la otra, físicamente es imposible, entendiendo que las texturas y los archivos estan presentes en los 10 chip de forma entrelazada para que funcionen a 560 GB/s. Si quieres usar la parte lenta debes turnar un ciclo para uno un ciclo para el otro y ademas el sistema creara interrupciones en los ciclos.

En cristiano no puedes acceder a las zona de la memoria a 560 GB/s a la vez que a las zonas de 336 GB/s, deben ser en ciclos diferentes. No generara esto interrupciones en toda la memoria? Eso bajaría el ancho de banda considerablemente ya que cuando estas leyendo la zona rápida la tasa de trasferencia de la zona lenta sera de 0GB/s. Y cuando lees la zona lenta la trasferencia de la zona rapida es 0GB/s.

Soluciones?

Esto ya se debatió en el pasado. Lo que dijo Microsoft es que accedes a 10 gigas a 560 GB/s y a 6 a 336 GB/s. No puedes acceder a ambos pools a la vez. La solución es meter los datos de acceso más frecuente en los 10 primeros gigas para mantener el ancho de banda lo más cercano a 560GB/s que puedas.

Si hay gente que quiere pensar otra cosa, déjalos. Puedes llevar agua a un caballo, pero no le puedes obligar a beber.
SangReal está baneado del subforo por "flames"
jose2488 escribió:
Nowcry escribió:Pregunta existencial SX tiene 10 chips de GDDR6 alrededor del nucleo y cada uno tiene 4 canales de 14Gbps.

Imagen

Como se colocan 16 GB en 10 chips de memoria? 6 x 2 GB y 4 x 1 GB??

SI cada Chip de memoria tiene 4 canales de 14 Gbps, Que pasara cuando se llenen los chips de 1 GB? Perderas 4 x 4 x 14 Gbps? Te dejara en 336 GB/s???

Soluciones?

te voy a dar la solución a todos tus problemas.

Aquí te resuelven todas tus dudas. La consola mantiene siempre el.ancji de banda de 560gb/seg

Ya está bien de chorradas, coño. Que los que entramos aquí a informarnos un poco estamos hasta los cojones de la guerra de consolas.
Nowcry escribió:
jose2488 escribió:
Nowcry escribió:
Te voy a decir yo otra ---->Eso es imposible.
Ya se como se hace:
Son 10 chip que funcionan como un raiz 0, asique 10 chip hasta 1 GB cada uno funcionan nutriendo todos a la vez 560 GB y cuando se supera los 6 GB siguientes te hace funcionar a 336 GB/s.
En teoria tienes que programar las direcciones de memoria a mano para no ocupar la parte de los chips de memoria que estan por encima de 1 GB. Que debería ser la parte de la memoria del sistema.

Molaria que por una vez alguien respondiera algo cientifico en vez de comentarios de guerra de consolas inteligentes.

Mas o menos.

Te hace funcionar a 336 gb/s pero solo sobre ese giga extra si es necesario para la gpu

Los 560gb/s van por un canal y los 336gb/s por otro.


Hay un problema en todo esto un poco complejo a ver si me explico:

En un ciclo te comunicas por todos los canales con las partes del 1gb/s, hablando en cristiano uso los 4 canales de cada chip para extraer memoria de los 10 chip de memoria.

Eso me deja la duda de lo siguiente:

¿Como puedo acceder a la parte del sistema a la memoria lenta y a la rapida al mismo tiempo?

Es imposible, si tengo ocupados todas los canales en el ciclo solo puedo comunicarme con la parte rápida, y tendré que esperarme al siguiente ciclo para comunicarme con la lenta.
Es decir no existe acceso simultaneo ha una parte y a la otra, físicamente es imposible, entendiendo que las texturas y los archivos estan presentes en los 10 chip de forma entrelazada para que funcionen a 560 GB/s. Si quieres usar la parte lenta debes turnar un ciclo para uno un ciclo para el otro y ademas el sistema creara interrupciones en los ciclos.

En cristiano no puedes acceder a las zona de la memoria a 560 GB/s a la vez que a las zonas de 336 GB/s, deben ser en ciclos diferentes. No generara esto interrupciones en toda la memoria? Eso bajaría el ancho de banda considerablemente ya que cuando estas leyendo la zona rápida la tasa de trasferencia de la zona lenta sera de 0GB/s. Y cuando lees la zona lenta la trasferencia de la zona rapida es 0GB/s.

Soluciones?

Aqui unos calculo para que veas el 0 problema que existe con.el.ancho de banda :)

Ps5 por cada cu tiene 12,4 GB/s Xbox por cada cu tiene 10,72 GB/s Cada cu de ps5 tiene una potencia de cálculo de 10.28/36 = 0,285 tflops por cu => 285 gflops Cada cu de xbox tiene una potencia de cálculo de 12.15/52 = 0,233 tflops por cu => 233 gflops

El ancho de banda disponible por gflops y por cu en ps5 es de 12,4 GB/s para usar en 285 gflops por cur= 0,043 GB/S por gflop y por cu, El ancho de banda disponible por gflops y por cu en xbox es de 10,72 GB/s para usar en 233 gflops por cu= 0,046 GB/S por gflops y por cu.

Son prácticamente idénticas. ambas tiene prácticamente el mismo ancho de banda para cada cu en función de la mayor potencia por cu de ps5. Vamos que si una no tiene ancho de banda suficiente la otra tampoco y viceversa.
Nowcry escribió:
pers46 escribió:@Nowcry
Creo que te has liado con las citas...supongo que te has quedado sin ancho de banda [rtfm]

Arreglado gracias.

En general me encuentro ya en el borde de todos los conocimientos que he podido recabar y que me interesaban de esta gen para realizar una inversion inteligente. Y estan en el aire xD. Antes no estaban en el aire asique estoy peor que al principio xD.

Hasta que no haya mas rumores no creo que pueda avanzar mas en los estudios ni de I/O complex, tampoco sobre CU ni anchos de banda. En este punto necesito un benchmarkt y/o filtraciones de calidad en RDNA2, DirectStorage y GPUs de Nvidia.


Agradezco todo lo que estás aportando al hilo, y que además no pierdas las buenas maneras pese al acoso constante de muchos usuarios. Lo que me cuesta entender es que tanto tú como otros le prestéis una atención tan intensa a aspectos de hardware.

En mi opinión el hardware es el factor limitante, la parte que marca los máximos posibles en un videojuego. Pero luego está el software, el lado "humano" que trata de llevar y explotar ese hardware lo más cerca posible de sus límites... a veces incluso sobrepasándolos mediante trucos. El hardware me interesa... pero me interesa lo justo.

Por explicarlo en imágenes. Qué tarjeta gráfica podría ser más o menos equivalente a una PS4 de 1.8 Tflops? Una Radeon HD 7870?

Esto es lo que veíamos en PS4 hace 5 años.



Es de locos. Y por eso todos estos debates me parecen estériles. Nos toca esperar a ver juegos corriendo en Series X y en PS5 para saber realmente de qué estamos hablando... mucho más allá de las especificaciones del hardware. Y a día de hoy, lo más next gen que hemos visto es el trailer de Hellblade 2, suponiendo que todo está hecho con el motor del juego:



Así que como digo... toca esperar.
Estáis hablando de que si el SSD no puede ofrecer ventajas porque en los multi no van a optimizar y no se qué y no se cuanto....


A ver.... Os estáis SALTANDO DESCARADAMENTE la parte más importante....

EL KIT DE DESARROLLO

Tanto Microsoft como Sony habrán ofrecido una serie de herramientas, librerias e historietas para optimizar de forma FÁCIL Y SENCILLA cualquier desarrollo, por perezosos que sean.

Si la carga de assets e historias está programada en los juegos de la forma CORRECTA, será MUY MUY fácil aprovechar las ventajas de cada SSD.

Esto significa que la programación debe ser MODULAR y utilizar los principios básicos de "No repetir código, KISS, etc.."

Aquí lo que quiero decir es que, si tienen la funcionalidad de cargar texturas, assets, niveles, etc etc etc de forma dinámica en una sola funcion o grupo de funciones.... Lo único que tienen que tocar para que se aproveche o no un SSD o un HDD, es esa funcionalidad....

Es decir... Que no estamos contando que van a salir juegos intergeneracionales también... ¿Creeis que va a ser TAN complicado hacer uso de las ventajas de los nuevos SSD?

No sé, pero creo que Microsoft y Sony lo tendrán muy claro. Si están alabando las ventajas de sus respectivos SSD, será porque a los devs se lo han dejado ya masticadito en el manual de las consolas, con ejemplos de como se hace y las librerías pertinentes para que ellos lo puedan implementar de forma rápida y eficiente sin perder cientos de horas programando.

Que esta DPM hablar de que si la potencia de el chip gordo, que si tendrá X ventajas respecto a la otra por los cálculos aportados por los compañeros y tal.

Eh! Y que me lo he leído y me mola muchísimo el curro que os estáis pegando haciendo los cálculos y determinando fortalezas y debilidades de cada arquitectura. OLE OLE Y OLE VUESTROS COJONES.


Pero no es menos cierto que en PS3 con una arquitectura de mierda, gracias al software se han creado maravillas.

No es menos cierto que en PS4 con los cuellakos de botella, se han creado maravillas.

Es de esperar que gracias al Software/Kit de desarrollo, en PS5 también aparezcan maravillas desde el primer dia.


Joder, recuerdo cuando salió el COD Ghost en PS3 y PS4... La diferencia era MUY NOTORIA. Y el Black Flag...

Y ya no hablamos solo de gráficos. Las cargas eran más rápidas y todo más fluido...
Nowcry está baneado del subforo por "troleos y flames"
jose2488 escribió:
Nowcry escribió:
jose2488 escribió:Te hace funcionar a 336 gb/s pero solo sobre ese giga extra si es necesario para la gpu

Los 560gb/s van por un canal y los 336gb/s por otro.


Hay un problema en todo esto un poco complejo a ver si me explico:

En un ciclo te comunicas por todos los canales con las partes del 1gb/s, hablando en cristiano uso los 4 canales de cada chip para extraer memoria de los 10 chip de memoria.

Eso me deja la duda de lo siguiente:

¿Como puedo acceder a la parte del sistema a la memoria lenta y a la rapida al mismo tiempo?

Es imposible, si tengo ocupados todas los canales en el ciclo solo puedo comunicarme con la parte rápida, y tendré que esperarme al siguiente ciclo para comunicarme con la lenta.
Es decir no existe acceso simultaneo ha una parte y a la otra, físicamente es imposible, entendiendo que las texturas y los archivos estan presentes en los 10 chip de forma entrelazada para que funcionen a 560 GB/s. Si quieres usar la parte lenta debes turnar un ciclo para uno un ciclo para el otro y ademas el sistema creara interrupciones en los ciclos.

En cristiano no puedes acceder a las zona de la memoria a 560 GB/s a la vez que a las zonas de 336 GB/s, deben ser en ciclos diferentes. No generara esto interrupciones en toda la memoria? Eso bajaría el ancho de banda considerablemente ya que cuando estas leyendo la zona rápida la tasa de trasferencia de la zona lenta sera de 0GB/s. Y cuando lees la zona lenta la trasferencia de la zona rapida es 0GB/s.

Soluciones?

Aqui unos calculo para que veas el 0 problema que existe con.el.ancho de banda :)

Ps5 por cada cu tiene 12,4 GB/s Xbox por cada cu tiene 10,72 GB/s Cada cu de ps5 tiene una potencia de cálculo de 10.28/36 = 0,285 tflops por cu => 285 gflops Cada cu de xbox tiene una potencia de cálculo de 12.15/52 = 0,233 tflops por cu => 233 gflops

El ancho de banda disponible por gflops y por cu en ps5 es de 12,4 GB/s para usar en 285 gflops por cur= 0,043 GB/S por gflop y por cu, El ancho de banda disponible por gflops y por cu en xbox es de 10,72 GB/s para usar en 233 gflops por cu= 0,046 GB/S por gflops y por cu.

Son prácticamente idénticas. ambas tiene prácticamente el mismo ancho de banda para cada cu en función de la mayor potencia por cu de ps5. Vamos que si una no tiene ancho de banda suficiente la otra tampoco y viceversa.


Si mientras no uses el Pool de memoria lenta todas las cuentas salen como dices.

Pero en cuanto los juegos ocupen los 10 GB y haya que acceder al pool lento. Al tener que turnar los ciclos de acceso no se reduciría al máximo la trasferencia?
Pero si utilizaras un 0,1 segundo para transmitir datos al sistema. Habría 0,1 segundo que no podrias transmitir a la GPU siempre como digo con el pool rápido lleno.
En decir que cuando los juegos comienzan a llenar la GDDR según accedan a trasferencias del sistema y al pool de memoria lento perderán toda la capacidad de transmisión durante ese momento.
Por ejemplo en el caso de que la CPU necesite transferencias de 33.6 GB por cada segundo. Lo lógico seria pensar Se los descuento a los 560 GB/s. 560-33.6= 526.4 GB/s. Pero la realidad es que no puede acceder a los dos pool de memoria a la vez. Por lo que si quiero transferir a la memoria 33.6 GB por cada segundo, usaría 33.6 GB / 336GB/s (ancho de banda del pool lento) = 0.1 seg.
560 * 0,9 seg = 500 GB/s. El sistema esta mas penalizado por trasferencias del sistema. Para trasferir 33,6 GB/s al pool lento habría perdido 60 GB/s del ancho de banda del pool rápido. Y cuanto mas tiempo necesites trasferir a la CPU mas penalizado se encontrara el Pool rápido. La configuración asimétrica penaliza al pool rápido al el doble de lo que debería. Si se usa mucho la CPU y necesita muchas transferencias el rendimiento bajara el doble de rápido que si se tratara de una configuración simétrica y creo que no es deseable.

Y todo esto no tiene en cuenta que un juego necesite acceder al pool lento junto con el pool rápido y a su vez la cpu necesite acceder al pool lento. Cuando nos encontremos en este supuesto los tiempos de acceso del uno al otro deban ser constantes el sistema va a salir muy penalizado por ello demasiado los anchos de banda.

Los juegos que usen los dos pool de memoria y la CPU un poco, que no creo que ocurra a corto plazo pero si a medio y largo plazo van a requerir mucha optimizacion por parte de los desarrolladores.

En cuanto a comparativas, no estoy muy seguro de como es de posible usar el SSD como RAM virtual para elementos que la latencia no sea importante, ejemplo interface de usuario, avisos, mensajes, conexiones o incluso grabaciones para descargar el sistema y suponiendo que los dos sistemas opten por ello en sus posibilidades dará ancho de banda a las dos consolas. La direferencia esta en que SX la dará para evitar accesos al pool lento, pero a medida que el juego vaya usando el pool lento se ira penalizando a si mismo al doble por lo que debe evitar a toda cosa superar los 10 GB de RAM, sin embargo en la PS5 todo lo que se transmita al SSD liberara la conexión completa y sumado a que seguramente sea posible usar el SSD de PS5 como RAM en mas tareas y de mejor manera.




@xDarkPeTruSx

No se como funcionan los Kits de desarrollo pero de lo poco que sabemos es que Sony usa uno pensado exclusivamente para PS5 y el SO de sony es exclusivo para esa maquina en concreto. Los desarrlladores dicen que este kit ofrece muchas facilidades y libertades.

En cuanto al Kit de SX de lo poco que sabemos es que usa un windows modificado y DirectX12 Ultimate. Los desarrolladores por ahora no parecen muy contentos con este sistema. Pero solo han hablado en los foros y no sabemos si es fiable la información.

El problema de poder usar el SSD es algo que también me corroe. La conferencia de sony abordo todos los problemas y cuellos de botella que encontraron para poder llevar la potencia del SSD a la VRAM sin perdidas de tal forma que PS5 carga Spiderman de PS4 en 0,84 Segundos. 0,84 segundos * 5.5 GB/s = 4.62 GB de VRAM, me parece un numero lógico de uso de RAM para PS4/PS4 pro y que el resto sea para transferencias. Podríamos hacer las cuentas con 9 GB/s y saldrían 7,56 GB. Entendiendo que podría ser posible si se combina VRAM con archivos del sistema. Meterse tan adentro seria pura especulación.

Sin embargo la prueba de SX cargando State of Decay 2 tarda un promedio de 9,775 segundos en cargar en el SX mas o menos. Si lo usáramos sin comprimir 9,775 * 2.4 = 23 GB/s No es un dato que pueda manejar Xbox One X ni la normal y si ponemos el comrpimido saldrian 46 GB aun peor. Lo que me sugiere que la transmisión en SX no ha superado todos los cuellos de botella por ahora.
Que no significa que no lo haga en un futuro o que el SO este o no fino, no podemos saber que falla, pero en cualquier caso no es buena señal para nada,
@Nowcry

Sinceramente de XSX no he visto apenas nada porque realmente no me interesa adquirir una xbox.

Más lo decía por PS5 porque como bien dices, ya mostraron el Spiderman y ya se encontraron con los "problemas" etc etc como para documentar y dejar bien explicado como se puede hacer esa SUSTANCIAL mejora en juegos ya existentes.

Dudo sinceramente que sea un proceso tan tan tedioso como para que, si PS5 permite jugar a ciertos (o todos) juegos de PS4, los devs no se planteen sacar parche para PS5, aprovechando lo nuevo y además alargando las ventas de sus títulos sin necesidad de hacer mucha historia, simplemente un parche, una actualización de la misma forma que se hizo cuando salió PS4 Pro
Nowcry escribió:
jose2488 escribió:
Nowcry escribió:
Hay un problema en todo esto un poco complejo a ver si me explico:

En un ciclo te comunicas por todos los canales con las partes del 1gb/s, hablando en cristiano uso los 4 canales de cada chip para extraer memoria de los 10 chip de memoria.

Eso me deja la duda de lo siguiente:

¿Como puedo acceder a la parte del sistema a la memoria lenta y a la rapida al mismo tiempo?

Es imposible, si tengo ocupados todas los canales en el ciclo solo puedo comunicarme con la parte rápida, y tendré que esperarme al siguiente ciclo para comunicarme con la lenta.
Es decir no existe acceso simultaneo ha una parte y a la otra, físicamente es imposible, entendiendo que las texturas y los archivos estan presentes en los 10 chip de forma entrelazada para que funcionen a 560 GB/s. Si quieres usar la parte lenta debes turnar un ciclo para uno un ciclo para el otro y ademas el sistema creara interrupciones en los ciclos.

En cristiano no puedes acceder a las zona de la memoria a 560 GB/s a la vez que a las zonas de 336 GB/s, deben ser en ciclos diferentes. No generara esto interrupciones en toda la memoria? Eso bajaría el ancho de banda considerablemente ya que cuando estas leyendo la zona rápida la tasa de trasferencia de la zona lenta sera de 0GB/s. Y cuando lees la zona lenta la trasferencia de la zona rapida es 0GB/s.

Soluciones?

Aqui unos calculo para que veas el 0 problema que existe con.el.ancho de banda :)

Ps5 por cada cu tiene 12,4 GB/s Xbox por cada cu tiene 10,72 GB/s Cada cu de ps5 tiene una potencia de cálculo de 10.28/36 = 0,285 tflops por cu => 285 gflops Cada cu de xbox tiene una potencia de cálculo de 12.15/52 = 0,233 tflops por cu => 233 gflops

El ancho de banda disponible por gflops y por cu en ps5 es de 12,4 GB/s para usar en 285 gflops por cur= 0,043 GB/S por gflop y por cu, El ancho de banda disponible por gflops y por cu en xbox es de 10,72 GB/s para usar en 233 gflops por cu= 0,046 GB/S por gflops y por cu.

Son prácticamente idénticas. ambas tiene prácticamente el mismo ancho de banda para cada cu en función de la mayor potencia por cu de ps5. Vamos que si una no tiene ancho de banda suficiente la otra tampoco y viceversa.


Si mientras no uses el Pool de memoria lenta todas las cuentas salen como dices.

Pero en cuanto los juegos ocupen los 10 GB y haya que acceder al pool lento. Al tener que turnar los ciclos de acceso no se reduciría al máximo la trasferencia?
Pero si utilizaras un 0,1 segundo para transmitir datos al sistema. Habría 0,1 segundo que no podrias transmitir a la GPU siempre como digo con el pool rápido lleno.
En decir que cuando los juegos comienzan a llenar la GDDR según accedan a trasferencias del sistema y al pool de memoria lento perderán toda la capacidad de transmisión durante ese momento.
Por ejemplo en el caso de que la CPU necesite transferencias de 33.6 GB por cada segundo. Lo lógico seria pensar Se los descuento a los 560 GB/s. 560-33.6= 526.4 GB/s. Pero la realidad es que no puede acceder a los dos pool de memoria a la vez. Por lo que si quiero transferir a la memoria 33.6 GB por cada segundo, usaría 33.6 GB / 336GB/s (ancho de banda del pool lento) = 0.1 seg.
560 * 0,9 seg = 500 GB/s. El sistema esta mas penalizado por trasferencias del sistema. Para trasferir 33,6 GB/s al pool lento habría perdido 60 GB/s del ancho de banda del pool rápido. Y cuanto mas tiempo necesites trasferir a la CPU mas penalizado se encontrara el Pool rápido. La configuración asimétrica penaliza al pool rápido al el doble de lo que debería. Si se usa mucho la CPU y necesita muchas transferencias el rendimiento bajara el doble de rápido que si se tratara de una configuración simétrica y creo que no es deseable.

Y todo esto no tiene en cuenta que un juego necesite acceder al pool lento junto con el pool rápido y a su vez la cpu necesite acceder al pool lento. Cuando nos encontremos en este supuesto los tiempos de acceso del uno al otro deban ser constantes el sistema va a salir muy penalizado por ello demasiado los anchos de banda.

Los juegos que usen los dos pool de memoria y la CPU un poco, que no creo que ocurra a corto plazo pero si a medio y largo plazo van a requerir mucha optimizacion por parte de los desarrolladores.

En cuanto a comparativas, no estoy muy seguro de como es de posible usar el SSD como RAM virtual para elementos que la latencia no sea importante, ejemplo interface de usuario, avisos, mensajes, conexiones o incluso grabaciones para descargar el sistema y suponiendo que los dos sistemas opten por ello en sus posibilidades dará ancho de banda a las dos consolas. La direferencia esta en que SX la dará para evitar accesos al pool lento, pero a medida que el juego vaya usando el pool lento se ira penalizando a si mismo al doble por lo que debe evitar a toda cosa superar los 10 GB de RAM, sin embargo en la PS5 todo lo que se transmita al SSD liberara la conexión completa y sumado a que seguramente sea posible usar el SSD de PS5 como RAM en mas tareas y de mejor manera.




@xDarkPeTruSx

No se como funcionan los Kits de desarrollo pero de lo poco que sabemos es que Sony usa uno pensado exclusivamente para PS5 y el SO de sony es exclusivo para esa maquina en concreto. Los desarrlladores dicen que este kit ofrece muchas facilidades y libertades.

En cuanto al Kit de SX de lo poco que sabemos es que usa un windows modificado y DirectX12 Ultimate. Los desarrolladores por ahora no parecen muy contentos con este sistema. Pero solo han hablado en los foros y no sabemos si es fiable la información.

El problema de poder usar el SSD es algo que también me corroe. La conferencia de sony abordo todos los problemas y cuellos de botella que encontraron para poder llevar la potencia del SSD a la VRAM sin perdidas de tal forma que PS5 carga Spiderman de PS4 en 0,84 Segundos. 0,84 segundos * 5.5 GB/s = 4.62 GB de VRAM, me parece un numero lógico de uso de RAM para PS4/PS4 pro y que el resto sea para transferencias. Podríamos hacer las cuentas con 9 GB/s y saldrían 7,56 GB. Entendiendo que podría ser posible si se combina VRAM con archivos del sistema. Meterse tan adentro seria pura especulación.

Sin embargo la prueba de SX cargando State of Decay 2 tarda un promedio de 9,775 segundos en cargar en el SX mas o menos. Si lo usáramos sin comprimir 9,775 * 2.4 = 23 GB/s No es un dato que pueda manejar Xbox One X ni la normal y si ponemos el comrpimido saldrian 46 GB aun peor. Lo que me sugiere que la transmisión en SX no ha superado todos los cuellos de botella por ahora.
Que no significa que no lo haga en un futuro o que el SO este o no fino, no podemos saber que falla, pero en cualquier caso no es buena señal para nada,
que desarrollador no está contento con dorect x12 ultimate?hay alguien? Porque al único que he leído es al de cytrek y todo resultó ser fake.....al punto que un desarrollador de DICE(battlefield) salió a desmentir sus palabras.

Es más, con dorectx12 ultimate da igual que desarrolles en series x o.pc, porque la version es la misma en ambos, apenas hay que retocar 4 cosas. Y pc siempre ha sido el lugar más fácil y.comodo para desarrollar videojuegos, por lo tanto imagínate que difícil es desarrollar en series x....cuandi8bsu versión es la misma de pc con sus determinados assets....
Unerico está baneado por "troll"
xDarkPeTruSx escribió:Pero no es menos cierto que en PS3 con una arquitectura de mierda, gracias al software se han creado maravillas.

No es menos cierto que en PS4 con los cuellakos de botella, se han creado maravillas.

Es de esperar que gracias al Software/Kit de desarrollo, en PS5 también aparezcan maravillas desde el primer dia


Con PS3 eso solo le vale con los firts, con los multis fue la que recibia las peores versiones en un 99% de los casos (muy pocos fueron excepcion), a veces con diferencias leves pero otras eran sangrantes.

De PS4 tendria cuellos de botella, pero no dejaba de ser un buen hardware a pesar de todo; mas merito le daria a los juegos de la Xbox Juan Original, que tenia peores cuellos de botella (lo la DDR3 era para insultar a Don Mattrick al menos una vez por dia) y encima menos potente y no por poco (al subir la resolucion ahi empezaban los problemas).

Y lo ultimo lo dudo, seria muy poco probable que al primer dia aparezca una maravilla, ni en PS5 ni en Xbox, eso es poco probable (los primeros juegos terminan siendo intergeneracionales o ports de motores de la vieja generacion), solo se han dado muy raras excepciones a esta regla como fue el Soul Calibur 1 de Dreamcast (que al terminar la generacion seguia siendo de lo mejor de la consola) o el Halo CE de Xbox (idem).
Unerico escribió:
xDarkPeTruSx escribió:Pero no es menos cierto que en PS3 con una arquitectura de mierda, gracias al software se han creado maravillas.

No es menos cierto que en PS4 con los cuellakos de botella, se han creado maravillas.

Es de esperar que gracias al Software/Kit de desarrollo, en PS5 también aparezcan maravillas desde el primer dia


Con PS3 eso solo le vale con los firts, con los multis fue la que recibia las peores versiones en un 99% de los casos (muy pocos fueron excepcion), a veces con diferencias leves pero otras eran sangrantes.

De PS4 tendria cuellos de botella, pero no dejaba de ser un buen hardware a pesar de todo; mas merito le daria a los juegos de la Xbox Juan Original, que tenia peores cuellos de botella (lo la DDR3 era para insultar a Don Mattrick al menos una vez por dia) y encima menos potente y no por poco (al subir la resolucion ahi empezaban los problemas).

Y lo ultimo lo dudo, seria muy poco probable que al primer dia aparezca una maravilla, ni en PS5 ni en Xbox, eso es poco probable (los primeros juegos terminan siendo intergeneracionales o ports de motores de la vieja generacion), solo se han dado muy raras excepciones a esta regla como fue el Soul Calibur 1 de Dreamcast (que al terminar la generacion seguia siendo de lo mejor de la consola) o el Halo CE de Xbox (idem).

Next gen de verdad solo hemos visto dos juegos a día de hoy, flight simulator, y hellblade 2(este no sale en xbox one)que aún le quedan unos años de desarrollo
Nowcry está baneado del subforo por "troleos y flames"
jose2488 escribió:
Nowcry escribió:
jose2488 escribió:Aqui unos calculo para que veas el 0 problema que existe con.el.ancho de banda :)

Ps5 por cada cu tiene 12,4 GB/s Xbox por cada cu tiene 10,72 GB/s Cada cu de ps5 tiene una potencia de cálculo de 10.28/36 = 0,285 tflops por cu => 285 gflops Cada cu de xbox tiene una potencia de cálculo de 12.15/52 = 0,233 tflops por cu => 233 gflops

El ancho de banda disponible por gflops y por cu en ps5 es de 12,4 GB/s para usar en 285 gflops por cur= 0,043 GB/S por gflop y por cu, El ancho de banda disponible por gflops y por cu en xbox es de 10,72 GB/s para usar en 233 gflops por cu= 0,046 GB/S por gflops y por cu.

Son prácticamente idénticas. ambas tiene prácticamente el mismo ancho de banda para cada cu en función de la mayor potencia por cu de ps5. Vamos que si una no tiene ancho de banda suficiente la otra tampoco y viceversa.


Si mientras no uses el Pool de memoria lenta todas las cuentas salen como dices.

Pero en cuanto los juegos ocupen los 10 GB y haya que acceder al pool lento. Al tener que turnar los ciclos de acceso no se reduciría al máximo la trasferencia?
Pero si utilizaras un 0,1 segundo para transmitir datos al sistema. Habría 0,1 segundo que no podrias transmitir a la GPU siempre como digo con el pool rápido lleno.
En decir que cuando los juegos comienzan a llenar la GDDR según accedan a trasferencias del sistema y al pool de memoria lento perderán toda la capacidad de transmisión durante ese momento.
Por ejemplo en el caso de que la CPU necesite transferencias de 33.6 GB por cada segundo. Lo lógico seria pensar Se los descuento a los 560 GB/s. 560-33.6= 526.4 GB/s. Pero la realidad es que no puede acceder a los dos pool de memoria a la vez. Por lo que si quiero transferir a la memoria 33.6 GB por cada segundo, usaría 33.6 GB / 336GB/s (ancho de banda del pool lento) = 0.1 seg.
560 * 0,9 seg = 500 GB/s. El sistema esta mas penalizado por trasferencias del sistema. Para trasferir 33,6 GB/s al pool lento habría perdido 60 GB/s del ancho de banda del pool rápido. Y cuanto mas tiempo necesites trasferir a la CPU mas penalizado se encontrara el Pool rápido. La configuración asimétrica penaliza al pool rápido al el doble de lo que debería. Si se usa mucho la CPU y necesita muchas transferencias el rendimiento bajara el doble de rápido que si se tratara de una configuración simétrica y creo que no es deseable.

Y todo esto no tiene en cuenta que un juego necesite acceder al pool lento junto con el pool rápido y a su vez la cpu necesite acceder al pool lento. Cuando nos encontremos en este supuesto los tiempos de acceso del uno al otro deban ser constantes el sistema va a salir muy penalizado por ello demasiado los anchos de banda.

Los juegos que usen los dos pool de memoria y la CPU un poco, que no creo que ocurra a corto plazo pero si a medio y largo plazo van a requerir mucha optimizacion por parte de los desarrolladores.

En cuanto a comparativas, no estoy muy seguro de como es de posible usar el SSD como RAM virtual para elementos que la latencia no sea importante, ejemplo interface de usuario, avisos, mensajes, conexiones o incluso grabaciones para descargar el sistema y suponiendo que los dos sistemas opten por ello en sus posibilidades dará ancho de banda a las dos consolas. La direferencia esta en que SX la dará para evitar accesos al pool lento, pero a medida que el juego vaya usando el pool lento se ira penalizando a si mismo al doble por lo que debe evitar a toda cosa superar los 10 GB de RAM, sin embargo en la PS5 todo lo que se transmita al SSD liberara la conexión completa y sumado a que seguramente sea posible usar el SSD de PS5 como RAM en mas tareas y de mejor manera.




@xDarkPeTruSx

No se como funcionan los Kits de desarrollo pero de lo poco que sabemos es que Sony usa uno pensado exclusivamente para PS5 y el SO de sony es exclusivo para esa maquina en concreto. Los desarrlladores dicen que este kit ofrece muchas facilidades y libertades.

En cuanto al Kit de SX de lo poco que sabemos es que usa un windows modificado y DirectX12 Ultimate. Los desarrolladores por ahora no parecen muy contentos con este sistema. Pero solo han hablado en los foros y no sabemos si es fiable la información.

El problema de poder usar el SSD es algo que también me corroe. La conferencia de sony abordo todos los problemas y cuellos de botella que encontraron para poder llevar la potencia del SSD a la VRAM sin perdidas de tal forma que PS5 carga Spiderman de PS4 en 0,84 Segundos. 0,84 segundos * 5.5 GB/s = 4.62 GB de VRAM, me parece un numero lógico de uso de RAM para PS4/PS4 pro y que el resto sea para transferencias. Podríamos hacer las cuentas con 9 GB/s y saldrían 7,56 GB. Entendiendo que podría ser posible si se combina VRAM con archivos del sistema. Meterse tan adentro seria pura especulación.

Sin embargo la prueba de SX cargando State of Decay 2 tarda un promedio de 9,775 segundos en cargar en el SX mas o menos. Si lo usáramos sin comprimir 9,775 * 2.4 = 23 GB/s No es un dato que pueda manejar Xbox One X ni la normal y si ponemos el comrpimido saldrian 46 GB aun peor. Lo que me sugiere que la transmisión en SX no ha superado todos los cuellos de botella por ahora.
Que no significa que no lo haga en un futuro o que el SO este o no fino, no podemos saber que falla, pero en cualquier caso no es buena señal para nada,
que desarrollador no está contento con dorect x12 ultimate?hay alguien? Porque al único que he leído es al de cytrek y todo resultó ser fake.....al punto que un desarrollador de DICE(battlefield) salió a desmentir sus palabras.

Es más, con dorectx12 ultimate da igual que desarrolles en series x o.pc, porque la version es la misma en ambos, apenas hay que retocar 4 cosas. Y pc siempre ha sido el lugar más fácil y.comodo para desarrollar videojuegos, por lo tanto imagínate que difícil es desarrollar en series x....cuandi8bsu versión es la misma de pc con sus determinados assets....


Que yo sepa, hemos podido leer el desarrollador de Crytek y BGs. Pero de alguna forma expresar un descontento es mas hostil que expresar un contento por la marca contraria eso si lo hemos visto mas. Los ejemplos en contra de DIrectX12 pensando en la version de PC estan por todo internet y que se use en Xbox sin mejoras es algo que tanto BGs como Crytek estaban exponiendo.

SX es la misma programación que en PC pero los recursos son bastante menores salvo el SSD "se supone" y tiene 2 grandes diferencias:
Memoria Compartida,(no cuenta con RAM) necesitas control sobre la CPU a un nivel alto y Memoria Asimetrica que va a requerir un control a bajo nivel. Si por algun casual las herramientas no están con la profundidad suficiente que es lo que parece que pasa o no otorgan el control suficiente quizá la optimización de la consola sea igual que la un PC osea baja-muy baja pero sin sus recursos, y hay que añadirle los handicap de Memoria compartida y asimétrica sin control total.

Tanto el SO como los entornos de programación DirectX12 son buenos, pero también es cierto que tiene muchas funciones antiguas, que no actualizan y otras que no funcionan correctamente y tienen que buscarse la vida aunque sea menos eficiente. Si comparas DirectX12 o cualquier version de PC se nota que no ofrece un control bueno del sistema, y hay funciones poco optimizadas y por eso normalmente Vulkan ofrece un rendimiento superior en casi todos los titulos.

Yo he llegado a leer en foros de soportes de APIs que Xbox con DirectX vs PS5 Vulkan modificado por sony, que MS ya había perdido la carrera de los gráficos y de la optimizacion desde el minuto 1. No creo que eso sea así, DirectX se puede poner las pilas aunque cada vez queda menos tiempo.
DirectX12 Ultimate de Xbox puede abrirse a tener mas control. O quizá MS esta trabajando mucho en mejorar su API y quiere usar la Xbox para potenciarla y a la vez mejorar mucho la API mezclando departamentos y con ello mejorar el presupuesto en personal o lo que necesite sobre la API. Pero eso no deberia hacerse durante la vida util de la consola, o por lo menos avanzar lo maximo posible mientras puedas.

Precisamente porque MS esta usando DirectX12 Ultimate y una programacion sin un control bueno, quiza sea la causa por la que Phill dijo que no estaba compitiendo con sony si no Google Stadia y Geforce Now. Porque no es una consola al uso es un PC Standarizado con sus cosas buenas como el precio y con sus cosas malas, la optimizacion y no poder cambiar piezas.
¿En qué foros? Dices que "lees en foros" pero nunca pones las fuentes. Si construyes esos argumentos estaría bien que citases de dónde viene la info.
https://www.youtube.com/watch?v=PW-7Y7GbsiY
Por si os interesa. Parece saber mucho en cuanto a hardware de nueva generación
Nowcry está baneado del subforo por "troleos y flames"
mocolostrocolos escribió:¿En qué foros? Dices que "lees en foros" pero nunca pones las fuentes. Si construyes esos argumentos estaría bien que citases de dónde viene la info.


Voy brujuleando de aquí por allí buscando información sobre hardware y como funciona.
Me cruzo con comentarios como ese aveces pero en este caso me pareció una sobrada y no creo que lo encuentre de nuevo.

Hace ya semana y media o así que lo ley. No es un comentario que debas tener en cuenta, basta con que busques Vulkan vs DirectX en Internet y leas los foros o las comparaciones entre juegos.

Todo en un software se puede cambiar y mejorar asique no tiene sentido quedarse con esas palabras. Pero la confianza de los desarrolladores últimamente en DIrectX no goza de buena popularidad. Quien sabe quiza directX12 ultimate sea un gran cambio y lo mejore todo.

Seria ideal, pero desde luego los juegos de salida no van a revisar toda la programacion para los nuevos cambios a 5 o 6 meses del lanzamiento si resulta que se presentaran hoy los cambios.
Vamos, que lo puedes leer en foros sin estar seguro de la veracidad de los datos que aportas. Es que todo lo que comentas sobre las optimizaciones de las máquinas parece contradecir los datos oficiales en bruto.
Es que todo lo que leas en foros se basa en suposiciones
Nowcry escribió:
jose2488 escribió:
Nowcry escribió:
Si mientras no uses el Pool de memoria lenta todas las cuentas salen como dices.

Pero en cuanto los juegos ocupen los 10 GB y haya que acceder al pool lento. Al tener que turnar los ciclos de acceso no se reduciría al máximo la trasferencia?
Pero si utilizaras un 0,1 segundo para transmitir datos al sistema. Habría 0,1 segundo que no podrias transmitir a la GPU siempre como digo con el pool rápido lleno.
En decir que cuando los juegos comienzan a llenar la GDDR según accedan a trasferencias del sistema y al pool de memoria lento perderán toda la capacidad de transmisión durante ese momento.
Por ejemplo en el caso de que la CPU necesite transferencias de 33.6 GB por cada segundo. Lo lógico seria pensar Se los descuento a los 560 GB/s. 560-33.6= 526.4 GB/s. Pero la realidad es que no puede acceder a los dos pool de memoria a la vez. Por lo que si quiero transferir a la memoria 33.6 GB por cada segundo, usaría 33.6 GB / 336GB/s (ancho de banda del pool lento) = 0.1 seg.
560 * 0,9 seg = 500 GB/s. El sistema esta mas penalizado por trasferencias del sistema. Para trasferir 33,6 GB/s al pool lento habría perdido 60 GB/s del ancho de banda del pool rápido. Y cuanto mas tiempo necesites trasferir a la CPU mas penalizado se encontrara el Pool rápido. La configuración asimétrica penaliza al pool rápido al el doble de lo que debería. Si se usa mucho la CPU y necesita muchas transferencias el rendimiento bajara el doble de rápido que si se tratara de una configuración simétrica y creo que no es deseable.

Y todo esto no tiene en cuenta que un juego necesite acceder al pool lento junto con el pool rápido y a su vez la cpu necesite acceder al pool lento. Cuando nos encontremos en este supuesto los tiempos de acceso del uno al otro deban ser constantes el sistema va a salir muy penalizado por ello demasiado los anchos de banda.

Los juegos que usen los dos pool de memoria y la CPU un poco, que no creo que ocurra a corto plazo pero si a medio y largo plazo van a requerir mucha optimizacion por parte de los desarrolladores.

En cuanto a comparativas, no estoy muy seguro de como es de posible usar el SSD como RAM virtual para elementos que la latencia no sea importante, ejemplo interface de usuario, avisos, mensajes, conexiones o incluso grabaciones para descargar el sistema y suponiendo que los dos sistemas opten por ello en sus posibilidades dará ancho de banda a las dos consolas. La direferencia esta en que SX la dará para evitar accesos al pool lento, pero a medida que el juego vaya usando el pool lento se ira penalizando a si mismo al doble por lo que debe evitar a toda cosa superar los 10 GB de RAM, sin embargo en la PS5 todo lo que se transmita al SSD liberara la conexión completa y sumado a que seguramente sea posible usar el SSD de PS5 como RAM en mas tareas y de mejor manera.




@xDarkPeTruSx

No se como funcionan los Kits de desarrollo pero de lo poco que sabemos es que Sony usa uno pensado exclusivamente para PS5 y el SO de sony es exclusivo para esa maquina en concreto. Los desarrlladores dicen que este kit ofrece muchas facilidades y libertades.

En cuanto al Kit de SX de lo poco que sabemos es que usa un windows modificado y DirectX12 Ultimate. Los desarrolladores por ahora no parecen muy contentos con este sistema. Pero solo han hablado en los foros y no sabemos si es fiable la información.

El problema de poder usar el SSD es algo que también me corroe. La conferencia de sony abordo todos los problemas y cuellos de botella que encontraron para poder llevar la potencia del SSD a la VRAM sin perdidas de tal forma que PS5 carga Spiderman de PS4 en 0,84 Segundos. 0,84 segundos * 5.5 GB/s = 4.62 GB de VRAM, me parece un numero lógico de uso de RAM para PS4/PS4 pro y que el resto sea para transferencias. Podríamos hacer las cuentas con 9 GB/s y saldrían 7,56 GB. Entendiendo que podría ser posible si se combina VRAM con archivos del sistema. Meterse tan adentro seria pura especulación.

Sin embargo la prueba de SX cargando State of Decay 2 tarda un promedio de 9,775 segundos en cargar en el SX mas o menos. Si lo usáramos sin comprimir 9,775 * 2.4 = 23 GB/s No es un dato que pueda manejar Xbox One X ni la normal y si ponemos el comrpimido saldrian 46 GB aun peor. Lo que me sugiere que la transmisión en SX no ha superado todos los cuellos de botella por ahora.
Que no significa que no lo haga en un futuro o que el SO este o no fino, no podemos saber que falla, pero en cualquier caso no es buena señal para nada,
que desarrollador no está contento con dorect x12 ultimate?hay alguien? Porque al único que he leído es al de cytrek y todo resultó ser fake.....al punto que un desarrollador de DICE(battlefield) salió a desmentir sus palabras.

Es más, con dorectx12 ultimate da igual que desarrolles en series x o.pc, porque la version es la misma en ambos, apenas hay que retocar 4 cosas. Y pc siempre ha sido el lugar más fácil y.comodo para desarrollar videojuegos, por lo tanto imagínate que difícil es desarrollar en series x....cuandi8bsu versión es la misma de pc con sus determinados assets....


Que yo sepa, hemos podido leer el desarrollador de Crytek y BGs. Pero de alguna forma expresar un descontento es mas hostil que expresar un contento por la marca contraria eso si lo hemos visto mas. Los ejemplos en contra de DIrectX12 pensando en la version de PC estan por todo internet y que se use en Xbox sin mejoras es algo que tanto BGs como Crytek estaban exponiendo.

SX es la misma programación que en PC pero los recursos son bastante menores salvo el SSD "se supone" y tiene 2 grandes diferencias:
Memoria Compartida,(no cuenta con RAM) necesitas control sobre la CPU a un nivel alto y Memoria Asimetrica que va a requerir un control a bajo nivel. Si por algun casual las herramientas no están con la profundidad suficiente que es lo que parece que pasa o no otorgan el control suficiente quizá la optimización de la consola sea igual que la un PC osea baja-muy baja pero sin sus recursos, y hay que añadirle los handicap de Memoria compartida y asimétrica sin control total.

Tanto el SO como los entornos de programación DirectX12 son buenos, pero también es cierto que tiene muchas funciones antiguas, que no actualizan y otras que no funcionan correctamente y tienen que buscarse la vida aunque sea menos eficiente. Si comparas DirectX12 o cualquier version de PC se nota que no ofrece un control bueno del sistema, y hay funciones poco optimizadas y por eso normalmente Vulkan ofrece un rendimiento superior en casi todos los titulos.

Yo he llegado a leer en foros de soportes de APIs que Xbox con DirectX vs PS5 Vulkan modificado por sony, que MS ya había perdido la carrera de los gráficos y de la optimizacion desde el minuto 1. No creo que eso sea así, DirectX se puede poner las pilas aunque cada vez queda menos tiempo.
DirectX12 Ultimate de Xbox puede abrirse a tener mas control. O quizá MS esta trabajando mucho en mejorar su API y quiere usar la Xbox para potenciarla y a la vez mejorar mucho la API mezclando departamentos y con ello mejorar el presupuesto en personal o lo que necesite sobre la API. Pero eso no deberia hacerse durante la vida util de la consola, o por lo menos avanzar lo maximo posible mientras puedas.

Precisamente porque MS esta usando DirectX12 Ultimate y una programacion sin un control bueno, quiza sea la causa por la que Phill dijo que no estaba compitiendo con sony si no Google Stadia y Geforce Now. Porque no es una consola al uso es un PC Standarizado con sus cosas buenas como el precio y con sus cosas malas, la optimizacion y no poder cambiar piezas.

Supongo que sabes que lo del desarrollador de cytrek fue sin haber trabajado en los kits, dicho por el, que el.solo hablaba de oidas de lo que leía en internet, y luego se retractó borrando todo, y aun así un desarrollador que si trabaja con los kits en el.proximo battlefield lo desmintió.

Y bgs todo lonque ha dicho hasta ahora ha fallado.....entonces.
..nose porque te empeñas en citar una y otra a ez a dos personas que no han visto los kits ni en foto, y que han sido dejados en evidencia por desarrolladores oficiales.

No alcanzo a entender porque quieres hacer válida la información de 2 personas que todo lonque han dicho a día de hoy es mentira....
Mucho blablabla..pero en 2013 vimos esto en una ONE FAT.

Se termina está generación, y pocos juegos se acercan a esa calidad de modelados y gráficos. Se cuentan con los dedos de una mano, Uncharted4, Quantum Break, God of War, Forza Horizon 4, RDR2, AC Odyssey y pocos más...

Pero este juego fue DE LANZAMIENTO en pleno 2013.

Imagen
Nowcry está baneado del subforo por "troleos y flames"
jose2488 escribió:Supongo que sabes que lo del desarrollador de cytrek fue sin haber trabajado en los kits, dicho por el, que el.solo hablaba de oidas de lo que leía en internet, y luego se retractó borrando todo, y aun así un desarrollador que si trabaja con los kits en el.proximo battlefield lo desmintió.

Y bgs todo lonque ha dicho hasta ahora ha fallado.....entonces.
..nose porque te empeñas en citar una y otra a ez a dos personas que no han visto los kits ni en foto, y que han sido dejados en evidencia por desarrolladores oficiales.

No alcanzo a entender porque quieres hacer válida la información de 2 personas que todo lonque han dicho a día de hoy es mentira....


Porque para mi BGs no ha fallado ha dicho las cosas como las ve, que a su vez coincide con el de Crytek que tubo que desmentir toda la entrevista porque le hicieron la llamada del NDA.

Y porque la vertiente general de los desarrolladores sin entrar en detalles por NDA va en ese sentido. Por otro lado consta que las compañías entran cobrando $$$ por hacer declaraciones en relación a plataformas, muy util para generar confusión en la vertiente general pero en los primeros momentos se noto la vertiente general hasta que se volvio confusa a base de $$$$.

A su vez sabemos que los kits y la API es DirectX y que no es ningún secreto no esta bien optimizada en PC. Esto es hecho que nadie inventa. Que coincide con lo mismo que dicen los desarrolladores que no son fiables. Pero que al menos cuadran con la realidad actual.

Para mi todo lo que sean filtraciones del mundillo sobretodo las silenciadas son para mi las mas interesantes para analizar los problemas que no para creérselos pero si como punto de partida para analizar un hardware y empezar a informarse sobre el.

Seto-Ichitaka escribió:Es que todo lo que leas en foros se basa en suposiciones

Excepto las cosas que leas de cosas que ya existan y sean prueba de ello. Por ejemplo que DirectX es una API peor optimizada que VULKAN y que necesita un cambio profundo en muchas funciones desactualizadas y otra serie de problemas. Pero también cuenta con las ultimas mejoras antes que nadie.


oshawott escribió:Mucho blablabla..pero en 2013 vimos esto en una ONE FAT.

Se termina está generación, y pocos juegos se acercan a esa calidad de modelados y gráficos. Se cuentan con los dedos de una mano, Uncharted4, Quantum Break, God of War, Forza Horizon 4, RDR2, AC Odyssey y pocos más...

Pero este juego fue DE LANZAMIENTO en pleno 2013.

Imagen


Te doy la razón y ese es el porque pienso que no siempre los Tflops lo son todo, la direccion artistica del juego puede hacer juegos bonitos con poca potencia. Aunque KillZone tambien fue de salida y graficamente tambien era una bestia, incluso mas que RIse, pero los dos fueron buenos juegos graficamente al menos.
No se como seguis dandole bola...

Esta mas que claro de que palo va y con esto no llegamos a ningun lado.
@Nowcry Pero estamos hablando de DX12Ultimate que saldra a finales de año, hablar de su funcionamiento hoy en dia me parece que esta fuera de lugar.
Nowcry está baneado del subforo por "troleos y flames"
Seto-Ichitaka escribió:@Nowcry Pero estamos hablando de DX12Ultimate que saldra a finales de año, hablar de su funcionamiento hoy en dia me parece que esta fuera de lugar.


Ya pero DX12 Ultimate depende de todo lo anterior es una actualizacion y si sale al final de año, ¿Que version estan usando en los kits y que funciones estan usando para programar los juegos que salgan de salida o los que esten ahora ejecutandose?

Pues supongo que en una version de DX12+++ cercana a DX12Ultimate. Por lo que tiene todo el sentido del mundo. Al menos para los primeros juegos de la consola.
Nowcry escribió:
Seto-Ichitaka escribió:@Nowcry Pero estamos hablando de DX12Ultimate que saldra a finales de año, hablar de su funcionamiento hoy en dia me parece que esta fuera de lugar.


Ya pero DX12 Ultimate depende de todo lo anterior es una actualizacion y si sale al final de año, ¿Que version estan usando en los kits y que funciones estan usando para programar los juegos que salgan de salida o los que esten ahora ejecutandose?

Pues supongo que en una version de DX12+++ cercana a DX12Ultimate. Por lo que tiene todo el sentido del mundo. Al menos para los primeros juegos de la consola.

Como todo lo que se habla aqui, ya se vera con el lanzamiento que pasa.

Un saludo.
Da igual que sea Dx12U, incluso Dx12, 11 o 10. DirectX no es perfecto como tampoco lo es Vulkan pero cuando una API es la mas usada por la gran mayoria de los desarrolladores respecto a otra durante tanto tiempo algo tendrá. Pero claro, seguro que para algunos son conspiraciones judeomasonicas y que están comprados. Si tan bueno fuera Vulkan respecto a Directx no entiendo como no lo descartan a este ultimo y se modifican todos los motores graficos para su uso
Unerico está baneado por "troll"
Una noticia megaton de PS5 en mayo

Los rumores apuntan a 2 posibles cosas:

1. Confirmacion de precio.
2. Aspecto de la consola.
oshawott escribió:Mucho blablabla..pero en 2013 vimos esto en una ONE FAT.

Se termina está generación, y pocos juegos se acercan a esa calidad de modelados y gráficos. Se cuentan con los dedos de una mano, Uncharted4, Quantum Break, God of War, Forza Horizon 4, RDR2, AC Odyssey y pocos más...

Pero este juego fue DE LANZAMIENTO en pleno 2013.

Imagen


No, si de guapo era PRECIOSO a nivel gráfico... Pero a nivel técnico era una patata...

Tirones, caídas, cargas lentas... Y encima el escenario era un pasillo todo el tiempo.

No sé... es que centrarse SOLO en los gráficos no me parece acertado para determinar si es un juego al nivel o no de una generación entera.... Puede tener los gráficos que te de la gana, pero Ryse VS el Forza Motorsport 5.... Joder... Yo me quedo con el Forza..

Quizás los gráficos del mapeado eran un cagarro, pero el de los coches no, la jugabilidad tampoco y el nivel técnico era alto.
Yo también he recibido una llamada del NDA, menudos son.
xDarkPeTruSx escribió:
oshawott escribió:Mucho blablabla..pero en 2013 vimos esto en una ONE FAT.

Se termina está generación, y pocos juegos se acercan a esa calidad de modelados y gráficos. Se cuentan con los dedos de una mano, Uncharted4, Quantum Break, God of War, Forza Horizon 4, RDR2, AC Odyssey y pocos más...

Pero este juego fue DE LANZAMIENTO en pleno 2013.

Imagen


No, si de guapo era PRECIOSO a nivel gráfico... Pero a nivel técnico era una patata...

Tirones, caídas, cargas lentas... Y encima el escenario era un pasillo todo el tiempo.

No sé... es que centrarse SOLO en los gráficos no me parece acertado para determinar si es un juego al nivel o no de una generación entera.... Puede tener los gráficos que te de la gana, pero Ryse VS el Forza Motorsport 5.... Joder... Yo me quedo con el Forza..

Quizás los gráficos del mapeado eran un cagarro, pero el de los coches no, la jugabilidad tampoco y el nivel técnico era alto.


En un principio era juegos para x360 y para kinet.
Ahora a nivel grafico era precioso podrían y hacer una segunda parte.
Microsoft va a dar información todos los meses hasta la salida de Xbox Series X

https://news.xbox.com/en-us/2020/05/05/ ... e-of-xbox/

¿Y este es la nueva animación de la consola?

Por fin ya no hay que leer tochos llenos de ignorancia y sindrome de nostradamus, y justo a tiempo porque a un par de dias de que empiezen a mostrar los primeros juegos no quiero tener que estar filtrando post, que guapo que MS siga soltando info mes con mes
mocolostrocolos escribió:Microsoft va a dar información todos los meses hasta la salida de Xbox Series X

https://news.xbox.com/en-us/2020/05/05/ ... e-of-xbox/

¿Y este es la nueva animación de la consola?



Han dicho cuanto va a durar el inside ese?
triki1 escribió:
mocolostrocolos escribió:Microsoft va a dar información todos los meses hasta la salida de Xbox Series X

https://news.xbox.com/en-us/2020/05/05/ ... e-of-xbox/

¿Y este es la nueva animación de la consola?



Han dicho cuanto va a durar el inside ese?
no, pero supongo que si van hablar de la consola también...1h al menos durará:)

Bandai acaba de registrar elden ring en USA hoy mismo, adoque puede que esté también:)
Espero que presenten algun titulo del que nadie sepa nada, no tengo muchas ganas de ver Elder Ring, Batman y Harry Potter como ya he leido por algun lado, quiero sorpresas............
De momento Microsoft está llevando el maketing sorprendentemente bien.
triki1 escribió:
mocolostrocolos escribió:Microsoft va a dar información todos los meses hasta la salida de Xbox Series X

https://news.xbox.com/en-us/2020/05/05/ ... e-of-xbox/

¿Y este es la nueva animación de la consola?



Han dicho cuanto va a durar el inside ese?


No mucho. Menos de una hora. Aaron Greenberg ha estado activo en twitter respondiendo a muchas dudas.
lichis escribió:
triki1 escribió:No mucho. Menos de una hora. Aaron Greenberg ha estado activo en twitter respondiendo a muchas dudas.


Espero que no sea un carrusel de juegos independientes con el colofon del Assassin´s..........espero.
triki1 escribió:
lichis escribió:
triki1 escribió:No mucho. Menos de una hora. Aaron Greenberg ha estado activo en twitter respondiendo a muchas dudas.


Espero que no sea un carrusel de juegos independientes con el colofon del Assassin´s..........espero.


Con independientes te refieres a indies?

Yo entiendo que serán 3 o 4 juegos, entre ellos el AC. Los otros? No sé, quizás Battlefield o algo así.
Los insider de xbox suelen ser muy sosos, yo vi 1-2 y pase de ellos, cuando dijeron que iban a mostrar algun multi corriendo en serie x ya supuse que serian 2-3 juegos, seguramente porque los han presentado ya, tipo assassins creed.

El que espere algun bombazo me da que de va a llevar chasco.
triki1 escribió:Espero que presenten algun titulo del que nadie sepa nada, no tengo muchas ganas de ver Elder Ring, Batman y Harry Potter como ya he leido por algun lado, quiero sorpresas............

A mi me enseñan esos tres y me alegran el dia. De momento el único que saldrá seguro AC Vol.114 me interesa cero, el mismo rollo de siempre con otro skin, pasando.

Pero vamos, cualquier juego será mejor que comerte los tochos de las últimas páginas [+risas]
Pues yo tengo muchísimas ganas de ver Elden Ring. Más que ningún juego de los que ya hay anunciados/filtrados y que aún no han enseñado nada ingame.
Entonces vamos a ver por fin juegos en movimiento utilizando la potencia de las nuevas consolas?
Yo de momento solo he visto lo del hellblade que muy chulo pero todo muy oscuro.
A ver si soy capaz de ver por fin los teraflops los SSD y todos los tochopost en algo tangible.
Unerico está baneado por "troll"
Si el Ryse de lanzamiento tambien fue bastante poderoso para salir de inicio, y pocos se le acercaron aun 5 años despues en visuales y diseño de arte. Pero no podria a Ryse a nivel de Soul Calibur en Dreamcast o Halo CE en xbox... esos eran al salir la consola ya perfectos y lo fueron al terminar la vida de la consola sin que se les pudieran defectos. Ryse tenia muchos graficos a favor pero el framerate era un tema.
Yo no espero ver mucho ingame este proximo evento de Xbox, apuesto a que la mayoria seran trailers cinematicos para que la gente sepa lo que se esta cociendo y crear expectativa

Los gameplay se los reservaran para el evento de Julio seguro que junto a la consola ya operando y dando fechas de lanzamiento y precios
Unerico está baneado por "troll"
astures escribió:En un principio era juegos para x360 y para kinet.
Ahora a nivel grafico era precioso podrían y hacer una segunda parte.



Ojala, ademas la historia era buena y como te la contaban también. El core gameplay ya lo tienen, con optimizarlo a nivel movimiento, y agregarle sobre todo variables en las configuraciones de las armas (que no todo sea escudo y gladius, y pilum para la distancia), como ser retiario (tridente y red), bestiario (con apoyo de una bestia), dimachaerus (dos espadas), etc (aca todas las variables posibles); quedaria un juego a nivel de Ninja Gaiden 1 y 2 pero ambientado en la Roma clasica. Tambien se le pueden colocar algunas alternativas de camino y un mundo semi abierto con necesidad de ir y venir y cumpliria con todo.

Ryse me hace acordar al Gears of War 1, excelente, pero chato en variedad y rejugabilidad, pero Gears of War crecio muchisimo en opciones y desarrollo. Uno toma el Gears 5 y lo compara con el primero y no parecen para nada el mismo juego, lo que evoluciono es notorio. Ryse podria ir por el mismo camino y quedaria de perlas.
A mi me gustaría ver algo tangible del Starfield de una puñetera vez.

Hace meses pensaba que había serias posibilidades de que saliese este año, pero ahora con el coronavirus a saber...
Algarro14 está baneado del subforo por "flames"
Machinicle escribió:Yo no espero ver mucho ingame este proximo evento de Xbox, apuesto a que la mayoria seran trailers cinematicos para que la gente sepa lo que se esta cociendo y crear expectativa

Los gameplay se los reservaran para el evento de Julio seguro que junto a la consola ya operando y dando fechas de lanzamiento y precios


Precisamente mañana hay Gameplay porque están centrados en thirds, el de julio es un evento solo first.
Unerico está baneado por "troll"
Dos comparativas no tan comunes, en el mundo donde se sacan los ojos sony y ms, aca dos articulos que comparan como seria un eventual vs entre xbox y ps5 de cara a los usuarios de switch y si estos se veran interesados en las consolas de ms y sony, o pasarian de ellas y seguirian firmes con nintendo como unica eleccion.

Xbox vs Switch

PS5 vs Switch
Se está poniendo difícil seguir el hilo con tanto forero en la lista de ignorados.

En cualquier caso, los que esperen el santo grial con la nueva generación debería ir ajustando expectativas.

Luego vienen las decepciones por películas que se ha montado uno mismo.
jose2488 escribió:
Nowcry escribió:
jose2488 escribió:Te hace funcionar a 336 gb/s pero solo sobre ese giga extra si es necesario para la gpu

Los 560gb/s van por un canal y los 336gb/s por otro.


Hay un problema en todo esto un poco complejo a ver si me explico:

En un ciclo te comunicas por todos los canales con las partes del 1gb/s, hablando en cristiano uso los 4 canales de cada chip para extraer memoria de los 10 chip de memoria.

Eso me deja la duda de lo siguiente:

¿Como puedo acceder a la parte del sistema a la memoria lenta y a la rapida al mismo tiempo?

Es imposible, si tengo ocupados todas los canales en el ciclo solo puedo comunicarme con la parte rápida, y tendré que esperarme al siguiente ciclo para comunicarme con la lenta.
Es decir no existe acceso simultaneo ha una parte y a la otra, físicamente es imposible, entendiendo que las texturas y los archivos estan presentes en los 10 chip de forma entrelazada para que funcionen a 560 GB/s. Si quieres usar la parte lenta debes turnar un ciclo para uno un ciclo para el otro y ademas el sistema creara interrupciones en los ciclos.

En cristiano no puedes acceder a las zona de la memoria a 560 GB/s a la vez que a las zonas de 336 GB/s, deben ser en ciclos diferentes. No generara esto interrupciones en toda la memoria? Eso bajaría el ancho de banda considerablemente ya que cuando estas leyendo la zona rápida la tasa de trasferencia de la zona lenta sera de 0GB/s. Y cuando lees la zona lenta la trasferencia de la zona rapida es 0GB/s.

Soluciones?

Aqui unos calculo para que veas el 0 problema que existe con.el.ancho de banda :)

Ps5 por cada cu tiene 12,4 GB/s Xbox por cada cu tiene 10,72 GB/s Cada cu de ps5 tiene una potencia de cálculo de 10.28/36 = 0,285 tflops por cu => 285 gflops Cada cu de xbox tiene una potencia de cálculo de 12.15/52 = 0,233 tflops por cu => 233 gflops

El ancho de banda disponible por gflops y por cu en ps5 es de 12,4 GB/s para usar en 285 gflops por cur= 0,043 GB/S por gflop y por cu, El ancho de banda disponible por gflops y por cu en xbox es de 10,72 GB/s para usar en 233 gflops por cu= 0,046 GB/S por gflops y por cu.

Son prácticamente idénticas. ambas tiene prácticamente el mismo ancho de banda para cada cu en función de la mayor potencia por cu de ps5. Vamos que si una no tiene ancho de banda suficiente la otra tampoco y viceversa.


Bastante de acuerdo. Yo creo que lo que vimos de Hellblade 2 es imposible de lograr con el motor del juego. Y si lo fuese el downgrade sería de época.
31430 respuestas