Xbox One ( Solo temas sobre Xbox One )

buenas tengo un problema a ver si me pueden ayudar ....
el rollo es que la conexion a internet me va perfecta, puedo jugar a los juegos en la one online sin problemas, inicia bien la sesion, pero alguien me explica porque coño no me sale el bazar de la consola?¿?¿

al encenderla se queda ahi cargando todo el rato y despues sale un mensaje diciendo, tienes problemas para conectarte?¿ podria ser un problema nuesttro..
si le das ahi te lleva a la red, y ahi me sale mi conexion y dice todos los servicios estan disponibles, yo no entiendo nada, porque no me sale lo de juegos?¿ y para poder ir al bazar y esas cosas¿?¿
lleva asi un par de dias ya...
Lo de DayZ tiene buena pinta, a ver si es verdad que llega a buen puerto... si es que pasa algún día de estado alfa
Microsoft registra una nuevo juego

Se ha conocido hoy aunque de momento no se saben más detalles.

La prestigiosa web Gamespot, ha encontrado en la oficina de patentes, esta nueva IP (Propiedad Intelectual) con el nombre de Secrets Treasure, registrada por Microsoft y de la que se desconocen más detalles.

Estaremos atentos a cualquier otra nueva información.

Fuente: http://nextgamer.es/noticias/xbox-one/i ... uevo-juego
drneo escribió:buenas tengo un problema a ver si me pueden ayudar ....
el rollo es que la conexion a internet me va perfecta, puedo jugar a los juegos en la one online sin problemas, inicia bien la sesion, pero alguien me explica porque coño no me sale el bazar de la consola?¿?¿

al encenderla se queda ahi cargando todo el rato y despues sale un mensaje diciendo, tienes problemas para conectarte?¿ podria ser un problema nuesttro..
si le das ahi te lleva a la red, y ahi me sale mi conexion y dice todos los servicios estan disponibles, yo no entiendo nada, porque no me sale lo de juegos?¿ y para poder ir al bazar y esas cosas¿?¿
lleva asi un par de dias ya...

Deja apretado 10 segundos el botón de Xbox en la consola y resetea el router. Siempre resulta :-| [fumando]
nada, yo no entiendo nada, si dejo apretado el boton de xbox se apaga el mando.., ya he reiniciado el ruter tambien, pero ahi sigue sin entrar...
yo no entiendo si tengo todo internet y todo bien, porque no se ve el bazar...
acabo de poner el de la 360 a ver si era eso, y el de la 360 va perfecto, puedo entrar y ver lo que hay y eso.., pero en la one no,....
Os funciona el Live? A mi no.
Forzimbras escribió:Os funciona el Live? A mi no.

A mi si
Forzimbras escribió:Os funciona el Live? A mi no.


te pasa lo mismo que a mi?¿ que no puedes entrar al bazar donde los juegos y eso?¿?¿
porque yo llevo asi unos dias y sigue igual...
el rollo es que si pones ver detalles del juego, me lleva al bazar y sale las fotos, y donde se compra, pero despues no me sale en el menu principal.., me estoy hartando ya xDD
drneo escribió:
Forzimbras escribió:Os funciona el Live? A mi no.


te pasa lo mismo que a mi?¿ que no puedes entrar al bazar donde los juegos y eso?¿?¿
porque yo llevo asi unos dias y sigue igual...
el rollo es que si pones ver detalles del juego, me lleva al bazar y sale las fotos, y donde se compra, pero despues no me sale en el menu principal.., me estoy hartando ya xDD

Llama al sat
Forzimbras escribió:Os funciona el Live? A mi no.

Si que va... [reojillo]
Hola, púes a mí se me está actualizando!! :-? :O no salía en abril la actu? Estoy apuntado en el programa de las betas,pero se supone que tendrían que avisarme antes y a mí no me ha llegado nada!! Mi no entender...Un saludo!!
Matujk escribió:Hola, púes a mí se me está actualizando!! :-? :O no salía en abril la actu? Estoy apuntado en el programa de las betas,pero se supone que tendrían que avisarme antes y a mí no me ha llegado nada!! Mi no entender...Un saludo!!

No te tienen que avisar de nada
La opción de compartir en Facebook y Twitter me imagino la meterán en la actu gorda de cada año pero mi pregunta es, tan dificil es meter esto? no me jodas!
Salva90 escribió:
Forzimbras escribió:Os funciona el Live? A mi no.

Si que va... [reojillo]


Nada, nada, cosas de la betas de las actualizaciones xD Ahora sin venir a cuento me ha salido un mensaje de una actualización del sistema de 1GB y pico por arte de magia. Supongo que sería eso.
Forzimbras escribió:
Salva90 escribió:
Forzimbras escribió:Os funciona el Live? A mi no.

Si que va... [reojillo]


Nada, nada, cosas de la betas de las actualizaciones xD Ahora sin venir a cuento me ha salido un mensaje de una actualización del sistema de 1GB y pico por arte de magia. Supongo que sería eso.

Otra???
cuando te actualice, pon que versión te puso compi.
En el foro beta no dice nada de ninguna nueva build.
Primera reducción del precio oficial de la Xbox One en USA, de 499$ a 449$

http://www.wpcentral.com/microsoft-stor ... -one-price
449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a
handreu escribió:449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a


Te falta sumarle los impuestos del estado correspondiente donde la compres. 449 más los impuestos.

Y si, en comparación sigue siendo menos pero pasa con todos los productos que son de allí y acaban aquí y viceversa.
handreu escribió:449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a


Ahora le sumas los impuestos.
drneo escribió:nada, yo no entiendo nada, si dejo apretado el boton de xbox se apaga el mando.., ya he reiniciado el ruter tambien, pero ahi sigue sin entrar...
yo no entiendo si tengo todo internet y todo bien, porque no se ve el bazar...
acabo de poner el de la 360 a ver si era eso, y el de la 360 va perfecto, puedo entrar y ver lo que hay y eso.., pero en la one no,....

No tienes que dejar apretado el boton del mando, tienes que dejar apretado el boton xbox de la consola hasta que se apague.
handreu escribió:449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a


Claro ejemplo de lo que es hablar sin tener ni idea. Como dicen los compañeros, hay que sumar los impuestos de cada estado (pueden ser distintos). Luego, hay que entender como funciona el mercado de divisas, fluctuaciones, etc. Una empresa no puede ajustar un precio a la baja porque si cambia la divisa en su contra se encontraría perdiendo grandes cantidades de dinero.
Lungprodg66 escribió:Madre mia yo de los AC's estoy hasta los cojones, salen como churros, yo tengo el 1 y el 3 y paso de comprar mas, acabas hasta el moño de siempre lo mismo, atalayas, etc etc


pues has jugado los mas flojos de la saga :D

El mejor AC ha sido el 2, la historia de Ezio Auditore. seguido del 4:BlackFlag, la historia del padre de haytham kenway (el padre de Connor en AC3)
handreu escribió:449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a


Mejor escribir sandeces que pensar, ¿verdad?
KinderRey escribió:
handreu escribió:449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a


Mejor escribir sandeces que pensar, ¿verdad?


La gente no sabe como va el tema del IVA y demás impuestos tecnológicos.

Solamente ven la paridad €=$
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Volvamos a verano de 2013 y a las flipadas pensando que xbox one es una nabe espacial del futuro... jaja pero de verdad aun hay alguien que este pensando que la consola tiene un chip oculto que la hace super poderosa?

Y lo de la nube, viendo el panorama yo no tendria mucha fe
darksch escribió:
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.


Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.
f5inet escribió:
darksch escribió:
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.


Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.


Gracias por el aporte [oki] Ha quedado todo muy bien explicadito
hola, no se si mi duda va en este hilo o en alguno de sonido. La cuestion es que pille un kit de carga y juego en xtralife y cuando estoy usando el mando y a la vez lo estoy cargando o sin la bateria puesta, si tengo conectado los auriculares al mando se oye una pedazo de interferencia. Vamos, que no puede tener los auriculares conectados al mando si éste lo tengo conectado a corriente. ¿Esto es normal?
f5inet escribió:
darksch escribió:
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.


Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.


Tu deberías pasarte más por aquí.
f5inet escribió:
darksch escribió:
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.


Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.

Gran aporte, da gusto leerte.

+1 a lo que dice Stylish. xD
URTYK escribió:
KinderRey escribió:
handreu escribió:449.99 USD = 325.272 EUR
para MS y Sony seguro que:
449.99 USD = 449.99 EUR

P**os ladrones hijos de p**a


Mejor escribir sandeces que pensar, ¿verdad?


La gente no sabe como va el tema del IVA y demás impuestos tecnológicos.

Solamente ven la paridad €=$



Pues OJO, en Amazon, por error han tenido la Xbox One a 399 dolares.

http://www.engadget.com/2014/03/25/xbox ... _truncated


Luego lo han quitado rapido, pero ha habido gente que se ha aprovechado... ¡No hay que estar atento ni nada!
f5inet escribió:
darksch escribió:
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.


Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.


[plas] [plas] [plas] [plas] [plas] [plas] [plas]

Nada mas que decir. ;)
Se agradece la explicación y casi más el esmero por escribir correctamente porque a veces los compañeros del foro no se preocupan de la redacción y ortografía y resulta molesto.

Lo malo es que no tengo critierio para saber si lo que cuentas está basado en conceptos correctos o no pero explicado así parece lógico.

Confío en que los juegos se irán depurando y mejorando con el tiempo porque es la evolución natural al conocer mejor los desarrolladores cómo programar, pero espero que entre DirectX 12, aprender a usar la eSRAM y la mejora de los kits de desarrollo haga que en un año el salto cualitativo en la calidad de los juegos sea mayor, porque yo me esperaba algo más en los juegos lanzados hasta ahora.

Un saludo.
http://www.videogamer.com/news/youre_st ... ox_vp.html

"You're starting to see what Xbox One can become," says departing Xbox VP
Can't wait to see where it goes from here, says Marc Whitten.

We're now beginning to see what Xbox One is capable of achieving, departing Xbox corporate vice president Marc Whitten said on the latest Major Nelson podcast.

"Part of what's awesome to me right now is I think you're starting to see what Xbox One can become," Whitten explained. "So much for us was around, 'Hey, let's build this architecture that we could rev quickly, that we could add to, that was flexible, that would allow us to do more things and do more things quickly.'"

He concluded: "It's a great time to be on Xbox... and it's just beginning. There's so many things. I can't wait to see where it goes from here."

Two system updates in as many months have given Xbox One new functionality including live broadcasting via Twitch, while next month's April update promises improved friend notifications and improvements to the Game DVR.

Source: Major Nelson Podcast via IGN
f5inet escribió:
darksch escribió:
hsaoud escribió:Me cuesta creer que Xbox One vaya a lanzar un juego con GI en tiempo real. Es un proceso muy costoso, y como no sea que la One tiene algo que no sepamos, o definitivamente "va a tirar de la nube" no veo claro que tengamos un juego con ésa tecnología ... aunque espero equivocarme jejeje

Yo opto por la ESRAM, los ingenieros de X1 han dicho que se han basado en un modelo de súper-computación, con la arquitectura CPU+GPU+ESRAM. Además la ESRAM es ideal para este tipo de buffers o capas que no son de color (que no requieran texturas), porque además puedes usar el modo de compresión de buffer más comprimido que soporte ya que en una capa de este tipo no apreciarás los artefactos de compresión aún siendo muy comprimido, con la posterior ventaja de que para pasarlo a la DDR3 también te va a pillar poco ancho al ser un buffer más pequeño al ser muy comprimido.


Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.


Que opinas de esa modificación que se ve en los jaguar y que no debería de estar ahí (en la esquina y de color blanco)?

Qué puede ser y para que puede valer?

Imagen
Horizonte de sucesos escribió:[...]
Que opinas de esa modificación que se ve en los jaguar y que no debería de estar ahí (en la esquina y de color blanco)?

Qué puede ser y para que puede valer?

Imagen


No tengo ni la menor idea de que puede ser, incluso podria ser que la foto del die de PS4 tuviese esa parte 'censurada' (no seria la primera vez que una compañia oculta partes de su die). pero de tener que apostar por algo, yo diria que son los DME (Data Move Engine), 4 en total para la consola, 2+2.

la idea seria que cada una de las CPU 'encolaran' trabajo en la eSRAM y mediante una llamada a los DME, le dijeran a la MMU de la GPU que 'mapeara' algun bloque de memoria principal en la eSRAM de la GPU (que los DME se encargarian de copiar alli), para que cuando el drawcall encolado se ejecutase y quisiese acceder a dicha parte de RAM (leer una textura), la MMU de la GPU redirigiera el trafico hacia la eSRAM de la GPU, ahorrando trafico y aumentando el rendimiento al no tener penalizaciones por acceso a RAM. es una tenica que se denomina 'prefetching' y que se ha usado en computacion desde casi siempre, pero nunca 'entre caches', sino hacia 'tu misma cache'

Siempre he tenido en cuenta las declaraciones de los ingenieros de Microsoft: 'la clave para el rendimiento es tener los datos correctos, en el cache correcto, en el momento correcto. Es como un sistema de supercomputacion distribuida en un unico SOC'
f5inet, dónde has estado todos estos meses...
KinderRey escribió:f5inet, dónde has estado todos estos meses...


aqui, leyendo el resolution-gate. Si no he participado mas es porque no habeis hecho las preguntas adecuadas. (o mas bien, los temas de conversacion no me interesaban)
f5inet escribió:
KinderRey escribió:f5inet, dónde has estado todos estos meses...


aqui, leyendo el resolution-gate. Si no he participado mas es porque no habeis hecho las preguntas adecuadas. (o mas bien, los temas de conversacion no me interesaban)


Pregunta:
Qué valoración y posibles usos crees que pueden tener los LZ encode/decode de los DME.
Porque a mi de entrada sólo se me ocurren funcionalidades off-chip, para codificar/decodificar datos externos procedentes del disco duro, de los 8GB de memoria Flash o desde la red.
No se ha hablado mucho de esto, pero me gustaria saber que opinais. Yo he flipado un poco con que en Titanfall, la ultima actualización la han hecho simplemente actualizando los servidores. Me explico. Han cambiado puntuaciones, daños de armas etc... y simplemente hemos tenido que entrar al juego y jugar como siempre. Sin complicaciones de actualizaciones ni nada. A nadie le parece novedoso en juegos?
GoitxoCv está baneado del subforo por "SPAM"
KinderRey escribió:
f5inet escribió:
KinderRey escribió:f5inet, dónde has estado todos estos meses...


aqui, leyendo el resolution-gate. Si no he participado mas es porque no habeis hecho las preguntas adecuadas. (o mas bien, los temas de conversacion no me interesaban)


Pregunta:
Qué valoración y posibles usos crees que pueden tener los LZ encode/decode de los DME.
Porque a mi de entrada sólo se me ocurren funcionalidades off-chip, para codificar/decodificar datos externos procedentes del disco duro, de los 8GB de memoria Flash o desde la red.

Si no recuerdo mal estaban conectados a la interfaz de red, entre otros. De ser así da por hecho sí o sí que los datos de red se comprimen por hardware, de forma transparente. No puedes comprimir los paquetes claro porque te cargas el estándar, pero comprimes los datos y así los tienes que partir en menos paquetes IP.

Otro uso ese ese, lectura de datos, en X360 ya se hacía lo que no me acuerdo es si por hardware o con una capa de software en la API de ficheros. También usaba compresión LZ si no recuerdo mal.

En fin imagino que puede usarse para todo lo que sea des/compresión "al vuelo" (on-the-fly).
KinderRey escribió:[...]
Pregunta:
Qué valoración y posibles usos crees que pueden tener los LZ encode/decode de los DME.
Porque a mi de entrada sólo se me ocurren funcionalidades off-chip, para codificar/decodificar datos externos procedentes del disco duro, de los 8GB de memoria Flash o desde la red.


Los LZ encode/decode tienen como objetivo principal el ahorrar ancho de banda.

El final de toda esta historia (entendiendo por historia las CPUs de 64bits de espacio direccionable, GPUs con MMU, MMUs de CPU y GPU coherentes en cache y compartiendo espacio direccionable, la obligacion de instalar los juegos en el disco duro... vamos, HSA/hUMA puro y duro) es poder disponer de TODA LA MEMORIA del hardware accesible por las unidades de proceso.

y cuando digo TODA LA MEMORIA, en mayusculas, estoy incluyendo al disco duro.

Llegaremos al punto en el cual, se usara la RAM como 'cache' de los datos almacenados en disco, y los LZ decode/encode tendran muchisimo sentido cuando puedas cargar un archivo PNG como textura, y que cuando sea necesario, la MMU de la GPU lanzara una excepcion al gestor de memoria virtual (VMM) y se usara el DME para cargar y descomprimir al vuelo dicho PNG. el JPEG decode se usara para lo mismo. XboxONE esta preparada para manejar mundos INMENSOS (de decenas de GBs en arte grafico y geometria) e ir cargando dichos datos 'bajo demanda' de forma transparente. PS4 tambien, pero no tiene dicho hardware dedicado, tendra que hacerlo por software.

Pero sobre todo, los LZ/JPEG 'helpers' se usaran para ahorrar RAM (y ancho de banda, en el proceso). en 4GB puedes meter mas de 40GB en texturas comprimidas en JPEG. una relacion 10:1 es habitual en JPEGs de alta calidad. Puesto que los accesos a las texturas se realizaran en la eSRAM de la GPU, puedes encargar al DME que te traiga los datos de la RAM y que te los descomprima 'al vuelo' en el mismo viaje. Es cierto que eso ya se hace hoy dia metiendo la logica de la descompresion de las texturas en la logica del Shader que ejecuta la GPU, pero eso implica un shader mas largo, mas pesado, y mas potencia bruta necesaria para realizar lo mismo (quizas necesitarias 18CUs en lugar de 12CUs, por ejemplo, si no tuvieses dicha solucion en hardware), ya que los algoritmos de descompresion DXTn, aunque rapidos, no son gratuitos, ni consiguen tanto ahorro de RAM como JPEG.

al final todo se resume, y esta orientado, en lo que dijo el ingeniero de Microsoft: 'los datos correctos, en el lugar correcto, en el momento correcto'
f5inet escribió:Yo apuesto mas por el tema que los chicos de Redmond han añadido una extension al DirectX de la consola para meter los 'drawcall' en una mini-eSRAM y que sea la GPU quien lea y ejecute directamente esos Draw-Call, sin necesidad de estar siendo 'alimentada' por la CPU.

DirectX hasta la version 11.2 es muy dependiente de la velocidad de la CPU, mas que nada, porque DirectX siempre ha confiado en acaparar un unico nucleo para 'alimentar' la GPU de tareas. basicamente, aunque tengas la GPU mas potente del mundo, si no eres capaz de tenerla ocupada mandandole tareas, llega el momento que se vuelve 'ociosa' porque no tiene nada que hacer (la GPU se queda esperando a la CPU) y es cuando decimos que un juego o aplicacion es 'CPU-bound' (o sea, su rendimiento esta limitado por la CPU).

En TomsHardware teneis un monton de analisis en los cuales el mismo juego, aumenta de framerate al aumentar la potencia de la CPU, siendo la misma GPU.

Este caso es mucho mas sangrante con los cores Jaguar, que son de bajo rendimiento. La solucion que habran tomado en Microsoft es usar un pequeño pool de ram ultra-rapida (eSRAM) para 'encolar' los draw-calls y que sea la GPU quien los ejecute. adicionalmente, es posible que los draw-calls puedan ser marcados como 'alta prioridad' o 'baja prioridad'. Un ejemplo de un drawcall de alta prioridad seria ejecutar un shader grafico para pintar en pantalla, mientras que un drawcall de baja prioridad seria uno para calcular un reflejo en una textura (que si da tiempo en ese frame, perfecto, y sino, para el siguiente)

Imagen
En la imagen, se ven los dos 'pools' de eSRAM en la derecha (2x16MB=32MB) y una pequeña eSRAM entre los modulos quad-jaguar. Esa pequeña eSRAM (que calculando a ojo serian 4MB) seria la cola de drawcalls que TODOS los cpus Jaguar podrian alimentar y seria la GPU quien sacara directamente los drawcalls para mantenerse alimentada.

Cabe destacar que la razon de esta arquitectura es por el pobre rendimiento y adaptacion de DirectX a entornos multicore de bajo rendimiento. DirectX no ha tenido problemas mientras tuviese una CPU potente capaz de mantener alimentada a la GPU, el problema surge CUANDO NO ES ASI, y es en estos momentos de la 'era multicore' (tener muchos cores de poca potencia, y apagar los que no necesites para ahorrar energia) cuando se le ven las verguenzas a DirectX. es por eso que se ha desarrollado Mantle y que los de OpenGL dicen que pueden superar en 4 o 5 veces el rendimiento de DirectX, y lo hacen, pero en CPUs MODESTAS. en CPUs que son potentes de por si, como un i7, DirectX no tiene tal problema.

El problema existia en DirectX, y los de Microsoft han desarrollado diversas tecnicas para superarlo, como crear una nueva version de DirectX (v12) que sea capaz de ejecutar drawcalls de forma asincrona y simultanea (adaptada y optimizada para entornos multicore) y metiendo una cola de tareas en XboxONE.

y la gran pregunta ¿Tiene OpenGL y/o PS4 este problema? es posible que en algun momento lo tuviesen. ¿lo han arreglado? Ya lo veremos. Lo que si es cierto es que XboxONE, a partir del update que meta DirectX12 y que las desarrolladoras tengan los SDKs actualizados a DX12, ya no tendran ese problema.


Mucho tiempo sin pasar por aquí y por fin parece que las aguas vuelven a su cauce. Gran aporte compañero =)
Muchas gracias f5inet por todas las explicaciones. No sabes cuanto se agradece que alguien con gran conocimiento de la materia dedique parte de su tiempo en explicar, de una forma bastante clara para el mortal común, todo lo relacionado al funcionamiento del hardware de ONE.
f5inet escribió:
KinderRey escribió:[...]
Pregunta:
Qué valoración y posibles usos crees que pueden tener los LZ encode/decode de los DME.
Porque a mi de entrada sólo se me ocurren funcionalidades off-chip, para codificar/decodificar datos externos procedentes del disco duro, de los 8GB de memoria Flash o desde la red.


Los LZ encode/decode tienen como objetivo principal el ahorrar ancho de banda.

El final de toda esta historia (entendiendo por historia las CPUs de 64bits de espacio direccionable, GPUs con MMU, MMUs de CPU y GPU coherentes en cache y compartiendo espacio direccionable, la obligacion de instalar los juegos en el disco duro... vamos, HSA/hUMA puro y duro) es poder disponer de TODA LA MEMORIA del hardware accesible por las unidades de proceso.

y cuando digo TODA LA MEMORIA, en mayusculas, estoy incluyendo al disco duro.

Llegaremos al punto en el cual, se usara la RAM como 'cache' de los datos almacenados en disco, y los LZ decode/encode tendran muchisimo sentido cuando puedas cargar un archivo PNG como textura, y que cuando sea necesario, la MMU de la GPU lanzara una excepcion al gestor de memoria virtual (VMM) y se usara el DME para cargar y descomprimir al vuelo dicho PNG. el JPEG decode se usara para lo mismo. XboxONE esta preparada para manejar mundos INMENSOS (de decenas de GBs en arte grafico y geometria) e ir cargando dichos datos 'bajo demanda' de forma transparente. PS4 tambien, pero no tiene dicho hardware dedicado, tendra que hacerlo por software.

Pero sobre todo, los LZ/JPEG 'helpers' se usaran para ahorrar RAM (y ancho de banda, en el proceso). en 4GB puedes meter mas de 40GB en texturas comprimidas en JPEG. una relacion 10:1 es habitual en JPEGs de alta calidad. Puesto que los accesos a las texturas se realizaran en la eSRAM de la GPU, puedes encargar al DME que te traiga los datos de la RAM y que te los descomprima 'al vuelo' en el mismo viaje. Es cierto que eso ya se hace hoy dia metiendo la logica de la descompresion de las texturas en la logica del Shader que ejecuta la GPU, pero eso implica un shader mas largo, mas pesado, y mas potencia bruta necesaria para realizar lo mismo (quizas necesitarias 18CUs en lugar de 12CUs, por ejemplo, si no tuvieses dicha solucion en hardware), ya que los algoritmos de descompresion DXTn, aunque rapidos, no son gratuitos, ni consiguen tanto ahorro de RAM como JPEG.

al final todo se resume, y esta orientado, en lo que dijo el ingeniero de Microsoft: 'los datos correctos, en el lugar correcto, en el momento correcto'

Gracias de nuevo por tus explicaciones.

Yo ya lo llevo diciendo tiempo, la base de la arquitectura de la Xbox One está en la descarga de trabajo de la CPU y GPU y en los procesos paralelos, de ahí la DDR3 y ESRAM, por su baja latencia sobre todo.
f5inet escribió: [...]


[tadoramo] [tadoramo] [tadoramo] [tadoramo] [tadoramo] [plas] [plas] [plas]

Muchísimas gracias por la explicación. Así da gusto.

Un saludo.
143083 respuestas