Hablemos del interior de Xbox One

papatuelo escribió:
argam escribió:
KinderRey escribió:Xbox One = Full HSA + Full DX12 (y aún hay features de D3D12 por desvelar) = más de 2.000.000 draw calls

Y sin chip gordo.


De donde sacas el numero de draw calls?

Son con celulino?

Un saludo!


No creo que te conteste, yo no lo haría si me hablas de esas forma.


De que forma? solo estoy siguiendo el rollo gracioso que ha comenzado el con lo del chip gordo... o ahora celulino>>chip gordo??

Y centrandonos en lo serio en vez de en la gracieta, estaria bien saber de donde sale la cifra, porque a falta de fuentes suena a inventada.

Yo lo unico que he visto en cuanto al aumento de drawcalls al pasar a DX12 es lo que ha ido soltando Bradwell, y el hablaba de en torno a 50k-75k para Xbox one. Si alguien no se lo cree que lo busque o que pregunte y busco los enlaces.

Un saludo!
@Argam

Ok, perdona, es que como aquí todo el mundo nos trata como los pobrecitos retarder pues he saltado.

Pero si tu intención no era molestar, en serio. disculpame.

Edito: Me acabo de dar cuenta de que en las últimas slides de AMD sobre DX12 citan a Wardell, menos mal que era un boca chancla que no tenía ni idea.
indigo_rs está baneado por "saltarse el ban con un clon"
He visto que DX12 mejora tanto el rendimiento de la multi-CPU como de la GPU. Seria interesante ver como afectaría eso a los juegos, por ejemplo el AC Unity renderizado con DX12 podría moverse a 30fps estables o incluso mas.
Luzbel_bcn escribió:
lokepajke escribió:Ya, por eso el jefe de Xbox dijo esto :

https://twitter.com/xboxp3/status/446873135594225664


Algunas características soportara y en un futuro será full dx12, creo entender.

Un twit de marzo 2014, un año después no ha confirmado que sea full. ¿Si es así donde puedo ver la confirmación?.

Offtopic: mi jefe me promete un aumento de sueldo, ya al final de mes cuando me dice eso ya lo veo reflejado.


Pero si con ese Tweet confirma que One es Full dx12, cuando? Pues cuando salga DX12 y one se actualice... Fecha, ojalá lo supiéramos, me imagino que para final de año,
papatuelo escribió:@Argam

Ok, perdona, es que como aquí todo el mundo nos trata como los pobrecitos retarder pues he saltado.

Pero si tu intención no era molestar, en serio. disculpame.

Edito: Me acabo de dar cuenta de que en las últimas slides de AMD sobre DX12 citan a Wardell, menos mal que era un boca chancla que no tenía ni idea.


Para nada era mi intencion. En cuanto a los tweets, en esta noticia aparecen reflejados en la parte de abajo:

http://gamingbolt.com/stardock-ceo-on-x ... lk-on-dx12

Un saludo!
Siempre aparecen usuarios que en vez de leerse el hilo y saber en que punto estamos, empiezan a soltar el marketing del 50% moar pawa y volvemos a comenzar, el dia de la marmota cansa, que os cuesta leer un poco antes de soltar los mismos argumentos que muchos negacionistas ya soltaron en el pasado y como quedarón en evidencia ya no siguen por aqui.

Sin acritud pero, leed tios, que ya cansa los mismo de siempre.
Pada escribió:https://twitter.com/XboxP3/status/579369141326381056

halo 5? forza 6?


Tomb Raider, juego de RARE .. en fin... todo juego First Party de Xbox ....


Y a eso sumale este previo de tomb raider ....

http://www.hobbyconsolas.com/avances/av ... one-110104

[carcajad] Ya quiero ver como MS va a callar bocas a esos que dudan que DX12 no aportará gran cosa al ONE.
indigo_rs escribió:Comor?? Esa imagen es real? meten a X1 como Full DX12 por hardware?

Se supone que eso es novedad? ¬_¬

Si es la maquina de los mismos creadores y ya han dicho que esta hecha con ello en mente.
HeRoMoN escribió:
Pada escribió:https://twitter.com/XboxP3/status/579369141326381056

halo 5? forza 6?


Tomb Raider, juego de RARE .. en fin... todo juego First Party de Xbox ....


Y a eso sumale este previo de tomb raider ....

http://www.hobbyconsolas.com/avances/av ... one-110104

[carcajad] Ya quiero ver como MS va a callar bocas a esos que dudan que DX12 no aportará gran cosa al ONE.


No todos, ahi se está refiriendo a juegos hechos de cero para dx12, como mucho habrá 1 o 2 este año, yo no los esperaba hasta 2016. Después hay otros empezados en dx11 y portados al 12 como fable legends y seguramente quantum break, después esta el resto que seguirá siendo dx11 como el 99% de los multis que salgan este año, seguramente haya algun multi portado de dx11 a dx12 como probablemente el sw battlefront y alguno que utilice el UE4 (algun juego no anunciado :P)
Que significa ese x5 en drawcalls? Entiendo que no multiplica x5 la potencia, ni polígonos, ni carga de texturas, cálculos de sombras.. O si?

Hace falta un resumen en el primer mensaje.
indigo_rs está baneado por "saltarse el ban con un clon"
Horizonte de sucesos escribió:Imagen


No puede ser, hay mucha diferencia. Eso demostraría lo poco que está aprovechado el hardware.

Imagen

Imagen
De donde sacas el numero de draw calls?

Son con celulino?

Un saludo![/quote]

No creo que te conteste, yo no lo haría si me hablas de esas forma.[/quote]

De que forma? solo estoy siguiendo el rollo gracioso que ha comenzado el con lo del chip gordo... o ahora celulino>>chip gordo??

Y centrandonos en lo serio en vez de en la gracieta, estaria bien saber de donde sale la cifra, porque a falta de fuentes suena a inventada.

Yo lo unico que he visto en cuanto al aumento de drawcalls al pasar a DX12 es lo que ha ido soltando Bradwell, y el hablaba de en torno a 50k-75k para Xbox one. Si alguien no se lo cree que lo busque o que pregunte y busco los enlaces.

Un saludo![/quote]
Antes de asumir que algo parece inventado podrías informarte mejor y sobre todo leer mejor toda la información que traen los compañeros al hilo, que no es poca.
Las draw calls son importantes de forma simplificada para no estar limitado a la hora de añadir detalles a los entornos ni tener que recurrir a triquiñuelas para suplir su carencia. Estas triquiñuelas suelen ser del tipo desde simplemente quitar elementos (LOD abusivo) a juntar varios elementos en una sola llamada, lo cual requiere copiar varios a uno solo consumiendo ancho de memoria.
darksch escribió:Las draw calls son importantes de forma simplificada para no estar limitado a la hora de añadir detalles a los entornos ni tener que recurrir a triquiñuelas para suplir su carencia. Estas triquiñuelas suelen ser del tipo desde simplemente quitar elementos (LOD abusivo) a juntar varios elementos en una sola llamada, lo cual requiere copiar varios a uno solo consumiendo ancho de memoria.

Gracias por la explicación.
Yo hay una cosa que no entiendo y es que la unica compañia que se esta arriesgando con nuevas herramientas de desarrollo y haciendo transicion es M$, y haciendo juegos donde de verdad pueda notarse un salto cualitativo no solo a nivel grafico, mientras el resto solo se quejan de cuellos de botella y alavando la facilidad de desarrollar en otros sistemas mas potentes y lo unico que sacan son ports de la anterior generacion con la coletilla 1080p-60 y no son ni estables.
Esta claro que Micro tiene que demostrar la fuerza del nuevo DX12, pero que el resto sigan estancados porque si en el 11. Y luego tienes cosas como Bloodborne que dan el pegote que te cagas.
indigo_rs está baneado por "saltarse el ban con un clon"
DX12 ya tenia que estar en la calle, menudo cambio.

Imagen

Imagen
Según Spencer, para navidades estarán ya los primeros juegos que aprovechen complatamente DX12 para Xbox ONE:

http://www.dualshockers.com/2015/03/22/phil-spencer-full-dx12-games-likely-2015-studios-will-do-whats-best-for-them-and-more/
Que mas da que salgan o no con dx12, si xbox one ya tiene una api que hace lo mismo.
indigo_rs está baneado por "saltarse el ban con un clon"
Nuhar escribió:Que mas da que salgan o no con dx12, si xbox one ya tiene una api que hace lo mismo.


La api de X1 es DirectX11 al igual que la de la 360 era Dx9.
argam escribió:
De que forma? solo estoy siguiendo el rollo gracioso que ha comenzado el con lo del chip gordo... o ahora celulino>>chip gordo??

Y centrandonos en lo serio en vez de en la gracieta, estaria bien saber de donde sale la cifra, porque a falta de fuentes suena a inventada.

Yo lo unico que he visto en cuanto al aumento de drawcalls al pasar a DX12 es lo que ha ido soltando Bradwell, y el hablaba de en torno a 50k-75k para Xbox one. Si alguien no se lo cree que lo busque o que pregunte y busco los enlaces.

Un saludo!


Drawcalls al portear a DX12 desde DX11.x está en torno a 100.000, sin ejecución asíncrona (CPU + GPU + DMA + otros), no full HSA.
Drawcalls en DX12 maximizando una arquitectura HSA (hUMA + hQ) con ejecución asíncrona en todos los engines = +2M.
indigo_rs escribió:
Nuhar escribió:Que mas da que salgan o no con dx12, si xbox one ya tiene una api que hace lo mismo.


La api de X1 es DirectX11 al igual que la de la 360 era Dx9.


Hay otra interna mas molona.

De todas formas era ironico :P
Por fin alguien lo demuestra con un estudio serio!

El 64% de las personas son incapaces de diferenciar entre las versiones del mismo juego de xbox one y pesecuatro!

(El 36% restante mintió y acertó de pura chorra [qmparto] )

http://www.gamespot.com/videos/reality-check-64-of-people-can-t-tell-the-differen/2300-6424024/


* Estudio hecho sobre una base de 2700 usuarios
cercata escribió:Según Spencer, para navidades estarán ya los primeros juegos que aprovechen completamente DX12 para Xbox ONE
[tadoramo] [tadoramo] [tadoramo]
indigo_rs está baneado por "saltarse el ban con un clon"
askatasunerantz escribió:Por fin alguien lo demuestra con un estudio serio!

El 64% de las personas son incapaces de diferenciar entre las versiones del mismo juego de xbox one y pesecuatro!

(El 36% restante mintió y acertó de pura chorra [qmparto] )

http://www.gamespot.com/videos/reality-check-64-of-people-can-t-tell-the-differen/2300-6424024/


* Estudio hecho sobre una base de 2700 usuarios


Hombre algunas diferencias hay, son pequeñas y en algunos aspectos benefician a una y en otros a la otra pero ahí están.

Imagen
askatasunerantz escribió:Por fin alguien lo demuestra con un estudio serio!

El 64% de las personas son incapaces de diferenciar entre las versiones del mismo juego de xbox one y pesecuatro!

(El 36% restante mintió y acertó de pura chorra [qmparto] )

http://www.gamespot.com/videos/reality-check-64-of-people-can-t-tell-the-differen/2300-6424024/


* Estudio hecho sobre una base de 2700 usuarios


Teniendo en cuenta que estaba Xbox One, Ps4 y PC, solo el 58% sabía cual era la versión de PC, algo que canta bastante respecto a las otras dos versiones.

Esto si me parece bastante preocupante, teniendo en cuenta que es un video que podías verlo y verlo una y otra vez y luego responder. Si lo haces en directo sin tener los tres videos al lado y solo una pasada entonces ¿que resultados darian? Pues lo dicho, que son cosas que cuanto mas mejor pero que las diferencias visuales no son tan grandes como tecnicamente parecen.

Es como si dibujo una esfera con 5-10-30-500-10000-100000000 de lados, en las primeras se pueden apreciar los lados pero ya con 500 segmentos no se aprecian, es tonteria poner mas. Con esto no digo que 1080p sea excesivo, es algo que se necesita, pero por ejemplo los 4k me parece un despilfarro de recursos.
Buenos días.

Os recuerdo que este hilo es para hablar sobre el interior de One.

Un saludo.
askatasunerantz escribió:Por fin alguien lo demuestra con un estudio serio!

El 64% de las personas son incapaces de diferenciar entre las versiones del mismo juego de xbox one y pesecuatro!

(El 36% restante mintió y acertó de pura chorra [qmparto] )

http://www.gamespot.com/videos/reality-check-64-of-people-can-t-tell-the-differen/2300-6424024/


* Estudio hecho sobre una base de 2700 usuarios

No encuentro los resultados exactos, pero incluye el estudio la version PC, asi que seguramente de ese 36% la mayor parte sea para la version PC. Que un 36% diferencien a simple vista las versiones de PS4 y XBO sin saber cual es cual y a tamaños/distancias logicos me parece totalmente imposible.
Y como no se hace ni caso, no voy a volver a avisar.
Creo que ya se comentó, pero es posible que la eSRAM integrada entre los Jaguar sea para enviar la cola de GC (Graphic Commands). Esto evitaría tener que ocupar el bus de la RAM principal para el envío de GC.

Aparte, el paralelismo en la comunicación de GC me parece que permite no sólo reducir el overhead, si no además la reducción de la latencia. Imaginemos que necesitamos 1000 GC, si los ponemos todos en la misma cola en serie, lógicamente el último tardará un rato en entrar. Si la partimos en 4 de 250 por ejemplo y podemos introducir esos GC todos en paralelo, habrá menor latencia. Es algo que simple vista no se ve pero bueno de cara a mejorar todo es bienvenido.

Recuerdo que en papers de desarrolladores de cuando la PS360 muchas veces explicaban que se quedaban en 30 fps por el tema de la latencia, que si la ejecución de tales comandos se pilla tanto tiempo, y etc. hasta llegar a la conclusión que no se podía tener un fotograma listo en los 16ms requeridos para los 60 fps, y debidos a la latencia.

Porque detalle a detalle cada "tontería" puede contar a la hora de definir si puedes hacer algo o no, vital en un hardware cerrado el cual no puedes mejorar.
Voto por hacer un hilo oficial en el que hablemos sobre DirectX12, yo me suscribiría.
antoniokratos escribió:Voto por hacer un hilo oficial en el que hablemos sobre DirectX12, yo me suscribiría.


Ya se probo en multi con un hilo de nextgen APIs y no tardo ni una semana en cerrarse por el desmadre de piques que se armo en ella xD
Zokormazo escribió:
antoniokratos escribió:Voto por hacer un hilo oficial en el que hablemos sobre DirectX12, yo me suscribiría.


Ya se probo en multi con un hilo de nextgen APIs y no tardo ni una semana en cerrarse por el desmadre de piques que se armo en ella xD

La cuestión es hacerlo aquí para que no haya piques ni mierdas.
Un hilo de DX12 aquí no tiene ningún sentido al no ser algo exclusivo de One.
Lo que se probo ya han dicho como termino.

Para todo lo demás, puede seguir utilizándose este hilo.
indigo_rs está baneado por "saltarse el ban con un clon"
DX12 es increíble pero va a llegar un poco tarde, tendría que estar operativo desde hace tiempo.
darksch escribió:Creo que ya se comentó, pero es posible que la eSRAM integrada entre los Jaguar sea para enviar la cola de GC (Graphic Commands). Esto evitaría tener que ocupar el bus de la RAM principal para el envío de GC

El acceso a la eSRAM por parte de la CPU es indirecto creo, y eso penalizaría. Y aunque no penalice, yo creo que la eSRAM es mejor dejarla para que la usen algoritmos de la GPU, que se beneficiarían mas del alto ancho de banda.
cercata escribió:
darksch escribió:Creo que ya se comentó, pero es posible que la eSRAM integrada entre los Jaguar sea para enviar la cola de GC (Graphic Commands). Esto evitaría tener que ocupar el bus de la RAM principal para el envío de GC

El acceso a la eSRAM por parte de la CPU es indirecto creo, y eso penalizaría. Y aunque no penalice, yo creo que la eSRAM es mejor dejarla para que la usen algoritmos de la GPU, que se beneficiarían mas del alto ancho de banda.


La CPU tiene su propia ESRAM. Sabias? Y como te he dicho alguna vez las tablas de paginación tienen el dato marcado y te lo dan, ya sea de la GPU, eSRAM o de la CPU. No hay problema..
indigo_rs escribió:DX12 es increíble pero va a llegar un poco tarde, tendría que estar operativo desde hace tiempo.


tarde ??? al final de mes dejan de programar las compañias ?? aun no hay hardware especifico para el y va a llegar tarde, olé!!
eloskuro escribió:La CPU tiene su propia ESRAM. Sabias? Y como te he dicho alguna vez las tablas de paginación tienen el dato marcado y te lo dan, ya sea de la GPU, eSRAM o de la CPU. No hay problema..

Y de que tamaño es esa eSRAM ? Y como está conectada ? No sabía nada ... se ha puesto en este hilo el esquema ? :O

Respecto a lo que dices de las tablas de paginación, una cosa es que sea transparente para el programador, y otra cosa es que haya penalización en el rendimiento.
eloskuro escribió:Imagen



Lo "curioso" de la ESRAM de la CPU, es que se ve que tiene diferente densidad a los bloques de ESRAM de la GPU.

Que ahora que veo la imagen me doy cuenta de que la ESRAM de la GPU está dividida en 2 porque la GPU también lo está.
Aqui teneis el Slide completo de antes

http://t.co/AKwNpcB7FF


Y a parte:
Imagen
Compare DirectX 12, Mantle, and DirectX 11 with the new API Overhead feature test.

COMING MARCH 26

Games make thousands of draw calls per frame, but each one creates performance-limiting overhead for the CPU. APIs with less overhead can handle more draw calls and produce richer visuals. The 3DMark API Overhead feature test is the world's first independent test for comparing the performance of DirectX 12, Mantle, and DirectX 11. See how many draw calls your PC can handle with each API before the frame rate drops below 30 fps.

Test DirectX 12, (Windows 10 required).
Test Mantle, (with compatible AMD hardware).
Test DirectX 11, both single- and multi-threaded.

http://www.futuremark.com/benchmarks/3d ... i-overhead
Microsoft ha invitado al E3 a MrX, al InsiderX y alguno más de los "locos" esos que hablaban "barbaridades", que cosas XD.
"richer visuals", lo que yo decía.

@cercata son 4MB de eSRAM por ahí metidos entre los Jaguar. El acceso es directo como si se tratara de una caché propia.
darksch escribió:"richer visuals", lo que yo decía.

@cercata son 4MB de eSRAM por ahí metidos entre los Jaguar. El acceso es directo como si se tratara de una caché propia.

Estoy mirando fuentes al respecto, todos dicen 47MB de SRAM, pero parece que no se aclaran de como esta repartida. Esto es lo mejor que he encontrado:

http://www.extremetech.com/gaming/171735-xbox-one-apu-reverse-engineered-reveals-sram-as-the-reason-for-small-gpu
extremetech escribió:It’s hard to tell exactly how the Xbox One’s 47MB of claimed SRAM fit into the floor plan, however. We know that the CPUs in question contain a total of 512K of L1 and 4MB of L2. If the two blocks to the right are ESRAM, each block should be 16MB, for a total of 32MB of cache there. The GPU should contain 512K to 1.5MB of L2 (512K being standard for a GCN chip of this size, with more L2 if Microsoft choose to boost that capability), and about 224K of L1 in total.

That leaves about 10MB of cache missing. If the SRAM block between the two CPUs is that large, it’s far more dense than the SRAM to the right of the GPU.


Justo eso ultimo coincide con lo que dice horizonte de sucesos.

http://www.redgamingtech.com/xbox-one-die-shots-revealed-apu-info-comparison-against-ps4/
redgamingtech escribió:32MB eSRAM (that’s what’s taking much of the size)
4MB Level 2 cache for the CPU. That’s 2MB for each of the 2 modules, each module containing 4 AMD Jaguar cores.
512KB Level 1 cache total for the CPU
1MB SHAPE (Shape is the Xbox One’s Audio processor)
512KB Level 2 for the GPU – note that it doesn’t have the PS4’s volatile bit.
768KB LDS (GPU) – LDS stands for Local Data Share
96KB Scalar Data cache (GPU)
3120KB (GPU – 260KB per CU)
darksch escribió:"richer visuals", lo que yo decía.

@cercata son 4MB de eSRAM por ahí metidos entre los Jaguar. El acceso es directo como si se tratara de una caché propia.

Eso tiene que ver mucho con la página 46 de PDF que esta un poco mas atrás no?. [360º]

Ashes of the Singularity – new mega RTS from Oxide and Stardock
Player may have thousands of units
Every turret, bullet and missile simulated by engine
On heavy frame, Ashes uploads 40-50 mb/s of data to GPU, 60fps = 3 GB/s
~20% of system bandwidth on DDR3
If stored in CPU memory with GPU fetch, would be doubled
[poraki]
indigo_rs está baneado por "saltarse el ban con un clon"
prodigio escribió:
indigo_rs escribió:DX12 es increíble pero va a llegar un poco tarde, tendría que estar operativo desde hace tiempo.


tarde ??? al final de mes dejan de programar las compañias ?? aun no hay hardware especifico para el y va a llegar tarde, olé!!


Tarde porque hay juegos pesados como el AC Unity que requieren mucha potencia y a los que DX12 le vendría de perlas para estabilizar el framerate. Cuando hay algo que mejora el rendimiento lo quieres ya, sin esperas, supongo que pasaría lo mismo cuando se anunció DX11 y todavía estábamos con los gráficos DX9.
17587 respuestas