Hablemos del interior de Xbox One

Nuhar escribió:Es cierto que especulamos, por eso hay que respetar cualquier opinion que este argumentada, como es la tuya XD (lo digo por gente que viene y suelta el si porque si)

Mantle 1.0 es compatible con todas las GCN, eso es cierto.

Esta claro que las nuevas GCN tienen arquitecturas diferentes, es un hardware diferente, con propositos diferentes. Sabemos que directx12 no es 100% compatible con todas las GCN y si mantle esta diciendo que quiere copiar cosas que tiene directx12 pues puede ser que no sea compatible con antiguas GCN.

Mantle es un producto de AMD, le interesa renovarlo lo máximo posible para sacar partido a sus graficas al 100%, siendo además un producto nuevo, no veo el porque no van a sacar una versión en 1 año.

No, la arquitectura de todas la nuevas graficas de AMD desde Northen Islands es GNC diseñada para favorecer la computación en contraposición con las antiguas VLIW y asi será para unos cuantos años obviamente iran introduciendo mejoras para seguir ganando rendimiento pero la arquitectura no la van a cambiar.

En cuanto a la compatibilidad 100% hasta que no hable AMD no lo sabe nadie y todavía no ha dicho ni palabara logico por una parte si no fuesen compatibles para no afectar a las ventas de las actuales.

Vamos a ver creo que @druida confundes algunas cosas. Una API es una API y podrás adaptarla de una forma u otra salvo por impedimentos mayores que no lo permitan. ¿Qué las GCN pueden hacerse compatibles DX12?, pues seguramente sí, a nivel de drivers. Pero eso no quita que DX12 está pensado para funcionar con buffers para comandos, que las actuales NO TIENEN, y entonces eso tienes que suplirlo usando una pool en la RAM que asocias al PCI-E seguramente, que vale te sirve pero no es lo mismo, se pierde rendimiento. Es sólo un ejemplo de algo que en hardware anteriores no cumples a nivel de hardware, y puede haber otros tantos más.

Que te hace pensar que no tienen lo necesario precisamente toda la arquitectura GNC esta pensada para eso mismo desde el principio.
Aqui tienes el diseño:
http://developer.amd.com/wordpress/medi ... _final.pdf

De hecho actualmente es como funciona mantle.
http://techreport.com/r.x/mantle-api-ap ... nmodel.jpg
These days, a modern GPU typically has a number of engines that execute commands in parallel to do work for you. You have a graphics or compute engine, DMA, multimedia . . . whatever. The basic building block for work for those engines is a command buffer. In [the diagram above], a command buffer is a colored rectangle. A driver builds commands targeting one of the engines; it puts the command buffer into an execution queue, and the engine, when it's ready to do some work, goes to the execution queue, grabs the work, and performs it.

[That's] as opposed to a context-based execution model, where it's up to the driver to choose which engine we want to target; it's up to the driver to figure out where we break command buffers apart, and manage the synchronization between those engines. Mantle exposes all that, abstracted, to you. So, you have the ability to build a command buffer, insert commands into it, submit it to the queue, and then synchronize the work between it. This lets you take full advantage of the entire GPU.

http://josepjroca.wordpress.com/2014/03 ... -xbox-one/

Todas las GNC para PC comparten el mismo procesador de comandos diseñado por AMD.
Igual me he expresado mal, hay diferencias en cuanto al hardware se refiere. No se si llamarlo arquitecura esta mal dicho tecnicamente.
Ya pero ahí no dice donde se almacena dicho buffer, de hecho dice:
Mantle exposes all that, abstracted, to you

Y nada más.

Yo me refiero a que por ejemplo DX12 trabajará con caché para encolar comandos, y en la XO está presente como puede verse en la imagen y esa SRAM en la CPU.

Imagen

Mantle me da igual porque no viene al caso, no es de XO, y estamos hablando de DX12. Como lo quiera hacer AMD para su Mantle pues es cosa suya pero aquí no pinta nada. Así que si portas DX12 con ESA arquitectura actual que carece de algunas cosas que sí tiene XO que fue diseñada para DX12, pues tendrás que hacerlo por otras vías a través del driver de algún modo que no sea hardware nativamente.

Imagina los pasos: CPU genera un comando, lo encola, GPU lo ejecuta. Pues en el proceso de encolar con la arquitectura actual estamos en lo mismo de siempre, la CPU tendrá que usar el (lento) puerto PCI-E para encolarlo, y luego ya la GPU hará todo eso que viene ahí. El encolado en XO es colocar los comandos en ese buffer no presente en las actuales. ¿Qué Mantle no lo necesita y no lo usa?. allá penas, XO no funciona bajo Mantle. De hecho XO es bastante custom precisamente para adaptarse a DX12 y no a Mantle.
Ya puse el enlace el otro día. AMD ha confirmado q hay características hardware q están por introducir. Os pongo la traducción q han hecho en otro foro:

Nosotros [AMD], tomaremos las tendencias que marque DX12 y las llevaremos a Mantle. Estoy seguro de que pueden ayudarnos a hacer un mejor trabajo del que hemos hecho. También tomaremos las características extra de hardware incluídas en DX12, ya que hay unas cuantas características que vendrán en él [DX12]: son de una parte la sincronización de píxeles, que te permite hacer efectos de transparencias geniales y de sustancias luminosas transparentes y que son muy, muy complicadas de lograr con la API actual [DX11]. Por otra parte, están los llamados "recursos bindless", que suponen de nuevo un mejora significativa de la eficiencia respecto a cómo trabaja la GPU, asegurándose que no se estanca esperando que la CPU le transmita algunos de los cambios que son necesarios. En esa fase, ya tendremos listo Mantle 2, que cubrirá el mismo tipo de funcionalidad que el DX12 nativo y proporcionará todos los beneficios de rendimiento que Mantle actualmente proporciona sumado a cualquier cosa más que podamos aprender"

Deberías repasar las paginas anteriores y ver toda la información.

Se sabe q Xbox One tiene 4 procesadores de comando, los cuales según Microsoft están altamente modificados, tenemos el doble de ALUs en Las CUs de One y algunos elementos más, q hace q no sea una GCN 1.1 al uso.

Para q m entiendas, Jaguar(arquitectura presente en PS4), consta de un controlador de memoria DDR3 en single channel, a un máximo de 1600mhz. Como bien sabes este ha sido modificado por Sony y AMD para introducir GDDR5.

Esta basado en jaguar? Sí, pero no es idéntico en todo su hardware.
Si esto no lo ponéis en duda, ¿Por que sí ponéis en duda q One tenga GCN 1.1 altamente modificado y diferentes elementos hardware? Las fotografías del die están ahí, se puede comprobar. Tenéis confirmaciones oficiales de Microsoft y seguís diciendo q es idéntico, no lo entiendo, de verdad.

Ya no es hablar de q sea una "bestia parda", sino de q es "diferente" y por lo tanto, interesante.
darksch escribió:Imagina los pasos: CPU genera un comando, lo encola, GPU lo ejecuta. Pues en el proceso de encolar con la arquitectura actual estamos en lo mismo de siempre, la CPU tendrá que usar el (lento) puerto PCI-E para encolarlo, y luego ya la GPU hará todo eso que viene ahí. El encolado en XO es colocar los comandos en ese buffer no presente en las actuales. ¿Qué Mantle no lo necesita y no lo usa?. allá penas, XO no funciona bajo Mantle. De hecho XO es bastante custom precisamente para adaptarse a DX12 y no a Mantle.

Vamos a ver, tú no te has parado a leer nada de la documentación que te he dado.

Todas las graficas GCN pueden prescindir de la CPU para eso mismo porque tienen su propio gestor/planificador de comandos por hardware el cual almacena o cachea(porque la GNCs tambien llevan su propia memoria cache), encola lo necesario para hacer la parelizacion y este es utilizado por mantle y será utilizado por directx12 en las gráficas para Pc y es la principal razón por la que el hard antiguo es compatible con dx12.
En castellano:
Una de las desventajas que tiene DirectX respecto a otras APIs es el tiempo en que se tarda desde que la aplicación envía el comando al hardware hasta que es ejecutado. En Xbox 360 lo que hizo Microsoft fue permitir que los juegos escribiesen directamente para el procesador de comandos y esto es algo que se puede hacer cuando tienes un hardware único como es el caso de Xbox 360. ¿Como lo hace Direct3D para crear listas de comandos para todas las arquitecturas? Pues de eso se encarga la CPU, por eso Direct3D esta tan atado en rendimiento a la CPU desde donde funciona.

La contrapartida la tenemos por otro lado en una API como Mantle, pensada para una sola arquitectura en concreto (AMD GCN) y su velocidad se debe a que utiliza una de las múltiples listas de comandos (multiples hilos) como planificador en vez de utilizar la CPU para ello, asi se consigue reducir el peso del runtime y se gana en velocidad pero a cambio de sacrificar compatibilidad. Ahora bien, lo que mucha gente me ha preguntado de tanto en cuanto es… ¿como es que no hay compatibilidad con Mantle en Xbox One? Creo que ya se el motivo de ello, su procesador de comandos no es el estándar de AMD sino que esta modificado por lo que el código generado via Mantle no funcionaría en Xbox One.

Puff creo que ya paso.
Szasz escribió:Ya puse el enlace el otro día. AMD ha confirmado q hay características hardware q están por introducir. Os pongo la traducción q han hecho en otro foro:

Nosotros [AMD], tomaremos las tendencias que marque DX12 y las llevaremos a Mantle. Estoy seguro de que pueden ayudarnos a hacer un mejor trabajo del que hemos hecho. También tomaremos las características extra de hardware incluídas en DX12, ya que hay unas cuantas características que vendrán en él [DX12]: son de una parte la sincronización de píxeles, que te permite hacer efectos de transparencias geniales y de sustancias luminosas transparentes y que son muy, muy complicadas de lograr con la API actual [DX11]. Por otra parte, están los llamados "recursos bindless", que suponen de nuevo un mejora significativa de la eficiencia respecto a cómo trabaja la GPU, asegurándose que no se estanca esperando que la CPU le transmita algunos de los cambios que son necesarios. En esa fase, ya tendremos listo Mantle 2, que cubrirá el mismo tipo de funcionalidad que el DX12 nativo y proporcionará todos los beneficios de rendimiento que Mantle actualmente proporciona sumado a cualquier cosa más que podamos aprender"

Deberías repasar las paginas anteriores y ver toda la información.

Se sabe q Xbox One tiene 4 procesadores de comando, los cuales según Microsoft están altamente modificados, tenemos el doble de ALUs en Las CUs de One y algunos elementos más, q hace q no sea una GCN 1.1 al uso.

Para q m entiendas, Jaguar(arquitectura presente en PS4), consta de un controlador de memoria DDR3 en single channel, a un máximo de 1600mhz. Como bien sabes este ha sido modificado por Sony y AMD para introducir GDDR5.

Esta basado en jaguar? Sí, pero no es idéntico en todo su hardware.
Si esto no lo ponéis en duda, ¿Por que sí ponéis en duda q One tenga GCN 1.1 altamente modificado y diferentes elementos hardware? Las fotografías del die están ahí, se puede comprobar. Tenéis confirmaciones oficiales de Microsoft y seguís diciendo q es idéntico, no lo entiendo, de verdad.

Ya no es hablar de q sea una "bestia parda", sino de q es "diferente" y por lo tanto, interesante.



Pero si muchos no aceptan ni que hayan metido mano a los jaguar y no se creen que la cpu de ONE puede con 48 ops/ciclo cuando es la propia Microsoft quien ha dado esos datos. ¿Como van a aceptar lo de la GPU?

Imagen
Imagen

https://www.youtube.com/watch?v=tLBVHZokt1Q
Horizonte de sucesos escribió:
Szasz escribió:Ya puse el enlace el otro día. AMD ha confirmado q hay características hardware q están por introducir. Os pongo la traducción q han hecho en otro foro:

Nosotros [AMD], tomaremos las tendencias que marque DX12 y las llevaremos a Mantle. Estoy seguro de que pueden ayudarnos a hacer un mejor trabajo del que hemos hecho. También tomaremos las características extra de hardware incluídas en DX12, ya que hay unas cuantas características que vendrán en él [DX12]: son de una parte la sincronización de píxeles, que te permite hacer efectos de transparencias geniales y de sustancias luminosas transparentes y que son muy, muy complicadas de lograr con la API actual [DX11]. Por otra parte, están los llamados "recursos bindless", que suponen de nuevo un mejora significativa de la eficiencia respecto a cómo trabaja la GPU, asegurándose que no se estanca esperando que la CPU le transmita algunos de los cambios que son necesarios. En esa fase, ya tendremos listo Mantle 2, que cubrirá el mismo tipo de funcionalidad que el DX12 nativo y proporcionará todos los beneficios de rendimiento que Mantle actualmente proporciona sumado a cualquier cosa más que podamos aprender"

Deberías repasar las paginas anteriores y ver toda la información.

Se sabe q Xbox One tiene 4 procesadores de comando, los cuales según Microsoft están altamente modificados, tenemos el doble de ALUs en Las CUs de One y algunos elementos más, q hace q no sea una GCN 1.1 al uso.

Para q m entiendas, Jaguar(arquitectura presente en PS4), consta de un controlador de memoria DDR3 en single channel, a un máximo de 1600mhz. Como bien sabes este ha sido modificado por Sony y AMD para introducir GDDR5.

Esta basado en jaguar? Sí, pero no es idéntico en todo su hardware.
Si esto no lo ponéis en duda, ¿Por que sí ponéis en duda q One tenga GCN 1.1 altamente modificado y diferentes elementos hardware? Las fotografías del die están ahí, se puede comprobar. Tenéis confirmaciones oficiales de Microsoft y seguís diciendo q es idéntico, no lo entiendo, de verdad.

Ya no es hablar de q sea una "bestia parda", sino de q es "diferente" y por lo tanto, interesante.



Pero si muchos no aceptan ni que hayan metido mano a los jaguar y no se creen que la cpu de ONE puede con 48 ops/ciclo cuando es la propia Microsoft quien ha dado esos datos. ¿Como van a aceptar lo de la GPU?

Imagen
Imagen

https://www.youtube.com/watch?v=tLBVHZokt1Q


La verdad la gente no se cansa de buscar el grial esta es la documentación robada a Microsoft y filtrada a Vgleaks:
Durango CPU cores have dual x64 instruction decoders, so they can decode two instructions per cycle. On average, an x86 instruction is converted to 1.7 micro-operations, and many common x64 instructions are converted to 1 micro-operation. In the right conditions, the processor can simultaneously issue six micro-operations: a load, a store, two ALU, and two vector floating point. The core has corresponding pipelines: two identical 64-bit ALU pipelines, two 128-bit vector float pipelines (one with float multiply, one with float add), one load pipeline, and one store pipeline. A core can retire 2 micro-operations a cycle.
http://www.vgleaks.com/durango-cpu-overview/

Funciona exactamente igual que un Jaguar convencional ahora seguid la corriente a los fans de los foros.
Datos de la arquitectura jaguar:
http://www.realworldtech.com/jaguar/3/
Vamos a ver, estas diciendo que una supuesta información robada o filtrada es mas veraz que lo que dicen en una entrevista los creadores de la consola.
Dímelo para ignorarte o no, me parece de traca.
antonio613 escribió:Vamos a ver, estas diciendo que una supuesta información robada o filtrada es mas veraz que lo que dicen en una entrevista los creadores de la consola.
Dímelo para ignorarte o no, me parece de traca.

Estoy diciendo que tanto en la entrevista como en la informacion filtrada la informacion es totalmene veraz y que en ese punto ambos hablan de un Jaguar convencional.

Y lo que afirmo es que es muuuy fácil desde los foros y sobretodo desde los fans tergirversar cualquier cosa y que se extienda sin sentido por todo internet entre la gente que no entiende ni jota de lo que hablan.

Una cosa es que estemos hablando de una APu customizada, solo hay que ver la ESRAM y las variaciones de los DMA, y otra bien diferente es inventarse todo tipo de datos.

Pero no te preocupes la gente prefiere creer en la mentira complaciente que en la realidad comprobable solo hay que ver por todas las fases que ha pasado este hilo.

Y la informacion de VGleaks se ha comprobado que era totalmente cierta por algo el infromante superDaE se esta enfrentado a un proceso judicial.
Druida antes has dicho que todo son especulaciones pero es que leyendote parece como si dijeras yo tengo la razon y todos os demas no. PUNTO.

Y tampoco es eso.
Grinch escribió:Druida antes has dicho que todo son especulaciones pero es que leyendote parece como si dijeras yo tengo la razon y todos os demas no. PUNTO.

Y tampoco es eso.


Me has ganado por la mano :P

Como bien has dicho, todos especulamos, unos toman unas declaraciones como validas y otros otras.

Y luego estan en los que creen en Mixtermedia al igual que otros afirman que hay maletines para empeorar versiones.

Se que directx12 no es compatible con ciertas graficas al 100% por hardware, entre ellas las que supuestamente montaria la One (que si que es compatible al 100%). Luego tenemos varias declaraciones sobre las ventajas de usar directx12 frente a directx11, aqui simplemente se especula a por que se debe eso.

PD: Tambien puede ser que ingenieros y desarrolladores nos hayan mentido, entonces yo creo que muchos nos enfadaremos por vendernos humo XD.
Grinch escribió:Druida antes has dicho que todo son especulaciones pero es que leyendote parece como si dijeras yo tengo la razon y todos os demas no. PUNTO.

Y tampoco es eso.

Concordaras que hay cosas con las que se pueden tener diferentes opiniones y argumentarlas o especular pero otras cuando se tienen ciertas especificaciones y datos estos son perfectamente comprobables ahí hay mucho menos margen.
Por ejemplo vemos dos pantallazos como esos y enseguida ya soltamos que esa es la customizacion que ha ideado Microsoft para Jaguar ¿en base a que? y mas cuando en la documentación de AMD sobre esa arquitectura tiene las mismas caracteristicas.
Si pero unos ponen de fuente una entrevista de microsoft y tu una filtracion . Quien tiene razon ?

Pues sigue siendo entonces especulaciones por que no sabes si la filtracion es 100% veridica o lo es la entrevista ( aunque yo le daria mas veracidad a la entrevista) pero eso cada cual
Grinch escribió:Si pero unos ponen de fuente una entrevista de microsoft y tu una filtracion . Quien tiene razon ?

Pues sigue siendo entonces especulaciones por que no sabes si la filtracion es 100% veridica o lo es la entrevista ( aunque yo le daria mas veracidad a la entrevista) pero eso cada cual

Las dos mienten o las dos dicen la verdad porque hablan exactamente de lo mismo.

Documentacion oficial de la propia AMD sobre Jaguar:
Like its predecessor, Jaguar is a 64-bit, out-of-order microprocessor that decodes and issues 2 instructions and dispatches 6 operations per cycle. A cluster of four Jaguar cores share an L2 cache and larger configurations can be built using an internal fabric. The actual target market for Jaguar includes tablets, and microservers, but does not extend down into smart phones. While AMD certainly could produce a <1W core, there is no motivation because the company lacks many crucial components that are necessary to be competitive. In particular, AMD has no LTE capabilities, nor do they have access to older 2G or 3G modems. However, AMD’s extensive graphics IP is incredibly valuable in nearly all client-facing systems and is a natural complement to the Jaguar processor. It is in this combination, that Jaguar has become the most successful, as it currently powers Sony’s Playstation 4 and Microsoft’s Xbox One, which are collectively selling over a million units per month.
http://www.realworldtech.com/jaguar/

Claro que puede que la propia AMD también mienta, pensad lo que querais pero mucho cuidado con los mas acerrimos seguidores de una marca.
Buenas gente. A que NO me echáis de menos? XD XD XD tranquilos q solo me paso por aquí para volver a poner un mensaje q ya escribí sobre el tema de los famosos 48 operaciones por ciclo de los nucleos de la CPU de XboxOne (idénticos por otra parte a los núcleos Jaguar normales y corrientes). Asiq técnicamente no he vuelto a escribir XD :

No, los datos son correctos, lo incorrecto es la interpretación. Explicar esto sería adentrarse a nivel demasiado profundo en como funciona una CPU, pero...resumiendo, no es lo mismo emitir instrucciones a las unidades de computo (issue) que captar/decodificar instrucciones de memoria, que RETIRAR instrucciones del pipeline.

En la arquitectura Jaguar, se pueden captar/decodificar 2 instrucciones por ciclo, puede emitir 6 instrucciones por ciclo y retirar como máximo 2 instrucciones por ciclo. Como máximo cada core podrá retirar/terminar 2 instrucciones por ciclo, si tienes 8 podrás retirar 16 instrucciones terminadas, es distinto del número de instrucciones q puedes emitir a las unidades de computo (6x8 = 48).


Quien no lo entienda o no se quede conforme con la explicación que busque por internet procesadores superescalares.

Un saludo.
Yo si XD

Siempre me ha gustado que la gente aclare conceptos, por ejemplo el de los nucleos jaguar, que antes no entendia que cojones quería decir lo de las operaciones. Ahora tampoco, pero se que es un nucleo jaguar normal y corriente XD (ni sabía que se decía que podría estar modificado)

Me quedo con esta frase, que yo creo que muchos pensamos.

druida escribió:Una cosa es que estemos hablando de una APu customizada, solo hay que ver la ESRAM y las variaciones de los DMA, y otra bien diferente es inventarse todo tipo de datos.


Y ahora nos dicen que necesitamos el directx12 para aprovechar la customización, veremos a ver en que queda todo esto XD
A mi lo que me choca es que Druida esta diciendo que en el video de MS y en la documentacion se dice lo mismo (porque dicen lo mismo), pero hay gente que quiere entender que dicen lo contrario (por eso de a quien crees, si al video de la gente de MS o a la documentacion filtrada).

Hay gente que ve ataques donde no los hay :D

Un saludo!
Si lo dice por mi no creo haber atacado a druida en ningun momento.
Druida si crees que te atacaba no era mi intencion. No se que decia la entrevista por no la he visto xD
Lo decia por las estabais comparando.

Pero argram hay gente que tambien quiere ver ataques donde no los hay...
no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.
antonio613 escribió:no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.

Y yo te digo que estas obviando la documentación oficial de AMD para Jaguar que he puesto y que en la entrevista dice exactamente lo mismo que en esa documentación .
druida escribió:
antonio613 escribió:no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.

Y yo te digo que estas obviando la documentación oficial de AMD para Jaguar que he puesto y que en la entrevista dice exactamente lo mismo que en esa documentación .


Lo que pasa que en la entrevista es una conversación más distendida y por eso quizás parece que digan cosas diferentes, por no detallar todo bien. Pero es innegable que los datos coinciden.

Aunque druida ha empezado un poco con el hacha levantada (cosa que personalmente no creo que te beneficie), creo que en este tema tiene la razon.

Es como lo de los 2,6Tflops que decían tener por tener duplicada el número de Alus, que si doble precision, que si single precision... un poco locura creo yo.

Otra cosa será que gracias a tener una arquitectura especial, se pueda aprovechar mejor los componentes, pero como he dicho antes, se supone que llegará con el directx12 y a ver cuanto rendimiento extra se le saca.
Nuhar escribió:
druida escribió:
antonio613 escribió:no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.

Y yo te digo que estas obviando la documentación oficial de AMD para Jaguar que he puesto y que en la entrevista dice exactamente lo mismo que en esa documentación .


Lo que pasa que en la entrevista es una conversación más distendida y por eso quizás parece que digan cosas diferentes, por no detallar todo bien. Pero es innegable que los datos coinciden.

Aunque druida ha empezado un poco con el hacha levantada (cosa que personalmente no creo que te beneficie), creo que en este tema tiene la razon.

Es como lo de los 2,6Tflops que decían tener por tener duplicada el número de Alus, que si doble precision, que si single precision... un poco locura creo yo.

Otra cosa será que gracias a tener una arquitectura especial, se pueda aprovechar mejor los componentes, pero como he dicho antes, se supone que llegará con el directx12 y a ver cuanto rendimiento extra se le saca.

En este hilo se han soltado mil teorias totalmente descabelladas alimentadas por Mixtermedia y por su partner de 3djuegos que leyendoles te das cuenta que no tienen ni idea de hardware, lo de la doble precision era de risa como lo explicaba, pero intentan convencer a los demas que su máquina favorita es la releche y hay que comprarla.
A base de decir paridas pues alguna acertaran aunque lo veo dificil.

La realidad es que desde Microsoft desde el primer momento ha publicitado la nube para acelerar ciertos procesos, dadas las conexiones y la eliminacion del DRM lo tienen dificil, y ahora directx 12.
o sea que todos equivocados y tu tienes la razon ? lo digo por que hemos empezado diciendo que todo el mundo especula y tu estas afirmando directamente . Hay gente de aqui que entiende bastante y tambien se inventa las cosas ?.

No es por atacarte pero es que esta yendo por la rama de Todos equivocados y yo tengo la razon


Por que no te ofendas pero igual que dices que esa gente no tiene ni idea de hardware por que hemos de creer que tu si ?.


Que lo digo de buenas pero es que has entrado y empezado llamar mentiroso a todo el mundo que si su plataforma favorita que si fans etc e imponiendo lo que tu dices si o si
Cuando dices partner de 3d juegos te refires a Flashback imagino, persona que no postea por aqui y poco puede rebatirte, puedes pasarte por su grupo que encantado estará de que intentes demostrar que no tiene idea de hardware...así podras demostrar que tu tienes mas conocimientos y que posees esa verdad absoluta. Mas humildad.
Aquí tienes el último artículo de flash por si quieres entablar conversación con él.

http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d
En lo de la nube te has columpiado jajajaja

Que tendra que ver el drm con los procesos en la nube... Aparte que ya hay muchos juegos que usan la nube para ia y esta el crackdown que va a empezar a usar las fisicas. Esto es algo que se puede contrastar y es real.

El directx12 ha sido bastante alabado por varios desarrolladores, que no va a ser la panacea? Pues claro! Ahora, habra que ver cuanto rendimiento extra aportara.

Directx + computos en la nube va a dar un buen empujon a la consola, que le hace falta.
Yo no sabré casi nada hardware pero por lo menos se lo suficiente para ver quien esta intentado colarla y el que mentais intentó colarla pero bien con el tema de la doble precisión.
Nuhar escribió:En lo de la nube te has columpiado jajajaja

Que tendra que ver el drm con los procesos en la nube... Aparte que ya hay muchos juegos que usan la nube para ia y esta el crackdown que va a empezar a usar las fisicas. Esto es algo que se puede contrastar y es real.

El directx12 ha sido bastante alabado por varios desarrolladores, que no va a ser la panacea? Pues claro! Ahora, habra que ver cuanto rendimiento extra aportara.

Directx + computos en la nube va a dar un buen empujon a la consola, que le hace falta.

Pues que la idea de la nube para implementarla esta totalmente unida al always online, Drm que intentó Micorosoft colar al principio, ya que para que los usuarios se beneficien tienen que estar evidentemente conectados a internet en todo momento en el momento que quitas ese DRM fragmentas la forma de llevar a cabo los desarrollos y dificulta que se extienda.
No dudo que sea real.
papatuelo escribió:Aquí tienes el último artículo de flash por si quieres entablar conversación con él.

http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d


Pero en serio?

Lo he intentado, y la primera frase:

"el SoC/NoC tiene una estructura apilada".

Pero que va a tener estructura apilada... en las fotos se ve como la CPU, GPU y memoria estan situadas en diferentes zonas del DIE, no apiladas una sobre otra. Que pretende decir con eso? A parte de confundir a los que no tengan la mas minima idea... Y si ya empieza asi, pues tu me diras.

El tema es que este hombre mezcla muchos terminos e ideas para montar un batiburrillo que, la verdad, no se que pretende aportar.

Aunque sea poco, prefiero debatir mil veces sobre lo que dicen los propios ingenieros de AMD, MS y desarrolladores, que lo que diga ese personaje.

Un saludo!
argam escribió:
papatuelo escribió:Aquí tienes el último artículo de flash por si quieres entablar conversación con él.

http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d


Pero en serio?

Lo he intentado, y la primera frase:

"el SoC/NoC tiene una estructura apilada".

Pero que va a tener estructura apilada... en las fotos se ve como la CPU, GPU y memoria estan situadas en diferentes zonas del DIE, no apiladas una sobre otra. Que pretende decir con eso? A parte de confundir a los que no tengan la mas minima idea... Y si ya empieza asi, pues tu me diras.

El tema es que este hombre mezcla muchos terminos e ideas para montar un batiburrillo que, la verdad, no se que pretende aportar.

Aunque sea poco, prefiero debatir mil veces sobre lo que dicen los propios ingenieros de AMD, MS y desarrolladores, que lo que diga ese personaje.

Un saludo!


Lo primero que dices, no tienes razón, hay apilamientos 2.5D en los que la memoría esta apilada y el resto se communica por un interposer, disponiendo unos al lado de otros.

Imagen

Así se consiguen anchos de banda de locura, es a eso a lo que se refiere. TSV 2.5D.

El dibujo es de Altera la que proporciona los FPGA para el proyecto de Doug Burger, para fabricar lo que Altera denomina multi-die, y que casualidad que Altera al hablar de xbox one, la llama multi-die también.
Veo que algunos vuelven a tirar de "argumentum ad ignorantiam" para intentar tumbar el hilo. Es algo cíclico.
Pue sí, es como en un equipo de futbol, hacen los correspondientes cambios, unos salen y otros entran.... [facepalm]
druida escribió:Yo no sabré casi nada hardware pero por lo menos se lo suficiente para ver quien esta intentado colarla y el que mentais intentó colarla pero bien con el tema de la doble precisión.
Nuhar escribió:En lo de la nube te has columpiado jajajaja

Que tendra que ver el drm con los procesos en la nube... Aparte que ya hay muchos juegos que usan la nube para ia y esta el crackdown que va a empezar a usar las fisicas. Esto es algo que se puede contrastar y es real.

El directx12 ha sido bastante alabado por varios desarrolladores, que no va a ser la panacea? Pues claro! Ahora, habra que ver cuanto rendimiento extra aportara.

Directx + computos en la nube va a dar un buen empujon a la consola, que le hace falta.

Pues que la idea de la nube para implementarla esta totalmente unida al always online, Drm que intentó Micorosoft colar al principio, ya que para que los usuarios se beneficien tienen que estar evidentemente conectados a internet en todo momento en el momento que quitas ese DRM fragmentas la forma de llevar a cabo los desarrollos y dificulta que se extienda.
No dudo que sea real.


El drm era porque la consola se va a beneficiar de la nube y dado que vas a tener que conectarla para disfrutar de sus ventajas y que cada dia mas juegos requieren online tanto para jugar como para aprovechar el juego al 100% se les ocurrio la idea del family sharing, de ahi el drm.

Lo han quitado, no le des mas vueltas, la vida sigue y estamos hablando de cosas que nada tiene que ver con drm.
Vamos a ver, el DRM para mi tenia una funcion fundamental. Si voy a programar pensando en la nube necesito q todo el mundo q tenga la consola la tenga conectada a internet. Por eso el famoso: tenemos una consola para la gente sin internet...
Vengo leyendo a ''ese personaje'' (flash) desde hace tiempo y no se si tendra razón o no, por que no entiendo de lo que habla, pero nunca le he visto una falta de respeto hacia nadie, cosa que aquí veo constantemente y por gente que ni tiene la consola ni le interesa lo mas minimo
Todo esto es muy extraño y sinceramente me hace pensar que no tiene que andar muy desencaminado en sus teorías cuando levanta tantas pasiones entre usuarios de la competencia

Entro a este hilo a leer noticias,teorías etc etc de una consola que poseo, ya decidire yo o el tiempo aclarara lo que es cierto o no, no necesito que me evangelice la competencia por que también soy usuario desde hace muchos años de la misma y menos tener que leer faltas de respeto y salidas de tono



Un saludo y a seguir hablando de lo que nos interesa, el interior de ONE

perdon por el tocho
papatuelo escribió:
argam escribió:
papatuelo escribió:Aquí tienes el último artículo de flash por si quieres entablar conversación con él.

http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d


Pero en serio?

Lo he intentado, y la primera frase:

"el SoC/NoC tiene una estructura apilada".

Pero que va a tener estructura apilada... en las fotos se ve como la CPU, GPU y memoria estan situadas en diferentes zonas del DIE, no apiladas una sobre otra. Que pretende decir con eso? A parte de confundir a los que no tengan la mas minima idea... Y si ya empieza asi, pues tu me diras.

El tema es que este hombre mezcla muchos terminos e ideas para montar un batiburrillo que, la verdad, no se que pretende aportar.

Aunque sea poco, prefiero debatir mil veces sobre lo que dicen los propios ingenieros de AMD, MS y desarrolladores, que lo que diga ese personaje.

Un saludo!


Lo primero que dices, no tienes razón, hay apilamientos 2.5D en los que la memoría esta apilada y el resto se communica por un interposer, disponiendo unos al lado de otros.

Imagen

Así se consiguen anchos de banda de locura, es a eso a lo que se refiere. TSV 2.5D.

El dibujo es de Altera la que proporciona los FPGA para el proyecto de Doug Burger, para fabricar lo que Altera denomina multi-die, y que casualidad que Altera al hablar de xbox one, la llama multi-die también.


Una cosa es apilar la memoria sobre la cpu o gpu, y otra cosa es que las interconexiones entre memoria y cpu/gpu vayan en una capa superior/ inferior. No tiene nada que ver en cuanto a complejidad. Ademas que eso de enrutar las conexiones entre transistores o subelementos utilizando la capa superior del die es lo que se ha hecho de toda la vida. Otra cosa es lo que hace altera y es que define las conexiones en una substrato base y luego coloca los dies de la memoria, FPGA y CPU sobre esta con el flip chip. Pero en ese caso veras que no tienes la ventaja de tener un SoC monolitico (es decir, que todo lo que hay en el se ha creado a la vez en la misma oblea).

Son cosas diferentes lo que muestra ahi Altera con lo que MS y AMD han hecho con la Xbox One.

Un saludo!
¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?

No se que hace estonces este hilo abierto.
papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?

No se que hace estonces este hilo abierto.


No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??

Un saludo!
Yo creo que al final era una J, ni A ni K
Yo apuesto por una Ñ o ¢, mas exotico
Será porque la foto en la que se ven las capas habrá salido solo una vez en este hilo. Eso será la XO de misterxmedia que la tiene tuneada.

La realidad es que desde Microsoft desde el primer momento ha publicitado la nube para acelerar ciertos procesos, dadas las conexiones y la eliminacion del DRM lo tienen dificil, y ahora directx 12.

No, porque se trataba de un check cada 24 horas, y no constante. Así que no puedes asegurar estar siempre conectado ya que puedes hacer el check y desconectar hasta mañana. Lo del DRM iba para potenciar el mercado digital, con las ideas de family sharing, alquiler y reventa ya en mente.
argam escribió:
papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?

No se que hace estonces este hilo abierto.


No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??

Un saludo!


En serio? Enseñame donde están los 50MCUs.

Donde esta el DSP?

Las conexiones TSV están.

http://www.techinsights.com/xbox-one/
Szasz escribió:
argam escribió:
papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?

No se que hace estonces este hilo abierto.


No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??

Un saludo!


En serio? Enseñame donde están los 50MCUs.

Donde esta el DSP?

Las conexiones TSV están.

http://www.techinsights.com/xbox-one/


En el southbridge? pregunto

No sé si esta info se puesto aquí:

Imagen

Imagen

Imagen

Imagen

Imagen

Imagen



http://www.sematech.org/meetings/archiv ... 04_Lau.pdf



Rayos X (ONE tiene más capa de metal):
Imagen

Apilado 3D?
Imagen
La creciente paranoia del hilo ya empieza a dar grima, ya ponemos hasta con rayos-X xD

Sea como sea lo que está muy bien es el rendimiento que se le está sacando a la tecnología a base de diseño y arquitectura, porque lo que tira la XO con 12CU y DDR3 es de escándalo. Lo del Dark Silicon que pusieron por aquí atrás. O el siguiente paso en la ley de Moore. Pasamos por el multi-core y ahora va tocando aprovechar mejor o nos pillaremos los dedos en breve si seguimos por el mismo camino.
Si encima de rendir favorece el multiproceso como ya está claro que tira la XO, 1ª consola en ejecutar 2 apps al mismo tiempo sin que le juego se resienta lo más mínimo, permitiendo además una asignación arbitraria de los recursos (mediante virtualización)...está cojonudo.
Horizonte de sucesos

No, no están en el Southbridge. Están dentro del SOC.

Pero no se ven en las fotografías, y al menos el DSP debería de poderse ver claramente, ya q tiene una potencia considerable.

Las conexiones TSV se pueden ver en el SOC, por lo q mi teoría es q el DSP está ahí "debajo" y por eso no lo podemos ver.

Se supone q el SOC tiene 50MCUs(micro controller units), de los cuales 15 son de función fija (ASIC)(los famosos coprocesadores) y 35 son programables (FPGAs)(¿Cloud?).

Convirtiendo a One, tal y como expuso f5inet en la primera video consola "Darksilicon".

"The Xbox One SoC is 353 mm squared with more than five billion transistors, making it bigger than the largest Xeon server chip. That's because it has eight CPU cores, a GPU and more than 50 other processors and MCUs (micro-controller units) as well. There may be a SoC at the heart of the Xbox One but it will never make it into a smartphone."

"Among the 50 MCUs are 15 special processors that can handle things like graphics and physics processing. The result is a chip and system that are freakishly powerful and would make any PC gamer drool."

http://www.itworld.com/hardware/371478/ ... and-kinect.
Szasz escribió:
argam escribió:
papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?

No se que hace estonces este hilo abierto.


No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??

Un saludo!


En serio? Enseñame donde están los 50MCUs.

Donde esta el DSP?

Las conexiones TSV están.

http://www.techinsights.com/xbox-one/


Pues no se donde estan, pero eso no cambia que memoria, gpu y cpu (los elementos principales del SoC) no estan apiladas. Eso es lo que incrementaria drasticamente la velocidad de acceso a la memoria, a la vez que dejaria espacio en el die para meter mas nucleos de cpu, o gpu.

Un saludo!
Vamos a ver que cuando se habla de apilado no se está hablando de un apilamiento vertical:

Imagen
Imagen

La memoria puede estar apilada y comunicarse con el resto de componentes del soc con TSV en un sutrato interposer y eso no puedes verlo en las fotos del díe que me indicaste.

La idea consiste en poder apilar varios chips de memoria uno encima del otro para ganar espacio a simple vista y poder realizar diseños mas compactos, esto es lo que uno piensa al principio pero la tecnología TSV no es el apilar chips de memoria uno encima del otro ya existe en los sistemas de bolsillo sino que trata sobre la interfaz de comunicación de estas memorias con el sistema. TSV significa Through Silicon Vias que se traduce como “A través de vias de silicio” y se basa en que las interconexiones de cobre por donde pasan los datos traviesan el chip por delante y por detrás, esto permite realizar interfaces de memoria en matrix (x*Y) en vez de hacerlas de forma lineal, por lo que se entrada se ahorra un espacio importante en el chip en lo que a interfaces de memoria se refiere. Esto hace que su principal ventaja sea el consumo energético, precisamente el consumo energético de los microprocesadores y las memorias aumenta exponencialmente con la velocidad de reloj, así que si yo tengo una interfaz de 128 bits a 2Ghz este me consumira el doble que una interfaz de 256 bits a 1Ghz pese que el ancho de banda sea el mismo y ahí esta la clave del TSV, no solamente permite ahorrar espacio sino que permite alcanzar ciertas velocidades en cuanto a ancho de banda sin depender de altos consumos energéticos.


¿Pero acaso no se pueden colocar varios procesadores y memorias en un mismo sustrato? Ahí esta la otra parte de la historia:

MultiSoC

Utilizando un sustrato/interposer donde colocar los chips tu puedes mover los mecanismos de intercomunicación entre ellos al sustrato/interposer, esta técnica en sistemas domésticos ya la hemos visto en Wii U, donde su CPU y GPU están sentadas en un sustrato que se utiliza para comunicar ambos procesadores.


Dime tu aquí donde ves el interposer:
Imagen

No puedes afirmar que no este la memoria no este stakada al igual que los demas no podemos afirmar que lo esté.

http://josepjroca.wordpress.com/2014/04/17/esta-nintendo-preparando-una-nueva-consola-iv/
papatuelo escribió:
Dime tu aquí donde ves el interposer:
Imagen

No puedes afirmar que no este la memoria no este stakada al igual que los demas no podemos afirmar que lo esté.

http://josepjroca.wordpress.com/2014/04/17/esta-nintendo-preparando-una-nueva-consola-iv/


A ver, se supone que la memoria no esta apilada porque con la tecnologia de fabricacion que utilizaron y la superficie que ocupa la memoria si estuviera apilada habria mas de los 47MB totales que salen.

La cuestion es que por apilamiento yo consideraba el apilamiento 3D, que es el que mas ventaja daria a una arquitectura con memoria integrada. Pero si te refieres al apilamiento 2.5D, entonces podria haber algun tipo de apilamiento, pero sigo sin verlo, ya que en la info que pones la fabricacion de la memoria se haria independientemente de la de la gpu/cpu, uniendolas luego mediante el interposer. Pero para que quieres hacer eso si tanto tu memoria como tu cpu y gpu estan fabricadas en el mismo DIE?? No seria mas logico en ese caso hacer las interconexiones directamente?
Imagino que los 50MCUs también deben de tener acceso a ella. Y visto que físicamente no están en esta capa, deben de estar en la de abajo.
17587 respuestas