Nuhar escribió:Es cierto que especulamos, por eso hay que respetar cualquier opinion que este argumentada, como es la tuya (lo digo por gente que viene y suelta el si porque si)
Mantle 1.0 es compatible con todas las GCN, eso es cierto.
Esta claro que las nuevas GCN tienen arquitecturas diferentes, es un hardware diferente, con propositos diferentes. Sabemos que directx12 no es 100% compatible con todas las GCN y si mantle esta diciendo que quiere copiar cosas que tiene directx12 pues puede ser que no sea compatible con antiguas GCN.
Mantle es un producto de AMD, le interesa renovarlo lo máximo posible para sacar partido a sus graficas al 100%, siendo además un producto nuevo, no veo el porque no van a sacar una versión en 1 año.
Vamos a ver creo que @druida confundes algunas cosas. Una API es una API y podrás adaptarla de una forma u otra salvo por impedimentos mayores que no lo permitan. ¿Qué las GCN pueden hacerse compatibles DX12?, pues seguramente sí, a nivel de drivers. Pero eso no quita que DX12 está pensado para funcionar con buffers para comandos, que las actuales NO TIENEN, y entonces eso tienes que suplirlo usando una pool en la RAM que asocias al PCI-E seguramente, que vale te sirve pero no es lo mismo, se pierde rendimiento. Es sólo un ejemplo de algo que en hardware anteriores no cumples a nivel de hardware, y puede haber otros tantos más.
These days, a modern GPU typically has a number of engines that execute commands in parallel to do work for you. You have a graphics or compute engine, DMA, multimedia . . . whatever. The basic building block for work for those engines is a command buffer. In [the diagram above], a command buffer is a colored rectangle. A driver builds commands targeting one of the engines; it puts the command buffer into an execution queue, and the engine, when it's ready to do some work, goes to the execution queue, grabs the work, and performs it.
[That's] as opposed to a context-based execution model, where it's up to the driver to choose which engine we want to target; it's up to the driver to figure out where we break command buffers apart, and manage the synchronization between those engines. Mantle exposes all that, abstracted, to you. So, you have the ability to build a command buffer, insert commands into it, submit it to the queue, and then synchronize the work between it. This lets you take full advantage of the entire GPU.
Mantle exposes all that, abstracted, to you
darksch escribió:Imagina los pasos: CPU genera un comando, lo encola, GPU lo ejecuta. Pues en el proceso de encolar con la arquitectura actual estamos en lo mismo de siempre, la CPU tendrá que usar el (lento) puerto PCI-E para encolarlo, y luego ya la GPU hará todo eso que viene ahí. El encolado en XO es colocar los comandos en ese buffer no presente en las actuales. ¿Qué Mantle no lo necesita y no lo usa?. allá penas, XO no funciona bajo Mantle. De hecho XO es bastante custom precisamente para adaptarse a DX12 y no a Mantle.
Una de las desventajas que tiene DirectX respecto a otras APIs es el tiempo en que se tarda desde que la aplicación envía el comando al hardware hasta que es ejecutado. En Xbox 360 lo que hizo Microsoft fue permitir que los juegos escribiesen directamente para el procesador de comandos y esto es algo que se puede hacer cuando tienes un hardware único como es el caso de Xbox 360. ¿Como lo hace Direct3D para crear listas de comandos para todas las arquitecturas? Pues de eso se encarga la CPU, por eso Direct3D esta tan atado en rendimiento a la CPU desde donde funciona.
La contrapartida la tenemos por otro lado en una API como Mantle, pensada para una sola arquitectura en concreto (AMD GCN) y su velocidad se debe a que utiliza una de las múltiples listas de comandos (multiples hilos) como planificador en vez de utilizar la CPU para ello, asi se consigue reducir el peso del runtime y se gana en velocidad pero a cambio de sacrificar compatibilidad. Ahora bien, lo que mucha gente me ha preguntado de tanto en cuanto es… ¿como es que no hay compatibilidad con Mantle en Xbox One? Creo que ya se el motivo de ello, su procesador de comandos no es el estándar de AMD sino que esta modificado por lo que el código generado via Mantle no funcionaría en Xbox One.
Szasz escribió:Ya puse el enlace el otro día. AMD ha confirmado q hay características hardware q están por introducir. Os pongo la traducción q han hecho en otro foro:
Nosotros [AMD], tomaremos las tendencias que marque DX12 y las llevaremos a Mantle. Estoy seguro de que pueden ayudarnos a hacer un mejor trabajo del que hemos hecho. También tomaremos las características extra de hardware incluídas en DX12, ya que hay unas cuantas características que vendrán en él [DX12]: son de una parte la sincronización de píxeles, que te permite hacer efectos de transparencias geniales y de sustancias luminosas transparentes y que son muy, muy complicadas de lograr con la API actual [DX11]. Por otra parte, están los llamados "recursos bindless", que suponen de nuevo un mejora significativa de la eficiencia respecto a cómo trabaja la GPU, asegurándose que no se estanca esperando que la CPU le transmita algunos de los cambios que son necesarios. En esa fase, ya tendremos listo Mantle 2, que cubrirá el mismo tipo de funcionalidad que el DX12 nativo y proporcionará todos los beneficios de rendimiento que Mantle actualmente proporciona sumado a cualquier cosa más que podamos aprender"
Deberías repasar las paginas anteriores y ver toda la información.
Se sabe q Xbox One tiene 4 procesadores de comando, los cuales según Microsoft están altamente modificados, tenemos el doble de ALUs en Las CUs de One y algunos elementos más, q hace q no sea una GCN 1.1 al uso.
Para q m entiendas, Jaguar(arquitectura presente en PS4), consta de un controlador de memoria DDR3 en single channel, a un máximo de 1600mhz. Como bien sabes este ha sido modificado por Sony y AMD para introducir GDDR5.
Esta basado en jaguar? Sí, pero no es idéntico en todo su hardware.
Si esto no lo ponéis en duda, ¿Por que sí ponéis en duda q One tenga GCN 1.1 altamente modificado y diferentes elementos hardware? Las fotografías del die están ahí, se puede comprobar. Tenéis confirmaciones oficiales de Microsoft y seguís diciendo q es idéntico, no lo entiendo, de verdad.
Ya no es hablar de q sea una "bestia parda", sino de q es "diferente" y por lo tanto, interesante.
Horizonte de sucesos escribió:Szasz escribió:Ya puse el enlace el otro día. AMD ha confirmado q hay características hardware q están por introducir. Os pongo la traducción q han hecho en otro foro:
Nosotros [AMD], tomaremos las tendencias que marque DX12 y las llevaremos a Mantle. Estoy seguro de que pueden ayudarnos a hacer un mejor trabajo del que hemos hecho. También tomaremos las características extra de hardware incluídas en DX12, ya que hay unas cuantas características que vendrán en él [DX12]: son de una parte la sincronización de píxeles, que te permite hacer efectos de transparencias geniales y de sustancias luminosas transparentes y que son muy, muy complicadas de lograr con la API actual [DX11]. Por otra parte, están los llamados "recursos bindless", que suponen de nuevo un mejora significativa de la eficiencia respecto a cómo trabaja la GPU, asegurándose que no se estanca esperando que la CPU le transmita algunos de los cambios que son necesarios. En esa fase, ya tendremos listo Mantle 2, que cubrirá el mismo tipo de funcionalidad que el DX12 nativo y proporcionará todos los beneficios de rendimiento que Mantle actualmente proporciona sumado a cualquier cosa más que podamos aprender"
Deberías repasar las paginas anteriores y ver toda la información.
Se sabe q Xbox One tiene 4 procesadores de comando, los cuales según Microsoft están altamente modificados, tenemos el doble de ALUs en Las CUs de One y algunos elementos más, q hace q no sea una GCN 1.1 al uso.
Para q m entiendas, Jaguar(arquitectura presente en PS4), consta de un controlador de memoria DDR3 en single channel, a un máximo de 1600mhz. Como bien sabes este ha sido modificado por Sony y AMD para introducir GDDR5.
Esta basado en jaguar? Sí, pero no es idéntico en todo su hardware.
Si esto no lo ponéis en duda, ¿Por que sí ponéis en duda q One tenga GCN 1.1 altamente modificado y diferentes elementos hardware? Las fotografías del die están ahí, se puede comprobar. Tenéis confirmaciones oficiales de Microsoft y seguís diciendo q es idéntico, no lo entiendo, de verdad.
Ya no es hablar de q sea una "bestia parda", sino de q es "diferente" y por lo tanto, interesante.
Pero si muchos no aceptan ni que hayan metido mano a los jaguar y no se creen que la cpu de ONE puede con 48 ops/ciclo cuando es la propia Microsoft quien ha dado esos datos. ¿Como van a aceptar lo de la GPU?
https://www.youtube.com/watch?v=tLBVHZokt1Q
Durango CPU cores have dual x64 instruction decoders, so they can decode two instructions per cycle. On average, an x86 instruction is converted to 1.7 micro-operations, and many common x64 instructions are converted to 1 micro-operation. In the right conditions, the processor can simultaneously issue six micro-operations: a load, a store, two ALU, and two vector floating point. The core has corresponding pipelines: two identical 64-bit ALU pipelines, two 128-bit vector float pipelines (one with float multiply, one with float add), one load pipeline, and one store pipeline. A core can retire 2 micro-operations a cycle.
http://www.vgleaks.com/durango-cpu-overview/
antonio613 escribió:Vamos a ver, estas diciendo que una supuesta información robada o filtrada es mas veraz que lo que dicen en una entrevista los creadores de la consola.
Dímelo para ignorarte o no, me parece de traca.
Grinch escribió:Druida antes has dicho que todo son especulaciones pero es que leyendote parece como si dijeras yo tengo la razon y todos os demas no. PUNTO.
Y tampoco es eso.
Grinch escribió:Druida antes has dicho que todo son especulaciones pero es que leyendote parece como si dijeras yo tengo la razon y todos os demas no. PUNTO.
Y tampoco es eso.
Grinch escribió:Si pero unos ponen de fuente una entrevista de microsoft y tu una filtracion . Quien tiene razon ?
Pues sigue siendo entonces especulaciones por que no sabes si la filtracion es 100% veridica o lo es la entrevista ( aunque yo le daria mas veracidad a la entrevista) pero eso cada cual
Like its predecessor, Jaguar is a 64-bit, out-of-order microprocessor that decodes and issues 2 instructions and dispatches 6 operations per cycle. A cluster of four Jaguar cores share an L2 cache and larger configurations can be built using an internal fabric. The actual target market for Jaguar includes tablets, and microservers, but does not extend down into smart phones. While AMD certainly could produce a <1W core, there is no motivation because the company lacks many crucial components that are necessary to be competitive. In particular, AMD has no LTE capabilities, nor do they have access to older 2G or 3G modems. However, AMD’s extensive graphics IP is incredibly valuable in nearly all client-facing systems and is a natural complement to the Jaguar processor. It is in this combination, that Jaguar has become the most successful, as it currently powers Sony’s Playstation 4 and Microsoft’s Xbox One, which are collectively selling over a million units per month.
http://www.realworldtech.com/jaguar/
No, los datos son correctos, lo incorrecto es la interpretación. Explicar esto sería adentrarse a nivel demasiado profundo en como funciona una CPU, pero...resumiendo, no es lo mismo emitir instrucciones a las unidades de computo (issue) que captar/decodificar instrucciones de memoria, que RETIRAR instrucciones del pipeline.
En la arquitectura Jaguar, se pueden captar/decodificar 2 instrucciones por ciclo, puede emitir 6 instrucciones por ciclo y retirar como máximo 2 instrucciones por ciclo. Como máximo cada core podrá retirar/terminar 2 instrucciones por ciclo, si tienes 8 podrás retirar 16 instrucciones terminadas, es distinto del número de instrucciones q puedes emitir a las unidades de computo (6x8 = 48).
druida escribió:Una cosa es que estemos hablando de una APu customizada, solo hay que ver la ESRAM y las variaciones de los DMA, y otra bien diferente es inventarse todo tipo de datos.
antonio613 escribió:no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.
druida escribió:antonio613 escribió:no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.
Y yo te digo que estas obviando la documentación oficial de AMD para Jaguar que he puesto y que en la entrevista dice exactamente lo mismo que en esa documentación .
Nuhar escribió:druida escribió:antonio613 escribió:no digo que se equivoque druida. Digo que si hacemos casos a las filtraciones antes que en una entrevista vamos listos...
Aunque en este caso se diga lo mismo.
Y yo te digo que estas obviando la documentación oficial de AMD para Jaguar que he puesto y que en la entrevista dice exactamente lo mismo que en esa documentación .
Lo que pasa que en la entrevista es una conversación más distendida y por eso quizás parece que digan cosas diferentes, por no detallar todo bien. Pero es innegable que los datos coinciden.
Aunque druida ha empezado un poco con el hacha levantada (cosa que personalmente no creo que te beneficie), creo que en este tema tiene la razon.
Es como lo de los 2,6Tflops que decían tener por tener duplicada el número de Alus, que si doble precision, que si single precision... un poco locura creo yo.
Otra cosa será que gracias a tener una arquitectura especial, se pueda aprovechar mejor los componentes, pero como he dicho antes, se supone que llegará con el directx12 y a ver cuanto rendimiento extra se le saca.
Nuhar escribió:En lo de la nube te has columpiado jajajaja
Que tendra que ver el drm con los procesos en la nube... Aparte que ya hay muchos juegos que usan la nube para ia y esta el crackdown que va a empezar a usar las fisicas. Esto es algo que se puede contrastar y es real.
El directx12 ha sido bastante alabado por varios desarrolladores, que no va a ser la panacea? Pues claro! Ahora, habra que ver cuanto rendimiento extra aportara.
Directx + computos en la nube va a dar un buen empujon a la consola, que le hace falta.
papatuelo escribió:Aquí tienes el último artículo de flash por si quieres entablar conversación con él.
http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d
argam escribió:papatuelo escribió:Aquí tienes el último artículo de flash por si quieres entablar conversación con él.
http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d
Pero en serio?
Lo he intentado, y la primera frase:
"el SoC/NoC tiene una estructura apilada".
Pero que va a tener estructura apilada... en las fotos se ve como la CPU, GPU y memoria estan situadas en diferentes zonas del DIE, no apiladas una sobre otra. Que pretende decir con eso? A parte de confundir a los que no tengan la mas minima idea... Y si ya empieza asi, pues tu me diras.
El tema es que este hombre mezcla muchos terminos e ideas para montar un batiburrillo que, la verdad, no se que pretende aportar.
Aunque sea poco, prefiero debatir mil veces sobre lo que dicen los propios ingenieros de AMD, MS y desarrolladores, que lo que diga ese personaje.
Un saludo!
druida escribió:Yo no sabré casi nada hardware pero por lo menos se lo suficiente para ver quien esta intentado colarla y el que mentais intentó colarla pero bien con el tema de la doble precisión.Nuhar escribió:En lo de la nube te has columpiado jajajaja
Que tendra que ver el drm con los procesos en la nube... Aparte que ya hay muchos juegos que usan la nube para ia y esta el crackdown que va a empezar a usar las fisicas. Esto es algo que se puede contrastar y es real.
El directx12 ha sido bastante alabado por varios desarrolladores, que no va a ser la panacea? Pues claro! Ahora, habra que ver cuanto rendimiento extra aportara.
Directx + computos en la nube va a dar un buen empujon a la consola, que le hace falta.
Pues que la idea de la nube para implementarla esta totalmente unida al always online, Drm que intentó Micorosoft colar al principio, ya que para que los usuarios se beneficien tienen que estar evidentemente conectados a internet en todo momento en el momento que quitas ese DRM fragmentas la forma de llevar a cabo los desarrollos y dificulta que se extienda.
No dudo que sea real.
papatuelo escribió:argam escribió:papatuelo escribió:Aquí tienes el último artículo de flash por si quieres entablar conversación con él.
http://www.elotroforo.net/newspage.php?news=125&sid=1d3761235f28e6f8b21ad5ba0cd9e71d
Pero en serio?
Lo he intentado, y la primera frase:
"el SoC/NoC tiene una estructura apilada".
Pero que va a tener estructura apilada... en las fotos se ve como la CPU, GPU y memoria estan situadas en diferentes zonas del DIE, no apiladas una sobre otra. Que pretende decir con eso? A parte de confundir a los que no tengan la mas minima idea... Y si ya empieza asi, pues tu me diras.
El tema es que este hombre mezcla muchos terminos e ideas para montar un batiburrillo que, la verdad, no se que pretende aportar.
Aunque sea poco, prefiero debatir mil veces sobre lo que dicen los propios ingenieros de AMD, MS y desarrolladores, que lo que diga ese personaje.
Un saludo!
Lo primero que dices, no tienes razón, hay apilamientos 2.5D en los que la memoría esta apilada y el resto se communica por un interposer, disponiendo unos al lado de otros.
Así se consiguen anchos de banda de locura, es a eso a lo que se refiere. TSV 2.5D.
El dibujo es de Altera la que proporciona los FPGA para el proyecto de Doug Burger, para fabricar lo que Altera denomina multi-die, y que casualidad que Altera al hablar de xbox one, la llama multi-die también.
papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?
No se que hace estonces este hilo abierto.
La realidad es que desde Microsoft desde el primer momento ha publicitado la nube para acelerar ciertos procesos, dadas las conexiones y la eliminacion del DRM lo tienen dificil, y ahora directx 12.
argam escribió:papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?
No se que hace estonces este hilo abierto.
No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??
Un saludo!
Szasz escribió:argam escribió:papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?
No se que hace estonces este hilo abierto.
No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??
Un saludo!
En serio? Enseñame donde están los 50MCUs.
Donde esta el DSP?
Las conexiones TSV están.
http://www.techinsights.com/xbox-one/
Szasz escribió:argam escribió:papatuelo escribió:¿En serio Argam?
¿Sabes lo que hay dentro del SOC? ¿Sabes lo que AMD y Microsoft han hecho?
No se que hace estonces este hilo abierto.
No jodas que ambos sabemos de lo que hablamos. O es que con 400 paginas de hilo todavia no has visto las fotos del DIE??
Un saludo!
En serio? Enseñame donde están los 50MCUs.
Donde esta el DSP?
Las conexiones TSV están.
http://www.techinsights.com/xbox-one/
La idea consiste en poder apilar varios chips de memoria uno encima del otro para ganar espacio a simple vista y poder realizar diseños mas compactos, esto es lo que uno piensa al principio pero la tecnología TSV no es el apilar chips de memoria uno encima del otro ya existe en los sistemas de bolsillo sino que trata sobre la interfaz de comunicación de estas memorias con el sistema. TSV significa Through Silicon Vias que se traduce como “A través de vias de silicio” y se basa en que las interconexiones de cobre por donde pasan los datos traviesan el chip por delante y por detrás, esto permite realizar interfaces de memoria en matrix (x*Y) en vez de hacerlas de forma lineal, por lo que se entrada se ahorra un espacio importante en el chip en lo que a interfaces de memoria se refiere. Esto hace que su principal ventaja sea el consumo energético, precisamente el consumo energético de los microprocesadores y las memorias aumenta exponencialmente con la velocidad de reloj, así que si yo tengo una interfaz de 128 bits a 2Ghz este me consumira el doble que una interfaz de 256 bits a 1Ghz pese que el ancho de banda sea el mismo y ahí esta la clave del TSV, no solamente permite ahorrar espacio sino que permite alcanzar ciertas velocidades en cuanto a ancho de banda sin depender de altos consumos energéticos.
¿Pero acaso no se pueden colocar varios procesadores y memorias en un mismo sustrato? Ahí esta la otra parte de la historia:
MultiSoC
Utilizando un sustrato/interposer donde colocar los chips tu puedes mover los mecanismos de intercomunicación entre ellos al sustrato/interposer, esta técnica en sistemas domésticos ya la hemos visto en Wii U, donde su CPU y GPU están sentadas en un sustrato que se utiliza para comunicar ambos procesadores.
papatuelo escribió:
Dime tu aquí donde ves el interposer:
No puedes afirmar que no este la memoria no este stakada al igual que los demas no podemos afirmar que lo esté.
http://josepjroca.wordpress.com/2014/04/17/esta-nintendo-preparando-una-nueva-consola-iv/