Hablemos del interior de Xbox One

Cyborg_Ninja escribió:Isma82, sabemos que PS4 tiene 8 ACEs y 64 lineas de registro, pero la GPU de One cuenta con 2 y 16 lineas. ¿Tiene algo la GPU de Xbox One? ¿Como piensa MS "luchar" contra una mayor capacidad GPGPU? leyendo a los ingenieros de Microsoft creo que dan a entender que si tienen algo, pero no entiendo la explicacion, ni con el ultimo paper tampoco.


Segun el paper y lo que declaró los ingenieros a eurogamer, Xbox one tiene otra solución diferente para abordarlo. Los 8 aces de ps4 están diseñados para intentar maximizar la utilización de la gpu.

En principio xbox one solo tiene digamos 32 works stream por los 64 de de ps4. Digamos que Microsoft ha modificado los compute commands para que sean mas eficientes en vez añadir mas ACEs. Por la forma que tiene la gpu que si te fijas esta dividida en dos bloques de 6 cus en el diagrama. imagino que es porque todo está pensado para poder utilizar la gpu en bloques como ella desee... La realidad es que la superior potencia gpgpu habria que verla en la practica. Yo creo que con el tiempo no debería haber tanta diferencia, a pesar de que hay 32 strem works mas en ps4 y de que tiene mas cus disponibles que incluso peude dedicar a full time a procesar gpgpu mientras que xbox one digamos no tiene tanto margen para poder dedicar recursos a expreso, pero si parece que xbox one esta diseñada para intantar ser lo mas eficiente posible. Es una de las cosas que la verdad no podria asegurar. Mi sensación es que no hay tanta diferencia, que al final xbox one tiene coherencia de caches, tiene computación asincrona, diferentes contextos de ejecución, etc, por lo que es mas una diferencia de cantidad que de arquitectura inferior. Al final xbox one está balanceada para el hardware que tiene y ps4, no tanto.
isma82 escribió:
Cyborg_Ninja escribió:Isma82, sabemos que PS4 tiene 8 ACEs y 64 lineas de registro, pero la GPU de One cuenta con 2 y 16 lineas. ¿Tiene algo la GPU de Xbox One? ¿Como piensa MS "luchar" contra una mayor capacidad GPGPU? leyendo a los ingenieros de Microsoft creo que dan a entender que si tienen algo, pero no entiendo la explicacion, ni con el ultimo paper tampoco.


Segun el paper y lo que declaró los ingenieros a eurogamer, Xbox one tiene otra solución diferente para abordarlo. Los 8 aces de ps4 están diseñados para intentar maximizar la utilización de la gpu.

En principio xbox one solo tiene digamos 32 works stream por los 64 de de ps4. Digamos que Microsoft ha modificado los compute commands para que sean mas eficientes en vez añadir mas ACEs. Por la forma que tiene la gpu que si te fijas esta dividida en dos bloques de 6 cus en el diagrama. imagino que es porque todo está pensado para poder utilizar la gpu en bloques como ella desee... La realidad es que la superior potencia gpgpu habria que verla en la practica. Yo creo que con el tiempo no debería haber tanta diferencia, a pesar de que hay 32 strem works mas en ps4 y de que tiene mas cus disponibles que incluso peude dedicar a full time a procesar gpgpu mientras que xbox one digamos no tiene tanto margen para poder dedicar recursos a expreso, pero si parece que xbox one esta diseñada para intantar ser lo mas eficiente posible. Es una de las cosas que la verdad no podria asegurar. Mi sensación es que no hay tanta diferencia, que al final xbox one tiene coherencia de caches, tiene computación asincrona, diferentes contextos de ejecución, etc, por lo que es mas una diferencia de cantidad que de arquitectura inferior. Al final xbox one está balanceada para el hardware que tiene y ps4, no tanto.



Pero no entiendo algo que comentaste, esto:

Tener dos colas de comandos, data move engine y esram puede seguramente diluir la teorica superioridad en acs de ps4, ya que como la propia Sony reconoce su gpu está pensada para utilizar 14 compute units no los 18 porque ni tiene ancho de banda, como tampoco puede usar sus rops a full por el mismo motivo.


Que relacion tiene los DME o la ESRAM con la GPGPU?


Un saludo.
pspskulls escribió:
Por cierto, esto no era el hilo del interior de One? Veo que se habla más hoy aquí de ps4 y de comparaciones gratuitas que de lo que va el hilo.
... como @Isma82 se pegue otra madrugada tratando de instalar su verdad en este hilo/foro llamaré a los servicios de emergencias. Descansa hombre, que desde que han paseado por aquí ciertos pdf no te has dado un respiro, tío.

Va en serio }:/
theogre escribió:... como @Isma82 se pegue otra madrugada tratando de instalar su verdad en este hilo/foro llamaré a los servicios de emergencias. Descansa hombre, que desde que han paseado por aquí ciertos pdf no te has dado un respiro, tío.

Va en serio }:/


Iba a decir lo mismo, 24h del tiron, eso es amor al arte! La virgen!
isma82 escribió:[...]
@f5inet
[Ah, porque tambien tiene un sistema de QoS (calidad de servicio, Quality of Service) que da prioridad a una pila sobre otra, por ejemplo, el contexto grafico es mas importante que el contexto GPGPU de calculo de fisicas o de animacion (si asi lo decide el programador, mucho ojo, quizas el programador prefiera repetir un frame de una animacion, que perder un frame completo de pantalla porque no llega a tiempo)]

Ya si ya se que tu por decir peudes decir lo que te salga del bolo. Eso si sin ningun document oficial sobre xbox one que lo acredite. No voy a vovler a lo mismo. Si nos quieres contar milongas, pon la documentacion que así lo acredita. En le paper no pone nada de QoE,[...]


punto numero 1, esto es el hilo de XboxONE, pero quien hace referencia casi enfermiza a PS4 ERES TU. deja de nombrar a PS4 porque no estoy hablando de PS4, y al final nos van a chapar el hilo, si es ese tu objetivo real.

punto numero 2, pues claro que hay documentacion, hombre
Imagen
sacado de aqui:
http://developer.amd.com/wordpress/medi ... -FINAL.pdf
y con apuntes de aqui:
http://en.wikipedia.org/wiki/AMD_Accele ... e_overview

XboxONE, al estar basada en GCN2.0 soporta GPU COMPUTE CONTEXT SWITCH, GPU GRAPHICS PRE-EMPTION, QUALITY OF SERVICE e incluso una 'extension' para una GPU discreta (que en xboxONE, de momento, no hay paper oficial al respecto, ni nada que apunte a ello)

No haces mas que mentir y desacreditar, y lo peor es que lo sabes.
No entiendo si este es el hilo de one algunos no dejan de hablar y comparar con ps4...moderacion ni pio.
Aqui solo banean a los de un lado.
isma82 escribió:
Cyborg_Ninja escribió:Isma82, sabemos que PS4 tiene 8 ACEs y 64 lineas de registro, pero la GPU de One cuenta con 2 y 16 lineas. ¿Tiene algo la GPU de Xbox One? ¿Como piensa MS "luchar" contra una mayor capacidad GPGPU? leyendo a los ingenieros de Microsoft creo que dan a entender que si tienen algo, pero no entiendo la explicacion, ni con el ultimo paper tampoco.


Segun el paper y lo que declaró los ingenieros a eurogamer, Xbox one tiene otra solución diferente para abordarlo. Los 8 aces de ps4 están diseñados para intentar maximizar la utilización de la gpu.

En principio xbox one solo tiene digamos 32 works stream por los 64 de de ps4. Digamos que Microsoft ha modificado los compute commands para que sean mas eficientes en vez añadir mas ACEs. Por la forma que tiene la gpu que si te fijas esta dividida en dos bloques de 6 cus en el diagrama. imagino que es porque todo está pensado para poder utilizar la gpu en bloques como ella desee... La realidad es que la superior potencia gpgpu habria que verla en la practica. Yo creo que con el tiempo no debería haber tanta diferencia, a pesar de que hay 32 strem works mas en ps4 y de que tiene mas cus disponibles que incluso peude dedicar a full time a procesar gpgpu mientras que xbox one digamos no tiene tanto margen para poder dedicar recursos a expreso, pero si parece que xbox one esta diseñada para intantar ser lo mas eficiente posible. Es una de las cosas que la verdad no podria asegurar. Mi sensación es que no hay tanta diferencia, que al final xbox one tiene coherencia de caches, tiene computación asincrona, diferentes contextos de ejecución, etc, por lo que es mas una diferencia de cantidad que de arquitectura inferior. Al final xbox one está balanceada para el hardware que tiene y ps4, no tanto.


estas mientiendo Y LO SABES. XboxONE tiene 4 (cuatro) command procesors, cada command processor soporta 16 workstreams.

The graphics core contains two graphics command and two compute command processors. Each command processor supports 16 work streams. The two geometryprimitive engines, 12 compute units, and four render backend depth and color engines in the graphics core support two independent graphics contexts.


adicionalmente, tanto los dos motores de primitivas geometricas, como los 12 compute units (CUs), como los 4 ROPs soportan DOS CONTEXTOS GRAFICOS INDEPENDIENTES.

pon documentacion, PON DOCUMENTACION PRIMARIA QUE APOYE TUS PALABRAS.

PD: deja de hablar de PS4, este no es el hilo de PS4. Este es el hilo de XboxONE.
Al final, el resultado mas importante lo dará el software ;) salu2!
estas mintiendo Y LO SABES. XboxONE tiene 4 (cuatro) command procesors, cada command processor soporta 16 workstreams.

Imagen
Isma82, 44 mensajes y 43 son en este hilo. Digno de estudio.
¿Por que no te das una vuelta por el foro? Hay otros hilos muy interesantes, ofertas de juegos, sintonizadores de TV, compra venta, moviles, televisores.... Pero.... ¿todo tu tiempo aquí? Creo que eres como el ordenador ese de "juegos de guerra", un ente automatico y sin descanso.... :cool:
tampoco os cebéis con el por comparar algo con la otra, ni que se haya nombrado tanto.... a veces el foro de EOL parece el patio de un colegio teniendo que seguir normas estrictas por cada hilo y sino que vas al moderador.... coño que no somos niños, todo en su justa medida.

por otra parte la realidad es que aquí nadie sabe nada con seguridad, ni los del bando de los 4 tflops (o los que sean ya) ni lo que dice isma del 30% de rendimiento... eso solo el tiempo lo dirá..... lo que está claro es que el SoC de la one es bastante mas interesante que el de la otra y hay muchas cosas por ver y que demostrar.... podemos cada uno exponer los argumentos sin tener que tirarnos de los pelos, y aceptar como dije antes que nadie puede saber nada con absoluta seguridad ya que hay mucha especulación (con o sin fundamento, por ambas partes).

por otra parte @f5inet, de donde sacas que es GCN 2.0 ? podrías poner una fuente? no lo digo por fastidiar, lo digo en serio ya que no lo he visto en ningún sitio (tampoco me he empollado todo a conciencia).

paz y amor :P
Pada escribió:tampoco os cebéis con el por comparar algo con la otra, ni que se haya nombrado tanto.... a veces el foro de EOL parece el patio de un colegio teniendo que seguir normas estrictas por cada hilo y sino que vas al moderador.... coño que no somos niños, todo en su justa medida.

por otra parte la realidad es que aquí nadie sabe nada con seguridad, ni los del bando de los 4 tflops (o los que sean ya) ni lo que dice isma del 30% de rendimiento... eso solo el tiempo lo dirá..... lo que está claro es que el SoC de la one es bastante mas interesante que el de la otra y hay muchas cosas por ver y que demostrar.... podemos cada uno exponer los argumentos sin tener que tirarnos de los pelos, y aceptar como dije antes que nadie puede saber nada con absoluta seguridad ya que hay mucha especulación (con o sin fundamento, por ambas partes).

por otra parte @f5inet, de donde sacas que es GCN 2.0 ? podrías poner una fuente? no lo digo por fastidiar, lo digo en serio ya que no lo he visto en ningún sitio (tampoco me he empollado todo a conciencia).

paz y amor :P


@szasz lo explica bien aqui: viewtopic.php?p=1737631857

pero basicamente, GCN2.0 sera la primera revision de la arquitectura GCN que soporte FULL DX12, ya que es la GPU que montara Carrizo. y puesto que sabemos que XboxONE es FULL DX12, la unica posibilidad es que monte GCN2.0, y no una variante de GCN1.x, que solo son compatibles a nivel software con DX12, no son FULL DX12 HARDWARE.

El unico hardware full DX12 es GCN2.0 (y la siguiente arquitectura de nVidia, que me vais a perdonar pero no recuerdo su nombre). XboxONE es FULL DX12 HARDWARE, confirmado por Phil (@xboxp3) en un tweet. a poco que lo busqueis lo vais a encontrar. en este mismo hilo ha sido posteado unas pocas de veces.
Isma82 parece que por fin se fue a dormir, 24 hours Non Stop, tiene merito el tio, supongo que dentro de poco entra su relevo para intentar convencer a la propia Microsoft de por qué sus ingenieros son unos inutiles.
gracias @f5inet .. es una teoría interesante, incluso hasta posible. pero no sería posible también que fuese algo intermedio entre kaveri y carrizo ? es decir, es posible que aun siendo compatible full dx12 por hardware (nunca puse en duda esto, lei los twits en su momrnto), le puedan faltar características de GCN 2.0 como por ejemplo el QoS ? De momento la verdad me parece aventurado asegurar nada, puede ser cualquier cosa, y menos al desconocerse las especificaciones de hardware para dx12 (que yo sepa)

alguien sabe cuando se terminan los NDA al respecto ?
Yo no se ni lo q es el QoS pero si vais a la patento lo repiten asi como un griton de veces.
La patente de XBOX ONE quiero decir. Quiza seria el momento de q la releais los q entendeis.
Pada escribió:gracias @f5inet .. es una teoría interesante, incluso hasta posible. pero no sería posible también que fuese algo intermedio entre kaveri y carrizo ? es decir, es posible que aun siendo compatible full dx12 por hardware (nunca puse en duda esto, lei los twits en su momrnto), le puedan faltar características de GCN 2.0 como por ejemplo el QoS ? De momento la verdad me parece aventurado asegurar nada, puede ser cualquier cosa, y menos al desconocerse las especificaciones de hardware para dx12 (que yo sepa)

alguien sabe cuando se terminan los NDA al respecto ?


puede ser posible, pero como puedes ver, hay mas pruebas de que si es FULL DX12 HARDWARE, y es GCN2.0, es mas probable que integre todo el set de HSA1.0+DX12 a que solo integre algunas partes. Dejemoslo en que es posible, pero las evidencias apuntan mas a FULL DX12+HSA1.0 HARDWARE.

con respecto a cuando termina el NDA, supongo que cuando Carrizo y las GPUs basadas en Pirate Islands (GCN 2.0) se pongan a la venta, que sera en la primera mitad de 2015, se podra hablar largo y tendido.

Y entonces (y solo entonces, para no mezclar churras con merinas) podremos empezar a hablar sobre PIM y DarkSilicon. [angelito]
http://www.google.com/patents/US20120159090

The technology provides various embodiments of a multimedia computer system architecture satisfying quality of service (QoS) guarantees for multimedia applications while allowing platform services to scale over time. The scaling over time may permit new services or enhanced current services. Platform services may scale down over time as well.
Cyborg_Ninja escribió:
isma82 escribió:
Cyborg_Ninja escribió:Isma82, sabemos que PS4 tiene 8 ACEs y 64 lineas de registro, pero la GPU de One cuenta con 2 y 16 lineas. ¿Tiene algo la GPU de Xbox One? ¿Como piensa MS "luchar" contra una mayor capacidad GPGPU? leyendo a los ingenieros de Microsoft creo que dan a entender que si tienen algo, pero no entiendo la explicacion, ni con el ultimo paper tampoco.


Segun el paper y lo que declaró los ingenieros a eurogamer, Xbox one tiene otra solución diferente para abordarlo. Los 8 aces de ps4 están diseñados para intentar maximizar la utilización de la gpu.

En principio xbox one solo tiene digamos 32 works stream por los 64 de de ps4. Digamos que Microsoft ha modificado los compute commands para que sean mas eficientes en vez añadir mas ACEs. Por la forma que tiene la gpu que si te fijas esta dividida en dos bloques de 6 cus en el diagrama. imagino que es porque todo está pensado para poder utilizar la gpu en bloques como ella desee... La realidad es que la superior potencia gpgpu habria que verla en la practica. Yo creo que con el tiempo no debería haber tanta diferencia, a pesar de que hay 32 strem works mas en ps4 y de que tiene mas cus disponibles que incluso peude dedicar a full time a procesar gpgpu mientras que xbox one digamos no tiene tanto margen para poder dedicar recursos a expreso, pero si parece que xbox one esta diseñada para intantar ser lo mas eficiente posible. Es una de las cosas que la verdad no podria asegurar. Mi sensación es que no hay tanta diferencia, que al final xbox one tiene coherencia de caches, tiene computación asincrona, diferentes contextos de ejecución, etc, por lo que es mas una diferencia de cantidad que de arquitectura inferior. Al final xbox one está balanceada para el hardware que tiene y ps4, no tanto.



Pero no entiendo algo que comentaste, esto:

Tener dos colas de comandos, data move engine y esram puede seguramente diluir la teorica superioridad en acs de ps4, ya que como la propia Sony reconoce su gpu está pensada para utilizar 14 compute units no los 18 porque ni tiene ancho de banda, como tampoco puede usar sus rops a full por el mismo motivo.


Que relacion tiene los DME o la ESRAM con la GPGPU?


Un saludo.

Los Data Move engine mueven datos desde la memoria a la ESRAM y la ESRAM puede ser utilizada tanto para almacenar el framebuffer como para almacenar datos de codigo direct compute (gpgpu). Esto no lo tiene ps4 ya que su memoria no es ESRAM, tiene una enorme latencia frente a las memorias con menor latencia que hay que son las SRAM, Además los Data Move Engine pueden mover datos icluso si la cpu está parcialmente colapsada, cosa que ps4 si tiene la cpu colapsada deja de distribuir datos a la gpu.
Los aces como digo no son 2 vs 8 como bien dice el paper si no que realmente los aces estan modificados para que tengan un mayor throutput. En vez de 8 strem works peude mover 16. Luego no es un incremente de 4 a 1 si no ma´s bien 2 a 1, muchos mas facil de recortar o de disimular.

En cuanto a los dos pipes, ps4 parece que reserva 4 cus para gpu. Sin embargo xbox one puede de forma intermitente manejar toda la gpu como gpgu o solo una parte de la misma (pongamos 6 cus) mientras con lso otros 6 cus puede seguir pintando. Digamos que es algo similar a los shaders unificados. Puedes tener los mismos shaders, pero si tienes 20 shaders para vertices y 20 para pixeles nunca podras usar 30 para pixeles si haces un juego con menos vertices que texturas. Lo que haces es utilizar mejor la gpu que tienes, por eso digo que yo creo que la diferencia no debería de ser tan grande como parece a priori. Ya de primeras el que lso aces tangan 16 strem works es algo bastante más interesante y que algunos han pasado por alto porque supongo no entienden este hecho. Al duplicar las instrucciones que maneja el ACE están haciendo como si relmente xbox one tuviese 4 aces y no 2. Algo que partiendo de una arquitectura bonaire con 2 aces es una modificación importante en sintonía de la inclusión de 8 Aces en vez de los 4 o 6 que tiene la 7870, en teoría la gpu generatriz de ps4

@f5inet el que realmente sabe que está mintiendo eres tu (o eso espero) Bonito documento de AMD donde o sorpresa no se nombra a xbox one en ninguna parte. Creo que te lo puedes currar un poquito más. Seguro que si buscas encontras algo mejor que tergiversar. Vuelve a intentarlo.

@f5inet
El que mientes eres tu y ya estas empezando a no hacer ni gracia. Porque sigues desmintiendo el propio paper que según tu mismo era el que confirmaba el 99% de no se cuales teorías pera además con una falta de verguienza y cinismo que es digno de estudio... Leetelo. Te lo recomiendo.
The graphics core contains two graphics
command and two compute command
processors
. Each command processor supports
16 work streams.

Te lo puedo traducir si no lo entiendes two compute command processors. Ya no haces ni gracia en serio curretalo un poquito más. Each command processor supports 16 work streams.
papatuelo escribió:http://www.google.com/patents/US20120159090

The technology provides various embodiments of a multimedia computer system architecture satisfying quality of service (QoS) guarantees for multimedia applications while allowing platform services to scale over time. The scaling over time may permit new services or enhanced current services. Platform services may scale down over time as well.


The application partition comprises a CPU 304, a GPU 308, and other application resources 330. CPU 304 may also include one or more processing cores and includes cache 303 representative of one or more cache levels typically associated with processing units of one or more cores. In lower cost embodiments there may be distinct application and platform CPUs, but there may be a shared GPU which has its resource allocated via software and hardware mechanisms. The application CPU 304 further comprises a flash ROM 342 which may store executable code that is loaded during an initial phase of a boot process when the multimedia computer system 12 is powered on. The application resources 330 may include a high speed flash which is accessible only by an application processing unit.

The application processing units will execute code of the operating system, hypervisor and like standard system functions, but they are relieved of QoS guarantees of previous systems applicable to CPUs and GPUs such as a percentage of processing time for execution of concurrent platform services application.

Y mucho más..........pero vaya tostón!

Imagen
isma82 escribió:[...]
@f5inet el que realmente sabe que está mintiendo eres tu (o eso espero) Bonito documento de AMD donde o sorpresa no se nombra a xbox one en ninguna parte. Creo que te lo puedes currar un poquito más. Seguro que si buscas encontras algo mejor que tergiversar. Vuelve a intentarlo.


¿me acusa de mentiroso el que no aporta documentacion primaria en sus posts y sigue hablando de PS4 en el hilo de XboxONE? Creo que ya ha quedado bastante claro del palo que vas...
Pues me temo que habrá que esperar unos mesecillos para salir de dudas con todo este tema, diría que como fecha límite en verano del año que viene.

@papatuelo ese QoS no hace referencia al de las GPU carrizo, yo lo interpreto en el sentido de que en un entorno multitarea como la XBone para ejecutar juego y app acoplada simultaneamente tiene un QoS para favorecer los recursos de la máquina al juego que se esté ejecutando en ese instante.

De todas formasa tenga o no QoS la GPU no se hasta que punto podría suponer un incremento reseñable del rendimiento en la arquitectura final respecto a una hipotética intermedia entre kaveri y carrizo sin QoS, será algo mejor pero no un game changer con casi total seguridad, pero obviamente esto es especulación, no trabajo en AMD ni en este campo concretamente :), pero me baso en que no hay incrementos de varios órdenes de magnitud en el rendimiento entre dos generaciones de GPUs, y mucho menos lo habría entre una intermedia y la siguiente.

Vamos, que podemos seguir rizando el rizo hasta el infinito.... pero hay que esperar, faltan datos.
f5inet escribió:
isma82 escribió:[...]
@f5inet el que realmente sabe que está mintiendo eres tu (o eso espero) Bonito documento de AMD donde o sorpresa no se nombra a xbox one en ninguna parte. Creo que te lo puedes currar un poquito más. Seguro que si buscas encontras algo mejor que tergiversar. Vuelve a intentarlo.


¿me acusa de mentiroso el que no aporta documentacion primaria en sus posts y sigue hablando de PS4 en el hilo de XboxONE? Creo que ya ha quedado bastante claro del palo que vas...

Que yo no aporto documentación primaria xD xD pero si estoy diciendo todo el rato lo que dice el paper, lo que dice AMD y l oque está publicado en vgaleaks. Si eres tu el que te inventas los tflops por tus eggs. ¿Pero tu muchacho que te ocurre?

Es una discusión hilarante, en la que pasas a acusarme de cosas que claramente y obviamente no son ciertas que justo además no haces tu... Lo tuyo es de jugado de guardia compañero. No voy a desviar mas el hilo con una discusión entre tu y yo, si tienes algun problema me mandas un mensaje privado o te compras un tigre y le paseas.

Ale con dios.
@Pada

La cuestión es q One tiene características q encontráremos en Carrizo. No q sea exactamente Carrizo.

Las pistas son algo "piratas".
isma82 escribió:
f5inet escribió:
isma82 escribió:[...]
@f5inet el que realmente sabe que está mintiendo eres tu (o eso espero) Bonito documento de AMD donde o sorpresa no se nombra a xbox one en ninguna parte. Creo que te lo puedes currar un poquito más. Seguro que si buscas encontras algo mejor que tergiversar. Vuelve a intentarlo.


¿me acusa de mentiroso el que no aporta documentacion primaria en sus posts y sigue hablando de PS4 en el hilo de XboxONE? Creo que ya ha quedado bastante claro del palo que vas...

Que yo no aporto documentación primaria xD xD pero si estoy diciendo todo el rato lo que dice el paper, lo que dice AMD y l oque está publicado en vgaleaks. Si eres tu el que te inventas los tflops por tus eggs. ¿Pero tu muchacho que te ocurre?

Es una discusión hilarante, en la que pasas a acusarme de cosas que claramente y obviamente no son ciertas que justo además no haces tu... Lo tuyo es de jugado de guardia compañero. No voy a desviar mas el hilo con una discusión entre tu y yo, si tienes algun problema me mandas un mensaje privado o te compras un tigre y le paseas.

Ale con dios.


Si quieres convencer a alguien de que mixtermedia es un chiste de mal gusto, este no es tu hilo, de buen royo ;)
@isma82 no nos vengas con benchmarks de Ubisoft anda, que de eso ya se habló lo suyo en su día. Mira si es contradictorio que luego el AC Unity va mejor en XOne [carcajad] Según sus propios resultados podrían haber desviado tareas (como la ropa de los NPC que es lo que computan ahí) a la GPU y comerse a la XOne en el juego. Como para creerse nada de Ubi hoyga. Además en el artículo los de Ubi se jactaron de las optimizaciones en su vertiente PS4 y luego cuando les preguntaron sobre la versión XOne se hicieron los locos, por lo que me suena a mí que sólo fue coger el código normal y tirar de HLSL a pelo, sin tocar nada a bajo nivel ni nada.

Respecto a Ryse, ya se sabe que XOne pone mucho empeño en calidad de texturas, es algo que nunca le ha fallado ni siquiera en los 1os juegos. Es algo que maneja de forma excelente y se agradece.

El QoS parece ir en la dirección del sistema multitarea que lleva.
Sistema HSA. Me suena su filosofía...................

Imagen

¿AMD miente?

Platform Security Processor (PSP)
Primer x86 en introducir un ARM core es Mullins y Beema.
Imagen

Sin embargo.........

https://www.linkedin.com/pub/ranjana-narang/11/7a5/136

Verification Manager- Platform Security Processor

AMD

noviembre de 2011 – actualidad (3 años 2 meses)|Sunnyvale

• Instrumental in architecting the OVM/UVM environment for Platform Security Processor for XBOX One and verified the register control unit. The design is ARM/tensilica processor based and uses the AXI bus. Responsible for building the base sequences used by the rest of the team and now by various teams in AMD for their verification effort.
• Verification lead for the Platform Security Processor and system management Units for 6 chips. Leading and mentoring a team of 10 engineers over various sites including India and Canada.
• Verification lead for system management unit for next generation XBOX-One. Worked closely with MSFT engineers and leads for the project. Responsible for development of the verification environment and work closely with MSFT to meet coverage requirements. Responsible for a team of 5 DV guys for this project and mentored them for this.

Vaya, parece que SI hay ARM en Xbox One. Maldito ruso loco...........
¿Alguien tiene la hoja de ruta esa que se filtró hace poco? ¿La podría poner por aquí de nuevo?
Tras ver por internet el tema de la doble GPU de One y tras leer por aquí a gente que conoce del tema (no hablo de los que van con el damage control activado, que han surgido de la nada y que espero que cobren por ello, porque tela), uno se da cuenta de que en 2015 va a haber por estos lares mucho retratado.

Da gusto leeros a los que sabéis, seguid así [oki]
Espectacular Szasz!! Un post para quitarse el sombrero!!Ahora digo yo...Ayer alguien saco a relucir los datos de VGleaks pero que raro que se omitiese que la GPU de One lleva LSM o Local Scrapt Memory un tipo de memoria cache que "NO EXISTE" en GCN.Seguimos sin querer reconocer que la GPU de One es mas moderna e incorpora nuevas características?!!Por supuesto no vaya a ser que descubran las cagadas de análisis de hardware que hay por ahi [+furioso]
Szasz escribió:Sistema HSA. Me suena su filosofía...................

Imagen

¿AMD miente?

Platform Security Processor (PSP)
Primer x86 en introducir un ARM core es Mullins y Beema.
Imagen

Sin embargo.........

https://www.linkedin.com/pub/ranjana-narang/11/7a5/136

Verification Manager- Platform Security Processor

AMD

noviembre de 2011 – actualidad (3 años 2 meses)|Sunnyvale

• Instrumental in architecting the OVM/UVM environment for Platform Security Processor for XBOX One and verified the register control unit. The design is ARM/tensilica processor based and uses the AXI bus. Responsible for building the base sequences used by the rest of the team and now by various teams in AMD for their verification effort.
• Verification lead for the Platform Security Processor and system management Units for 6 chips. Leading and mentoring a team of 10 engineers over various sites including India and Canada.
• Verification lead for system management unit for next generation XBOX-One. Worked closely with MSFT engineers and leads for the project. Responsible for development of the verification environment and work closely with MSFT to meet coverage requirements. Responsible for a team of 5 DV guys for this project and mentored them for this.

Vaya, parece que SI hay ARM en Xbox One. Maldito ruso loco...........


Pero ya se sabia que de la seguridad se encargaba el ARM, no? PS4 también tiene uno para ese fin.
Platform Security Processor (PSP)

Platform Security Processor for XBOX One and verified the register control unit

Lo que no sabemos es si ese procesador se utilizará también de manera coherente para procesar algo.
Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.

El doble me parece mucho XD pero bueno, DX12 algo bueno va a traer para Xbox One , de eso estoy seguro.
@Chifrinillo

Sí, se sabía. Yo al menos sí. De Ps4 no hablo, pero hay unos "chips" en la CPU de One que en Ps4 no están. Ps4 tiene ARM fuera del SoC si es a lo que te refieres.

Este ARM se encarga de la seguridad y del "boost" de la CPU (además de otras cosillas que no impactan en el rendimiento). Por eso One puede manejar los clocks de sus clusters y núcleos de forma independiente. Tenemos jaguar+ en One, que es lo mismo que jaguar pero pudiendo subir dinámicamente a 2,4ghz por ejemplo, la frecuencia. Si Dx12 libera consumo y calor es probable que se pueda subir el máximo al que llegan estos núcleos en determinadas tareas. Aunque esto es pura especulación.
Szasz escribió:@Chifrinillo

Sí, se sabía. Yo al menos sí. De Ps4 no hablo, pero hay unos "chips" en la CPU de One que en Ps4 no están. Ps4 tiene ARM fuera del SoC si es a lo que te refieres.

Este ARM se encarga de la seguridad y del "boost" de la CPU (además de otras cosillas que no impactan en el rendimiento). Por eso One puede manejar los clocks de sus clusters y núcleos de forma independiente. Tenemos jaguar+ en One, que es lo mismo que jaguar pero pudiendo subir dinámicamente a 2,4ghz por ejemplo, la frecuencia. Si Dx12 libera consumo y calor es probable que se pueda subir el máximo al que llegan estos núcleos en determinadas tareas. Aunque esto es pura especulación.


Claro, el resto de jaguar no tienen cpu throttling o que?

AMD incluye cambios de frecuencia on-the-fly en sus procesadores como minimo desde el K8.

Practicamente todos los procesadores del mercado soportan cambios dinamicos de reloj, y aun mas los que estan diseñados para mobile, como el jaguar.

El cambio de frecuencia dinamico de los cores de cpu ni es nada nuevo, ni jaguar+ por ello ni ninguna novedad unica de Xbox One
La parte de "turbo boost" es única de jaguar+.

Y busca info y veras q es lo q le permite realizarlo.
Szasz escribió:La parte de "turbo boost" es única de jaguar+.

Y busca info y veras q es lo q le permite realizarlo.


Lo del turboboost ni idea, pero desde luego cambiar dinamicamente de reloj de las cpu no es nada nuevo ni unico de xbox one

EDIT: Y por lo que veo el turboboost en jaguar tampoco es exclusivo de xbox one, los jaguar para tablets (A6-1450), con el reloj a 1Ghz por defecto tambien soportan turboboost a 1.4
SNK2 escribió:Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.

El doble me parece mucho XD pero bueno, DX12 algo bueno va a traer para Xbox One , de eso estoy seguro.

Personalmente por lo que entiendo y apuntaban los rumores del 2012 es que no es que trabaje duplicando potencia.Si no que cada "GPU" en este caso CP hace un trabajo.Por ejemplo texturizar un CP y sombrear otro.Vamos el trabajo total que hace una GPU ahora lo harán en 2 partes.Un aprobechamiento mejor de los recursos.
Hookun escribió:
SNK2 escribió:Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.

El doble me parece mucho XD pero bueno, DX12 algo bueno va a traer para Xbox One , de eso estoy seguro.

Personalmente por lo que entiendo y apuntaban los rumores del 2012 es que no es que trabaje duplicando potencia.Si no que cada "GPU" en este caso CP hace un trabajo.Por ejemplo texturizar un CP y sombrear otro.Vamos el trabajo total que hace una GPU ahora lo harán en 2 partes.Un aprobechamiento mejor de los recursos.


El mejor simil seria el de HT de intel en cpus. Una cpu, dos contextos, dos hilos distintos de ejecucion.
Zokormazo escribió:
Hookun escribió:
SNK2 escribió:Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.

El doble me parece mucho XD pero bueno, DX12 algo bueno va a traer para Xbox One , de eso estoy seguro.

Personalmente por lo que entiendo y apuntaban los rumores del 2012 es que no es que trabaje duplicando potencia.Si no que cada "GPU" en este caso CP hace un trabajo.Por ejemplo texturizar un CP y sombrear otro.Vamos el trabajo total que hace una GPU ahora lo harán en 2 partes.Un aprobechamiento mejor de los recursos.


El mejor simil seria el de HT de intel en cpus. Una cpu, dos contextos, dos hilos distintos de ejecucion.

Eso mismo.Yo es que creo que a partir de poco veremos la evolución que hubo de las CPUs en las GPUs.Primero fue el HT,luego vino el dual core ...así que dentro de unos años no nos extrañe ver GPUs con mas de un núcleo.
El SoC contiene ocho procesadores de audio y hardware de soporte. Los procesadores soportan aplicaciones y servicios de sistema con múltiples colas de trabajo. Colectívamente se necesitarían dos núcleos de CPU para igualar su capacidad de procesamiento

Wow Oooh [babas]

Por otra parte, en la práctica 2 no es igual al doble. Y en realidad no son 2 GPU, es una que interiormente está dividida en 2 contextos para aprovechar mejor el tema de memorias, accesos y cachés, o dicho de otra forma, reducir los ciclos NOP. Por lo menos de ese artículo es lo que yo saco. Fijaos que si lo viésemos como 2 GPU serían de 6 CU cada una, muy escasa, por lo que en realidad es 1 GPU de 2 contextos.

La idea creo que está bastante clara: los Move Engine a tope todo el rato y los 2 contextos alimentándose de esos datos sin parar, pudiendo ejecutar tareas diferentes (renderizar 2 cosas distintas a la vez, dibujar y computar, etc.) a cada momento. En caso de quedarse escasa la transferencia, pues el CS complementaría (evitarlo en lo posible). Si la cosa funciona y va bien sincronizada (que es el reto del driver) puede dar resultados muy interesantes.
Zokormazo escribió:
Szasz escribió:La parte de "turbo boost" es única de jaguar+.

Y busca info y veras q es lo q le permite realizarlo.


Lo del turboboost ni idea, pero desde luego cambiar dinamicamente de reloj de las cpu no es nada nuevo ni unico de xbox one

EDIT: Y por lo que veo el turboboost en jaguar tampoco es exclusivo de xbox one, los jaguar para tablets (A6-1450), con el reloj a 1Ghz por defecto tambien soportan turboboost a 1.4


¿¿Donde digo yo que sea exclusivo de One??

Digo que podría empujar más MHz con Dx12 si liberan consumo y calor. Ya que jaguar+ empuja algunos MHz más y al parecer One es jaguar+. Otra prueba de que One monta cosas "avanzadas a su época".

Carrizo tendrá una versión de jaguar+ para los portátiles de bajo consumo, no me extrañaría que tmb incorpore el aumento de coherencia del que dispone One.

Yo tengo claro que tiene algunas tecnologías que saldrán al mercado de consumo en 2015. Eso es lo importante para mi.
Entonces deberíamos de postear benchmarks comparando CPU's con Hyperthreading y sin él, y extrapolarlo a XboxOne, así quizas nos hagamos una idea real de la diferencia de rendimiento.

edito:
http://www.extremetech.com/computing/13 ... re-updates

edito 2:
Un 20% / 25% de diferencia a favor del HT... ¿podrá extrapolarse eso a la GPU de XboxOne?

edito 3:
Eso cuadraría con lo de "DirectX12 no supondrá un cambio masivo" pero no cuadraría tanto con lo del "digamos que el doble de rendimiento"
Que pueda aprovechar mejor la gpu en sus tiempos ociosos no significa que tenga doble gpu, ademas esto seria para GPGPU, osea postprocesos, que esta muy bien, fisicas y calculos de npc y poco mas, lo digo para que algunos dejen de fliparse, de doble gpu nada de nada.
No, no es para GPGPU, puede ser para cualquier cosa, incluso 2 contextos de render.
jose1024 escribió:Que pueda aprovechar mejor la gpu en sus tiempos ociosos no significa que tenga doble gpu, ademas esto seria para GPGPU, osea postprocesos, que esta muy bien, fisicas y calculos de npc y poco mas, lo digo para que algunos dejen de fliparse, de doble gpu nada de nada.


Es que yo creo que van mas por ahi los tiros, de tener doble pipeline no es para hacer el doble de trabajo, será para aprovechar los "famosos" tiempos muertos en los que los CU no estan trabajando porque estan a la espera, que si que será mejor que no usarlos pero dará algo mas de rendimiento no duplicarlo.

O eso o que es para otros procesos diferentes que igual tiene que ver con el SO o yo que se...
jose1024 escribió:Que pueda aprovechar mejor la gpu en sus tiempos ociosos no significa que tenga doble gpu, ademas esto seria para GPGPU, osea postprocesos, que esta muy bien, fisicas y calculos de npc y poco mas, lo digo para que algunos dejen de fliparse, de doble gpu nada de nada.

Yo soy nulo en esto, pero si los propios arquitectos dicen que si. Sera por algo no? Si no vaya manera de desprestigiarte a ti mismo como arquitecto.
17587 respuestas