Hablemos del interior de Xbox One

Yo opino que lo que le pasa al señor de 3d juegos es que no sabe explicarse bien,pero alguna cosa si bien podria ser cierta y no va desencaminado en otras.No hace falta decir que muchos llevamos diciendo que la GPU de ONE no es una 7790,tal como demostre hace meses al comparar esquemas y mas de algun forero tambien lo ha demostrado.Conforme van pasando los meses se van descubriendo nuevas cosas y mas razon se nos va dando a los que afirmabamos que la cosa no era tan simple de como por desagracia muchos nos hacian creer.Respecto a los de siempre con su control damage,os voy a recordar unas cosas muy simples :
La primera es que volcanic islands es gcn 1.1 al igual que sea islands.Con la salvedad que sea islands es un refrito de bonaire y no incluyen las novedades de true audio por hardware,ni los 8 aces.Ademas de que las PRT 2.0 que van en las DX11.2 solo van por "HARDWARE" en las series: HD7900,R9-270x,R9-280X y R9-290/X.Las demas sus compatibilidades son por "SOFTWARE".
La segunda es que ONE tiene aceleracion por HARDWARE de PRT 2.0 por lo que ya directamente ni es 7790,ni r9-260,ni ninguna de esas.
Ahora con las nuevas DX12 tenemos que segun Phill one es FULL,dicese que completa.De ser asi "soporta por HARDWARE" las nuevas PRT 3.0 por lo que directamente esta fuera de esas GPUS o al menos las que podamos conocer a dia de hoy.
Ademas de esos pequeños datos que ya nos avisan de que la gente se esta equivocando,tenemos esas fotitos que hicieron del SOC.Lo primero que me llamo la atencion de ellas fue al comparar el tamaño de la GPU de una y de otra.Me sorprendio que para tener bastantes menos CUs el SOC de ONE la GPU era mas grande en proporcion.Asi que me puse a medir los tamaños de las CUs y... sorpresa!!las de One son mas grandes!!Esto mismo salio en el misterxmedia ese,pero es que es verdad.Es que lo comparas y es real,no es una ida de pelota,ni una manipulacion.Luego se descubre que hay mas ALUS en ONE o por lo menos "no son iguales" y ves como encajan algunas cosas como por ejemplo lo que he dicho de las CUs mas grandes.Las piezas estan ahi,los esquemas de la HotChips tambien y nos demuestran que no hay GPU actual asi.Por no contar que ONE no tiene Compute Units si no que tiene los llamados Shaders Engines,que bien podrian ser diferentes pero a la gente les es mejor llamarlos CU por que asi pueden ponerle un simil en GPU de ordenador aunque luego no coincidan en nada... [+furioso]
El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón. Por cierto alguna de las preguntas que haces creo que te la puedo contestar yo.

Por ejemplo la primera:

¬_¬ ¬_¬ ¬_¬ es q no se quiere decir [+risas] . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.


Imagen
Además que relativo al C++ en el último video que puse de la entrevista de Holececk decía que por motivos de eficiencia quien quiesiera programar para directx 12 lo tenia que hacer en C++ que se olvidaran de moemtno de C#
Mrxmedia ataca:


Why Xbox One's tiled resources(TR) vs PS4's partial residental textures(PRT) is like 100 to 1?

http://misterxmedia.livejournal.com/
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón. Por cierto alguna de las preguntas que haces creo que te la puedo contestar yo.

Por ejemplo la primera:

¬_¬ ¬_¬ ¬_¬ es q no se quiere decir [+risas] . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.


Imagen


Buenas gente. Cuando en mi mensaje anterior digo "esto no se que quiere decir" o "esto no tiene ni pies ni cabeza" es pq lo q dice sería algo así como si sois pescadores y leéis lo siguiente: ayer me fui a pescar ratones a alta mar con mi bicicleta por el aire y tuve mucho existo pq conseguí pescar 3 mariposas.

No es cuestión de mirar nada desde una perspectiva clásica, aquí no hay perspectivas clásicas, es cuestión de intentar "predicar" sin tener mucha idea de lo q se habla.

Lo q pones en la foto, es exactamente lo mismo que digo yo, se refiere a arquitectura GCN.

@Hookun no hay distintas versiones de PRT.

Un saludo.
Polyteres escribió:
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón. Por cierto alguna de las preguntas que haces creo que te la puedo contestar yo.

Por ejemplo la primera:

¬_¬ ¬_¬ ¬_¬ es q no se quiere decir [+risas] . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.


Imagen


Buenas gente. Cuando en mi mensaje anterior digo "esto no se que quiere decir" o "esto no tiene ni pies ni cabeza" es pq lo q dice sería algo así como si sois pescadores y leéis lo siguiente: ayer me fui a pescar ratones a alta mar con mi bicicleta por el aire y tuve mucho existo pq conseguí pescar 3 mariposas.

No es cuestión de mirar nada desde una perspectiva clásica, aquí no hay perspectivas clásicas, es cuestión de intentar "predicar" sin tener mucha idea de lo q se habla.

Lo q pones en la foto, es exactamente lo mismo que digo yo, se refiere a arquitectura GCN.

@Hookun no hay distintas versiones de PRT.

Un saludo.


Hay no habla de las GCN actuales, es una presentación de XBOX ONE.
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón.

No, sólo quiere decir que no tienes conocimientos de programación y cuando habla un programador no te enteras de lo que dice. La diferencia es que polyteres sí sabe de programación. Y si él piensa que lo que dice el otro tío no tiene sentido (muy distinto de que no lo entienda), eso para mí le resta credibilidad.

Otras cosas que restan credibilidad a las teorías del tío de 3djuegos:
Nunca se vio que una compañía saque a la venta un producto y diga oficialmente que sus especificaciones son peores de las que son para dar una sorpresa a los compradores 3 años después del lanzamiento.
Tampoco se vio nunca sacar un hardware que necesite un software que tardará 2 años después del lanzamiento en estar listo para funcionar correctamente.
Si la Xbox One es el doble (o +) de potente de lo que parece, Microsoft debería estar publicándolo por ahí. El hecho de que ocultase esta información tendría implicaciones inasumibles para la compañía:
Una percepción de que el producto es peor de lo que es. Estas percepciones se asientan en la cabeza de la gente aunque luego sean desmentidas.
No cuadra esa explicación de que lo ocultan para que Sony no les copie, porque en el momento en que se pone a la venta la primera PS4 ya no hay posibilidad de revisar el hardware, y de eso hace 5 meses.
Menores ventas por pensar que el hardware es peor de lo que es: esto implica que comprar exclusividades es cada vez más caro porque la base de usuarios de one es proporcionalmente menor, y se pierde más dinero en caso de no vender en la competencia. También implica un menor incentivo para las desarrolladoras de programar versiones de One de los juegos, porque la base de usuarios es menor.

Etc, etc...


Es decir, no tiene sentido desde ningún punto de vista las teorías del amigo de 3djuegos. Si a eso le sumas que un programador te dice que lo que está diciendo no tiene sentido, a mí me parece que todos los indicios apuntan en la misma dirección.
http://forums.anandtech.com/showthread.php?p=36263853

FlashBackMan360 no hace ni caso a MisterXmedia.

Antes de nada felicitarte por el tocho que te has currado. Parece que entiendes del tema pero.. Me puedes explicar como es posible que la arquitectura de XBOX ONE se parece.. tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto tanto a la futura R9 300 series de AMD????????????????????

Vamos que yo de Hardware no tengo ni idea.. pero es juntar los diagramas de XBOX ONE con eso y es que sin duda son la misma idea.

Los 16 canales de DDR3 apilada en las R9 300 con un ancho de banda de 700GB/S.. y los 16 chips DDR3 de Xbox ONE............................................................. que sí, que ahora me dirás que la XBOX ONE no tiene 16 canales pero.. ¿para que coño entonces eligen 16? Tan subnormales son los de MS????? De verdad no van a simular los 16 canales de alguna manera????

Vamos q.. hasta PS4 que monta GDDR5 tiene 8 módulos de 1GB... para que narices monta Microsoft en ONE 16 modulos de 512mb??????????????????????????????????????????????????????????????????

Anda.. y ahora se filtra que las R9 300 pirate islands abandonan la GDDR5 por memoria apliada DDR3 (algo super-revolucionario que nadie le da importancia)..

Nose yo no entiendo mucho de esto pero hay cosas que son de cajón.

Miro la foto de PS4 y veo todo normal.

Imagen

Miras la de XBOX ONE.

Imagen

Nose... creo que el detalle de los 16 módulos DDR3 es demasiado..

Polyteres escribió:
papatuelo escribió:El foro está para eso, si no dice nada coherente explica por qué, eres libre de hacerlo. De hecho te lo agradeceríamos.


Buenas gente. @Horizonte de sucesos y @Forzimbras claro q tenía pensado comentar las cosillas que se dicen en ese mensaje pero a mi tb me gusta el fútbol [360º] [360º] ...

MEGATOCHO inside:

Con respecto al tema en sí. Pq no dice nada coherente?. Para empezar pq muchas de las cosas no tienen sentido ni siquiera a nivel léxico. En algunas ocasiones he tenido que leer varias veces alguna frase pq no tenía ni idea a lo que se estaba refiriendo, por la mezcla de conceptos... es como si leyeras una traducción de Google. Me da la sensación que se limita a traducir lo que dice mixstermedia. Y ya entrando en materia hay cosas mezcladas, cosas sacadas de la manga, otras que son un disparate...

Por ejemplo:

No sirve de nada extrapolar arquitectura actual con la de nuevo paradigma, evidentemente por un lado se requiere una optimización de ops/c pero eso es parte del actual GCN 1.0, son técnicas que se usan en C++ desde hace años y la optimización de microcódigo en GCN y a través de DX11.2 viene de ahí.


¬_¬ ¬_¬ ¬_¬ es q no se quiere decir [+risas] . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.

No deja de ser una mejora de la drawcall que aprovecha la optimización del CU dedicado a GPGPU en base a conceptos FPU.


En todo caso sería: no deja de ser una mejora en los drawcall que aprovechan la optimización de las CUs dedicadas a GPGPU en base a conceptos FPU. Pero es q esto...FPU (flotating point unit), en base a conceptos de FPU??? CUs dedicadas a GPGPU exclusivamente?.

12CU simples no son capaces de paralelizar nada sólo con optimización de ops.


¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ . Solo con esa frase te das cuenta de que lo que dice no tiene ni pies ni cabeza. Que tiene que ver la optimización a nivel de operaciones con la paralelización de diferente granularidad???.

16 rops modificados = 64 rops antiguos


Las ROPs son ROPs, no han cambiado mucho a lo largo de los años pq no hay mucho que cambiar. Es funcionalidad fija dentro de una GPU y tienen un trabajo muy específico que no varía de una generación a otra. Esto está ya muy trillado y no hay practicamente ningún margen de mejora. Les llegan fragmentos de los fragment/pixels shaders, Z Cull, resuelven las transparencias, resuelven el AA y escriben el pixel resultante en su caché o lo envían a traves de su controlador de memoria a donde corresponda. La cantidad de pixeles que son capaces de escribir por segundo es siempre el mismo: numero de ROPs x frecuencia, eso no cambia nunca. No hay cambios revolucionarios entre saltos generacionales pq todo está mas o menos inventado.

Las ROPs suelen ser un factor limitante y se están buscando formas de no usarlas (por ejemplo usando un compute shaders que escribe directamente en memoria y no usa las ROPs), siempre es preferible que te sobren y estés limitado por el ancho de banda que te falten y estés limitado por ROPs (tendrías que bajar la resolución del buffer por ejemplo).

1 F32 ACE = 32 ACE antiguo


Esto se lo saca directamente de la manga pq el lo vale.

tratamiento por bloque del GPU


¬_¬ no se q quiere decir con esto.

X1 son 4 bloques: 2 Gfx + 2 COmpute (en esquema. 2azul 2morado)
PS4 es 1 bloque (1 Gfx + 8 ACE)


No. Otra cosa sin sentido. Bloques, que bloques?. XboxOne no es la única q tiene 2 Command Graphics, Ps4 tb tiene 2 (no solo 1 como dice, uno de ellos es capaz de despachar solo gráficos, y el otro tanto gráficos como GPGPU), de distinta prioridad, pero como dije en su momento hace ya tiempo, uno de ellos se usa para el juego en si y el otro para el SO.


Los ACE de XBox One no están en ACE's, es por eso que se le llaman "Compute CP" Haríais bien de mirar las diapositivas de Mike Mantor o la diapositiva "negra" que colgue yo de Bryan, para entender el concepto.
La nueva ACE está seleccionada en base al tratamiento del mapa HSA, hay que ver como el tratamiento del CU está dispuesto ahí puesto que la comunicación está dispuesta a través del thread, y no como parte grande del pool del CU, lo cual encaja con la visión e interpretación del hardware nativo DX12 a partir de las r9 300 y su encapsulado de datos.
Cada paquete de datos encapsulado son controlados por 1 hilo del CPU y el hilo de computo de XBox One para el CPU tal y como hemos dicho en otros post alcanza los 6 ops per core y puesto que son 8 Cores "modificados" AMD Jaguar x86-64, en 2 clusters de 4 cores con modificaciones en/y/hacia la memoria compartida y el ancho de banda, alcanzan 48 ops/c en total, 24 por hilo, 24 por cluster.
Entonces es sencillísimo extrapolar y estimar que el numero de CU eficiente es de al menos 24CU por cada unidad de Compute CP del CPU, 24 threads per Compute.


Todo esto es q directamente no es posible. Está mezclando cosas de hardware y software, no sabe como funciona a nivel interno una GPU, ni una API de alto nivel, ni un driver. Las cosas no funcionan así. La CPU escribe comandos en un command buffer, estos se le pasan a la GPU y los ejecuta como una niña/o bueno. Que uno o varios núcleos puedan escribir sus propios command buffer y enviarselos a la GPU como pretende DirectX12 por ejemplo (o hacen actualmente otras APIs ya) es una cosa y otra es q tu manejes las CUs con cada hebra de tu CPU, esto es un disparate y no es ni posible ni viable ni lógico. La GPU es un procesador altamente pararelo y necesita de mecanismos específicos para manejar dicho paralelismo, no te los puedes saltar pq es hardware y son necesarios para funcionar.

Por otra parte los núcleos Jaguar de la CPU son capaces de retirar como máximo 2 instrucciones por ciclo, si tienes 8 núcleos tienes 16 instrucciones como máximo por ciclo. Cambiar el número de instrucciones que retiras por ciclo o IPC es jodidamente difícil y viene determinado por la arquitectura en sí de la CPU. Si es Jaguar, q lo es, retira 2 por ciclo no hay más.

No es solo optimizar las colas, no es solo optimizar el entendimiento per CU, no es tan sencillo y simple, XBox One tiene duplicados los CU, pero no toda la piscina, sólo dobla las áreas referentes al GPGPU y dejan la forma de calcular actualmente los cálculos de propósito general de lado y los ACE en XBox One ya no son ACE's propiamente dichos. Y es por eso por lo cual se necesitan 768 ALU's*2 y es por eso que MS sólo menciona 768 ALU's


XboxOne no tiene duplicadas las CU ni tiene el doble de ALUs divididas en gráficos y GPGPU primero pq la familia es Sea Island (dicho por ellos) y segundo pq no es una solución correcta. La tendencia es dar cada vez mas flexibilidad a las CUs y para ello tienes q hacerlas cada vez mas generales. Que pasa si mi juego, o yo como desarrollador no quiero usar GPGPU?. O quiero usar toda la potencia de la GPU para procesar gráficos?. Desperdiciar espacio en unas ALUs que no tengan acceso al pipeline gráfico o q no se puedan usar para procesar gráficos es una tontería. Dame una ALU/CU q yo decida para q la quiero usar. Es mejor tener 12 CUs q yo decida balancear y usar como me plazca q estar limitado por una división 6+6 pq de esa forma solo podré usar 6 CUs para hacer gráficos. Es similar a lo q vimos con los shader unificados o los específicos q tenian Xbox360 y Ps3 respectivamente.

El GPGPU en XBox One es nativo DX12, paraleliza todos los CU
El GPGPU en PS4 es a través de solo 4CU dedicados fortalecidos por ACE's extra
X1 12GFX 12GPGPU se beneficia de la optimización por microcódigo sensible a nivel de hardware
PS4 14GFX 4GPGPU se beneficiará de cierta optimización por microcódigo sensible a nivel de software


Los CUs se "parelelizan" solitos. Pocos kernels en CUDA, compute shaders o kernels en OpenCL ha escrito este hombre. El resto no tiene sentido.

Un saludo.
Polyteres escribió:
papatuelo escribió:El foro está para eso, si no dice nada coherente explica por qué, eres libre de hacerlo. De hecho te lo agradeceríamos.


Buenas gente. @Horizonte de sucesos y @Forzimbras claro q tenía pensado comentar las cosillas que se dicen en ese mensaje pero a mi tb me gusta el fútbol [360º] [360º] ...

MEGATOCHO inside:

Con respecto al tema en sí. Pq no dice nada coherente?. Para empezar pq muchas de las cosas no tienen sentido ni siquiera a nivel léxico. En algunas ocasiones he tenido que leer varias veces alguna frase pq no tenía ni idea a lo que se estaba refiriendo, por la mezcla de conceptos... es como si leyeras una traducción de Google. Me da la sensación que se limita a traducir lo que dice mixstermedia. Y ya entrando en materia hay cosas mezcladas, cosas sacadas de la manga, otras que son un disparate...

Por ejemplo:

No sirve de nada extrapolar arquitectura actual con la de nuevo paradigma, evidentemente por un lado se requiere una optimización de ops/c pero eso es parte del actual GCN 1.0, son técnicas que se usan en C++ desde hace años y la optimización de microcódigo en GCN y a través de DX11.2 viene de ahí.


¬_¬ ¬_¬ ¬_¬ es q no se quiere decir [+risas] . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.

No deja de ser una mejora de la drawcall que aprovecha la optimización del CU dedicado a GPGPU en base a conceptos FPU.


En todo caso sería: no deja de ser una mejora en los drawcall que aprovechan la optimización de las CUs dedicadas a GPGPU en base a conceptos FPU. Pero es q esto...FPU (flotating point unit), en base a conceptos de FPU??? CUs dedicadas a GPGPU exclusivamente?.

12CU simples no son capaces de paralelizar nada sólo con optimización de ops.


¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ . Solo con esa frase te das cuenta de que lo que dice no tiene ni pies ni cabeza. Que tiene que ver la optimización a nivel de operaciones con la paralelización de diferente granularidad???.

16 rops modificados = 64 rops antiguos


Las ROPs son ROPs, no han cambiado mucho a lo largo de los años pq no hay mucho que cambiar. Es funcionalidad fija dentro de una GPU y tienen un trabajo muy específico que no varía de una generación a otra. Esto está ya muy trillado y no hay practicamente ningún margen de mejora. Les llegan fragmentos de los fragment/pixels shaders, Z Cull, resuelven las transparencias, resuelven el AA y escriben el pixel resultante en su caché o lo envían a traves de su controlador de memoria a donde corresponda. La cantidad de pixeles que son capaces de escribir por segundo es siempre el mismo: numero de ROPs x frecuencia, eso no cambia nunca. No hay cambios revolucionarios entre saltos generacionales pq todo está mas o menos inventado.

Las ROPs suelen ser un factor limitante y se están buscando formas de no usarlas (por ejemplo usando un compute shaders que escribe directamente en memoria y no usa las ROPs), siempre es preferible que te sobren y estés limitado por el ancho de banda que te falten y estés limitado por ROPs (tendrías que bajar la resolución del buffer por ejemplo).

1 F32 ACE = 32 ACE antiguo


Esto se lo saca directamente de la manga pq el lo vale.

tratamiento por bloque del GPU


¬_¬ no se q quiere decir con esto.

X1 son 4 bloques: 2 Gfx + 2 COmpute (en esquema. 2azul 2morado)
PS4 es 1 bloque (1 Gfx + 8 ACE)


No. Otra cosa sin sentido. Bloques, que bloques?. XboxOne no es la única q tiene 2 Command Graphics, Ps4 tb tiene 2 (no solo 1 como dice, uno de ellos es capaz de despachar solo gráficos, y el otro tanto gráficos como GPGPU), de distinta prioridad, pero como dije en su momento hace ya tiempo, uno de ellos se usa para el juego en si y el otro para el SO.


Los ACE de XBox One no están en ACE's, es por eso que se le llaman "Compute CP" Haríais bien de mirar las diapositivas de Mike Mantor o la diapositiva "negra" que colgue yo de Bryan, para entender el concepto.
La nueva ACE está seleccionada en base al tratamiento del mapa HSA, hay que ver como el tratamiento del CU está dispuesto ahí puesto que la comunicación está dispuesta a través del thread, y no como parte grande del pool del CU, lo cual encaja con la visión e interpretación del hardware nativo DX12 a partir de las r9 300 y su encapsulado de datos.
Cada paquete de datos encapsulado son controlados por 1 hilo del CPU y el hilo de computo de XBox One para el CPU tal y como hemos dicho en otros post alcanza los 6 ops per core y puesto que son 8 Cores "modificados" AMD Jaguar x86-64, en 2 clusters de 4 cores con modificaciones en/y/hacia la memoria compartida y el ancho de banda, alcanzan 48 ops/c en total, 24 por hilo, 24 por cluster.
Entonces es sencillísimo extrapolar y estimar que el numero de CU eficiente es de al menos 24CU por cada unidad de Compute CP del CPU, 24 threads per Compute.


Todo esto es q directamente no es posible. Está mezclando cosas de hardware y software, no sabe como funciona a nivel interno una GPU, ni una API de alto nivel, ni un driver. Las cosas no funcionan así. La CPU escribe comandos en un command buffer, estos se le pasan a la GPU y los ejecuta como una niña/o bueno. Que uno o varios núcleos puedan escribir sus propios command buffer y enviarselos a la GPU como pretende DirectX12 por ejemplo (o hacen actualmente otras APIs ya) es una cosa y otra es q tu manejes las CUs con cada hebra de tu CPU, esto es un disparate y no es ni posible ni viable ni lógico. La GPU es un procesador altamente pararelo y necesita de mecanismos específicos para manejar dicho paralelismo, no te los puedes saltar pq es hardware y son necesarios para funcionar.

Por otra parte los núcleos Jaguar de la CPU son capaces de retirar como máximo 2 instrucciones por ciclo, si tienes 8 núcleos tienes 16 instrucciones como máximo por ciclo. Cambiar el número de instrucciones que retiras por ciclo o IPC es jodidamente difícil y viene determinado por la arquitectura en sí de la CPU. Si es Jaguar, q lo es, retira 2 por ciclo no hay más.

No es solo optimizar las colas, no es solo optimizar el entendimiento per CU, no es tan sencillo y simple, XBox One tiene duplicados los CU, pero no toda la piscina, sólo dobla las áreas referentes al GPGPU y dejan la forma de calcular actualmente los cálculos de propósito general de lado y los ACE en XBox One ya no son ACE's propiamente dichos. Y es por eso por lo cual se necesitan 768 ALU's*2 y es por eso que MS sólo menciona 768 ALU's


XboxOne no tiene duplicadas las CU ni tiene el doble de ALUs divididas en gráficos y GPGPU primero pq la familia es Sea Island (dicho por ellos) y segundo pq no es una solución correcta. La tendencia es dar cada vez mas flexibilidad a las CUs y para ello tienes q hacerlas cada vez mas generales. Que pasa si mi juego, o yo como desarrollador no quiero usar GPGPU?. O quiero usar toda la potencia de la GPU para procesar gráficos?. Desperdiciar espacio en unas ALUs que no tengan acceso al pipeline gráfico o q no se puedan usar para procesar gráficos es una tontería. Dame una ALU/CU q yo decida para q la quiero usar. Es mejor tener 12 CUs q yo decida balancear y usar como me plazca q estar limitado por una división 6+6 pq de esa forma solo podré usar 6 CUs para hacer gráficos. Es similar a lo q vimos con los shader unificados o los específicos q tenian Xbox360 y Ps3 respectivamente.

El GPGPU en XBox One es nativo DX12, paraleliza todos los CU
El GPGPU en PS4 es a través de solo 4CU dedicados fortalecidos por ACE's extra
X1 12GFX 12GPGPU se beneficia de la optimización por microcódigo sensible a nivel de hardware
PS4 14GFX 4GPGPU se beneficiará de cierta optimización por microcódigo sensible a nivel de software


Los CUs se "parelelizan" solitos. Pocos kernels en CUDA, compute shaders o kernels en OpenCL ha escrito este hombre. El resto no tiene sentido.

Un saludo.



Buenas, eso se llama desmontar unos argumentos por todo lo alto....Gracias por ese pedazo de aporte Polyteres, leiendote se aprende.
David Ricardo escribió:
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón.

No, sólo quiere decir que no tienes conocimientos de programación y cuando habla un programador no te enteras de lo que dice. La diferencia es que polyteres sí sabe de programación. Y si él piensa que lo que dice el otro tío no tiene sentido (muy distinto de que no lo entienda), eso para mí le resta credibilidad.

Otras cosas que restan credibilidad a las teorías del tío de 3djuegos:
Nunca se vio que una compañía saque a la venta un producto y diga oficialmente que sus especificaciones son peores de las que son para dar una sorpresa a los compradores 3 años después del lanzamiento.
Tampoco se vio nunca sacar un hardware que necesite un software que tardará 2 años después del lanzamiento en estar listo para funcionar correctamente.
Si la Xbox One es el doble (o +) de potente de lo que parece, Microsoft debería estar publicándolo por ahí. El hecho de que ocultase esta información tendría implicaciones inasumibles para la compañía:
Una percepción de que el producto es peor de lo que es. Estas percepciones se asientan en la cabeza de la gente aunque luego sean desmentidas.
No cuadra esa explicación de que lo ocultan para que Sony no les copie, porque en el momento en que se pone a la venta la primera PS4 ya no hay posibilidad de revisar el hardware, y de eso hace 5 meses.
Menores ventas por pensar que el hardware es peor de lo que es: esto implica que comprar exclusividades es cada vez más caro porque la base de usuarios de one es proporcionalmente menor, y se pierde más dinero en caso de no vender en la competencia. También implica un menor incentivo para las desarrolladoras de programar versiones de One de los juegos, porque la base de usuarios es menor.

Etc, etc...


Es decir, no tiene sentido desde ningún punto de vista las teorías del amigo de 3djuegos. Si a eso le sumas que un programador te dice que lo que está diciendo no tiene sentido, a mí me parece que todos los indicios apuntan en la misma dirección.


Pues claro que no lo entiendo xq el sabe más que yo, eso es exactamente lo que yo quería decir, jamás lo he puesto en duda.
Pero das por hecho que uno es programador y otro un tío que pasaba por aquí y soltó cuatro tonterías, podría ser igualmente un programador, eso no lo sabemos.

Por otro lado ya lo he dicho en otras ocasiones en este foro, no me creo que la guerra de micro sea con Sony.

De todas formas agradezco a polyeteres que de su punto de vista, para mi es tan respetable el uno como el otro. No voy a hacer como otras personas que no entienden lo que dice uno ni lo que dice el otro pero si cae del lado que les interesa es la versión buena y desmonta lo que la otra parte dice.
Por seguir el ejemplo de la pesca de polyteres, es como si a lo que ha puesto de los ratones y esas cosas otro contestara:
"Eso no tiene sentido donde te dejas los alpargates de borreguillo y la escopeta para hacer tekking por la entrefase del agua"

No te digo polyeteres que sea el caso, si no que es como a la mayoría nos suenan estas cosas.

El tiempo dirá si tenia razón polyteres o FlashBackMan360.

Al que tenga razón se le reconocerá sin el más mínimo problema. He repetido otras veces que a mi lo que me resulta apasionante es el horizonte de nuevas tecnologías que nos permitan ver nuevas cosas, venga de la mano de quien venga, nos beneficiaría a todos. Ten en cuenta que si es cierto que los de los 5Tf, que no digo que lo sea, y si las R9 300 llevan la misma tecnología, que aun no se sabe, la gráfica más parecida por número de stream processors sería la R9 370X, ¿entonces la próxima gama medía tendría 5Tf? Eso sería increíble para todos, que cosas se verían!!!
Pues sin ofender a polytres no veo ese desarme que dice. Por que lo que dice el es tan valido como dicen los otros usuarios.

Todo puede pasar
Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..

Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.

Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.

Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.
David Ricardo escribió:
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón.

No, sólo quiere decir que no tienes conocimientos de programación y cuando habla un programador no te enteras de lo que dice. La diferencia es que polyteres sí sabe de programación. Y si él piensa que lo que dice el otro tío no tiene sentido (muy distinto de que no lo entienda), eso para mí le resta credibilidad.

Otras cosas que restan credibilidad a las teorías del tío de 3djuegos:
Nunca se vio que una compañía saque a la venta un producto y diga oficialmente que sus especificaciones son peores de las que son para dar una sorpresa a los compradores 3 años después del lanzamiento.
Tampoco se vio nunca sacar un hardware que necesite un software que tardará 2 años después del lanzamiento en estar listo para funcionar correctamente.
Si la Xbox One es el doble (o +) de potente de lo que parece, Microsoft debería estar publicándolo por ahí. El hecho de que ocultase esta información tendría implicaciones inasumibles para la compañía:
Una percepción de que el producto es peor de lo que es. Estas percepciones se asientan en la cabeza de la gente aunque luego sean desmentidas.
No cuadra esa explicación de que lo ocultan para que Sony no les copie, porque en el momento en que se pone a la venta la primera PS4 ya no hay posibilidad de revisar el hardware, y de eso hace 5 meses.
Menores ventas por pensar que el hardware es peor de lo que es: esto implica que comprar exclusividades es cada vez más caro porque la base de usuarios de one es proporcionalmente menor, y se pierde más dinero en caso de no vender en la competencia. También implica un menor incentivo para las desarrolladoras de programar versiones de One de los juegos, porque la base de usuarios es menor.

Etc, etc...


Es decir, no tiene sentido desde ningún punto de vista las teorías del amigo de 3djuegos. Si a eso le sumas que un programador te dice que lo que está diciendo no tiene sentido, a mí me parece que todos los indicios apuntan en la misma dirección.


Bueno, pero es un porgramador. Hay muchos que hablan a favor y en contra. Nadie se queda indiferente :P

Mira por ejemplo el creador del Star Citzen, que dijo que el juego más next gen de todos loq ue habia era Ryse. Y eso que se supone que la consola es la menos capaz ;)
http://gamingbolt.com/cryengine-4-incredibly-powerful-best-looking-next-gen-game-is-ryse-star-citizen-creator

Roberts stated that, “It’s incredibly powerful and visually as good as any engine out there. If you look at the next gen games, in my opinion, the best looking next-gen game is Ryse.”

Crytek’s Ryse: Son of Rome released for the Xbox One at launch, and was also built using CryEngine. The team took advantage of customized anti-aliasing and an overall film-based post processing treatment to deliver on the visual front. “Ryse is a fairly simplistic God of War mash-em up but just in terms of visuals and looks, it’s by far the best looking…its better looking than Killzone [Shadow Fall]. I’m a big Killzone fan but just technically if I look at Ryse and I look at Killzone, Ryse is superior.

“So I think that gives you a big leg up to design in a way that allows for the content creator like artists and designers to do content fairly quickly. It’s a big, really full featured engine that comes with everything. It comes with physics, everything you would normally add, we just build on top of that.”

Read more at http://gamingbolt.com/cryengine-4-incre ... vzMOSJk.99


Cuanta más información y más explicaciones, más claras estarán las cosas, pero lo real solo se verá cuando se saquen los juegos programados totalmente en DX12.

Lo que está claro es que la arquitectura de las dos consolas son como el dia y la noche. Una es más parecida a PC y la otra está customizada para "intentar" ser más eficiente.

La xbox one tiene move engines, CU´s diferentes a los visto hasta ahora y 15 procesadores de propósito especiales, 8 GB de Nand Flash, 47 MB de ESRAM on Chip de baja latencia, 30 GB de memoria cocherente para el sistema...
No se... no se va a pillar el currazo de desarrollar junto con AMD toda la implementación de esas tecnologias, para que luego sea un mojón. Si lo facil, más barato y mejor era hacer lo que ha hecho Sony, no se hubiesen complicado la vida ^^ U . Si lo han hecho así es porque podian y confiaban en sus posibilidades.

Segun se desprende de las palabras de Poly, tener esas Cu diferentes no tiene por qué presentanninguna ventaja y seguramente salga mucho más caro implementarlas pues es totalmente diferente de hacer en una cadena de montaje ^^ U . ¿Para que se complican la vida entonces en una APU así?

10Gb mas de memoria coherente tampoco es ninguna ventaja? La Nand está solo para ejecutar mas rapido porgramas? no puede servir para ejecutyar mejor juegos o para azure? Los 15 procesadores de proposito especial no ofrecen ventaja ninguna? los move engines para los PRT no dan ventaja en esa tecnologia a Xbox one?

Bastantes ventajas tiene la PS4... Lo curioso es que Poly nunca habla de las ventajas de Xbox one ^^ U y de lo que podrian reportar segun su vision. Me encantaria leerlo :P

Y no, no hablo de que Xbox one sea mejor que ps4, para nada ^^ No tengo la menor idea de si es posible, solo hablo de ventajas puntuales en ciertas cosas. Que la gente obvia y ningunea. Un poquito de objetividad vendría bien para que los profanos en estos temas pudiesemos aclararnos un poco.
Si sirve de algo al que hablaba antes de "desmontar argumentos" y con todo el respeto a Polyteres: "siempre haré mil veces más caso al criterio de un programador a nivel interno de la compañía, que trabaja con el producto y lo conoce a la perfección, que a un programador random de fuera de ella que no ha trabajado en la vida con el hard de One, más allá de verlo en fotografías, por mucho que ambos sean programadores".

Yo solo puedo hablar de lo que veo y lo que me cuentan los ingenieros de MS. Aquí podrá decir quien quiera que "eso no es verdad" o que ellos tienen otra visión según las fotos, contando "su verdad". Faltaría más.
David Ricardo escribió:
Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..

Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.

Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.

Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.


Tu problema es que das por hecho que uno lleva el 100% de la razón por que es programados y el otro "el tío de 3Djuegos". No contemplas ni la más minima posibilidad de que algunas de las cosas que rebate polyteres sea este el que se equivoca, sencillamente ha sacado una carta de una mazo de rol que dice: "Deja sin validez todo lo expuesto hasta el momento".

¿De verdad entiendes 100% lo que ha dicho cada uno? ¿Cómo para venir con otra de tus verdades absolutas?
¿Pues explícame detalladamente xq los ROPS no son susceptibles de mejora? Por decir cualquier cosa.

Contigo he coincidido mil veces y mientras que tu a mi me has acusado de desinformar por decir que puede que algo sea así pero que yo no tengo ni idea, tu te has dedicado a informar con verdades que son absolutas e irrabatibles.

Bueno, tiempo al tiempo.

Si las cosas son como tu dices, me podras citar diciendo: "Creo, a mi me parece, desde mi opinión". Yo a ti te podre citar diciendo: "esto es así y punto".
Ser programador no significa nada de nada... ya que uno puede ser programador experto y otro un novato..

Vamos es como todo en esta vida, acaso un jugador de primera se puede comparar con uno de tercera regional?

lo siento pero por muy programador que sea ,se le ve el plumero sonyer de muy lejos,ademas de que puede ser programador,PERO DE QUE..

yo me creo mucho antes a un programador profesional de Microsoft,o a desarrolladores que ya aj comentado también los beneficios del dirext,ect,ect que a alguien que trabaja en una mini empresa..vamos el mismo entendimiento seguro que no tienen..

Así que, leyendo a profesionales del sector esta claro que la xbox va a sorprender..

Y por no entender algo, no significa que no sea posible... cada uno tiene una limitación en su trabajo... hay gente que son unos crack como los dueños de google,ect y otros que con el mismo trabajo en vez de crear google trabajan en una empresa...

ahora va a resultar que porque uno no entiende o no ve posible lo que le de expertos de el mas alto nivel pues es mentira..gracias a dios siempre hay gente que va mejorando la tecnología y por eso trabajan en las mayores empresas del mundo..

Pero nada tiempo al tiempo...
Veo que seguimos como hace un año. Si alguien intenta explicar algo que beneficia a la One es todo mentira. Esto ya parece la religión. Todo lo que beneficie a esta hay que exterminarlo.
Es curioso como la gente que da explicaciones, los supuestos blasfemos, se pegan una currada de narices con ejemplos, links, esquemas, imágenes, etc. El inquisidor no, este viene, te dice que es mentira y se queda tan ancho (vamos, que parece un directivo de sony XD).
Para mi ninguno de los que estáis aquí tenéis ninguna credibilidad, siendo sincero.

Parece que saben más los supuestos ingenieros que los propios creadores de la consola.

Y con esto quiero decir que me la pela si es más d elo que se be o si es lo que hay no me preocupa, solo entro en temas de credibilidad que para mi a parte de lo que dice forzimbras ( si realmente trabaja para MS) no hay ninguna.
Ahora ser programador es saber lo que hace one o lo que hara en el futuro,ja,esta muy desperdiciado españa con tanto ingeniero desaprovechado por lo que veo que parece que saben mucho y luego puede que la caguen como el que mas,el futuro puede ser muy bonito [buenazo]
framed escribió:Veo que seguimos como hace un año. Si alguien intenta explicar algo que beneficia a la One es todo mentira. Esto ya parece la religión. Todo lo que beneficie a esta hay que exterminarlo.
Es curioso como la gente queda explicaciones, los supuestos blasfemos, se pegan una currada de narices con ejemplos, links, esquemas, imágenes, etc. El inquisidor no, este viene, te dice que es mentira y se queda tan ancho (vamos, que parece un directivo de sony XD).

Falta Mr Satan en este hilo para decirnos que la arquitectura de la xbox one es solo un truco xD
Imagen
dicanio1 escribió:Ser programador no significa nada de nada... ya que uno puede ser programador experto y otro un novato..

Vamos es como todo en esta vida, acaso un jugador de primera se puede comparar con uno de tercera regional?

lo siento pero por muy programador que sea ,se le ve el plumero sonyer de muy lejos,ademas de que puede ser programador,PERO DE QUE..

yo me creo mucho antes a un programador profesional de Microsoft,o a desarrolladores que ya aj comentado también los beneficios del dirext,ect,ect que a alguien que trabaja en una mini empresa..vamos el mismo entendimiento seguro que no tienen..

Así que, leyendo a profesionales del sector esta claro que la xbox va a sorprender..

Y por no entender algo, no significa que no sea posible... cada uno tiene una limitación en su trabajo... hay gente que son unos crack como los dueños de google,ect y otros que con el mismo trabajo en vez de crear google trabajan en una empresa...

ahora va a resultar que porque uno no entiende o no ve posible lo que le de expertos de el mas alto nivel pues es mentira..gracias a dios siempre hay gente que va mejorando la tecnología y por eso trabajan en las mayores empresas del mundo..

Pero nada tiempo al tiempo...

Claro que si, las explicaciones solo valen si las dice un programador de Microsoft. [+risas]
En fin................
Yo solo digo una cosa.
Cuando se anuncio D11.1 se dijo que la one no lo aceptaria mas que emulandolo por software...

CUando se anuncio d12 Se dijo que ni coña seria full compatible con la one


Y ahora esto.
David Ricardo escribió:
Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..

Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.

Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.

Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.


Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?

No hace falta entender de algo para con lógica deducir obviedades.

- Y si ninguna gráfica actual soporta 100% DirectX12 y la propia MS ha confirmado que XBOX ONE si, se puede dar por hecho que no lleva una gráfica actual.

- Y si se filtran los diagramas de las primeras gráficas en soportar DirectX12 a full que saldrán en 2015 y lo primero que ves es que abandonal la GDDR5 por 16 Memorias DDR3 pues sin ser muy listo y sin ser un entendido ves un gran parecido, no? (vamos yo no creo que sea casualidad.

- Y si te enteras que AMD y MS tienen un acuerdo de 3000 millones pues como que no parece raro que sea un diseño CONJUNTO.

- Y cuando te confirman que los 32mb del chip de ONE son realmente 8 + 8 + 8 + 8 que pueden leer y escribir al mismo tiempo de los 8 GB RAM entonces descubres que se han esforzado en hacer un 16 channel.

- Y si le hechan una foto al procesador por dentro y ves esto:
Imagen
Vamos.. a ver quien es el listo que dice que la XboxOne tiene una HD7000 como la PS4......................... (ya sin entrar en que puede tener el doble de Alus)

================================================================================

Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"

Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.

================================================================================

¿Tuvo sentido que MS callara con 360 mientras Sony la machacaba sin descanso?
¿Tuvo sentido cuando despues de semanas y semanas de críticas hacia 360 lo único que dijo MS es: "no creemos que PS3 sea mas potente que 360"?
Pues yo creo que el problema lo tiene la gente que intenta rebuscar dentro de la consola.

Cuando hagan un comunicado oficial sobre la arquitectura se podrá hablar sobre ella, mientras tanto me esta pareciendo que hay gente buscando tres pies al gato.
Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"

Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.


Aquí si puedo aportar mi criterio, ya que junto a otros, trabajo ese tema a diario, al pasar por mis manos la documentación del registro de patentes y demás documentación de protección de la marca.

Si MS no hace públicos detalles de specs en profundidad es simplemente porque no quiere para evitar injerencias corporativas a nivel de lo que venimos llamando "copia". A otras compañías les da igual y hacen público todo porque son las primeras en copiar en cuanto les gusta algo, precisamente por eso, Microsoft cuida de no hacer públicos detalles de especificaciones, módulos, arquitecturas, ni acuerdos a los que haya llegado al respecto a nivel interno con AMD, en este caso. Está en su derecho y es libre de hacerlo, ya que nadie le impone el que deba de hacer lo contrario.

Para que se me entienda: es como si tienes un modelo de negocio de pizzería y te mueves en ese mundo, hasta que un día llegas a un acuerdo con un maestro en masas y un chef para hacer una receta de pizza única con un sabor inigualable, y no quieres que tus competidores te copien, por lo que proteges la fórmula blindándola con toda clase de recursos, legales y de todo tipo. Nadie te puede obligar ni exigir que compartas esa información al público en plan caritativo. MS solo publica los requisitos informativos que la ley obliga a dar al consumidor, ni más ni menos. Todos los detalles trascendentales del hard sujetos a desarrollos internos, componentes únicos y su arquitectura y distribución, están más que protegidos, porque si es algo que tú, o un socio junto contigo habéis hecho, nadie más tiene por qué aprovecharse de ese esfuerzo y ese trabajo que tú has hecho.

Y no hay más misterio. Quien espere un anuncio de Microsoft con un "unveil" de las entrañas de la consola, que espere sentado, porque eso no se ha hecho ni a día de hoy con 360, y mucho menos se va a hacer con One, que cuenta con más elementos custom que ninguna de sus predecesoras y funciones únicas en el mercado, que por cuestiones corporativas, no interesa que lleguen jamás a manos de la competencia.

Por algo, cuando cualquier ingeniero ajeno a MS observa simples capturas de las entrañas de One, lo primero que dice es que "tiene reminiscencias de algo, pero no se parece a nada". Porque ni ellos mismos sabrían exactamente decir ni catalogar con exactitud qué están viendo, más que nada porque están viendo algo que solo saben quienes lo han hecho y/o trabajan con ello a diario.
futuro mad max escribió:
papatuelo escribió:El foro está para eso, si no dice nada coherente explica por qué, eres libre de hacerlo. De hecho te lo agradeceríamos.


la fuente de todo lo que publicas, otros lo copian de misterxmedia, hay queda eso


falacia del hombre de paja. no cuela. bienvenido a mis ignorados.
Nuhar escribió:Pues yo creo que el problema lo tiene la gente que intenta rebuscar dentro de la consola.

Cuando hagan un comunicado oficial sobre la arquitectura se podrá hablar sobre ella, mientras tanto me esta pareciendo que hay gente buscando tres pies al gato.


Bueno, son inquietudes que tiene la gente. Yo no lo veo mal, todo lo contrario, si yo entendiera sobre estos temas, sería el primero en buscar lo "escondido" antes de que me lo dieran mascado.

Lo que mola es ver como siempre son los mismos los que aportan teorías beneficiosas sobre la ONE y siempre son los mismos las que las desmontan. Digno de estudio, hoygan!
Y por eso mismo lo importante son los juegos XD

laleshe escribió:Bueno, son inquietudes que tiene la gente. Yo no lo veo mal, todo lo contrario, si yo entendiera sobre estos temas, sería el primero en buscar lo "escondido" antes de que me lo dieran mascado.


Yo entiendo las inquietudes, me paso todos los dias por este foro, pero me da que se intenta forzar y al final lo unico que se hace es perder la credibilidad
y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...
Nuhar escribió:Y por eso mismo lo importante son los juegos XD

laleshe escribió:Bueno, son inquietudes que tiene la gente. Yo no lo veo mal, todo lo contrario, si yo entendiera sobre estos temas, sería el primero en buscar lo "escondido" antes de que me lo dieran mascado.


Yo entiendo las inquietudes, me paso todos los dias por este foro, pero me da que se intenta forzar y al final lo unico que se hace es perder la credibilidad


Ah, creía que te referías a los que personal y físicamente están indagando en las tripas de ONE.
f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...


Eso es humo, y lo siguiente qué? La nube? [ginyo]
Chifrinillo escribió:
David Ricardo escribió:
Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..

Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.

Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.

Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.


Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?

No hace falta entender de algo para con lógica deducir obviedades.

- Y si ninguna gráfica actual soporta 100% DirectX12 y la propia MS ha confirmado que XBOX ONE si, se puede dar por hecho que no lleva una gráfica actual.

- Y si se filtran los diagramas de las primeras gráficas en soportar DirectX12 a full que saldrán en 2015 y lo primero que ves es que abandonal la GDDR5 por 16 Memorias DDR3 pues sin ser muy listo y sin ser un entendido ves un gran parecido, no? (vamos yo no creo que sea casualidad.

- Y si te enteras que AMD y MS tienen un acuerdo de 3000 millones pues como que no parece raro que sea un diseño CONJUNTO.

- Y cuando te confirman que los 32mb del chip de ONE son realmente 8 + 8 + 8 + 8 que pueden leer y escribir al mismo tiempo de los 8 GB RAM entonces descubres que se han esforzado en hacer un 16 channel.

- Y si le hechan una foto al procesador por dentro y ves esto:
Imagen
Vamos.. a ver quien es el listo que dice que la XboxOne tiene una HD7000 como la PS4......................... (ya sin entrar en que puede tener el doble de Alus)

================================================================================

Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"

Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.

================================================================================

¿Tuvo sentido que MS callara con 360 mientras Sony la machacaba sin descanso?
¿Tuvo sentido cuando despues de semanas y semanas de críticas hacia 360 lo único que dijo MS es: "no creemos que PS3 sea mas potente que 360"?

Chifrinillo yo estoy totalmente de acuerdo con todo lo que has dicho,eso esta hay y es real,pero lo que ves en la pagina de analdtech es una nueva apu de amd,no la nueva r300,"casualmente" one lleva una apu tambien...
Las nuevas Pascal también llevan stacked memory para sumar anchos de banda.
Yo creo que lo que correctamente ha apuntado chifrinillo de que ninguna GPU actual soporta DX12 nativamente por hard y el hecho de que la de One sí lo haga, encierra mucho en tan pocas palabras sobre si es un modelo desfasado, actual o "adelantado". Que cada cual saque conclusiones.
Chifrinillo escribió:Chifrinillo yo estoy totalmente de acuerdo con todo lo que has dicho,eso esta hay y es real,pero lo que ves en la pagina de analdtech es una nueva apu de amd,no la nueva r300,"casualmente" one lleva una apu tambien...


Jeje todo es mucha casualidad..
f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...


La verdad se echa de menos gente como tu que explicaba las cosas y rebatia.

Como kinderrey,pspsull ,strife o riwer. :(
Forzimbras escribió:Yo creo que lo que correctamente ha apuntado chifrinillo de que ninguna GPU actual soporta DX12 nativamente por hard y el hecho de que la de One sí lo haga, encierra mucho en tan pocas palabras sobre si es un modelo desfasado, actual o "adelantado". Que cada cual saque conclusiones.


Es que, vamos a ver, todo troll sonier está adelantado a su época. No os habéis dado cuenta, pero cuando dicen que la consola de sony es superior a la de Microsoft tienen razón. La Ps5, posiblemente, es superior a la One (o puede que comparen la Ps4 con la 360, no sé). Lo que está claro es que no vivimos en el mismo continuo espacio-tiempo.
Chifrinillo escribió:
Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?

No hace falta entender de algo para con lógica deducir obviedades.

- Y si ninguna gráfica actual soporta 100% DirectX12 y la propia MS ha confirmado que XBOX ONE si, se puede dar por hecho que no lleva una gráfica actual.

- Y si se filtran los diagramas de las primeras gráficas en soportar DirectX12 a full que saldrán en 2015 y lo primero que ves es que abandonal la GDDR5 por 16 Memorias DDR3 pues sin ser muy listo y sin ser un entendido ves un gran parecido, no? (vamos yo no creo que sea casualidad.

- Y si te enteras que AMD y MS tienen un acuerdo de 3000 millones pues como que no parece raro que sea un diseño CONJUNTO.

- Y cuando te confirman que los 32mb del chip de ONE son realmente 8 + 8 + 8 + 8 que pueden leer y escribir al mismo tiempo de los 8 GB RAM entonces descubres que se han esforzado en hacer un 16 channel.

- Y si le hechan una foto al procesador por dentro y ves esto:
Imagen
Vamos.. a ver quien es el listo que dice que la XboxOne tiene una HD7000 como la PS4......................... (ya sin entrar en que puede tener el doble de Alus)

================================================================================

Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"

Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.

================================================================================

¿Tuvo sentido que MS callara con 360 mientras Sony la machacaba sin descanso?
¿Tuvo sentido cuando despues de semanas y semanas de críticas hacia 360 lo único que dijo MS es: "no creemos que PS3 sea mas potente que 360"?


[plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas] [plas]
Sin comentarios
Forzimbras escribió:
Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"

Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.


Aquí si puedo aportar mi criterio, ya que junto a otros, trabajo ese tema a diario, al pasar por mis manos la documentación del registro de patentes y demás documentación de protección de la marca.

Si MS no hace públicos detalles de specs en profundidad es simplemente porque no quiere para evitar injerencias corporativas a nivel de lo que venimos llamando "copia". A otras compañías les da igual y hacen público todo porque son las primeras en copiar en cuanto les gusta algo, precisamente por eso, Microsoft cuida de no hacer públicos detalles de especificaciones, módulos, arquitecturas, ni acuerdos a los que haya llegado al respecto a nivel interno con AMD, en este caso. Está en su derecho y es libre de hacerlo, ya que nadie le impone el que deba de hacer lo contrario.

Para que se me entienda: es como si tienes un modelo de negocio de pizzería y te mueves en ese mundo, hasta que un día llegas a un acuerdo con un maestro en masas y un chef para hacer una receta de pizza única con un sabor inigualable, y no quieres que tus competidores te copien, por lo que proteges la fórmula blindándola con toda clase de recursos, legales y de todo tipo. Nadie te puede obligar ni exigir que compartas esa información al público en plan caritativo. MS solo publica los requisitos informativos que la ley obliga a dar al consumidor, ni más ni menos. Todos los detalles trascendentales del hard sujetos a desarrollos internos, componentes únicos y su arquitectura y distribución, están más que protegidos, porque si es algo que tú, o un socio junto contigo habéis hecho, nadie más tiene por qué aprovecharse de ese esfuerzo y ese trabajo que tú has hecho.

Y no hay más misterio. Quien espere un anuncio de Microsoft con un "unveil" de las entrañas de la consola, que espere sentado, porque eso no se ha hecho ni a día de hoy con 360, y mucho menos se va a hacer con One, que cuenta con más elementos custom que ninguna de sus predecesoras y funciones únicas en el mercado, que por cuestiones corporativas, no interesa que lleguen jamás a manos de la competencia.

Por algo, cuando cualquier ingeniero ajeno a MS observa simples capturas de las entrañas de One, lo primero que dice es que "tiene reminiscencias de algo, pero no se parece a nada". Porque ni ellos mismos sabrían exactamente decir ni catalogar con exactitud qué están viendo, más que nada porque están viendo algo que solo saben quienes lo han hecho y/o trabajan con ello a diario.


Para MS su competencia no es solo Sony. Hay mucha gente que dice... Ya que ha salido la PS4, ya no importa blindarse como dices tu. Pero estan muy equivocados. Para Microsoft su competencia real es Google, Apple y Amazon. Son los que tienen el dinero y los recursos necesarios para meterse de lleno en el sector del ocio digital. De quien se tiene que blindar es de ellos, no de Sony.

Sony ha hecho las cosas muy muy bien, y esta en esa guerra de consolas con ellos, pero MS no puede mostrar todas sus cartas al resto de competencia.
papatuelo escribió:
f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...


Eso es humo, y lo siguiente qué? La nube? [ginyo]


pagina 5: http://www.humus.name/Articles/Persson_ ... rGames.pdf

Antiguamente se dejaba a los ROPs escribir los resultados del shader en la VRAM para que el codigo a ejecutar por el shader fuese mas corto. Hoy dia, con la posibilidad que dan las arquitecturas GCN de shaders larguisimos, pueden meter la escritura a la VRAM dentro del mismo shader.

antiguamente, con el ROP, el shader (o el CU, si asi lo preferiis) quedaba 'congelado' hasta que los resultados se hubiesen escrito en la VRAM. Esto se hacia asi porque la VRAM que se solia montar solia tener MUCHA LATENCIA. si se pueden meter las escrituras dentro del shader, porque hay espacio dentro del shader, y el acceso a la VRAM no esta penalizado por latencia (fijese usted que casualidad, que tenemos unos fastuosos 32MB de rapidisima memoria eSRAM), los ROPs son INNECESARIOS.

pero vamos, algunos seguiran diciendo que 32ROPs es mejor que 16ROPs, que 64 son mejores que 32, y que la memoria RAM-BUS es mejor que la actual DDR3...
Tambien resulta gracioso leer gente que dice que es un suicidio comercial decir que tienes una maquina menos potente que la competencia y que realmente no sea cierto,que porque tendria que tirarse piedras sobre ellos mismos cuando encima en ventas estan por detras

Pero es que aqui cada uno se acuerda de lo que quiere y olvida lo que convenga,que acaso microsoft no a dicho tambien que :

-A dia de hoy los teraflops ya no son un indicativo fiable de rendimiento,y es verda
O
-One lleva menos CUs pero son mas rapidas/eficientes o grandes,y parce que es verdad
O
-Con directx12 One doblara su rendimiento,esto no me lo creo(jajajaja) pero seguro que le da un buen empujon

Seguro que se me a olvidado alguna mas,pero al menos que nadie diga que no es logico vender un producto como inferior de lo que es por que ellos no lo estan haciendo
Chifrinillo escribió:
David Ricardo escribió:
Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..

Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.

Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.

Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.


Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?

No hace falta entender de algo para con lógica deducir obviedades....


Intervengo solo para aclarar que David Ricardo tiene razón.
Al igual que Xone, Ps4 monta los 8GB en 16 módulos (distribuidos por ambos lados de la placa, 8 por un lado y 8 por otro). En concreto monta lo siguiente:

Samsung K4G41325FC-HC03 512 MB GDDR5 RAM (total of 16 x 512 MB = 8 GB)

Este tipo de configuraciones se suele utilizar por que se disipa mejor el calor que al montar los 8GB en 8 módulos.

Un saludo,
Notis
f5inet escribió:
papatuelo escribió:
f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...


Eso es humo, y lo siguiente qué? La nube? [ginyo]


pagina 5: http://www.humus.name/Articles/Persson_GraphicsGemsForGames.pdf

Antiguamente se dejaba a los ROPs escribir los resultados del shader en la VRAM para que el codigo a ejecutar por el shader fuese mas corto. Hoy dia, con la posibilidad que dan las arquitecturas GCN de shaders larguisimos, pueden meter la escritura a la VRAM dentro del mismo shader.

antiguamente, con el ROP, el shader (o el CU, si asi lo preferiis) quedaba 'congelado' hasta que los resultados se hubiesen escrito en la VRAM. Esto se hacia asi porque la VRAM que se solia montar solia tener MUCHA LATENCIA. si se pueden meter las escrituras dentro del shader, porque hay espacio dentro del shader, y el acceso a la VRAM no esta penalizado por latencia (fijese usted que casualidad, que tenemos unos fastuosos 32MB de rapidisima memoria eSRAM), los ROPs son INNECESARIOS.

pero vamos, algunos seguiran diciendo que 32ROPs es mejor que 16ROPs, que 64 son mejores que 32, y que la memoria RAM-BUS es mejor que la actual DDR3...

Me parto con el enlace [qmparto]
SangReal está baneado del subforo por "Flamer anti Xbox One"
Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!
Forzimbras escribió:Yo creo que lo que correctamente ha apuntado chifrinillo de que ninguna GPU actual soporta DX12 nativamente por hard y el hecho de que la de One sí lo haga, encierra mucho en tan pocas palabras sobre si es un modelo desfasado, actual o "adelantado". Que cada cual saque conclusiones.


Pues lo que dije hace un par de días. Decir que la GPU de ONE es inferior a la de la otra aún está por demostrar.
¿Hola? ¿DX no existe en Microsoft? ¿Quién ha inventado DX? ¿Dónde se ha hecho la consola? ¿En Apple? Cuando se desarrollan las cosas, estas aún no están en el mercado, se prueban, se preparan y tal en el lugar donde se paren...o eso creía. A lo mejor no es así, en realidades paralelas de algún que otro individuo. Ilumínenme please.
SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!

Por que x1 es de Microsoft y dx12 también, si a los de Microsoft les sale de los huevos es compatible.
SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!


DirectX 12 lleva en marcha desde 2009, nada más lanzar Windows 7. Lo dicen en este video:

https://channel9.msdn.com/Events/Build/2014/9-004

¿O es que te crees que lo anunciaron en marzo y empezaron a trabajar en ello al día siguiente?
Notis escribió:Intervengo solo para aclarar que David Ricardo tiene razón.
Al igual que Xone, Ps4 monta los 8GB en 16 módulos (distribuidos por ambos lados de la placa, 8 por un lado y 8 por otro). En concreto monta lo siguiente:

Samsung K4G41325FC-HC03 512 MB GDDR5 RAM (total of 16 x 512 MB = 8 GB)

Este tipo de configuraciones se suele utilizar por que se disipa mejor el calor que al montar los 8GB en 8 módulos.

Un saludo,
Notis


Vaya pues me disculpo! Es totálmente cierto.
SangReal está baneado del subforo por "Flamer anti Xbox One"
djber escribió:
SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!

Por que x1 es de Microsoft y dx12 también, si a los de Microsoft les sale de los huevos es compatible.

No chikitin, el hard de x1 ya lleva tiempo hecho y dx12 es un criatura que aun esta por llegar. Primero se hace dx12 y despues los fabricantes hacen los componentes compatibles 100*100.
Cuando haces algo tan complejo y grande hadta que no lo terminas no puedes ver el resultado final. Haber si os pensais que ms hace el dx12 solo para la consola..... Que hay unos sistemas llamados pcs que tmb lo usan
SangReal escribió:
djber escribió:
SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!

Por que x1 es de Microsoft y dx12 también, si a los de Microsoft les sale de los huevos es compatible.

No chikitin, el hard de x1 ya lleva tiempo hecho y dx12 es un criatura que aun esta por llegar. Primero se hace dx12 y despues los fabricantes hacen los componentes compatibles 100*100.
Cuando haces algo tan complejo y grande hadta que no lo terminas no puedes ver el resultado final. Haber si os pensais que ms hace el dx12 solo para la consola..... Que hay unos sistemas llamados pcs que tmb lo usan
[facepalm] [facepalm] [facepalm] [facepalm] [facepalm]
17587 respuestas