Hablemos del interior de Xbox One

f5inet escribió:
eloskuro escribió:Creeis que MS, sabiendo que iba a tener que pedir tantos coprocesadores para hacer FPGA en sus servidores, ha podido meter esa tecnologia tambien en xbox one, para que le salga más barato? :P

Mayor pedido, mas rentable de cara al futuro :P


no lo creo, lo se:

Saurabh Kasat
- "Working on verification and validation of XBOX one ASIC. "
- http://www.linkedin.com/in/saurabhkasat


Cary Snyder
- FPGA & ASIC bring-up, debug/stress test i.e, XBox One DDR3 & SoC
- http://www.linkedin.com/in/carydsnyder


Hsu-Kuei Lin
- Migrate XBOX RTL to 3rd party development kit through FPGA.
- http://www.linkedin.com/pub/hsu-kuei-lin/27/15/37b


Eres un grande f5net [beer]

Si pudiese "reconfigurar" el silicio de mi nick de elotrolado, ahora sería eloskuro silicon xD
Grande f5inet, el rey Dark Silicon.

Sino me equivoco, Boyd Multerer ya dijo q Xbox One era un sistema dinámico y cambiante. Fue en una de sus primeras entrevistas.

Encaja perfectamente con esto.
venga niños, ya tenies un juguete nuevo [plas]

Madre mia, mas que una consola esto parece un Huevo kinder,siempre que mirais dentro sale un regalo diferente
Pero esos FPGAs son reprogramables para los usuarios/apps, o se usan en vez de chips especificos para por ejemplo el chip gordo de sonido? xD
No, en la XO no van FPGA, lleva la versión económica y lógica (por coste), los coprocesadores específicos. Los FPGA en servidores.
darksch escribió:No, en la XO no van FPGA, lleva la versión económica y lógica (por coste), los coprocesadores específicos. Los FPGA en servidores.


Por lo que he leido en los linkdn que ha puesto F5net uno e ellos a trabajado en el arm de xbox one enfocado a la seguridad del mismo. Por lo que xbox one mínimo tiene un arm (que no hemos visto en la placa) para seguridad.

Y posiblemente no tenga la version cara de FPGA que montan los Servers Xeon, pero mola indagar ;)
El cortex A5 no es un ARM que se dedica a la seguridad?
Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.
Preparaos ya están aquí
Nuhar escribió:El cortex A5 no es un ARM que se dedica a la seguridad?


CortexA5 es un ARM. Si, se puede usar para la seguridad. No seria ni la primera ni la ultima maquina que lo use. Eso es perfectamente viable y razonable.
isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.

Gracias isma. Lo que acabo de decir xD. solo que no sabemos muy bien donde anda en la placa no?

Y puede tranquilamente llevar otro para otros meneseres :P De hecho en esos linkdn hablan mucho de fpga xbox one
FPGA xbox one puede ser uno de los usos mas clasicos de FPGA: DSP chip, el coprocesador de audio.

Pero en ese caso estariamos hablando de un FPGA que casi lo podemos sustituir por un chip especifico, porque empezar a mutar el chip DSP con la consola en la calle puede dar mas dolores de cabeza que otra cosa, seria inviable.
Por ahora lo logico es pensar que se refieren al A5.

Si se quiere tener cierta credibilidad en el hilo hay que intentar ser objetivos. ¿Que puede haber mas nucleos ARM? quizas si, pero no lo voy a sospechar por ese perfil del linkdn.
Nuhar escribió:Por ahora lo logico es pensar que se refieren al A5.

Si se quiere tener cierta credibilidad en el hilo hay que intentar ser objetivos. ¿Que puede haber mas nucleos ARM? quizas si, pero no lo voy a sospechar por ese perfil del linkdn.


Cierto. Una pregunta logica. Para que uieren las third party herramientas para el dispositivo de seguridad si no tendrian que tocarlo para nada?

Hsu-Kuei Lin
- Migrate XBOX RTL to 3rd party development kit through FPGA.


A mi me suena a que los coprocesadores pueden servir para hacer de catapulta hacia la nube. Ayudar en ese aspecto.

Lease offload ^__^
El A5 no es un tipo de arquitectura para CPUs en móviles????
Eso lo puedes utilizar para seguridad o para lo que te apetezca, pues sera un procesador. No?
eloskuro escribió:
isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.

Gracias isma. Lo que acabo de decir xD. solo que no sabemos muy bien donde anda en la placa no?

Y puede tranquilamente llevar otro para otros meneseres :P De hecho en esos linkdn hablan mucho de fpga xbox one


Pues dentro del propio chip que es donde normalmente AMD los está metiendo. Estos procesadores están pensados para implementar una TrustZone en moviles y amd los utiliza en sus apus.

http://www.theinquirer.net/inquirer/news/2184269/amd-arm-cortex-a5-cores-apu-chips

xbox one tenía 17 coprocesadores especificos no?
Las primeras Apus en introducir ARM no son Jaguar. Son beema y mullins, lanzadas este año.
isma82 escribió:
eloskuro escribió:
isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.

Gracias isma. Lo que acabo de decir xD. solo que no sabemos muy bien donde anda en la placa no?

Y puede tranquilamente llevar otro para otros meneseres :P De hecho en esos linkdn hablan mucho de fpga xbox one


Pues dentro del propio chip que es donde normalmente AMD los está metiendo. Estos procesadores están pensados para implementar una TrustZone en moviles y amd los utiliza en sus apus.

http://www.theinquirer.net/inquirer/news/2184269/amd-arm-cortex-a5-cores-apu-chips

xbox one tenía 17 coprocesadores especificos no?


Los Cortex A5 estan diseñados para ser usados en multitud de aplicaciones distintas, son procesadores de proposito general. Su caracteristica es que son muy low power eficientes y baratas: http://www.arm.com/products/processors/ ... tex-a5.php . No es cierto que esten pensados para implementar una TrustZone en moviles. Es una posible aplicacion, pero hay muchisimas mas. ARM no se mete en eso cuando diseña sus procesadores y estamos hablando de un diseño de ARM.
Szasz escribió:Las primeras Apus en introducir ARM no son Jaguar. Son beema y mullins, lanzadas este año.

Entonces en que quedamos???
Fuentes por favor
Busca AMD beema mullins en google: Son APUs de bajo TDP (dentro de lo que cabe, porque AMD no es precisamente de bajo TDP) con cores puma y un cortex a5 para la seguridad, mas gpu radeon.
Zokormazo escribió:Busca AMD beema mullins en google: Son APUs de bajo TDP (dentro de lo que cabe, porque AMD no es precisamente de bajo TDP) con cores puma y un cortex a5 para la seguridad, mas gpu radeon.

Vamos que si llevan esta solución implementada los SOC Jaguar de la next gen es porque se pusieron innovaciones en ella, que de serie no llevaba.
No tiene tanto misterio, es un hardware cerrado, donde la seguridad y la ejecucion en trustzones es critica para su viabilidad. Se ha usado muchas veces ARM para estos menesteres. AMD es pionera en APUs e integracion de todo en un unico die. En vez de sacar el arm a otro chip distinto como se ha hecho en otras implementaciones, aqui lo han podido integrar en el SoC.
Zokormazo escribió:
Los Cortex A5 estan diseñados para ser usados en multitud de aplicaciones distintas, son procesadores de proposito general. Su caracteristica es que son muy low power eficientes y baratas: http://www.arm.com/products/processors/ ... tex-a5.php . No es cierto que esten pensados para implementar una TrustZone en moviles. Es una posible aplicacion, pero hay muchisimas mas. ARM no se mete en eso cuando diseña sus procesadores y estamos hablando de un diseño de ARM.



Evidentemente es un procesador de propósito general, me he expresado mal, lo que quiero decir es que se están usando en ese campo actualmente, tanto en móviles como en algunas apus de AMD. Evidentemente se pueden usar para muchas otras cosas y seguramente se estén usando. En el caso de xbox one se sabe que se utiliza para seguridad. Se sabe desde hace ya tiempo al igual que en ps4. A parte de que pueda manejar otras cosas a bajo nivel. El de ps4 por ejemplo maneja ciertas operaciones de bajo nivel del sistema operativo. El diseño base de ps4 y xbox one es prácticamente el mismo, apu 8 GB de ram, 8 cores jaguar, cada uno con sus peculiaridades... pero de base son similares, un poco lo que pasaba con 360 y ps3. Lo que se ha buscado esta generación aun mas que en la anterior es facilitar el porting de juegos entre pc y consolas. luego la base es muy similar en ambas.
One question,

¿Por qué (y hasta cuando) Microsoft sigue sin desvelar la tecnología oculta en la One?
TOCHACO INCOMING!!!!

BIENVENIDOS A LA ERA DARK SILICON


Ha pasado una decada aproximadamente desde que dejamos de subir de frecuencia los procesadores, y desde entonces hay procesadores multi-core por todos sitios. No habia otra manera de incrementar el rendimiento de los chips.

Algunos sistemas multicore son simetricos (Todos los cores son identicos, de tal forma que puedes mover el trabajo de uno a otro facilmente) y otros son asimetricos (APUs con cores CPU y GPU, donde es mas dificil mover el trabajo entre cores por sus distintas filosofias de trabajo)

¿Que es mejor? ¿Simetrico o asimetrico?

¿Porque simetrico es mejor?

Hay tres razones principales:

1) Mejor balanceo de carga
2) Menos trabajo para todos
3) Mas redundancia

1) Mejor balanceo de carga

Los sistemas asimetricos hacen el balanceo mas dificil. hay trabajos de GPU que una CPU dificilmente podra hacer de forma optima, y trabajos de una CPU que para una GPU son directamente imposibles. Otros se ejecutan de forma tan deficiente que no merecen la pena.

Y ese codigo CPU que podria ejecutarse bien en una GPU deberia ser compilado dos veces (para la CPU y la GPU) e incluso entonces no podras hacer que cosas como punteros o Vtables funcionen decentemente, por mucho que te esfuerces en tablas de traduccion de direcciones o algo asi (y luego lo patentes, por supuesto, y aun asi, seguiriamos lejos de solucionar el problema)

Y entonces necesitarias una cola compartida entre CPU y GPU, que a saber como la harias trabajar, o divides el trabajo estaticamente (digamos, 4 cores CPU, 10% de pixeles cada uno, y el 60% restante a la GPU)

Pero la division estatica del trabajo, a menudo tiene muchas perdidas, porque ¿como elijes los porcentajes? necesitas saber, o calcular, la potencia relativa de cada componente, y entonces particionas el trabajo, y el problema entonces es elejir una prueba valida que arroje resultados representativos.

Y entonces estamos cerca de volvernos locos. Lo que la gente hace actualmente en su lugar es 'paralelismo'. Ellos revisan los diferentes trabajos, y mas o menos le van a asignando los cores para aquello que parezca ser su lugar 'optimo', aunque eso siginifique sobrecargar cierto tipo de core.

Y por eso, el paralelismo nunca balancea 'demasiado bien'. digamos que tienes una rutina que es capaz de detectar rostros en una fotografia, y has sido capaz de hacerla funcionar en cores CPU y GPU. si la fotografia tiene pocos rostros, se ejecuta mas rapido en la CPU, pero si la fotografia tiene muchos rostros, lo hara mas rapido en la GPU, sin embargo, no tienes forma de saber cuantos rostros tendras en la fotografia para asignar 'optimamente' la rutina que lo haga en menos tiempo.

2) Menos trabajo para todos

hemos raspado algo de esto anteriormente. Si quieres hacer paralelismo en datos, ejecutando la misma tarea en todos los cores y accediendo a datos distintos, ahora el esfuerzo consiste en optimizar el codigo para cada tipo de core. Eso es mas trabajo de diseño, y que alguien a nivel de SO organice y comparta colas de tareas y vtables, o sea, aun mas trabajo

Generalmente, mas tipos de core significa mas diseño de hardware, mas compiladores, ensambladores, enlazadores y depuradores, mas manualesy mas trabajo de integracion en protocolos y cargadores, etc. Y, para los programadores, no solo mas trabajo de optimizacion, sino mas problemas de portabilidad

3) Mas redundancia

La fabricacion de chips, y los chips validos por lote, caen de forma estrepitosa por debajo de los 8nm, principalemente por un problema denominado 'eletromigracion'. Llegado el punto, la posibilidad de obtener un chip valido sin defectos microscopicos es tan baja, que practicamente tirarias lotes y lotes enteros a la basura porque ninguno supera las pruebas de testeo, y eso es totalmente antieconomico.

Con multicores simetricos no tienes porque tirar el chip. si el resto de la circuiteria comun esta en buen estado, simplemente puedes desactivar los cores que tengan defectos y no usarlos en produccion. El sistema operativo simplemente usara el resto de cores que esten marcados como 'validos', dejando sin uso los defectuosos.

--------------------------

Bonito, ¿no?

sin embargo, con multicores ASIMETRICOS no puedes hacer lo anterior, porque podria darse el caso que algun tipo de trabajo no tuviese core en el cual trabajar.

pero, ¿Porque la asimetria es inevitable?

En dos palabras: DARK SILICON

"Dark silicon" es un nuevo palabro que se usa para describir la diferencia creciente ENTRE el numero de transistores que somos capaz de meter en un chip, y el numero de transistores que somos capaces de hacer funcionar SIMULTANEAMENTE con un una potencia (o calor disipado) especifica. y la diferencia no hace sino aumentar y aumentar

han pasado un par de años desde que el paper 'dark silicon' predijo 'el fin de la carrera multicore', una triste continuacion a 'la carrera del gigahercio'.

l idea es que, puedes meter el doble de cores en cada estrechamiento litografico (vamos, al bajar los nanometros del diseño), pero la eficiencia energetica mejora bastante menos (1.4x por cada estrechamiento litrografico). asi que, con 4 estrechamientos litograficos, puedes meter 16 (2^4=16) veces mas cores, pero debido a que la potencia que puedes disipar tan solo ha subido marginalmente (1.4^4=3.8), solo puedes usar unos 4 simultaneamente sin quemar el chip.

Con 16 veces mas area, pero solo 4 veces mas potencia, ¿se puede hacer algo para usar el espacio sobrante?

Al parecer, la unica ruta posible era la especializacion. gastar una fraccion del area en cores especializados, que son mas rapidos en una tarea determinada que los otros cores que ya tienes.

¿Puedes usar todos ellos en paralelo? No, simetricos o asimetricos, mantener todos los cores ocupados esta fuera de tu presupuesto energetico.

Pero, si mucho de lo que ejecutes en cores especializados hace el trabajo N veces mas rapido que en los cores habituales que ya tenias, entonces has ganado mucho mas que tu 4x inicial con el que te tenias que conformar

Ganar mas que 4x ha sido siempre posible con cores especializados, por supuesto; el silicio oscuro (dark silicon) no ha sido mas que el precio a pagar por estar obligados a mantenernos dentro de un determinado presupuesto energetico: apagar transistores de cores especializados sin usar, para poder usar el resto.

¿y que hay del balanceo de carga? Oh, ¡somos afortunados!. Las cosas no balancean demasiado bien en sistemas asimetricos, porque si lo hiciesen, todos los cores estarian activos todo el tiempo, y no podemos permitirnoslo, debemos mantener parte del silicio "oscuro" (apagado) de todas formas.

¿Y que hay de la redundancia? Si los problemas de rendimientos de lotes se materializan, los diseños asimetricos futuros estan en problemas, si acaso no lo estan ya. si tienes 4 CPUs y 4 GPUs, pierdes un 25% del rendimiento, peor que si tuvieses 12 CPUs; pero el sistema asimetrico bate al simetrico por mas de ese 25% (o eso es lo que esperamos).

Asi que el lado brillante del DARK SILICON (recordamos por ultima vez, silicio oscuro) es que nos fuerza a desarrollar una nueva arquitectura de cores. Para tratar de obtener los beneficios completos de los estrechamientos litograficos, no podemos seguir metiendo los mismos costosos cores del pasado. lo cual, dicho sea de paso, se ha ido volviendo aburrido, y mas aburrido, y mas aburrido conforme pasaba el tiempo. Las arquitecturaas de CPU ya apenas tienen innovaciones. las arquitecturas de aceleradoras, sin embargo, es un hervidero.

las GPUs con la punta del iceberg, el acelerador mas ampliamente conocido y accesible, y hay montones de ellas viniendo en interminables formas y colores. Y conforme el tiempo siga avanzando, sigamos estrechando las litografias, pero el presupuesto energetico no suba en consonancia, necesitaremos mas y mas tipos de aceleradores.

Esta es la razon para que, de ahora en adelante, los modulos CPU de los nuevos chips, cada vez ocupen menos espacio en las litografias, como habremos visto en diversas fotos de conferencias como Hotchips y Chipworks.

Y esta, tambien, es la razon de que los chips que surgiran como vencedores en las futuras luchas no seran los que mas cores de proposito general integren, sino los que mas se especialicen y mejor sepan gestionar su DARK SILICON.
isma82 escribió:
Zokormazo escribió:
Los Cortex A5 estan diseñados para ser usados en multitud de aplicaciones distintas, son procesadores de proposito general. Su caracteristica es que son muy low power eficientes y baratas: http://www.arm.com/products/processors/ ... tex-a5.php . No es cierto que esten pensados para implementar una TrustZone en moviles. Es una posible aplicacion, pero hay muchisimas mas. ARM no se mete en eso cuando diseña sus procesadores y estamos hablando de un diseño de ARM.



Evidentemente es un procesador de propósito general, me he expresado mal, lo que quiero decir es que se están usando en ese campo actualmente, tanto en móviles como en algunas apus de AMD. Evidentemente se pueden usar para muchas otras cosas y seguramente se estén usando. En el caso de xbox one se sabe que se utiliza para seguridad. Se sabe desde hace ya tiempo al igual que en ps4. A parte de que pueda manejar otras cosas a bajo nivel. El de ps4 por ejemplo maneja ciertas operaciones de bajo nivel del sistema operativo. El diseño base de ps4 y xbox one es prácticamente el mismo, apu 8 GB de ram, 8 cores jaguar, cada uno con sus peculiaridades... pero de base son similares, un poco lo que pasaba con 360 y ps3. Lo que se ha buscado esta generación aun mas que en la anterior es facilitar el porting de juegos entre pc y consolas. luego la base es muy similar en ambas.


Se usa para eso, y para moviles low end etc. Es el armv7 mas lowend que hay. Se ha usado para muchisimas cosas.
Geim escribió:One question,

¿Por qué (y hasta cuando) Microsoft sigue sin desvelar la tecnología oculta en la One?

Realmente los devs básicamente conocen el 99% del hardware de xbox one, del hardware al que ellos pueden acceder evidentemente. Si el procesador ARM lo administra el Host Os al que no tienen acceso los devs, pues no es que ms lo oculte, simplemente no es "noticiable".
La gente no está preparada aún para los cambios. Se necesitan aún ideas y software para ver la capacidad de estas nuevas herramientas.

Cito a nuestro amigo multerer:

“Next gen isn’t just about having lots of transistors local, it’s also about having transistors in the cloud. The best way I can explain it is that to me ‘next gen’ is about change. I’ve got these games that stay the same. I’ve got apps that are changing, but now you start throwing in servers that are just one hop away and that can you can start doing things like…you look at a game and there’s latency-sensitive load and there’s latency insensitive loads. Let’s start moving those insensitive loads off to the cloud, freeing up local resources and effectively over time your box gets more and more powerful. This is completely unlike previous generations.”


Describiendo el cloud compiting

Later on, in discussing the system’s architecture, Multerer adds, “To me the really big, fundamental disruption is the fact that we can’t expect these boxes to be static. They don’t live in a static world.”

Describiendo los coprocesadores reprogramables ;)
Lo suyo es que el sistema de seguridad los devs ni lo toquen, ni sepan como funciona. Cuando menos sepan de ello mejor para microsoft.
Ups...
Ben Heck Xbox One Teardown [Confirms Arm Processor Chip Inside X1]
http://www.psu.com/forums/showthread.php/326088-Ben-Heck-Xbox-One-Teardown-Confirms-Arm-Processor-Chip-Inside-X1

De regalo:
HOW-TO reventar tu Xbox One.
https://www.youtube.com/watch?v=8TB6L0htLQ8

Y...venga os ahorro el trabajo
Imagen
darksch escribió:Ups...
Ben Heck Xbox One Teardown [Confirms Arm Processor Chip Inside X1]
http://www.psu.com/forums/showthread.php/326088-Ben-Heck-Xbox-One-Teardown-Confirms-Arm-Processor-Chip-Inside-X1

De regalo:
HOW-TO reventar tu Xbox One.
https://www.youtube.com/watch?v=8TB6L0htLQ8

Y...venga os ahorro el trabajo
Imagen

Esto estaría integrado para???
darksch escribió:Ups...
Ben Heck Xbox One Teardown [Confirms Arm Processor Chip Inside X1]
http://www.psu.com/forums/showthread.php/326088-Ben-Heck-Xbox-One-Teardown-Confirms-Arm-Processor-Chip-Inside-X1

De regalo:
HOW-TO reventar tu Xbox One.
https://www.youtube.com/watch?v=8TB6L0htLQ8

Y...venga os ahorro el trabajo
Imagen



Esto mismo iba a venir a poner.

El chip ARM está en la placa, no rn el SOC. Y si allí hay otro u otros, algo no cuadra.
antonio613 escribió:Esto estaría integrado para???


Puede ser para cualquier cosa practicamente. Los mandos llevan chip arm. El sistema de streaming de wii u, lleva arm. Los moviles, llevan arm. Muchos NAS y mini pcs, sticks hdmi etc llevan arm. Sistemas integrados de otro tipo, llevan arm. Podria ser para cualquier chorrada o algo mas gordo como la seguridad xD
Zokormazo escribió:
antonio613 escribió:Esto estaría integrado para???


Puede ser para cualquier cosa practicamente. Los mandos llevan chip arm. El sistema de streaming de wii u, lleva arm. Los moviles, llevan arm. Muchos NAS y mini pcs, sticks hdmi etc llevan arm. Sistemas integrados de otro tipo, llevan arm. Podria ser para cualquier chorrada o algo mas gordo como la seguridad xD

Cuando nos referimos a seguridad, es seguridad anti intrusión, piratería, todo en general???
Si, todo eso. TrustedZones, gestion de las keys etc.
darksch escribió:Y...venga os ahorro el trabajo


Osea que si que estaba en la placa... no han buscado bien, similar solución que ps4, como por otra parte sería lo más lógico.

Bueno pues no estaba el asunto tan oculto como alguno comentaba.

Yo creo que la gente está llegando a un punto bastante critico. En serio 900p vs 1080p en el mejor de los casos es tan humillante para seguir buscando chips ocultos, silicio mutable etc, etc. Es una nimiedad. Yo creo se están sacando las cosas de quicio la verdad. Y no se si todo esto es bueno para xbox one. Tiene unas ventas malisismas en las ultimas semanas y eso que tiene mejores juegos que ps4. Yo creo se invierte demasiado tiempo en buscar y poco en achuchar por twitter para que saquen juegos que realmente vendan la consola. 900p o 1080p 720p o 900p... creo que lo estais sobrevalorando los propios usuarios de xbox one. Desde mi humilde opinión. Si Ms saca kameo, battletoads conker y perfect dark y tienen la mitad de la calidad que tuvieron los originales de rare... ¿Que coño importa que resolución tengan? digo yo vamos.
isma82 escribió:
darksch escribió:Y...venga os ahorro el trabajo


Osea que si que estaba en la placa... no han buscado bien, similar solución que ps4, como por otra parte sería lo más lógico.

Bueno pues no estaba el asunto tan oculto como alguno comentaba.

Yo creo que la gente está llegando a un punto bastante critico. En serio 900p vs 1080p en el mejor de los casos es tan humillante para seguir buscando chips ocultos, silicio mutable etc, etc. Es una nimiedad. Yo creo se están sacando las cosas de quicio la verdad. Y no se si todo esto es bueno para xbox one. Tiene unas ventas malisismas en las ultimas semanas y eso que tiene mejores juegos que ps4. Yo creo se invierte demasiado tiempo en buscar y poco en achuchar por twitter para que saquen juegos que realmente vendan la consola. 900p o 1080p 720p o 900p... creo que lo estais sobrevalorando los propios usuarios de xbox one. Desde mi humilde opinión. Si Ms saca kameo, battletoads conker y perfect dark y tienen la mitad de la calidad que tuvieron los originales de rare... ¿Que coño importa que resolución tengan? digo yo vamos.

Con los nuevos SDK no hay ninguna diferencia, nos saluda Destiny.
Ya se dijo que las consolas son prácticamente iguales, lo diferente es el camino para llegar al mismo fin.
Isma, como eres nuevo te comento como funcionan las cosas aqui, no se puede nombrar la ps4 en los hilos de Xbox One, se puede pasar depende del comentario, pero ya estas desviando el hilo a algo que no tiene nada que ver con la temática principal del mismo. No hablamos de juegos, ni resoluciones ni comparamos con nadie, todo por intentar centrar el hilo.

En cuanto a lo del dark silicon y al chip arm pues me quedo un poco igual que estaba antes.
antonio613 escribió:
isma82 escribió:
darksch escribió:Y...venga os ahorro el trabajo


Osea que si que estaba en la placa... no han buscado bien, similar solución que ps4, como por otra parte sería lo más lógico.

Bueno pues no estaba el asunto tan oculto como alguno comentaba.

Yo creo que la gente está llegando a un punto bastante critico. En serio 900p vs 1080p en el mejor de los casos es tan humillante para seguir buscando chips ocultos, silicio mutable etc, etc. Es una nimiedad. Yo creo se están sacando las cosas de quicio la verdad. Y no se si todo esto es bueno para xbox one. Tiene unas ventas malisismas en las ultimas semanas y eso que tiene mejores juegos que ps4. Yo creo se invierte demasiado tiempo en buscar y poco en achuchar por twitter para que saquen juegos que realmente vendan la consola. 900p o 1080p 720p o 900p... creo que lo estais sobrevalorando los propios usuarios de xbox one. Desde mi humilde opinión. Si Ms saca kameo, battletoads conker y perfect dark y tienen la mitad de la calidad que tuvieron los originales de rare... ¿Que coño importa que resolución tengan? digo yo vamos.

Con los nuevos SDK no hay ninguna diferencia, nos saluda Destiny.
Ya se dijo que las consolas son prácticamente iguales, lo diferente es el camino para llegar al mismo fin.


Yo lo veo complicado por la diferencía de hardware base que hay, pero mira ojala a ver si así dejamos de hablar de resoluciones y hablamos de juegos...

De todas formas, yo me cuidaría muy mucho de alzar pompones antes de tiempo... que la frase este juego se ve igual en todas las plataformas... la he oído muchas veces.... y ps3 ha estado por detrás de 360 en el 80% delos multis hasta hoy mismo que aún sigue... pero insisto ¿y si no es así que? ¿Que más da? play station nunca ha tenido la mejor máquina y microsoft siempre ha tenido la mejor ¿y? insisto. Que pasa si esta vez cambian las tornas? creo que absolutamente nada pero bueno.

Edito: Nuhar creo que no estoy publicitando otra consola ni nada por el estilo. Vamos lo que quiero decir es que se están viendo muchisimas teorías sobre el hardware de one, bastante dispares entre ellas y por cada una que sale la propia microsoft desmintiendola aparece otra. Sin discutir que pueda o no ser cierta esta en concreto ya que no se muy bien de que va esta vez. Lo que quiero decir es que no ve la necesidad de esto. No se, como ya digo lo que tenga que ser será y no veo diferencias significativas entre las dos máquinas digamos next gen como para que se invierta tanto esfuerzo en todo esto. No quiero desvirtuar ni mucho menos el hilo hacia resoluciones y juegos, pero creo que en le fondo lo importante de una consola son sus juegos. Wii u ahora ha pegado un importante impulso en ventas por un juego Mario kart. No porque hayan descubierto un chip que la hace más potente... no se si me explico.
Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...
antonio613 escribió:Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...

Creo que todos sabemos a estas alturas esas diferencias. No quisiera seguir nombrando a la otra consola en este hilo ya que segun parece no está permitido. Xbox one es más fuerte en cpu y más débil en gpu y luego hay diferencias en el uso de la memoria que pueden implicar que one sea algo más complicada de programar de ahí los cutreports que se ha tenido que comer en segun que juegos. Cutreports que estoy seguro van a desaparecer si no lo han hecho ya.
isma82 escribió:
antonio613 escribió:Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...

Creo que todos sabemos a estas alturas esas diferencias. No quisiera seguir nombrando a la otra consola en este hilo ya que segun parece no está permitido. Xbox one es más fuerte en cpu y más débil en gpu y luego hay diferencias en el uso de la memoria que pueden implicar que one sea algo más complicada de programar de ahí los cutreports que se ha tenido que comer en segun que juegos. Cutreports que estoy seguro van a desaparecer si no lo han hecho ya.

¿tu sabes que GPU lleva One?
No te cortes ilústranos
Si se ha comido cutreports será por el SDK, Ryse y forza 5 te saludan.
antonio613 escribió:
isma82 escribió:
antonio613 escribió:Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...

Creo que todos sabemos a estas alturas esas diferencias. No quisiera seguir nombrando a la otra consola en este hilo ya que segun parece no está permitido. Xbox one es más fuerte en cpu y más débil en gpu y luego hay diferencias en el uso de la memoria que pueden implicar que one sea algo más complicada de programar de ahí los cutreports que se ha tenido que comer en segun que juegos. Cutreports que estoy seguro van a desaparecer si no lo han hecho ya.

¿tu sabes que GPU lleva One?
No te cortes ilústranos
Si se ha comido cutreports será por el SDK, Ryse y forza 5 te saludan.


No se puede ncomparar juegos diferentes de estudios diferentes para determinar la potencia de una máquina. Escusa que se uso para decir que ps3 era superior a 360 falsamente, mismas escusa igual de falsa para hacerlo ahora con one. Si una máquina es más potente que otra lo acabará demostrando en los multis, como siempre ha pasado. Ryse se ve genial, como casi todo lo que hace cryteck, no creo que haya que descubrila ahora precisamente. Homefront tambien se ve expectacular.

Que gpu lleva xbox one. Pues la gpu de xbox one. Porque se ha fabricado a medida. Basada segun parece en las gpus bonaire por coincidencia en rops, MTus y cus. En concreto similar a esta
http://hardzone.es/amd-radeon-r7-260/

pero con menor frecuencia para reducir consumo eléctrico.

Con las modificaciones que Microsoft haya añadido para ajustarla a su diseño especifico con la forma que tiene de gestionar la memoria, su planificador de instrucciones y todo lo que haya necesitado para adaptarla a DX 12 y su solución específica de movimiento de datos.

DE todo lo que microsoft ha confirmado lo más oscuro es para que sirven los 9-10 MB ESRAM que está ahi pero microsoft no ha especificado para que sirven. Todavía no he encontrado una teoría que me cuadre para ello.
Todo eso que pones lo tengo claro. Es que unos mensajes atrás decías otra cosa. En microsoft se esta demostrando el camino andando, no diciendo que es la más potente.
Para mi en la next gen lo mejor de momento en gráficos está en XOne. La potencia de boquilla no sirve de nada
Pones una comparación con una tarjeta de Pc [facepalm]
R7 260, sí. Exactamente la misma disposición tienen sus CUs, mismos CP.....

¿Te has propuesto reventar el hilo?
¿Tanto te molesta la información q ha aportado f5inet?
isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.


isma82, empiezas MUY mal en este subforo.
Date por avisado.
antonio613 escribió:Pones una comparación con una tarjeta de Pc [facepalm]

Lo primero que he dicho es que la gpu de one es la gpu de one y no hay otra equiparable porque se diseño para la consola. Pero las gpus no crecen en los árboles y AMD hace sus diseños basados en gpus de pc evidentemente.

Szasz no me molesta absolutamente para nada. Me encantaría una consola de microsoft potente como lo fue 360 y la primera xbox. Pero tampoco me hago cruces si no es así. Actualmente mis consolas son xbox 360 y Wii y voy a comprarme una Wii u. Xbox one me la compraré cuando tenga el suficiente numero de juegos que me interesen. No tengo ni motivos ni ganas de comprarme ninguna otra consola de sobremesa. [oki]
Te he visto venir antes de tu segundo mensaje. Yo corto y cierro. [oki]
f5inet escribió:
eloskuro escribió:Creeis que MS, sabiendo que iba a tener que pedir tantos coprocesadores para hacer FPGA en sus servidores, ha podido meter esa tecnologia tambien en xbox one, para que le salga más barato? :P

Mayor pedido, mas rentable de cara al futuro :P


no lo creo, lo se:

Saurabh Kasat
- "Working on verification and validation of XBOX one ASIC. "
- http://www.linkedin.com/in/saurabhkasat


Cary Snyder
- FPGA & ASIC bring-up, debug/stress test i.e, XBox One DDR3 & SoC
- http://www.linkedin.com/in/carydsnyder


Hsu-Kuei Lin
- Migrate XBOX RTL to 3rd party development kit through FPGA.
- http://www.linkedin.com/pub/hsu-kuei-lin/27/15/37b



Vaya, pues parece que la cosa va por ahí.
f5inet escribió:
TOCHACO INCOMING!!!!

BIENVENIDOS A LA ERA DARK SILICON


Ha pasado una decada aproximadamente desde que dejamos de subir de frecuencia los procesadores, y desde entonces hay procesadores multi-core por todos sitios. No habia otra manera de incrementar el rendimiento de los chips.

Algunos sistemas multicore son simetricos (Todos los cores son identicos, de tal forma que puedes mover el trabajo de uno a otro facilmente) y otros son asimetricos (APUs con cores CPU y GPU, donde es mas dificil mover el trabajo entre cores por sus distintas filosofias de trabajo)

¿Que es mejor? ¿Simetrico o asimetrico?

¿Porque simetrico es mejor?

Hay tres razones principales:

1) Mejor balanceo de carga
2) Menos trabajo para todos
3) Mas redundancia

1) Mejor balanceo de carga

Los sistemas asimetricos hacen el balanceo mas dificil. hay trabajos de GPU que una CPU dificilmente podra hacer de forma optima, y trabajos de una CPU que para una GPU son directamente imposibles. Otros se ejecutan de forma tan deficiente que no merecen la pena.

Y ese codigo CPU que podria ejecutarse bien en una GPU deberia ser compilado dos veces (para la CPU y la GPU) e incluso entonces no podras hacer que cosas como punteros o Vtables funcionen decentemente, por mucho que te esfuerces en tablas de traduccion de direcciones o algo asi (y luego lo patentes, por supuesto, y aun asi, seguiriamos lejos de solucionar el problema)

Y entonces necesitarias una cola compartida entre CPU y GPU, que a saber como la harias trabajar, o divides el trabajo estaticamente (digamos, 4 cores CPU, 10% de pixeles cada uno, y el 60% restante a la GPU)

Pero la division estatica del trabajo, a menudo tiene muchas perdidas, porque ¿como elijes los porcentajes? necesitas saber, o calcular, la potencia relativa de cada componente, y entonces particionas el trabajo, y el problema entonces es elejir una prueba valida que arroje resultados representativos.

Y entonces estamos cerca de volvernos locos. Lo que la gente hace actualmente en su lugar es 'paralelismo'. Ellos revisan los diferentes trabajos, y mas o menos le van a asignando los cores para aquello que parezca ser su lugar 'optimo', aunque eso siginifique sobrecargar cierto tipo de core.

Y por eso, el paralelismo nunca balancea 'demasiado bien'. digamos que tienes una rutina que es capaz de detectar rostros en una fotografia, y has sido capaz de hacerla funcionar en cores CPU y GPU. si la fotografia tiene pocos rostros, se ejecuta mas rapido en la CPU, pero si la fotografia tiene muchos rostros, lo hara mas rapido en la GPU, sin embargo, no tienes forma de saber cuantos rostros tendras en la fotografia para asignar 'optimamente' la rutina que lo haga en menos tiempo.

2) Menos trabajo para todos

hemos raspado algo de esto anteriormente. Si quieres hacer paralelismo en datos, ejecutando la misma tarea en todos los cores y accediendo a datos distintos, ahora el esfuerzo consiste en optimizar el codigo para cada tipo de core. Eso es mas trabajo de diseño, y que alguien a nivel de SO organice y comparta colas de tareas y vtables, o sea, aun mas trabajo

Generalmente, mas tipos de core significa mas diseño de hardware, mas compiladores, ensambladores, enlazadores y depuradores, mas manualesy mas trabajo de integracion en protocolos y cargadores, etc. Y, para los programadores, no solo mas trabajo de optimizacion, sino mas problemas de portabilidad

3) Mas redundancia

La fabricacion de chips, y los chips validos por lote, caen de forma estrepitosa por debajo de los 8nm, principalemente por un problema denominado 'eletromigracion'. Llegado el punto, la posibilidad de obtener un chip valido sin defectos microscopicos es tan baja, que practicamente tirarias lotes y lotes enteros a la basura porque ninguno supera las pruebas de testeo, y eso es totalmente antieconomico.

Con multicores simetricos no tienes porque tirar el chip. si el resto de la circuiteria comun esta en buen estado, simplemente puedes desactivar los cores que tengan defectos y no usarlos en produccion. El sistema operativo simplemente usara el resto de cores que esten marcados como 'validos', dejando sin uso los defectuosos.

--------------------------

Bonito, ¿no?

sin embargo, con multicores ASIMETRICOS no puedes hacer lo anterior, porque podria darse el caso que algun tipo de trabajo no tuviese core en el cual trabajar.

pero, ¿Porque la asimetria es inevitable?

En dos palabras: DARK SILICON

"Dark silicon" es un nuevo palabro que se usa para describir la diferencia creciente ENTRE el numero de transistores que somos capaz de meter en un chip, y el numero de transistores que somos capaces de hacer funcionar SIMULTANEAMENTE con un una potencia (o calor disipado) especifica. y la diferencia no hace sino aumentar y aumentar

han pasado un par de años desde que el paper 'dark silicon' predijo 'el fin de la carrera multicore', una triste continuacion a 'la carrera del gigahercio'.

l idea es que, puedes meter el doble de cores en cada estrechamiento litografico (vamos, al bajar los nanometros del diseño), pero la eficiencia energetica mejora bastante menos (1.4x por cada estrechamiento litrografico). asi que, con 4 estrechamientos litograficos, puedes meter 16 (2^4=16) veces mas cores, pero debido a que la potencia que puedes disipar tan solo ha subido marginalmente (1.4^4=3.8), solo puedes usar unos 4 simultaneamente sin quemar el chip.

Con 16 veces mas area, pero solo 4 veces mas potencia, ¿se puede hacer algo para usar el espacio sobrante?

Al parecer, la unica ruta posible era la especializacion. gastar una fraccion del area en cores especializados, que son mas rapidos en una tarea determinada que los otros cores que ya tienes.

¿Puedes usar todos ellos en paralelo? No, simetricos o asimetricos, mantener todos los cores ocupados esta fuera de tu presupuesto energetico.

Pero, si mucho de lo que ejecutes en cores especializados hace el trabajo N veces mas rapido que en los cores habituales que ya tenias, entonces has ganado mucho mas que tu 4x inicial con el que te tenias que conformar

Ganar mas que 4x ha sido siempre posible con cores especializados, por supuesto; el silicio oscuro (dark silicon) no ha sido mas que el precio a pagar por estar obligados a mantenernos dentro de un determinado presupuesto energetico: apagar transistores de cores especializados sin usar, para poder usar el resto.

¿y que hay del balanceo de carga? Oh, ¡somos afortunados!. Las cosas no balancean demasiado bien en sistemas asimetricos, porque si lo hiciesen, todos los cores estarian activos todo el tiempo, y no podemos permitirnoslo, debemos mantener parte del silicio "oscuro" (apagado) de todas formas.

¿Y que hay de la redundancia? Si los problemas de rendimientos de lotes se materializan, los diseños asimetricos futuros estan en problemas, si acaso no lo estan ya. si tienes 4 CPUs y 4 GPUs, pierdes un 25% del rendimiento, peor que si tuvieses 12 CPUs; pero el sistema asimetrico bate al simetrico por mas de ese 25% (o eso es lo que esperamos).

Asi que el lado brillante del DARK SILICON (recordamos por ultima vez, silicio oscuro) es que nos fuerza a desarrollar una nueva arquitectura de cores. Para tratar de obtener los beneficios completos de los estrechamientos litograficos, no podemos seguir metiendo los mismos costosos cores del pasado. lo cual, dicho sea de paso, se ha ido volviendo aburrido, y mas aburrido, y mas aburrido conforme pasaba el tiempo. Las arquitecturaas de CPU ya apenas tienen innovaciones. las arquitecturas de aceleradoras, sin embargo, es un hervidero.

las GPUs con la punta del iceberg, el acelerador mas ampliamente conocido y accesible, y hay montones de ellas viniendo en interminables formas y colores. Y conforme el tiempo siga avanzando, sigamos estrechando las litografias, pero el presupuesto energetico no suba en consonancia, necesitaremos mas y mas tipos de aceleradores.

Esta es la razon para que, de ahora en adelante, los modulos CPU de los nuevos chips, cada vez ocupen menos espacio en las litografias, como habremos visto en diversas fotos de conferencias como Hotchips y Chipworks.

Y esta, tambien, es la razon de que los chips que surgiran como vencedores en las futuras luchas no seran los que mas cores de proposito general integren, sino los que mas se especialicen y mejor sepan gestionar su DARK SILICON.


Muy muy interesante y explicado de 10, así da gustó entrar a este hilo y no las continuas referencias multiplataforma e intentos de desviar el tema
17587 respuestas