f5inet escribió:eloskuro escribió:Creeis que MS, sabiendo que iba a tener que pedir tantos coprocesadores para hacer FPGA en sus servidores, ha podido meter esa tecnologia tambien en xbox one, para que le salga más barato?
Mayor pedido, mas rentable de cara al futuro
no lo creo, lo se:
Saurabh Kasat
- "Working on verification and validation of XBOX one ASIC. "
- http://www.linkedin.com/in/saurabhkasat
Cary Snyder
- FPGA & ASIC bring-up, debug/stress test i.e, XBox One DDR3 & SoC
- http://www.linkedin.com/in/carydsnyder
Hsu-Kuei Lin
- Migrate XBOX RTL to 3rd party development kit through FPGA.
- http://www.linkedin.com/pub/hsu-kuei-lin/27/15/37b
darksch escribió:No, en la XO no van FPGA, lleva la versión económica y lógica (por coste), los coprocesadores específicos. Los FPGA en servidores.
Nuhar escribió:El cortex A5 no es un ARM que se dedica a la seguridad?
isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.
Nuhar escribió:Por ahora lo logico es pensar que se refieren al A5.
Si se quiere tener cierta credibilidad en el hilo hay que intentar ser objetivos. ¿Que puede haber mas nucleos ARM? quizas si, pero no lo voy a sospechar por ese perfil del linkdn.
eloskuro escribió:isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.
Gracias isma. Lo que acabo de decir xD. solo que no sabemos muy bien donde anda en la placa no?
Y puede tranquilamente llevar otro para otros meneseres De hecho en esos linkdn hablan mucho de fpga xbox one
isma82 escribió:eloskuro escribió:isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.
Gracias isma. Lo que acabo de decir xD. solo que no sabemos muy bien donde anda en la placa no?
Y puede tranquilamente llevar otro para otros meneseres De hecho en esos linkdn hablan mucho de fpga xbox one
Pues dentro del propio chip que es donde normalmente AMD los está metiendo. Estos procesadores están pensados para implementar una TrustZone en moviles y amd los utiliza en sus apus.
http://www.theinquirer.net/inquirer/news/2184269/amd-arm-cortex-a5-cores-apu-chips
xbox one tenía 17 coprocesadores especificos no?
Szasz escribió:Las primeras Apus en introducir ARM no son Jaguar. Son beema y mullins, lanzadas este año.
Zokormazo escribió:Busca AMD beema mullins en google: Son APUs de bajo TDP (dentro de lo que cabe, porque AMD no es precisamente de bajo TDP) con cores puma y un cortex a5 para la seguridad, mas gpu radeon.
Zokormazo escribió:
Los Cortex A5 estan diseñados para ser usados en multitud de aplicaciones distintas, son procesadores de proposito general. Su caracteristica es que son muy low power eficientes y baratas: http://www.arm.com/products/processors/ ... tex-a5.php . No es cierto que esten pensados para implementar una TrustZone en moviles. Es una posible aplicacion, pero hay muchisimas mas. ARM no se mete en eso cuando diseña sus procesadores y estamos hablando de un diseño de ARM.
isma82 escribió:Zokormazo escribió:
Los Cortex A5 estan diseñados para ser usados en multitud de aplicaciones distintas, son procesadores de proposito general. Su caracteristica es que son muy low power eficientes y baratas: http://www.arm.com/products/processors/ ... tex-a5.php . No es cierto que esten pensados para implementar una TrustZone en moviles. Es una posible aplicacion, pero hay muchisimas mas. ARM no se mete en eso cuando diseña sus procesadores y estamos hablando de un diseño de ARM.
Evidentemente es un procesador de propósito general, me he expresado mal, lo que quiero decir es que se están usando en ese campo actualmente, tanto en móviles como en algunas apus de AMD. Evidentemente se pueden usar para muchas otras cosas y seguramente se estén usando. En el caso de xbox one se sabe que se utiliza para seguridad. Se sabe desde hace ya tiempo al igual que en ps4. A parte de que pueda manejar otras cosas a bajo nivel. El de ps4 por ejemplo maneja ciertas operaciones de bajo nivel del sistema operativo. El diseño base de ps4 y xbox one es prácticamente el mismo, apu 8 GB de ram, 8 cores jaguar, cada uno con sus peculiaridades... pero de base son similares, un poco lo que pasaba con 360 y ps3. Lo que se ha buscado esta generación aun mas que en la anterior es facilitar el porting de juegos entre pc y consolas. luego la base es muy similar en ambas.
Geim escribió:One question,
¿Por qué (y hasta cuando) Microsoft sigue sin desvelar la tecnología oculta en la One?
“Next gen isn’t just about having lots of transistors local, it’s also about having transistors in the cloud. The best way I can explain it is that to me ‘next gen’ is about change. I’ve got these games that stay the same. I’ve got apps that are changing, but now you start throwing in servers that are just one hop away and that can you can start doing things like…you look at a game and there’s latency-sensitive load and there’s latency insensitive loads. Let’s start moving those insensitive loads off to the cloud, freeing up local resources and effectively over time your box gets more and more powerful. This is completely unlike previous generations.”
Later on, in discussing the system’s architecture, Multerer adds, “To me the really big, fundamental disruption is the fact that we can’t expect these boxes to be static. They don’t live in a static world.”
darksch escribió:Ups...
Ben Heck Xbox One Teardown [Confirms Arm Processor Chip Inside X1]
http://www.psu.com/forums/showthread.php/326088-Ben-Heck-Xbox-One-Teardown-Confirms-Arm-Processor-Chip-Inside-X1
De regalo:
HOW-TO reventar tu Xbox One.
https://www.youtube.com/watch?v=8TB6L0htLQ8
Y...venga os ahorro el trabajo
darksch escribió:Ups...
Ben Heck Xbox One Teardown [Confirms Arm Processor Chip Inside X1]
http://www.psu.com/forums/showthread.php/326088-Ben-Heck-Xbox-One-Teardown-Confirms-Arm-Processor-Chip-Inside-X1
De regalo:
HOW-TO reventar tu Xbox One.
https://www.youtube.com/watch?v=8TB6L0htLQ8
Y...venga os ahorro el trabajo
antonio613 escribió:Esto estaría integrado para???
Zokormazo escribió:antonio613 escribió:Esto estaría integrado para???
Puede ser para cualquier cosa practicamente. Los mandos llevan chip arm. El sistema de streaming de wii u, lleva arm. Los moviles, llevan arm. Muchos NAS y mini pcs, sticks hdmi etc llevan arm. Sistemas integrados de otro tipo, llevan arm. Podria ser para cualquier chorrada o algo mas gordo como la seguridad xD
darksch escribió:Y...venga os ahorro el trabajo
isma82 escribió:darksch escribió:Y...venga os ahorro el trabajo
Osea que si que estaba en la placa... no han buscado bien, similar solución que ps4, como por otra parte sería lo más lógico.
Bueno pues no estaba el asunto tan oculto como alguno comentaba.
Yo creo que la gente está llegando a un punto bastante critico. En serio 900p vs 1080p en el mejor de los casos es tan humillante para seguir buscando chips ocultos, silicio mutable etc, etc. Es una nimiedad. Yo creo se están sacando las cosas de quicio la verdad. Y no se si todo esto es bueno para xbox one. Tiene unas ventas malisismas en las ultimas semanas y eso que tiene mejores juegos que ps4. Yo creo se invierte demasiado tiempo en buscar y poco en achuchar por twitter para que saquen juegos que realmente vendan la consola. 900p o 1080p 720p o 900p... creo que lo estais sobrevalorando los propios usuarios de xbox one. Desde mi humilde opinión. Si Ms saca kameo, battletoads conker y perfect dark y tienen la mitad de la calidad que tuvieron los originales de rare... ¿Que coño importa que resolución tengan? digo yo vamos.
antonio613 escribió:isma82 escribió:darksch escribió:Y...venga os ahorro el trabajo
Osea que si que estaba en la placa... no han buscado bien, similar solución que ps4, como por otra parte sería lo más lógico.
Bueno pues no estaba el asunto tan oculto como alguno comentaba.
Yo creo que la gente está llegando a un punto bastante critico. En serio 900p vs 1080p en el mejor de los casos es tan humillante para seguir buscando chips ocultos, silicio mutable etc, etc. Es una nimiedad. Yo creo se están sacando las cosas de quicio la verdad. Y no se si todo esto es bueno para xbox one. Tiene unas ventas malisismas en las ultimas semanas y eso que tiene mejores juegos que ps4. Yo creo se invierte demasiado tiempo en buscar y poco en achuchar por twitter para que saquen juegos que realmente vendan la consola. 900p o 1080p 720p o 900p... creo que lo estais sobrevalorando los propios usuarios de xbox one. Desde mi humilde opinión. Si Ms saca kameo, battletoads conker y perfect dark y tienen la mitad de la calidad que tuvieron los originales de rare... ¿Que coño importa que resolución tengan? digo yo vamos.
Con los nuevos SDK no hay ninguna diferencia, nos saluda Destiny.
Ya se dijo que las consolas son prácticamente iguales, lo diferente es el camino para llegar al mismo fin.
antonio613 escribió:Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...
isma82 escribió:antonio613 escribió:Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...
Creo que todos sabemos a estas alturas esas diferencias. No quisiera seguir nombrando a la otra consola en este hilo ya que segun parece no está permitido. Xbox one es más fuerte en cpu y más débil en gpu y luego hay diferencias en el uso de la memoria que pueden implicar que one sea algo más complicada de programar de ahí los cutreports que se ha tenido que comer en segun que juegos. Cutreports que estoy seguro van a desaparecer si no lo han hecho ya.
antonio613 escribió:isma82 escribió:antonio613 escribió:Que diferencia de hardware hay???
Explicamelo porque me debo estar perdiendo algo...
Creo que todos sabemos a estas alturas esas diferencias. No quisiera seguir nombrando a la otra consola en este hilo ya que segun parece no está permitido. Xbox one es más fuerte en cpu y más débil en gpu y luego hay diferencias en el uso de la memoria que pueden implicar que one sea algo más complicada de programar de ahí los cutreports que se ha tenido que comer en segun que juegos. Cutreports que estoy seguro van a desaparecer si no lo han hecho ya.
¿tu sabes que GPU lleva One?
No te cortes ilústranos
Si se ha comido cutreports será por el SDK, Ryse y forza 5 te saludan.
isma82 escribió:Xbox one es en realidad el bolsillo mágico de doraimon. DE las 531 teorías alguna será verdad, venga a ver si acertais esta vez... ARM para seguridad se sabe que lleva xbox one desde el principio. Ps4 tambien lo lleva por cierto.
antonio613 escribió:Pones una comparación con una tarjeta de Pc
f5inet escribió:eloskuro escribió:Creeis que MS, sabiendo que iba a tener que pedir tantos coprocesadores para hacer FPGA en sus servidores, ha podido meter esa tecnologia tambien en xbox one, para que le salga más barato?
Mayor pedido, mas rentable de cara al futuro
no lo creo, lo se:
Saurabh Kasat
- "Working on verification and validation of XBOX one ASIC. "
- http://www.linkedin.com/in/saurabhkasat
Cary Snyder
- FPGA & ASIC bring-up, debug/stress test i.e, XBox One DDR3 & SoC
- http://www.linkedin.com/in/carydsnyder
Hsu-Kuei Lin
- Migrate XBOX RTL to 3rd party development kit through FPGA.
- http://www.linkedin.com/pub/hsu-kuei-lin/27/15/37b
f5inet escribió:TOCHACO INCOMING!!!!
BIENVENIDOS A LA ERA DARK SILICON
Ha pasado una decada aproximadamente desde que dejamos de subir de frecuencia los procesadores, y desde entonces hay procesadores multi-core por todos sitios. No habia otra manera de incrementar el rendimiento de los chips.
Algunos sistemas multicore son simetricos (Todos los cores son identicos, de tal forma que puedes mover el trabajo de uno a otro facilmente) y otros son asimetricos (APUs con cores CPU y GPU, donde es mas dificil mover el trabajo entre cores por sus distintas filosofias de trabajo)
¿Que es mejor? ¿Simetrico o asimetrico?
¿Porque simetrico es mejor?
Hay tres razones principales:
1) Mejor balanceo de carga
2) Menos trabajo para todos
3) Mas redundancia
1) Mejor balanceo de carga
Los sistemas asimetricos hacen el balanceo mas dificil. hay trabajos de GPU que una CPU dificilmente podra hacer de forma optima, y trabajos de una CPU que para una GPU son directamente imposibles. Otros se ejecutan de forma tan deficiente que no merecen la pena.
Y ese codigo CPU que podria ejecutarse bien en una GPU deberia ser compilado dos veces (para la CPU y la GPU) e incluso entonces no podras hacer que cosas como punteros o Vtables funcionen decentemente, por mucho que te esfuerces en tablas de traduccion de direcciones o algo asi (y luego lo patentes, por supuesto, y aun asi, seguiriamos lejos de solucionar el problema)
Y entonces necesitarias una cola compartida entre CPU y GPU, que a saber como la harias trabajar, o divides el trabajo estaticamente (digamos, 4 cores CPU, 10% de pixeles cada uno, y el 60% restante a la GPU)
Pero la division estatica del trabajo, a menudo tiene muchas perdidas, porque ¿como elijes los porcentajes? necesitas saber, o calcular, la potencia relativa de cada componente, y entonces particionas el trabajo, y el problema entonces es elejir una prueba valida que arroje resultados representativos.
Y entonces estamos cerca de volvernos locos. Lo que la gente hace actualmente en su lugar es 'paralelismo'. Ellos revisan los diferentes trabajos, y mas o menos le van a asignando los cores para aquello que parezca ser su lugar 'optimo', aunque eso siginifique sobrecargar cierto tipo de core.
Y por eso, el paralelismo nunca balancea 'demasiado bien'. digamos que tienes una rutina que es capaz de detectar rostros en una fotografia, y has sido capaz de hacerla funcionar en cores CPU y GPU. si la fotografia tiene pocos rostros, se ejecuta mas rapido en la CPU, pero si la fotografia tiene muchos rostros, lo hara mas rapido en la GPU, sin embargo, no tienes forma de saber cuantos rostros tendras en la fotografia para asignar 'optimamente' la rutina que lo haga en menos tiempo.
2) Menos trabajo para todos
hemos raspado algo de esto anteriormente. Si quieres hacer paralelismo en datos, ejecutando la misma tarea en todos los cores y accediendo a datos distintos, ahora el esfuerzo consiste en optimizar el codigo para cada tipo de core. Eso es mas trabajo de diseño, y que alguien a nivel de SO organice y comparta colas de tareas y vtables, o sea, aun mas trabajo
Generalmente, mas tipos de core significa mas diseño de hardware, mas compiladores, ensambladores, enlazadores y depuradores, mas manualesy mas trabajo de integracion en protocolos y cargadores, etc. Y, para los programadores, no solo mas trabajo de optimizacion, sino mas problemas de portabilidad
3) Mas redundancia
La fabricacion de chips, y los chips validos por lote, caen de forma estrepitosa por debajo de los 8nm, principalemente por un problema denominado 'eletromigracion'. Llegado el punto, la posibilidad de obtener un chip valido sin defectos microscopicos es tan baja, que practicamente tirarias lotes y lotes enteros a la basura porque ninguno supera las pruebas de testeo, y eso es totalmente antieconomico.
Con multicores simetricos no tienes porque tirar el chip. si el resto de la circuiteria comun esta en buen estado, simplemente puedes desactivar los cores que tengan defectos y no usarlos en produccion. El sistema operativo simplemente usara el resto de cores que esten marcados como 'validos', dejando sin uso los defectuosos.
--------------------------
Bonito, ¿no?
sin embargo, con multicores ASIMETRICOS no puedes hacer lo anterior, porque podria darse el caso que algun tipo de trabajo no tuviese core en el cual trabajar.
pero, ¿Porque la asimetria es inevitable?
En dos palabras: DARK SILICON
"Dark silicon" es un nuevo palabro que se usa para describir la diferencia creciente ENTRE el numero de transistores que somos capaz de meter en un chip, y el numero de transistores que somos capaces de hacer funcionar SIMULTANEAMENTE con un una potencia (o calor disipado) especifica. y la diferencia no hace sino aumentar y aumentar
han pasado un par de años desde que el paper 'dark silicon' predijo 'el fin de la carrera multicore', una triste continuacion a 'la carrera del gigahercio'.
l idea es que, puedes meter el doble de cores en cada estrechamiento litografico (vamos, al bajar los nanometros del diseño), pero la eficiencia energetica mejora bastante menos (1.4x por cada estrechamiento litrografico). asi que, con 4 estrechamientos litograficos, puedes meter 16 (2^4=16) veces mas cores, pero debido a que la potencia que puedes disipar tan solo ha subido marginalmente (1.4^4=3.8), solo puedes usar unos 4 simultaneamente sin quemar el chip.
Con 16 veces mas area, pero solo 4 veces mas potencia, ¿se puede hacer algo para usar el espacio sobrante?
Al parecer, la unica ruta posible era la especializacion. gastar una fraccion del area en cores especializados, que son mas rapidos en una tarea determinada que los otros cores que ya tienes.
¿Puedes usar todos ellos en paralelo? No, simetricos o asimetricos, mantener todos los cores ocupados esta fuera de tu presupuesto energetico.
Pero, si mucho de lo que ejecutes en cores especializados hace el trabajo N veces mas rapido que en los cores habituales que ya tenias, entonces has ganado mucho mas que tu 4x inicial con el que te tenias que conformar
Ganar mas que 4x ha sido siempre posible con cores especializados, por supuesto; el silicio oscuro (dark silicon) no ha sido mas que el precio a pagar por estar obligados a mantenernos dentro de un determinado presupuesto energetico: apagar transistores de cores especializados sin usar, para poder usar el resto.
¿y que hay del balanceo de carga? Oh, ¡somos afortunados!. Las cosas no balancean demasiado bien en sistemas asimetricos, porque si lo hiciesen, todos los cores estarian activos todo el tiempo, y no podemos permitirnoslo, debemos mantener parte del silicio "oscuro" (apagado) de todas formas.
¿Y que hay de la redundancia? Si los problemas de rendimientos de lotes se materializan, los diseños asimetricos futuros estan en problemas, si acaso no lo estan ya. si tienes 4 CPUs y 4 GPUs, pierdes un 25% del rendimiento, peor que si tuvieses 12 CPUs; pero el sistema asimetrico bate al simetrico por mas de ese 25% (o eso es lo que esperamos).
Asi que el lado brillante del DARK SILICON (recordamos por ultima vez, silicio oscuro) es que nos fuerza a desarrollar una nueva arquitectura de cores. Para tratar de obtener los beneficios completos de los estrechamientos litograficos, no podemos seguir metiendo los mismos costosos cores del pasado. lo cual, dicho sea de paso, se ha ido volviendo aburrido, y mas aburrido, y mas aburrido conforme pasaba el tiempo. Las arquitecturaas de CPU ya apenas tienen innovaciones. las arquitecturas de aceleradoras, sin embargo, es un hervidero.
las GPUs con la punta del iceberg, el acelerador mas ampliamente conocido y accesible, y hay montones de ellas viniendo en interminables formas y colores. Y conforme el tiempo siga avanzando, sigamos estrechando las litografias, pero el presupuesto energetico no suba en consonancia, necesitaremos mas y mas tipos de aceleradores.
Esta es la razon para que, de ahora en adelante, los modulos CPU de los nuevos chips, cada vez ocupen menos espacio en las litografias, como habremos visto en diversas fotos de conferencias como Hotchips y Chipworks.
Y esta, tambien, es la razon de que los chips que surgiran como vencedores en las futuras luchas no seran los que mas cores de proposito general integren, sino los que mas se especialicen y mejor sepan gestionar su DARK SILICON.