Hablemos del interior de Xbox One

papatuelo escribió:Lleva razón, dejadlo ya, se ha liberado la parte reservada a Kinect.

¿Y qué?

Pues ya sabéis que Ryse podría ser un 10% más next gen.

Si todo es lo que parece todo será poco.

Por cierto, ¿es logico que una persona que tiene una PS4 y no ha tocado una XBOX ONE en su vida tenga 4 veces más mensajes en el hilo de One que en el de PS4? No siempre lo logico es lo correcto.


Lamentablemente para nosotros, así es. Yo flipo con el número de mensajes de determinados poseedores de ps4 (y demonizadores de One) que escriben más en nuestros foros. Es curioso ver esto, y tal y como dices, lo que ocurre no parece lógico.
Y ninguno ha tenido la honorabilidad de pasarse a decir que se ha equivocado con lo de kinect tras la aclaración de m. Nelson....
Spencer also illustrated how the Xbox One’s increase in performance due to the unlocking of the previously Kinect-only hardware resources actually works:


It has nothing to do with Kinect being hooked up. The game decides, you don’t need to disconnect Kinect.

That’s right. Game decides reserve, when you are back in dash Kinect will work as always, no need to disconnect.

No need to unplug. Game just decides how much of GPU it wants to use."


He finally explained that commands like “Xbox Record That” will still work even if the game makes use o Kinect’s resources for other tasks.

Phil Spencer

http://www.dualshockers.com/2014/06/05/ ... onys-show/
Szasz escribió:Spencer also illustrated how the Xbox One’s increase in performance due to the unlocking of the previously Kinect-only hardware resources actually works:


It has nothing to do with Kinect being hooked up. The game decides, you don’t need to disconnect Kinect.

That’s right. Game decides reserve, when you are back in dash Kinect will work as always, no need to disconnect.

No need to unplug. Game just decides how much of GPU it wants to use."


He finally explained that commands like “Xbox Record That” will still work even if the game makes use o Kinect’s resources for other tasks.

Phil Spencer

http://www.dualshockers.com/2014/06/05/ ... onys-show/


Vamos, ¿parte de las resources siguen reservadas? o ¿funciona peor? En fin, este tipo de aclaraciones no son nada aclaratorias en este aspecto. Cuando estas en el dash kinect funciona como siempre, a la vez que ingame el desarrollador decide si le da recursos o no, pero a la vez aunque no tenga recursos funciona como siempre. Entonces para que la afirmacion de que en el dash funciona como siempre si dentro del juego y sin recursos asignados sus comandos siguen funcionando como siempre? xD

Sera que si el desarrollador no le da recursos a kinect la NSA no puede verte pero en el dash sigue viendote como siempre? xDDD


@KinderRey: Yo no dije que linux fuera conocido en medio mundo en el 1991. El post de linus en el newsgrupo minix lo puse porque habia quien afirmaba que en la franja 89-93 directx unifico el desarrollo de juegos en pc mientras que linux no existia, cuando es alreves: Linux existia y directx no vino hasta el 95.

Mis ganas de corregir ese tipo de afirmaciones basadas en datos incorrectos seran patologicas, tus ganas de leer incorrectamente y tergiversar manipulando posts no se lo que seran...
Pero, por qué confundis "usar área reservada para el sistema y kinect" con "quitar todos los recursos del sistema y kinect"??

Igual que antes del lanzamiento upgradearon la frecuencia a 853mhz porque el sistema quedaba mejor balanceado, ahora ajustan los recursos asignados entre diferentes áreas.

Parece ser que nadie se fija en lo realmente importante de esta noticia: Xbox One es altamente configurable, es cierto que estaba diseñada para el futuro.
leo este hilo desde hace un rato ya, tambien de cuando en ves entro al de misterx y pienso: pien, todo esto parece fantasioso, seria hasta un sueño que too fuese verdad, luego caigo en la realidad, pues bien, no todo es asi, sin embargo recuerdo bien cuando se hablo de la 360, su gpu basado en la serie x1800 (nisiquiera en la x1900) y derrepente se anuncia que tiene una "nueva arquitectura" (que si, que se sabia desde antes) pero vengo y digo yo, M$ perfectamente lo pudo haber hecho de nuevo, no que por arte de magia aparezcan nuevo had secreto, si no sencillamente con el hard que ya tiene llevarlo a otro nivel de programacion, eso perfectamente puede ser posible
Posiblemente esa persona,aunque tenga la ps4 no este totalmente convencida de su eleccion,y le llame mas todo lo relacionado con one,yo mismo tengo las 2 y casi siempre posteo por aqui por que me tira mas esta,eso no quiere decir que sea tan optimista como vosotros y a la minima me atacais por intentar no ser tan optimista
Yo lo que entiendo de TODO, juntando todas las declaraciones, es que los comandos SIEMPRE funcionan, es decir la parte de Kinect del sistema NUNCA se va a quitar, y así es como debe ser. Esta parte pilla muy poco según decían un 2% o algo así, por lo que quitar su excelente funcionalidad por algo tan ridículo no cunde obviamente.

Ahora bien, un juego puede hacer algo como "Kinect Off" y así tendrá acceso al digamos otro 8% que se tenía reservado para Kinect hiciera el juego uso o no de éste.

Por otra parte, al decir que "decide como usar", entiendo que no es un Kinect Off/On completamente, sino que según lo que uses en tu juego usarás más o menos para las funciones de Kinect. Siendo su funcionalidad completa, y digamos sin tener en cuenta las optimizaciones pertinentes que ya habrán reducido esa cantidad, un 8% para full, y menos según no usemos algunas cosas. Full sería reconocimiento de todo, voz, cuerpo, manos, dedos...y todo al mismo tiempo, así si reconocer los dedos pero prescindes del resto del cuerpo pues no es full. Así si un juego como Forza sólo usa la cabeza, seguramente necesitará mucho menos de ese 8%.

Me parece a todo esto una optimización natural, usar sólo lo que se necesite.
fabrihn escribió:leo este hilo desde hace un rato ya, tambien de cuando en ves entro al de misterx y pienso: pien, todo esto parece fantasioso, seria hasta un sueño que too fuese verdad, luego caigo en la realidad, pues bien, no todo es asi, sin embargo recuerdo bien cuando se hablo de la 360, su gpu basado en la serie x1800 (nisiquiera en la x1900) y derrepente se anuncia que tiene una "nueva arquitectura" (que si, que se sabia desde antes) pero vengo y digo yo, M$ perfectamente lo pudo haber hecho de nuevo, no que por arte de magia aparezcan nuevo had secreto, si no sencillamente con el hard que ya tiene llevarlo a otro nivel de programacion, eso perfectamente puede ser posible


De eso principalmente tratamos en este hilo. Sabemos que el hardware es el que es, sabemos que One tiene un dual pipeline (quizás por eso se vean las cosas raras que se ven en el SoC), y sabemos que es un hardware diseñado para funcionar con DX12 con un diseño de supercomputador (alto paralelismo y balanceo)

La cosa es que hasta ahora se han estado lanzando juegos con DX11 sobre una arquitectura nativa de DX12, y aún así las diferencias en los resultados finales con la otra nextgen, es mínima, y en el caso de algunos exclusivos incluso superior.

Pero no olvidemos que usar DX11 en One, es como tener un coche con todas sus piezas excepto el pedal de freno. Tiene todo el sistema de frenado, con discos ventilados, pero carece de pedal de freno: pues por mucho que quieras ese coche es incapaz de frenar. Con DX12 en One, es como si a ese coche le pusieras el pedal de freno: podrás usar el sistema de frenado tan fantástico que tienes.
f5inet escribió:Imagen
Microarquitectura AMD K12: http://en.wikipedia.org/wiki/AMD_K12


Qué vista tienes. Yo no distingo bien la letra de la primera capa, no me queda claro que sea una A o una K, o incluso una R
Pues una A no es, eso estoy casi seguro al 100%, pero es tan pequeño que si no me lo dices no me paro a distinguirlo. Ahora, la letra que sea no estoy seguro, pero la linea de en medio va en diagonal, al menos con la K si coincide, no se si alguna otra letra será similar.

Se distingue si te pones a comparar los trazos de la letra, uno es mas bajo que el otro, por lo que la linea de en medio es una diagonal. También puedes comparar las alturas con el 1 de la derecha y por las proporciones respecto a la primera capa también se ve que no coincide con la A.

Edito: A mi me parece una R
Nuhar escribió:Pues una A no es, eso estoy casi seguro al 100%, pero es tan pequeño que si no me lo dices no me paro a distinguirlo. Ahora, la letra que sea no estoy seguro, pero la linea de en medio va en diagonal, al menos con la K si coincide, no se si alguna otra letra será similar.

Se distingue si te pones a comparar los trazos de la letra, uno es mas bajo que el otro, por lo que la linea de en medio es una diagonal. También puedes comparar las alturas con el 1 de la derecha y por las proporciones respecto a la primera capa también se ve que no coincide con la A.

Edito: A mi me parece una R



si te fijas bien hay mas parecido con una K
ya que se ve mas un palo asi / para hacer la K que para una R

Y que conste que ni idea si es mejor una R o una K
Las letras que mas se parecen son estas: A, K, M, N, R

Parece que la M y la N se descartan fácil.

Estoy convencido que el trazo de en medio es diagonal por lo que sería una K o una R.

El tema esta en que el trazo de la izquierda no me parece recto, lo curioso es que no me parece recto ni arriba ni abajo, si solo fuera arriba sería una R pero siendo los dos... igual es un efecto del desenfoque de las capas...

No se, no me convence ninguna letra jajaja.

PD: Tampoco se si es mejor A12, R12 o K12. Es cierto que K12 esta contemplado en wikipedia, pero para el 2016... no creo que se hayan adelantado 3 años de tecnologia... ¿o habran usado el condensador de fluzo? jajaja

EDITO: Fijandome bien, la linea de la izquierda es recta, lo que ocurre es que la linea transversal sobresale un poco por la izquierda y hace ese efecto. Por lo que si que parece una K
Nuhar escribió:Las letras que mas se parecen son estas: A, K, M, N, R

Parece que la M y la N se descartan fácil.

Estoy convencido que el trazo de en medio es diagonal por lo que sería una K o una R.

El tema esta en que el trazo de la izquierda no me parece recto, lo curioso es que no me parece recto ni arriba ni abajo, si solo fuera arriba sería una R pero siendo los dos... igual es un efecto del desenfoque de las capas...

No se, no me convence ninguna letra jajaja.

PD: Tampoco se si es mejor A12, R12 o K12. Es cierto que K12 esta contemplado en wikipedia, pero para el 2016... no creo que se hayan adelantado 3 años de tecnologia... ¿o habran usado el condensador de fluzo? jajaja


Los mismo es magia :P , como la nube
Imagen
3 años y es una APU hibrida con cores x86 y arm, todas a 64 bits. No es suficiente con las customizaciones que tiene el bicho que ahora hay que meterle un octocore arm en una capa añadida? xD
Zokormazo escribió:3 años y es una APU hibrida con cores x86 y arm, todas a 64 bits. No es suficiente con las customizaciones que tiene el bicho que ahora hay que meterle un octocore arm en una capa añadida? xD


Me estas diciendo que no crees que tenga otros 8 cores añadidos en una segunda capa solo porque la tecnologia no exista hasta el 2016? Hombre de poca fe... jajajaja
Zokormazo escribió:3 años y es una APU hibrida con cores x86 y arm, todas a 64 bits. No es suficiente con las customizaciones que tiene el bicho que ahora hay que meterle un octocore arm en una capa añadida? xD


el SoC de XboxOne YA ES una APU hibrida, al igual que el de PS4: usan ComputeCores x86-64 y GCN. lo que sucede, es que ademas, el SoC de XboxONE ES POSIBLE que tenga ComputeCores ARM-64
A12 41 para la primera.
A12 40 para la segunda.
Geim escribió:A12 41 para la primera.
A12 40 para la segunda.

Porque sí verdad? Gracias por el aporte [oki]
La pata izquierda de la letra que no distinguimos menos Geim, parece diferente de la letra A de la capa exterior. Por lo que no estoy seguro de que sea una A. No podria afirmarlo al 100% Que sea una K?, tengo mis dudas.
Geim escribió:A12 41 para la primera.
A12 40 para la segunda.


http://youtu.be/Ifbct571p2g
Ale ya llego el que lo sabe todo y por que si....



Si agrandamos la imagen la letra de debajo no coincide para nada con una A


Estoy con nuhar

R o K
Solo he hecho copypaste de aquí:

hilo_hablemos-del-interior-de-xbox-one_1992540_s2140?hilit=a12#p1735829230

Horizonte de sucesos escribió:A12 41 para la primera
A12 40 para la segunda.


Nadie parecía discutir que fuese una "A".

----

Aquí tampoco parece discutirlo nadie:

hilo_misterxmedia-interesante-informacion_1992558_s90
F5Inet, si, yo estoy a cuadros jajaja

A ver, una A no es, primero por los trazos que son diferentes, pero ademas fijaros en el ancho de la letra con respecto al número 4 de abajo. La A se sale un poquito del 4 pero la supuesta K se sale completamente del 4.

A12
41

K12
41

Con cualquier fuente se ve que la K es una letra mas ancha que la A, ojo, la R también coincide en ser más ancha.
f5inet escribió:
Zokormazo escribió:3 años y es una APU hibrida con cores x86 y arm, todas a 64 bits. No es suficiente con las customizaciones que tiene el bicho que ahora hay que meterle un octocore arm en una capa añadida? xD


el SoC de XboxOne YA ES una APU hibrida, al igual que el de PS4: usan ComputeCores x86-64 y GCN. lo que sucede, es que ademas, el SoC de XboxONE ES POSIBLE que tenga ComputeCores ARM-64


Si nos ponemos asi, todas las APUs son hibridas, porque si no hay computacion adicional (gpu por ejemplo) solo es una cpu y no una apu. Pero ya nos vamos un paso mas alla, cpu x86 + cpu arm + gpu.
Zokormazo escribió:
f5inet escribió:
Zokormazo escribió:3 años y es una APU hibrida con cores x86 y arm, todas a 64 bits. No es suficiente con las customizaciones que tiene el bicho que ahora hay que meterle un octocore arm en una capa añadida? xD


el SoC de XboxOne YA ES una APU hibrida, al igual que el de PS4: usan ComputeCores x86-64 y GCN. lo que sucede, es que ademas, el SoC de XboxONE ES POSIBLE que tenga ComputeCores ARM-64


Si nos ponemos asi, todas las APUs son hibridas, porque si no hay computacion adicional (gpu por ejemplo) solo es una cpu y no una apu. Pero ya nos vamos un paso mas alla, cpu x86 + cpu arm + gpu.


http://youtu.be/VWe01kvfpG0
Para el listoflautas que dice que las dos son A

Imagen

en fin... queda claro que la de abajo no es una A, ¿una K? ¿una R? ni puta idea, pero una A no es
Y BTW, si hubiera un octocore arm incluido en la APU, como cojones consume 65W reproducinedo un video 1080p? Tienes un octocore arm integrado en el SoC y tienes esos consumos en actividades de bajo consumo como el dashboard o la reproduccion de videos?

Eso no cuadra demasiado, el fuerte de ARM es precisamente la relacion consumo/potencia

EDIT: yo no he faltado al respeto a nadie ni mandarle callar, asi que dejadlo de una puta vez, que me estais hartando con esos comportamientos de niño de 2 años.
Zokormazo escribió:
Szasz escribió:Spencer also illustrated how the Xbox One’s increase in performance due to the unlocking of the previously Kinect-only hardware resources actually works:


It has nothing to do with Kinect being hooked up. The game decides, you don’t need to disconnect Kinect.

That’s right. Game decides reserve, when you are back in dash Kinect will work as always, no need to disconnect.

No need to unplug. Game just decides how much of GPU it wants to use."


He finally explained that commands like “Xbox Record That” will still work even if the game makes use o Kinect’s resources for other tasks.

Phil Spencer

http://www.dualshockers.com/2014/06/05/ ... onys-show/


Vamos, ¿parte de las resources siguen reservadas? o ¿funciona peor? En fin, este tipo de aclaraciones no son nada aclaratorias en este aspecto. Cuando estas en el dash kinect funciona como siempre, a la vez que ingame el desarrollador decide si le da recursos o no, pero a la vez aunque no tenga recursos funciona como siempre. Entonces para que la afirmacion de que en el dash funciona como siempre si dentro del juego y sin recursos asignados sus comandos siguen funcionando como siempre? xD

Sera que si el desarrollador no le da recursos a kinect la NSA no puede verte pero en el dash sigue viendote como siempre? xDDD


@KinderRey: Yo no dije que linux fuera conocido en medio mundo en el 1991. El post de linus en el newsgrupo minix lo puse porque habia quien afirmaba que en la franja 89-93 directx unifico el desarrollo de juegos en pc mientras que linux no existia, cuando es alreves: Linux existia y directx no vino hasta el 95.

Mis ganas de corregir ese tipo de afirmaciones basadas en datos incorrectos seran patologicas, tus ganas de leer incorrectamente y tergiversar manipulando posts no se lo que seran...


MS reservó recursos fijos para kinect, con la intención de que los desarrolladores lo usaran sin pereza, ya que su uso les sale gratis por no tener que recortar gráficos del juego para poder usarlo (esto podía tirar para atrás a más de un desarrollador).

Ahora ya no es así, y el juego que quiera usar Kinect tendrá que recortar gráficos.

Cuando estás en la interfaz con un juego "minimizado" este corre a mucha menos resolución, y posiblemente con menos framerate (esto lo intuyo yo, no es oficial) así que hay recursos suficientes para usar kinect en una APP acoplada.

Luego, está SHAPE, que hace que los comandos de voz no chupen recursos ni de CPU ni de GPU ni de GPGPU. y estos funcionan siempre, como seguramente funciones basicas como minimizar y maximizar con kinect. Otra cosa es que quieras usar la potecia de kinect a fondo como para ver tus pulsaciones o seguier el movimiento del cuerpo. esto ya no deja, solo si el desarrollador guarda recursos para usarlo.

Pero si acoplas Skype el juego baja de resolución y deja a Kinect con potencia necesaria para su uso en Skype (recordemos que en videoconferencias te sigue y te hace zoom).

Vamos, no cambia nada de kinect, solo se gana potencia para juegos, era el paso lógico a seguir. Ahora las desarrolladoras han perdido el aliciente de que kinect les sale gratis, pero tampoco es que les haya motivado esto en exceso así que mejor quitarlo.

Quieres motivarles para su uso? Reduce los royatiles a los juegos que incorporen cosas para kinect, ya veras como cuando se habla de dinero, más de uno y de dos te atiende.





PD: Sí que parece una K o R y no una A.

Y respecto a los consumos pues a saber, aunque hayan ARM, si el software no está listo tampoco vas a poder usarlos. Ni para vídeos ni para juegos. Ya veremos como acaba esto de la segunda capa.
punajo escribió:Para el listoflautas que dice que las dos son A

Imagen

en fin... queda claro que la de abajo no es una A, ¿una K? ¿una R? ni puta idea, pero una A no es



ahi se ve claramente que es un G
De Grinch .


Tema cerrado
Vamos a ver, malandrines. El 4 de atrás no es igual que de delante, así que las A tampoco deberían serlo.
Zokormazo escribió:Y BTW, si hubiera un octocore arm incluido en la APU, como cojones consume 65W reproducinedo un video 1080p? Tienes un octocore arm integrado en el SoC y tienes esos consumos en actividades de bajo consumo como el dashboard o la reproduccion de videos?

Eso no cuadra demasiado, el fuerte de ARM es precisamente la relacion consumo/potencia

EDIT: yo no he faltado al respeto a nadie ni mandarle callar, asi que dejadlo de una puta vez, que me estais hartando con esos comportamientos de niño de 2 años.


Primero, dejaros de infantilidades, to-dos. Pasar de los de siempre y dejar a los que son constructivos.

En cuanto al consumo/potencia, creo que se dijo que Xbox One consumia 90w (la nomenclatura de electricidad seguro que esta mal) cuando la fuente era de 120w. ¿Igual estan en deshuso? De todos modos, de tener un k12, que lo dudo, sería algo muy muy capado, no creo que por ser Microsoft hayan desarrollado la tecnologia así por la muy mientras esperan 3 años mas para vendersela a los demás jajaja. Tiene que ser algun tipo de prototipo que va a medio gas.

Stylish escribió:Vamos a ver, malandrines. El 4 de atrás no es igual que de delante, así que las A tampoco deberían serlo.


Si, si que son iguales, fijate que hasta la curva superior izquierda del 4 es la misma, hay demasiadas diferencias entre las A
Zokormazo escribió:Y BTW, si hubiera un octocore arm incluido en la APU, como cojones consume 65W reproducinedo un video 1080p? Tienes un octocore arm integrado en el SoC y tienes esos consumos en actividades de bajo consumo como el dashboard o la reproduccion de videos?

Eso no cuadra demasiado, el fuerte de ARM es precisamente la relacion consumo/potencia

EDIT: yo no he faltado al respeto a nadie ni mandarle callar, asi que dejadlo de una puta vez, que me estais hartando con esos comportamientos de niño de 2 años.


Si le quitas kinect es verdad que baja 20W? 45W consumiendo video y dash. Creo que en ningun analisis quitan kinect :P Yo por comentarlo
POR FAVOR no empecemos otra vez en bucle retroalimentado con lo del consumo. Ya se ha dicho que NO se pueden apagar las partes que te da la gana con esta tecnología. Lo que se consume es la parte implicada + TODO el resto en modo IDLE. Así que no, no podría consumir 10W aunque sólo estuviera funcionando esa parte de forma activa.

Volviendo al tema del multi-SoC, me suena a mí que esa capa inferior, independientemente de su letra, podría tratarse de la parte que integra todos los coprocesadores. Si alguien tiene muestras de su localización y se ven fuera del SoC pues entonces sería otra cosa, pero si no están por ninguna otra parte de la placa, en alguna parte deben estar.
Lo digo además porque es posible que se metiera toda esa funcionalidad de coprocesadores en un integrado AMD Fusion (nombre original de las APU). Ahora ya no pueden verse porque se los han cepillado de la web, pero cuando en su día lo seguía y estaban en la web de AMD, los documentos del Fusion dejaban claro que era un tipo de integrado muy abierto y totalmente personalizable. Como una planta base sobre la que le montas cosas, simplemente que las actuales lo que montan son cores AMD64 y GPU-ATI.
Bajo demanda tú podías, y de hecho es lo que decían los documentos, pedirle a AMD que te montara tu chip como quisieras, y hablaban de mayor eficiencia al poder incorporar partes de procesamiento específico, lo que es un coprocesador.

Y luego simplemente los han montado en pila porque, aparte de que ya se hace desde hace tiempo, será más eficiente para temas de alimentación (usando las mismas líneas), espacio, y buses.

En resumen, yo opto porque uno es la APU x64-GPU y la otra es la que contiene todos los demás componentes (coprocesadores).
El dato de consumo de 65w en reproduccion de 1080p lo dio alguien por este hilo, probado el mismo. Me fio mas de ese dato que de cualquier datasheet, las teorias son muy bonitas pero lo que cuenta es lo que marca la realidad xD

Yo tampoco creo que haya un arm ahi abajo, no tendria sentido. Para que? La logica nos diria que para la ui, apps, cosas de bajo consumo. Pero la realidad es que en el dashboard tenemos un consumo de 60w, uno de 65w en reproduccion de video.

ARM licencia a amd para que un diseño suyo que consume unos pocos Ws en esos aspectos lo usen y zasca, consuma 65W? Un incremento de consumo de 500% como minimo? Por lo tanto no creo que haya ARM en esos campos.

Y si las tareas de baja computacion (y bajo consumo deseado) no se esta usando la supuesta capa ARM, para que se usa? Para seguridad con un cortex-A9 les sobra, no necesitan un arm64 con chorrocientos cores.

Por lo tanto, y visto lo visto, personalmente no creo que haya una capa de arms embebidos que para colmo esta en el roadmap para el 2016. No tiene sentido.

La letra ni idea de que es. Y si es la r inicial de los chips graficos? XDD

@dark: si no se pueden apagar los componentes, para que carajo metes una capa multicore arm? Aun menos sentido tiene tener un procesador de bajo consumo si no puedes apagar los procesadores de alto consumo xD

EDIT: Si, dark cuando amd presento las APU hablaba de coprocesadores adicionales, mentiendo como ejemplo la gpu pero sin cerrarse en banda. Eso ultimo que dices tiene mucho mas sentido que una capa arm xD
Grinch escribió:
punajo escribió:Para el listoflautas que dice que las dos son A

Imagen

en fin... queda claro que la de abajo no es una A, ¿una K? ¿una R? ni puta idea, pero una A no es



ahi se ve claramente que es un G
De Grinch .


Tema cerrado


Imagen

Yo le veo una K de Kit Kat Android xD

Imagen
Puede ser una K o puedes ser cualquier letra menos la A.

Lo que no significa que justamente sean nucleos ARM, o sí, a saber. Puede ser tecnología propia de Microsoft que no sería nada extraño vamos.

¿O solo pueden investigar hardware otras compañías? Hay alguna patente sobre eso? [+risas]
eloskuro escribió:
Grinch escribió:
punajo escribió:Para el listoflautas que dice que las dos son A

Imagen

en fin... queda claro que la de abajo no es una A, ¿una K? ¿una R? ni puta idea, pero una A no es



ahi se ve claramente que es un G
De Grinch .


Tema cerrado


Imagen

Yo le veo una K de Kit Kat Android xD

Imagen


Pues a mi me parece, y no es coña una "a":

a12
A12
ASTROTURFERS INCOMING!!!!
ya se os echaba de menos!!!

De vuelta al hilo:
Imagen
Yo ahi veo 253W, pero podeis seguir creyendo al astroturfer de vuestra eleccion. Las fuentes de alimentacion se diseñan con un margen de rendimiento del 80%, asi que podemos asumir que el TDP para XboxONE es de 253Wx80%=202W

Imagen
cada 'coiltronic' proporciona entre 25W y 35W al SoC. hay 5 de ellos. 5x30W=150W. y eso solo el SoC. El resto hasta 202W se va para el resto de la consola, que alimentar a los USB3.0, el southbridge y los receptores Wifi no sale gratis

De la competencia no hablo, porque me reportan el hilo, pero cualquiera puede consultar los datos y hacer numeros por si mismo.

PD: un Kabini (4 cores Jaguar y 2 CU GCN) consume 25W. por si necesitais hacer mas cuentas... Hay energia DE SOBRA para alimentar unos 16 cores ARM (a 5-7W cada uno, de sobra)
Pero la pregunta es, para que son esos 16 cores arm? Que sentido tiene? Si tienes cores arm para parar un tren, y el fuerte de arm es precisamente la relacion fuerzabruta/consumo, porque no se usan esos cores en los estados de baja carga?

Si tienes un sistema que tiene unos 16 cores de bajo consumo, como es posible que en situaciones de bajo consumo el sistema tenga esos consumos? No seria logico usar esos cores tan eficientes comparando con x86 precisamente para esos estados de baja carga?

O quizas el cloud de microsoft se basa en los 16 ARMs en stealth por cada consola?

El chip gordo de la NSA funciona sobre ARM?

No sabian que meter en el die y dijeron, "vamos a llenar ese hueco con cores ARM"?
Por mucho que tenga alimentación la realidad es que consume 120W, qué han hecho hasta ahora ¿tenerlos apagados?. Sigo pensando que es para cubrirse las espaldas con una consola que aguante 10 años encendida.

A mí por lo menos no me gustaría nada que consumiera 200W. Prefiero mucho más lo actual de la eficiencia energética y silencio a la era oscura anterior de la turbina a reacción y +200W sólo por plantarte mejores gráficos.
Zokormazo escribió:Pero la pregunta es, para que son esos 16 cores arm? Que sentido tiene? Si tienes cores arm para parar un tren, y el fuerte de arm es precisamente la relacion fuerzabruta/consumo, porque no se usan esos cores en los estados de baja carga?

Si tienes un sistema que tiene unos 16 cores de bajo consumo, como es posible que en situaciones de bajo consumo el sistema tenga esos consumos? No seria logico usar esos cores tan eficientes comparando con x86 precisamente para esos estados de baja carga?

O quizas el cloud de microsoft se basa en los 16 ARMs en stealth por cada consola?

El chip gordo de la NSA funciona sobre ARM?

No sabian que meter en el die y dijeron, "vamos a llenar ese hueco con cores ARM"?


Lo hicieron por los loles. siempre por los loles. [ginyo]
Vamos a ver, no tiene nada de sentido tener una tecnlogía 3 años por delante y tenerla en deshuso o practicamente inutilizada.

Encima semejante bicho, que no es un ARM cualquiera... A mi personalmente no me cuadra mucho.

Que no pone una A en el soc esta claro, ahora, que sea un K12 tal cual estamos entendiendo...
Zokormazo escribió:Pero la pregunta es, para que son esos 16 cores arm? Que sentido tiene? Si tienes cores arm para parar un tren, y el fuerte de arm es precisamente la relacion fuerzabruta/consumo, porque no se usan esos cores en los estados de baja carga?

Si tienes un sistema que tiene unos 16 cores de bajo consumo, como es posible que en situaciones de bajo consumo el sistema tenga esos consumos? No seria logico usar esos cores tan eficientes comparando con x86 precisamente para esos estados de baja carga?

O quizas el cloud de microsoft se basa en los 16 ARMs en stealth por cada consola?

El chip gordo de la NSA funciona sobre ARM?

No sabian que meter en el die y dijeron, "vamos a llenar ese hueco con cores ARM"?



Y si tiene 16 cores ARM porqué no los usas para juegos? Si existen van más enfocados a juegos que a reproducción de vídeo, con lo que antes los verías usandose en juegos que en vídeo.

Si aún no se usan es que el software no está listo para ello.
Nuhar escribió:Vamos a ver, no tiene nada de sentido tener una tecnlogía 3 años por delante y tenerla en deshuso o practicamente inutilizada.

Encima semejante bicho, que no es un ARM cualquiera... A mi personalmente no me cuadra mucho.

Que no pone una A en el soc esta claro, ahora, que sea un K12 tal cual estamos entendiendo...


Tambien podria ser una X. viendo la forma tan rara que tiene el 4, una X con las barras verticales mas 'marcadas' tambien cuadraria.
Horizonte de sucesos escribió:
Zokormazo escribió:Pero la pregunta es, para que son esos 16 cores arm? Que sentido tiene? Si tienes cores arm para parar un tren, y el fuerte de arm es precisamente la relacion fuerzabruta/consumo, porque no se usan esos cores en los estados de baja carga?

Si tienes un sistema que tiene unos 16 cores de bajo consumo, como es posible que en situaciones de bajo consumo el sistema tenga esos consumos? No seria logico usar esos cores tan eficientes comparando con x86 precisamente para esos estados de baja carga?

O quizas el cloud de microsoft se basa en los 16 ARMs en stealth por cada consola?

El chip gordo de la NSA funciona sobre ARM?

No sabian que meter en el die y dijeron, "vamos a llenar ese hueco con cores ARM"?



Y si tiene 16 cores ARM porqué no los usas para juegos? Si existen van más enfocados a juegos que a reproducción de vídeo, con lo que antes los verías usandose en juegos que en vídeo.

Si aún no se usan es que el software no está listo para ello.


Porque si el consumo no te importa la combinacion jaguar+gpu cunde mejor que usar arm.

El fuerte de ARM es la eficiencia, no la fuerza bruta. Si dejas a un x86 que consuma supera ampliamente a ARM (por ahora).

Si tienes un TDP maximo de 200W, y nucleos jaguar de por medio, que sentido tiene usar chorrocientos cores ARM para computacion bruta? Es mas complejo y tienes menos fuerza bruta.

Si usas nucleos ARM para los juegos, para que tienes 8 cores jaguar? Para tener una jauria de felinos?

Se estan haciendo pruebas y planteando supercomputadoras con ARM, pero precisamente debido a su bajo coste y bajo consumo, no porque barran a itaniums i7s etc en fuerza bruta.
Zokormazo escribió:El dato de consumo de 65w en reproduccion de 1080p lo dio alguien por este hilo, probado el mismo. Me fio mas de ese dato que de cualquier datasheet, las teorias son muy bonitas pero lo que cuenta es lo que marca la realidad xD

Yo tampoco creo que haya un arm ahi abajo, no tendria sentido. Para que? La logica nos diria que para la ui, apps, cosas de bajo consumo. Pero la realidad es que en el dashboard tenemos un consumo de 60w, uno de 65w en reproduccion de video.

ARM licencia a amd para que un diseño suyo que consume unos pocos Ws en esos aspectos lo usen y zasca, consuma 65W? Un incremento de consumo de 500% como minimo? Por lo tanto no creo que haya ARM en esos campos.

Y si las tareas de baja computacion (y bajo consumo deseado) no se esta usando la supuesta capa ARM, para que se usa? Para seguridad con un cortex-A9 les sobra, no necesitan un arm64 con chorrocientos cores.

Por lo tanto, y visto lo visto, personalmente no creo que haya una capa de arms embebidos que para colmo esta en el roadmap para el 2016. No tiene sentido.

La letra ni idea de que es. Y si es la r inicial de los chips graficos? XDD

@dark: si no se pueden apagar los componentes, para que carajo metes una capa multicore arm? Aun menos sentido tiene tener un procesador de bajo consumo si no puedes apagar los procesadores de alto consumo xD

EDIT: Si, dark cuando amd presento las APU hablaba de coprocesadores adicionales, mentiendo como ejemplo la gpu pero sin cerrarse en banda. Eso ultimo que dices tiene mucho mas sentido que una capa arm xD


1)AMD Seatle
2)Proyecto MontBlanc

Y dime ahora que pa qué va a querer nucleos ARM.

No digo que haya una segunda capa, digo que no es una locura usar una segunda capa con nucleos ARM y menos si tenemos en cuenta el concepto de nucleos de computo de AMD.
@papatuelo:

Yo no digo que sea una locura usar nucleos ARM. Lo que estoy diciendo es que es una locura tener una capa con nucleos arm y que esa capa no se aproveche para el fuerte de ARM: eficiencia y bajo consumo.
17587 respuestas