Hablemos del interior de Xbox One

Hola gente acabo de llegar, da gusto leer los post son muy interesantes, para todos los gustos ;)

Saludos!
.
Editado por ahona. Razón: Faltas de respeto
f5inet que bueno que te tomas las molestias para traer cosas nuevas!! creo que la mayoria estamos mas que satisfechos por tus comentarios, asi como los de muchos otros tambien (eloskuro por ejemplo)

apropocito, no se porque siempre di por sentado que el ARM estaba en el SOC principal :P
3 apuntes:

1) ahora podeis intuir porque en la GPU de PS4 dicen que esta balanceada para 14CUs de GFX + 4CUs de GPGPU. el presupuesto energetico de la APU no da para usar los 18CUs como GFX SIMULTANEAMENTE a los 8 cores jaguar. O usas los 8 Jaguar o usas los 4CUs adicionales o sufres de Power Throttling a mansalva por no gestionar adecuadamente la DarkSilicon (https://www.comp.nus.edu.sg/~tulika/DAC13-HPM.pdf)

2) la darksilicon mejor empleada es la eSRAM. puedes apagar casi toda la eSRAM por completo excepto la celda que este siendo accedida. como es estatica, no necesita ser refrescada para mantener sus valores.

3) si lo que sobran son transistores, y es beneficioso que los cores sean lo mas similares posibles para aumentar el ratio de chips funcionales (a costa de desactivar partes del chip defectuosas). ¿porque no metemos puertas FPGA, que el silicio es barato (o gratis, por reducciones de litografia), y programamos los cores al vuelo segun los vayamos necesitando?

Imagen
"But actually, now that I'm past it and I can look back - I think that it actually vindicates one of the strategies that we had. One of the goals was to create an architecture that can change over time, so as those changes were happening, we could roll with it without it dramatically effecting the kits we were giving to game developers.


"This is a effectively a super-computer design," he says. "This is a design out of the super-computer realm. So I expect that we're going to continue to see fairly large improvements in GPU output as people really tune these data sets."

Boyd Multerer
eloskuro escribió:
"But actually, now that I'm past it and I can look back - I think that it actually vindicates one of the strategies that we had. One of the goals was to create an architecture that can change over time, so as those changes were happening, we could roll with it without it dramatically effecting the kits we were giving to game developers.


"This is a effectively a super-computer design," he says. "This is a design out of the super-computer realm. So I expect that we're going to continue to see fairly large improvements in GPU output as people really tune these data sets."

Boyd Multerer


Buen aporte compañero.

Esa es la entrevista a la q m refería ayer, donde dice claramente q buscaban crear una arquitectura q pudiera cambiar con el tiempo. Esto encaja con la aportación de f5inet.

Interesante también lo de mejoras en la GPU con el paso del tiempo. Algo q ya hemos empezado a ver.
En la patente tambien lo pone.

Ademas q lo del Darksilicon cuadra 100% con la filosofia de la xbox una. Tenemos una arquitectura normal, moderna con cosas q ya se ven en los kaveri de AMD y otras cosas como partes duplicadas, pero es q ademas tenemos esos coprocesadores especializados de los q habla esta teoria. Se acabo aumentar la potencia aumentando la velocidad de reloj y ahora se va a tefminar el añadir mas y mas nucleos a la cpu y gpu.
Una vez leído el gran párrafo anterior, los 3000 millones de $ que se gastó M$ ha sido para tener ya su arquitectura Dark Silicon. Recordemos que M$ quiere dedicarse al hardware y no sólo pensando en consolas, por lo que para ellos es una inversión de futuro. Es decir, han cogido el presupuesto de I+D de un cierto periodo y lo han usado para eso, y de ahí ha surgido XO como 1er resultado.

Estando en el ámbito de tablets, smartphones, y previsiblemente éste aumente, lo que les interesa son inversiones con visión más global que les permita sacar provecho a nivel general como empresa. Ya tienen la base para quizás ir portando esto a sus dispositivos y destacar. Incluso, no se descarte, dar el salto y empezar a ofrecer su propio hardware de PC, por ejemplo con placas especiales que integren su hardware (coprocesadores y buffers tipo XO) donde Windows y DX funcionen mejor que en los genéricos. Tampoco se le podría achacar mucho ya que se le podría decir a los demás "pues investigad un poco en lugar de sacar todos el mismo hardware cambiando la etiqueta".
(mensaje borrado)
parece que lo hablado ayer será la tonica habitual en la industria.

NVIDIA GeForce GTX 800 series coming this fall + New Radeon GPU pending launch soon? #1

According to SweClockers, NVIDIA is planning to launch its new desktop GeForce GTX 800 series no sooner than fourth quarter this year.

SweClockers are among the most accurate sources of NVIDIA leaks you can find. Today they report that second generation Maxwell will be released in fourth quarter. It is believed that the launch of GeForce GTX 880 and GeForce GTX 870 is set somewhere between October and November.

First GeForce GTX 800 graphics cards are expected to launch on second generation Maxwell architecture, which is supposedly updated with ARM cores.

-----




8 Pack, a well known graphics cards overclocker, has made some very intriguing comments at OCUK forums.
He basically said that AMD has its new flagship ready (I assume that’s the R9 390X), and that 290X might not have the full Hawaii core as we used to believe. It could either mean that Hawaii core has more than 44 Compute Units, or something hidden inside we didn’t know about yet.

This is very surprising information, because we already saw the message from Dave Baumann (AMD)

Originally Posted by Dave Baumann

R9 290X is a full chip
Buenas
Aunque creo que los últimos temas tratados tienen poco o nada que ver con videoconsolas, hay temas muy interesantes. He curioseado algo, pero me siguen quedando algunas dudas.

1-Tocho de Dark Silicon: muy interesante, gracias por traerlo, pero por lo que veo es el mismo texto de este blog:
http://www.yosefk.com/blog/the-bright-s ... licon.html
Si lo que se ha hecho es una traducción, gracias por la traducción y ponerla por aquí, pero en mi opinión se debería haber especificado y mencionado al autor del texto original.
Si te han fusilado el texto, deberías comentárselo al autor del blog.
Si eres el autor de ese texto y también de ese blog, nada que decir.

2-El aporte energético de la PS4 no da para usar los 18 CUs como GFX simultáneamente a los 8 cores Jaguar: ¿Cómo se ha llegado a esta conclusión? ¿hay algún cálculo, alguna fuente o enlace para leer más? ¿Qué relación tiene con el paper que se ha puesto en el enlace?

3-Puertas FPGA: ¿Existe la posibilidad de que estén presentes en la One? ¿No tendría más sentido pensar que los procesadores presentes en una videoconsola son, por decirlo de alguna manera, especializados?

4-El chip ARM que se ve en el destripe de Ben Heck: No está en la placa madre, si no en el módulo RF. En el destripe de iFixit (paso 16), se especula con que sea un chip de audio ¿No tendría más sentido pensar que es para tratar el audio del headset o kinect (como indican en el enlace de chipworks)?
En ese tear-down aparecen identificados unos 10 microcontroladores, pero no sé cuántos de ellos tendrán arquitectura ARM.
https://www.ifixit.com/Teardown/Xbox+One+Teardown/19718
Por cierto, en el mando también hay procesadores ARM (al menos uno):
http://www.chipworks.com/en/technical-c ... -xbox-one/
Pues viendo el post de @eloskuro me parece estupendo que M$ haya dado el pistoletazo de salida en este aspecto. Porque parece mentira, y sería para darles de hostias, que haya tenido que ser una empresa más dedicada al software y no dedicadas al hardware como Intel, AMD, Nvidia la que haya tenido que investigar y sacar al mercado global la tecnología Dark Silicon.

Pero ya sabemos lo mala que es M$ siempre en todo lo que hace, mala mala... [facepalm]
Mirad esta página, tiene articulos bastante interesantes.

Esta en italiano asi que hay que tirar de translate.

http://www.tmag.it/2014/06/21/inside-xbox-one-data-move-engine-cloud-computing/
darksch escribió:Pues viendo el post de @eloskuro me parece estupendo que M$ haya dado el pistoletazo de salida en este aspecto. Porque parece mentira, y sería para darles de hostias, que haya tenido que ser una empresa más dedicada al software y no dedicadas al hardware como Intel, AMD, Nvidia la que haya tenido que investigar y sacar al mercado global la tecnología Dark Silicon.

Pero ya sabemos lo mala que es M$ siempre en todo lo que hace, mala mala... [facepalm]


La mala mala es google que al ritmo que van cuando queramos darnos cuenta seremos sus exclavos que en cierta medida ya lo somos.
Una cosa me queda claro sobre One y es que es una consola basada en eficiencia y no en potencia bruta pero para ello hace falta el software.
De momento los juegos exclusivos mostrados estan dando muestras de por donde van a ir los tiros y mas de uno se cagara en la perra cuando se vean los juegos que saldran para 2016 durante el e3 del año que viene
Szasz escribió:
eloskuro escribió:
"But actually, now that I'm past it and I can look back - I think that it actually vindicates one of the strategies that we had. One of the goals was to create an architecture that can change over time, so as those changes were happening, we could roll with it without it dramatically effecting the kits we were giving to game developers.


"This is a effectively a super-computer design," he says. "This is a design out of the super-computer realm. So I expect that we're going to continue to see fairly large improvements in GPU output as people really tune these data sets."

Boyd Multerer


Buen aporte compañero.

Esa es la entrevista a la q m refería ayer, donde dice claramente q buscaban crear una arquitectura q pudiera cambiar con el tiempo. Esto encaja con la aportación de f5inet.

Interesante también lo de mejoras en la GPU con el paso del tiempo. Algo q ya hemos empezado a ver.


Oh yeah...
viewtopic.php?p=1735544417
KinderRey, veo que lo tenias claro hace tiempo.
Es normal que dos gráficas diferentes tengan valores tan proporcionales, lo siento si es una tontería pero yo a eso no llego:

Imagen
papatuelo escribió:Una es la de la ONE.

Y la otra
antonio613 escribió:
papatuelo escribió:Una es la de la ONE.

Y la otra


La otra no.
Efectivamente, jajajaja.

En serio, ¿es normal? Xq la una es doble que la otra en todo. Con memorias DDR3 y full compatible Directx 12.

Le estoy dando intriga por si es o no es. [hallow]
Sigo sin entenderlo, una duplica a la otra y???
En teoría la de One es la full compatible con DirectX12
Pues que si eso solo es posible teniendo la misma arquitectura ya tenemos candidata a GPU de XBOX ONE, las futuras Topaz XT de AMD.

Ni bonaire ni pitcarian.
Ok. Ya lo he visto, jodio da la información clara, que me vuelvo loco. [beer]
Le estaba dando intriga, jajajaja.
¿De donde proviene esa info?
Mmmmm pero esa Topaz no seria una tarjeta de gama baja???
Ademas ahi no se menciona en absoluto la esram con lo que Topaz no tendria no??
No se, es mas al ser una grafica de pc veria mas logico que usara la siguiente generacion de menoria ddr porque visto asi parece una grfica de menos de 100€
papatuelo escribió:Pues que si eso solo es posible teniendo la misma arquitectura ya tenemos candidata a GPU de XBOX ONE, las futuras Topaz XT de AMD.

Ni bonaire ni pitcarian.


Pero esas son para móviles, no? [boma]

@KinderRey sabe más de lo que cuenta. [beer]
Hombre, sera poco potente. Pero es que para ser exacto con la mitad de todo es exactamente la mitad de potente.
Asi que...

A ver si la ONE va a llevar dos de esas y por eso los devkit llevaban configuración dual GPU, jajajaja.
MSI tiene preparado el anuncio de una gran cantidad de productos bajo el brazo de su nueva línea Gaming que anunciará la próxima semana durante el CES 2014, conociendo que uno de estos nuevos productos se trata del All in One MSI AG2712A, el cual llama la atención por hacer uso de los gráficos móviles AMD Radeon R9 M290X que, por desgracia y salvo noticia de última hora, sólo se tratan de un refrito de los gráficos AMD Radeon HD 8970M, que a su vez son un refrito de los AMD Radeon HD 7970M, casi nada.

Bajo el nombre de la serie Topaz/Amethyst (Topacio/Amatista), los gráficos AMD Radeon R9 M290X arrojarían 1280 Shaders Processors a una frecuencia de 950 MHz acompañado de 4 GB de memoria VRAM GDDR5 @ 5.00 GHz unido a un bus de 256 bits (vs 900/4800 MHz de la HD 8970M). Sólo queda esperar un par de días para confirmar si estamos delante de otro refrito.

Imagen


http://www.3djuegos.com/comunidad-foros ... ecnologia/
Horizonte de sucesos escribió:
MSI tiene preparado el anuncio de una gran cantidad de productos bajo el brazo de su nueva línea Gaming que anunciará la próxima semana durante el CES 2014, conociendo que uno de estos nuevos productos se trata del All in One MSI AG2712A, el cual llama la atención por hacer uso de los gráficos móviles AMD Radeon R9 M290X que, por desgracia y salvo noticia de última hora, sólo se tratan de un refrito de los gráficos AMD Radeon HD 8970M, que a su vez son un refrito de los AMD Radeon HD 7970M, casi nada.

Bajo el nombre de la serie Topaz/Amethyst (Topacio/Amatista), los gráficos AMD Radeon R9 M290X arrojarían 1280 Shaders Processors a una frecuencia de 950 MHz acompañado de 4 GB de memoria VRAM GDDR5 @ 5.00 GHz unido a un bus de 256 bits (vs 900/4800 MHz de la HD 8970M). Sólo queda esperar un par de días para confirmar si estamos delante de otro refrito.

Imagen


http://www.3djuegos.com/comunidad-foros ... ecnologia/


Seguro que Nvidia no hace refritos.... En fin lo que hay que leer muchas veces para cuando algo que sea objetivo.
Creo que se esta desvirtuando mucho este hilo es interesante pero esta tirando mas a tecnologia que al interior de la ONE.

Por el camino si me ha interesado, pero muchas cosas les leo fuera de contexto y que crean bastante ilusion. a veces leo el post como la busqueda del santo grial, pero hay que esperar a ver como se desenvuelven las cosas, como lo del darksilicon, y las supuestas previsiones de Microsoft, la verdad no se tiene manera de ver que desenpeño real y que significado tengan, me alegra sin embargo que la posibilidad de bestia parda este ahi. pero tengan en cuenta que se puede dar o no. lo siento pero en ocasiones soy muy practica.

Pero ya poner lo de los DDR4 puede crear una falsa expectativa en el hilo de la ONE.

Besos
Nosomi escribió:Creo que se esta desvirtuando mucho este hilo es interesante pero esta tirando mas a tecnologia que al interior de la ONE.

Por el camino si me ha interesado, pero muchas cosas les leo fuera de contexto y que crean bastante ilusion. a veces leo el post como la busqueda del santo grial, pero hay que esperar a ver como se desenvuelven las cosas, como lo del darksilicon, y las supuestas previsiones de Microsoft, la verdad no se tiene manera de ver que desenpeño real y que significado tengan, me alegra sin embargo que la posibilidad de bestia parda este ahi. pero tengan en cuenta que se puede dar o no. lo siento pero en ocasiones soy muy practica.

Pero ya poner lo de los DDR4 puede crear una falsa expectativa en el hilo de la ONE.

Besos

¿Alguien ha dicho que lo lleve la One?
Alguien ha dicho que one vaya a ser una bestia parda? Lo de la ddr4 lo he puesto por curiosidad. Se sabe que one lleva ddr3 + esram(on chip)
eloskuro escribió:Alguien ha dicho que one vaya a ser una bestia parda? Lo de la ddr4 lo he puesto por curiosidad. Se sabe que one lleva ddr3 + esram(on chip)


Si Misterxmedia :O
Todavia quedan un par de añitos hasta que se instaure la DDR4 mas que nada por precios.
No me acuerdo muy bien pero HANNA 2 se encargaba tambien de la descompresion de video o hay por ahi otro chip que lo haga???
Todo lo q se habla aquí de tecnología y tal está muy bien pero lo q de verdad importa es la realidad de los juegos q vamos a tener. Por eso lanzo una pregunta al aire, a ver si gente q está puesta como Kinder Rey u otros son "capaces" de contestarla:

¿Vamos a tener juegos en One de la calidad gráfica de tech demos mostradas en el pasado como Samaritan, Agni´s Philosophy, o Infiltrator?

Es lo q esperaba de la next gen, espero y sigo esperando. ¿Espero sentado?
En juegos, no. Muy diferente es una demo de un gameplay, donde ya no hay nada prefijado (como movimiento de cámara con lo cual puedes precalcular visibilidad de objetos y demás cosas), hay que computar IAs, responder a un control completo que de antemano no sabes que va a ser y que puede influir en lo próximo a computar (por ejemplo una magia de explosión que conlleva a mucha transparencia "no previsible", por lo que el detalle en pantalla debe ajustarse a no sufrir un bajón de framerate importante), etc.etc.

Basta ver que en los propios juegos las cinemáticas no pregrabadas (las renderizadas) tienen más calidad que el gameplay.
El corte para juegos con ese acabado visual global debe estar mas por presupuestos/personal/tiempo a rentabilizar que otra cosa. Avanzada esta generacion deberian ser posibles cosas parecidas, sub1080/30 por supuesto, pero nadie los va a hacer porque no saldra rentable.
KinderRey escribió:Os vais acercando.

Imagen


¿Por la montaña? ¿por el rio?

¿por donde seguimos rascando?
Creo q kinderRey se refiere al tema de la escalabilidad, entorno virtualizado....etc.

No al de la GPU(topaz). No estaría de más q se explicara....
Ya se que no se por la topaz, ya me han dicho por otro lado que es un refrito [+risas]
Ellos mismos ya dijeron en la entrevista a DF que los cores están basados en Sea Island, luego el rendimiento que se les saque por su peculiar arquitectura ya es otra cosa.
17587 respuestas