Hablemos del interior de Xbox One

2013:
"The PS4 and Xbox One will both use an AMD-based video decode engine for offloading this work, but it probably won’t support H.265; the standard is simply too new."

2015:
10-bit HD High Efficiency Video Coding (HEVC) platform support added
Por cierto se ha hablado ya muchas vencedor aquí del dual-GPU, o lo que es lo mismo que se haya dividido una GPU de 12CU en 2 de 6CU, gracias a tener 2 Graphics Command Processors, pero nunca se ha puesto una aplicación practica si no me equivoco.

Bueno pues para eso estoy aquí, no se si habréis probado el test multithreaded del Cinebench, pero la idea viene a ser esta:

https://youtu.be/BqaIfG5kJ8s

La verdad no me parece mala idea, he aquí el uso que hace el Tomorrow Children de PS4 de las unidades (lo pongo de PS4 porque es lo que he encontrado, estas cosas no son fáciles de encontrar):

Imagen

La verdad que si que como se decía se desperdicia bastante y que muchos procesos de render no requieren ni por asomo toda la GPU ni de lejos.

Recordemos como DX12 viene preparado para usar multi-GPU a manubrio. Por lo tanto no veo descabellado que algunos devs decidan usar la GPU de XOne como 2 GPU de 6CU.
KinderRey escribió:2013:
"The PS4 and Xbox One will both use an AMD-based video decode engine for offloading this work, but it probably won’t support H.265; the standard is simply too new."

2015:
10-bit HD High Efficiency Video Coding (HEVC) platform support added


Ojito con esto, la One ya se ha actualizado a este codigo, tiempo atras se decia que ni de coña la One soportaria esto, otro zasca más para los negacionistas y van...
KinderRey escribió:2013:
"The PS4 and Xbox One will both use an AMD-based video decode engine for offloading this work, but it probably won’t support H.265; the standard is simply too new."

2015:
10-bit HD High Efficiency Video Coding (HEVC) platform support added


Oh sí sexy...!

Imagen

darksch escribió:Por cierto se ha hablado ya muchas vencedor aquí del dual-GPU, o lo que es lo mismo que se haya dividido una GPU de 12CU en 2 de 6CU, gracias a tener 2 Graphics Command Processors, pero nunca se ha puesto una aplicación practica si no me equivoco.

Bueno pues para eso estoy aquí, no se si habréis probado el test multithreaded del Cinebench, pero la idea viene a ser esta:

https://youtu.be/BqaIfG5kJ8s

La verdad no me parece mala idea, he aquí el uso que hace el Tomorrow Children de PS4 de las unidades (lo pongo de PS4 porque es lo que he encontrado, estas cosas no son fáciles de encontrar):

Imagen

La verdad que si que como se decía se desperdicia bastante y que muchos procesos de render no requieren ni por asomo toda la GPU ni de lejos.

Recordemos como DX12 viene preparado para usar multi-GPU a manubrio. Por lo tanto no veo descabellado que algunos devs decidan usar la GPU de XOne como 2 GPU de 6CU.


Pues no se puede rascar ahí teniendo una GPU dividida en 2

[+risas] [+risas] [+risas]
Madre mía como está internet con el Forza 6. Como le fastidia a la gente que hayan publicado que sea 1080P y 60 Fps...

Por cierto he leído que Forza y Halo 5 podrían ser los primeros en hacer ya uso de Dx12.
djohny24 escribió:Madre mía como está internet con el Forza 6. Como le fastidia a la gente que hayan publicado que sea 1080P y 60 Fps...

Por cierto he leído que Forza y Halo 5 podrían ser los primeros en hacer ya uso de Dx12.


Bueno esperemos que no hayan recortado nada para llegar a eso. Prefiero 900p y más "llenado" de imagen...
Empiezan a filtrarse los primeros datos concretos de aceleradores en la consola.
En este caso un DPU de Tensilica programable y customizado con IP propietaria de Microsoft.
No es nada nuevo desde luego, pero no es lo único y lo interesante aquí es vislumbrar la capacidad de la One como hardware 100% virtualizado y reconfigurable.
Recordad que HSA = CPU + GPU + Aceleradores.
Pero hay un límite, no puedes virtualizar y desear el hardware que quieras.

Me estoy equivocando de concepto?.
@kinderrey

Podrías poner fuentes y eso?

No porque no te crea, sino xq quiero leerlo.

Recuerdo uno de tu primeros mensajes y decia algo asi como q ONE era totalmente virtualizable tanto q podia añadir cores logicos a los fisicos ya existentes.
Si es como la virtualización de pc, se puede subdividir el hardware a cada "capa" pero no más allá de lo que es. 8 cores son 8 hilos, creo y digo creo ya que no es mi especialidad, no puede añadar multithreading a un core físico.

Me gustaría leer también :)
KinderRey:

su GPU es virtualizable incluso a nivel de cores, es dinámica y escalable, capaz de agregar a partir de cores físicos otros cores lógicos para componer, por ejemplo, un sistema superescalar.
Pero... No lo entiendo. Si tenemos un sistema, por ejemplo que so. 2tflops, puede ser un core que haga 2 tflops o 100.000 que sumen 2tflops, no puedes virtualizando aumentar un rendimiento por encima del límite para el que fue creado.

Se podrán eliminar cuellos de botella y redirigir los datos de forma mas uniforme y adecuada, aunque no es ganar rendimiento sino no perderlo.
Por cierto, ya se que aqui no se debe mencionar a PS4, pero creo que viene a cuento. He estado leyendo entrevistas, informacion etc del hard de esta, y me ha llamado la atencion algo de Mark Cerny, y es que NO menciona nada de un 2º Graphic Command Processor (luego habla de otras modificaciones):

Thirdly, said Cerny, " The original AMD GCN architecture allowed for one source of graphics commands, and two sources of compute commands.


Con esto no es que quiera hablar de PS4, si no precisamente creo que deja claro que One es la unica que tiene un segundo procesador de comandos grafico.


La pregunta es... para que esta ahi? algun tipo de uso GPGPU aparte de pintar, quizas?
El segundo CM está para no causar cuello de botella con la cpu amén de tener más paralelismo. Es ... Una forma distinta a meter Aces a mansalva. Además tiene 2 compute processor independientes también.
Sinceramente no sé hasta que punto, pero creo que PS4 también guarda un par de ases debajo de la manga.

@KinderRey lo de tensilica lo dices por esto:

http://www.cadence.com/cadence/newsroom/press_releases/pages/pr.aspx?xml=021204_tensilica

Porque eso se sabe hace mucho.
Yo creo que al revés, Sony a optado por tener una programación sencilla, fruto de la escarmentación de la Ps3 y lo que le costó arrancar.

Gpu con más shaders, 8 aces, más bus y fiesta.
Hace no mucho salio la noticia no me digais de donde ni de quien, de que dx12 uno de los problemas que daba es que satura el procesador de comandos de las gpu actuales, no me acuerdo donde lo vi, pero hay estaria la respuesta de por que one tiene dos comand processor, es obvio que la creadora de dx12 sabia mejor que nadie que hadware le vendria como anillo al dedo a dicha api
Claro la api colapsará el CP, y meter un segundo es liberar ese lastre o encomendarlo a otras tareas donde el primer CP podría estar saturado.
cch37 escribió:Hace no mucho salio la noticia no me digais de donde ni de quien, de que dx12 uno de los problemas que daba es que satura el procesador de comandos de las gpu actuales, no me acuerdo donde lo vi, pero hay estaria la respuesta de por que one tiene dos comand processor, es obvio que la creadora de dx12 sabia mejor que nadie que hadware le vendria como anillo al dedo a dicha api


Fue en anandtech cuando hicieron los test de DX12, y fue Dan Baker de oxide games el que aviso de eso.

En aquel test se cuidaron de utilizar solo gráficas 12_0 y todas escalaban de puta madre.

Pero luego hicieron otro test y metieron una tahiti y mirad lo que paso:

Imagen

La 285 que en DX11 da peor rendimiento que la HD7970 se comió a esta última en DX12.

Eso no quiere decir que un aumento de calls de X% equivalga al mismo aumento de frames.

Pero las nuevas alquitecturas se han cuidado de que el CP no se sature, y lo habrán hecho por algo.
Pero son drawcalls, no fps por tanto no son mas que llamadas que hace la cpu a la gpu.
djohny24 escribió:Pero son drawcalls, no fps por tanto no son mas que llamadas que hace la cpu a la gpu.


Eso ya lo he dicho yo en mi mensaje.

Pero si se han encargado de mejorar los CP no creo que haya sido por amor al arte, ya veremos que beneficios tiene.
Claro que los va a tener, eliminar saturaciones para comenzar :)
Yo dije una vez q era para el tema de iluminación y particulas, pero me dijeron q era imposible, q no tenia sentido.

Wardell dijo q la iluminacion se iba a calcular en la CPU con casi infinitas fuentes, esto del coman no tendria nada q ver???

Por cierto el segundo cuello de botella q se identifico en DX12 fue el PCI.
Aqui la gran diferencia en el front end, respecto la 285 a 7970, es su composición. Se eliminó el Graphic Command Processor por un Command Processor. Ademas ha pasado de 2 a 8 ACES haciendo un total de 64 queues, asi que va mucho más suelto todo.
No confundais CP con GCP, la G de Graphics, que son los CP para comandos gráficos. Efectivamente de estos la arquitectura GCN solo tiene uno para toda la GPU.

Imagen

La XOne lleva 2, además si miráis la arquitectura se ve que todo va duplicado, unidad de geometría, y etc. Fijaos que todo lo lleva a pares. Con lo cual XOne si que lleva una arquitectura de doble-GPU efectiva, por el método de dividir una en 2 medias pero completas. Así puede usarse como una sola grande o 2 pequeñas.

Imagen
Oh no comparaba con la One, la One lleva GCP pero desde Hawaii y Tonga (en Pc) se denomina de otra manera aunque desconozco los cambios internos.

Claro que lleva 2 unidades fe geometría, por cada array de shaders, 6cu por array.

En Tonga y Hawaii es por cada grupo de esos arrays y lleva en total 4.

Lo no especificado son los Compute Engines aunque serán similares a los GCP pero a lo suyo.

Edito:

He hecho un diagrama sencillo para comprender el "paralelismo". No es que sea una dual gpu integrada pero si es un concepto de individualidad o conjunto.

Imagen
papatuelo escribió:Sinceramente no sé hasta que punto, pero creo que PS4 también guarda un par de ases debajo de la manga.

@KinderRey lo de tensilica lo dices por esto:

http://www.cadence.com/cadence/newsroom/press_releases/pages/pr.aspx?xml=021204_tensilica

Porque eso se sabe hace mucho.

Sí, ya he comentado que no es nada nuevo, pero quería recalcar como en la One poco a poco van cayendo y complementándose piezas, DX12,W10,aceleradores,HSA, AR\VR y cloud mas adelante.

Lo siento no hay fuentes. Pero no es nada que no se haya comentado aquí antes de una forma u otra
KinderRey escribió:
papatuelo escribió:Sinceramente no sé hasta que punto, pero creo que PS4 también guarda un par de ases debajo de la manga.

@KinderRey lo de tensilica lo dices por esto:

http://www.cadence.com/cadence/newsroom/press_releases/pages/pr.aspx?xml=021204_tensilica

Porque eso se sabe hace mucho.

Sí, ya he comentado que no es nada nuevo, pero quería recalcar como en la One poco a poco van cayendo y complementándose piezas, DX12,W10,aceleradores,HSA, AR\VR y cloud mas adelante.

Lo siento no hay fuentes. Pero no es nada que no se haya comentado aquí antes de una forma u otra


Es bastante más interesante lo otro que estabamos comentando lo del HEVC.

Para que comprendáis la importancia:

Encoding with HEVC is, as explained, much more demanding than other video codecs. You’ll likely find that your videos take many times longer than before, and real-time encoding is virtually unheard of with home PCs. With that said, switching from an older standard to H.265/HEVC can substantially reduce the file size of your video library. It can also make streaming between devices easier.


Imagen

Como el streaming sea el streaming de juegos...

Eso sería apoteósico, la consola tendría que estar ejecutando el juego al mismo tiempo que codifica la imagen a HEVC, la potencia necesaria para ello sería brutal. Supongo que se limitará a hacer streaming de contenidos multimedia.

HEVC is not popular yet, and developing a hardware decode means designing new silicon — a lengthy process.

There’s just one exception at this moment, and that’s the GTX 960, which is the first and only video card to have full hardware decode support for H.265. Arguably it’s powerful enough to not need it, but the feature boosts efficiency and may help the GPU decode video without active cooling.


http://www.digitaltrends.com/computing/h-265-hevc-encoding-explained/
Si se hace por hardware no, pero ello implicaría que lo llevara integrado en el hardware, y eso es imposible ¿verdad? ;)
darksch escribió:Si se hace por hardware no, pero ello implicaría que lo llevara integrado en el hardware, y eso es imposible ¿verdad? ;)


Tampoco hace falta un hardware especial de extrema potencia para codificar en h.265 y si realmente la One es capaz de paralelizar el trabajo de forma espectacular es algo que ni siquiera penalizaria el rendimiento general.
Ese slide de AMD tan generalista tiene pinta de un soporte mas global... via GCN quizas?
Si tiene soporte h265 por hardware no es extraño, Kaveri lo iba a llevar aunque lo relegaron a Carrizo... No es imposible, al contrario, ya existía, aunque el encoder de vídeo ... Seguro que es para streaming? No será para reemplazar la actual forma de grabar capturas y hacer vídeo y compartirlos? Creo que irá más por ahí.. no se.
Un engranaje mas de la rueda ^^

Proyecto Outatime(delorean) + H.265 + Wifi Direct + Miracast + SO Virtualizado + GPU Virtualizada + Procesamiento en nube + DX12 + Windows 10 = Futuro brillante

Me dá que en el E3 ya tedremos para empezar, el Streeming de juegos a cualuqier PC con windows 10
eloskuro escribió:Un engranaje mas de la rueda ^^

Proyecto Outatime(delorean) + H.265 + Wifi Direct + Miracast + SO Virtualizado + GPU Virtualizada + Procesamiento en nube + DX12 + Windows 10 = Futuro brillante

Me dá que en el E3 ya tedremos para empezar, el Streeming de juegos a cualuqier PC con windows 10


Para el que tenga pc poco pontente puede ser útil, sino casi sería mejor lo otro, es decir PC to XBONE
naxeras escribió:
eloskuro escribió:Un engranaje mas de la rueda ^^

Proyecto Outatime(delorean) + H.265 + Wifi Direct + Miracast + SO Virtualizado + GPU Virtualizada + Procesamiento en nube + DX12 + Windows 10 = Futuro brillante

Me dá que en el E3 ya tedremos para empezar, el Streeming de juegos a cualuqier PC con windows 10


Para el que tenga pc poco pontente puede ser útil, sino casi sería mejor lo otro, es decir PC to XBONE


Yo lo he dicho muchas veces, si se pudiera hacer streaming en red no local a un ultrabook...

Tendrias portatil gamer en cualquier sitio.

En lugar de bicharracos, te coges tu portatil de 14 pulgadas y un kilo de peso y a gozarlo.

Por ciero el slide generalista es de la presentacion de las caracteristicas de la 6° generacion de apus de AMD
mitardo escribió:
darksch escribió:Si se hace por hardware no, pero ello implicaría que lo llevara integrado en el hardware, y eso es imposible ¿verdad? ;)


Tampoco hace falta un hardware especial de extrema potencia para codificar en h.265 y si realmente la One es capaz de paralelizar el trabajo de forma espectacular es algo que ni siquiera penalizaria el rendimiento general.



http://www.extremetech.com/computing/162027-h-265-benchmarked-does-the-next-generation-video-codec-live-up-to-expectations

Performance & image quality

The next area we wanted to consider was performance. H.265 is known for taking more horsepower to encode and decode than H.264, though the team developing the standard continues to emphasize the role of parallel computing in speeding the encode/decode process. It’s implied that OpenCL support will materialize sooner, rather than later, which means initiatives like AMD’s HSA could get a boost from x265 support early in 2014.

Right now, we’re limited to CPU support, but MultiCoreWare spokesperson Tom Vaughan emphasized that the team has already been working on strong multithreading. We decided to test the alpha decoder using Sandy Bridge-E, Ivy Bridge, and Haswell. We experimented with different levels of parallelization but settled on options that stuck to the number of physical cores in a system (6, 4, and 4). Hyper-Threading was enabled, but setting for 12/8-thread parallelization actually increased encode time slightly.

Imagen

Imagen

Encode/decode support, meanwhile, is already going to be possible on a vast range of products. Modern CPUs are more than capable of decoding H.265 in software, OpenCL support is coming in future iterations, and hardware GPU support, while not formally guaranteed by AMD, Intel, or Nvidia for next-generation products, is a mid-term certainty. All three companies have previously leapt to include advanced video pipelines in their products — as the H.265 presentation notes, video is something that’s become ubiquitous across every type of device.

Long-term, H.265 will likely succeed H.264’s position as the premier solution for advanced video, though that may depend on whether or not battery consumption while decoding can match H.264’s levels in the long term. That’s something we’ll only be able to evaluate once hardware is available, but for now we’re optimistic. H.265’s explicitly parallel model should map well against multi-core devices of the future.
Afortunadamente la One tiene dos procesadores de cómputo dedicados en su front end, casualidad también?.
será posible que con Windows 10 activen el bluetooth y el NFC?
ElOtroDespistao escribió:será posible que con Windows 10 activen el bluetooth y el NFC?

Me uno a tu pregunta.
No han dicho nada al respecto aun, imagino que en julio, en su lanzamiento, soltarán todo lo nuevo.
Lo del NFC lo estuve mirando una temporada (ya hable hace tiempo del chip integrado y sus características) y resulta que sería prácticamente imposible habilitarlo (realmente, seria facilísimo habilitarlo pero imposible utilizarlo)

El NFC esta soportado en el chipset instalado en una placa en el exterior de la "jaula Faraday" que es la One
https://d3nevzfk7ii3be.cloudfront.net/i ... .thumbnail
Esta placa solo tiene un conector dipolar en uso, para la antena Wifi. No tiene ningún otro tipo de antena instalado

El NFC en si mismo no es que use antenas de verdad, opera a 13.57Mhz (alta frecuencia, longitud de onda muy corta) y por ello se usan circuitos inductores (también por tamaño, al tener una eficiencia de radiación cercana a 0, de poner antenas serían demasiado grandes para integrarlas en dispositivos móviles)

La One no tiene nada de eso. Así que el NFC, si no es en un rediseño o con un accesorio extra, no tiene posibilidades de operar con NFC.


Extra: el bluetooth es otra cosa. Su naturaleza si permite tener la antena integrada en el propio PCB, así que el BT si que podrían habilitarlo si esta en los planes de MS
Imagen
De hecho, en la foto del PCB de la One se ven las posibles antenas BT en los bordes inferior e izquierdo (no se ven muy bien, pero ahi ya "caben" perfectamente
https://d3nevzfk7ii3be.cloudfront.net/i ... .thumbnail

Edit: lo he intentado, pero lo de postear fotos en foros no es lo mío. Lo mirais en https://www.ifixit.com/Teardown/Xbox+One+Teardown/19718 [fumando]
El NFC le veo 3 posibilidades:

- Qué vaya incluido porque venga junto a otra cosa. Como las wifi con bluetooth integrado. Y solo por coste convenía usar ese integrado que buscarse uno solo.
- Qué se use a través del Kinect, conectados de alguna forma por sus buses.
- Que tenga un algo especial para sacar la señal aunque en principio no pareciera posible.
papatuelo escribió:Yo lo he dicho muchas veces, si se pudiera hacer streaming en red no local a un ultrabook...

Tendrias portatil gamer en cualquier sitio.

En lugar de bicharracos, te coges tu portatil de 14 pulgadas y un kilo de peso y a gozarlo.



No te olvides de una buena conexión...
Mamaun escribió:
papatuelo escribió:Yo lo he dicho muchas veces, si se pudiera hacer streaming en red no local a un ultrabook...

Tendrias portatil gamer en cualquier sitio.

En lugar de bicharracos, te coges tu portatil de 14 pulgadas y un kilo de peso y a gozarlo.



No te olvides de una buena conexión...


Por supuesto, pero por ejemplo ahora mismo estoy en londres con 200 megas de fibra y en españa tengo la consola con 100 megas de fibra. Me vendria de lujo!!!
Esto de los terminales tontos me encanta. :D
papatuelo escribió:
Mamaun escribió:
papatuelo escribió:Yo lo he dicho muchas veces, si se pudiera hacer streaming en red no local a un ultrabook...

Tendrias portatil gamer en cualquier sitio.

En lugar de bicharracos, te coges tu portatil de 14 pulgadas y un kilo de peso y a gozarlo.



No te olvides de una buena conexión...


Por supuesto, pero por ejemplo ahora mismo estoy en londres con 200 megas de fibra y en españa tengo la consola con 100 megas de fibra. Me vendria de lujo!!!


solución = VPN
La parienta viendo la tele en el salon con el tdt de xbo y yo jugando en ni portatil al juego de xbo.
darksch escribió:El NFC le veo 3 posibilidades:

- Qué vaya incluido porque venga junto a otra cosa. Como las wifi con bluetooth integrado. Y solo por coste convenía usar ese integrado que buscarse uno solo.
- Qué se use a través del Kinect, conectados de alguna forma por sus buses.
- Que tenga un algo especial para sacar la señal aunque en principio no pareciera posible.


Para montar semejante espectaculo casi te sale mejor enchufarlo por usb con un chip externo y sin necesidad de hard en el interior

NFC no es una tecnologia cara, no merece la pena tanta ingenieria

Digo por lo de kinect, que estoy al movil xD
sería chulo tener el nfc pero tampoco es tan importante, veo mas importante o mas interesante el bluetooth
Siempre he leido que la gpu de one deriva de la 7790 parece ser que efectivamente esta es la unica de la serie 7000 que es compatible con dx12.0

http://www.computerbase.de/2015-06/dire ... -12-0-gcn/

Se sabe algo de si por la parte custom tiene soporte para las tres caracteristicas adicionales del dx12.1?
17587 respuestas