Hablemos del interior de Xbox One

indigo_rs está baneado por "saltarse el ban con un clon"
Imagen
creo que a las 15:00 era la confe de amd,haber si dicen algo de la one :) ,ingenieros informarnos a los mortales de alguna novedad [360º]
marjalone está baneado por "Saltarse el ban con un clon"
Nada de las R300.

Son 2 "refritos" con mejores consumos.
http://www.xataka.com/consolas-y-videojuegos/delorean-el-proyecto-de-microsoft-para-reducir-el-lag-en-el-cloud-gaming

Delorean nombre futurista, a ver cuándo podemos ver algo de verdad de esta tecnología no solo demos.

En el artículo no pone nada del otro mundo, lo que esta claro es que Micro siempre va un pasito por delante y que Xbox One va a estar preparada para lo que viene.
Ese paper de delorean esta mas orientado al streaming en thin clients que a consolas.
¿La proxima arquitectura de gráfica va a usar DDR3?

¿Hay alguna fuente?

Yo no entiendo mucho pero no veo la ventaja aparte de que es mas barata de fabricar.
Nadie va a usar ddr3 en graficas dedicadas, bueno mi 6450 la tiene pero vale para lo que vale, el problema se esta dando con las Apus e integradas de Intel que estan precisando mas ancho de banda del que estan dando las memorias ddr3 y estan salvando el problema integrando una memoria intermedia en el propio encapsulado, tal cual lo hace Xbox one y tal cual lo hace 360, Iris pro 5200 es un ejemplo de ello con sus 128MB de eDRAM.

Que el parche se ponga de moda, que sea la mejor solucion en algunos casos como el de graficas integradas a las que no se les puede poner una memoria grafica especifica, no significa que el parche sea la solucion.
jose1024 escribió:Nadie va a usar ddr3 en graficas dedicadas, bueno mi 6450 la tiene pero vale para lo que vale, el problema se esta dando con las Apus e integradas de Intel que estan precisando mas ancho de banda del que estan dando las memorias ddr3 y estan salvando el problema integrando una memoria intermedia en el propio encapsulado, tal cual lo hace Xbox one y tal cual lo hace 360, Iris pro 5200 es un ejemplo de ello con sus 128MB de eDRAM.

Que el parche se ponga de moda, que sea la mejor solucion en algunos casos como el de graficas integradas a las que no se les puede poner una memoria grafica especifica, no significa que el parche sea la solucion.


Las gráficas dedicadas van a usar DDR3 Stacked y más adelante supongo q DDR4.
La GDDR5 se dejara de utilizar en las próximos años, cuando terminen de pulir el proceso de fabricación de la Stacked memory. Ya que cada vez es más importante el tema del consumo eléctrico y la latencia para el tema de la computación, donde su uso va a más.

Las APUs utilizaran DDR3/DDR4 y memorias embebidas (seguramente EDRAM). Los últimos rumores apuntan a stacked DRAM también.

http://www.chw.net/2014/07/todo-lo-que- ... s-carrizo/

Por ultimo decir que hay unas diferencias importantes entre la EDRAM de intel iris pro y la ESRAM de Xbox One.
La EDRAM del intel funciona como una L3 que tiene acceso tanto a la CPU como a la GPU, esta tiene mayores latencias que la ESRAM de Xbox One, la cual es únicamente accesible por la GPU(podría acceder también la CPU, pero con un rendimiento muy lento, que ya ha dicho Microsoft que no se va a usar para eso).
También el ancho de banda es diferente, la de intel llega a unos 100gb/s mientras que la de Xbox llega teóricamente a picos de más de 200gb/s, de forma práctica y comprobada a unos 150gb/s.

La ESRAM simula una stacked DRAM en el caso de Xbox, lo que vamos a ver posiblemente en las próximas APUs 100% Dx12.
Buenas gente. Por qué hablais de stacked RAM como si XboxOne la tuviera?.

Por otro lado, la memoria EDRAM que monta Intel en sus integradas se parece a la eSRAM de XboxOne como un huevo a una castaña, son conceptos diferentes, aunq no lo parezca XD .

La ESRAM simula una stacked DRAM en el caso de Xbox, lo que vamos a ver posiblemente en las próximas APUs 100% Dx12.


Lo siento pero eso no tiene mucho sentido.

Para terminar con respecto a las latencias, las GPUs debido a su arquitectura, se las traen al pairo las latencias de la memoria.

Un saludo.
Vale, las memorias apiladas seran el futuro y sustituiran a la gddr5 y venideras, puedo estar de acuerdo, pero la memoria de Xbox One no es Staked ya lo dijeron en Microsoft al tiempo que dijeron que no habia una segunda Gpu, lo que se ha visto de Amd son memorias embebidas del tipo de Iris Pro, algo normal, teniendo en cuenta que la mayoria de las gpus de las Apus tienen un considerable aumento de rendimiento cuando funcionan con memorias ddr3 rapidas, si la idea de las Apus es cada vez tener mas prestaciones graficas no te queda otra que reducir el obstaculo del lento ancho de banda de las memorias ddr3.

Que aqui parece que se quiere vender que el modelo de ddr3+eDRAM (futuras Apus y Iris Pro) o ddr3+eSRAM (Xbox One) es la panacea, el futuro de las memorias graficas, cuando la realidad es que es solo una solucion mas para salvar el escaso ancho de banda proporcionado por la memoria ddr3.

Las Staked no estan en el mercado y al estar embebidas y apiladas dispondran de un ancho de banda y latencia muy buenos, al menos eso se espera, pero eso es algo que esta en modelos teoricos y en prototipos por que al mercado de consumo aun no a llegado.
jose1024 escribió:...


Buenas gente. Es más...si tienes stacked RAM para que quieres eSRAM?. Lo único que tendría sentido es una memoria caché de tipo L3 o L4 compartida y coherente entre CPU y GPU para evitar ciertas copias, siempre y cuando la GPU tuviera un bus propio y privado que pudiera saturar la memoria.

EDITO: por cierto muy bonito el dibujito de la página anterior... [sonrisa] .

Un saludo.
Como os gusta malinterpretar la información.....

Xbox One no monta stacked DRAM, monta ESRAM, la cual simula una memoria stacked dentro del chip de baja capacidad. Lo q es probable q lleven las proximas APUs.

¿Cuales son las características de la stacked DRAM?

Baja latencia
"Bajas" frecuencias de funcionamiento
Bajo consumo
Alto ancho de banda

HBM de sk hynix. Buscar información sobre el siguiente encapsulado. H5VR8GESM4R-25C

Es stacked, funciona a 800mhz y tiene 102gb/s de ancho de banda. Exactamente igual q Xbox One antes de aumentar las frecuencias de la GPU y por lo tanto de la memoria. Solo cambia una cosa, la densidad, q es menor en Xbox One.

"Simula"

Edito: La latencia no era importante. Si lo sera cada vez más, no para gráficos sino para computación.
@Polyteres els SOC de ONE si que tiene stacked


Imagen


Imagen
Buenas, yo tengo una curiosidad: teniendo en cuenta la arquitectura y potencia de la consola de MS. ¿Es posible que veamos en One las gafas de realidad virtual Oculus Rift?

Yo soy de las personas que no necesita que un juego vaya a 1080p y 60fps estables para diafrutar jugando y me gustaría que las gafas de realidad virtual llegaran a XboxOne para utilizarlas junto con Kinect.

No se si las características internas de la consola permitirían la utilización de este tipo de hardware.

Un saludo.
Venga, vale, tiene memoria apilada, Microsoft dice que no ¿para?

A- Que no se le adelante la competencia en el diseño de sus nuevos chips.
B- Dejar que la competencia venda mas, como esta pasando.
C- Darnos un Owned del copon cuando su consola muestre unos graficos ultrarealistas.

Nadie mal interpreta nada, la cosa es que la consola de Microsoft y que ademas tengo y a la que no deseo ningun mal tiene una memoria intermedia, ultrarapida y muy pequeña que se podra usar de mil formas pero que no es staked ni sustituto de esta, ni es por lo que se puede ver el fururo de la memorias graficas.

Tampoco es tan dificil, lo del el forward + de dias anteriores tiene mas sentido, aprovechar lo que hay via software.
Szasz escribió:Como os gusta malinterpretar la información.....

Xbox One no monta stacked DRAM, monta ESRAM, la cual simula una memoria stacked dentro del chip de baja capacidad. Lo q es probable q lleven las proximas APUs.

¿Cuales son las características de la stacked DRAM?

Baja latencia
"Bajas" frecuencias de funcionamiento
Bajo consumo
Alto ancho de banda

HBM de sk hynix. Buscar información sobre el siguiente encapsulado. H5VR8GESM4R-25C

Es stacked, funciona a 800mhz y tiene 102gb/s de ancho de banda. Exactamente igual q Xbox One antes de aumentar las frecuencias de la GPU y por lo tanto de la memoria. Solo cambia una cosa, la densidad, q es menor en Xbox One.

"Simula"

Edito: La latencia no era importante. Si lo sera cada vez más, no para gráficos sino para computación.


Buenas gente. Yo no estoy malinterpretando información. La información que se está poniendo aquí no tiene mucho que ver con lo q monta XboxOne como sistema de memoria y se está dando a entender que XboxOne monta una solución similar o lo q es aún mas descabellado que la eSRAM se usa para simularla. Es por eso por lo que me sigo preguntando pq se está hablando de una configuración de memoria que XboxOne no monta. Lo de simular con una eSRAM una memoria apilada no tiene ni sentido ni es lógico, ni es posible.

La memoria apilada y en este caso concreto HBM, tiene una estructura muy bien definida (el estándar es público), puedes leerla en este paper de forma muy sencilla:

http://www.cs.utah.edu/events/thememoryforum/mike.pdf

Este tipo de memorias se verán en futuras GPUs pero para eso aún faltan un tiempo...un par de años, y ojo que no me lo saco de la manga:

http://www.anandtech.com/show/7900/nvid ... e-for-2016


Por último con respecto a lo que dices de la latencia, digo lo mismo, la arquitectura de una GPU, sobre todo las modernas (GCN por ejemplo), está pensada para lidiar con este tipo de problemas (solapamiento de tareas) son arquitecturas diseñadas para maximizar el throughout. Las GPUs alcanzan su mayor productividad cuando trabajan con grandes cantidades de datos. Ya lo expliqué en su día en este mismo hilo.

@Horizonte de sucesos y q me quieres decir o mostrar con esas imágenes de los layout?. Otra cosa curiosa que me llama bastante la atención es la obsesión que tienen ciertas personas con la doble precisión en las GPUs... cuando no es algo práctico, es muy lento, se evita, y no se usa pq no aporta beneficios.

Un saludo.
No estoy diciendo q sean la misma tecnología, porq no lo son. Pero sí es una aproximación, vayamos al paper q muestras:

- 8 channels per stack: 128\256Gb\s
- each channel 128bits.

Cada capa esta formada por 8 canales y proporciona los anchos de banda indicados.
Cada canal es de 128bits, formando 1024bits por capa.
Una memoria HBM puede constar de hasta 4 capas.

Vayamos a Xbox One:

Nick Baker: One thing I should point out is that there are four 8MB lanes. But it's not a contiguous 8MB chunk of memory within each of those lanes. Each lane, that 8MB is broken down into eight modules.

- Esta dividida en 4 lineas de 8MB, cada linea de 8MB esta dividida en otras 8 lineas.
- 4 x 256= 1024 bits.

Es lo más parecido a una memoria HBM aa de hoy. No es lo mismo, pero es la única tecnología q disponían para simular lo q esta por venir.

Y constantemente intentas demostrar las fortalezas de Xbox One como debilidades.

In modern graphics engines, GPUs spend less than 30% of the frame running pixel and vertex shaders. Most graphics rendering steps have moved to compute shaders. Even though this new hardware is less efficient in simple tasks (such as simple ROP/depth output), the compute shader programming model with its on chip shared work memory, and very low overhead synchronization primitives allows much reduced memory traffic, reduce the need for latency hiding (most memory ops operate in the work memory, and it is as fast as L1 cache) and make more complex (work efficient) parallel algorithms possible. The total efficiency gain is much greater than the efficiency loss from the slightly more complicated hardware."

sebbbi - Beyond3D Forum -

No lo digo yo, lo dice un desarrollador.
Polyteres escribió:Para terminar con respecto a las latencias, las GPUs debido a su arquitectura, se las traen al pairo las latencias de la memoria.

Para computación, que salvo las demos oportunas de los fabricantes y algunos otros casos que les vienen bien, se dan de bruces con dicho problema. Como mínimo deberán empezar a montar una 2ª memoria que no sea de tipo GDDR para estas tareas.

Luego, pues para integradas, cosa que cada vez irá más y más en aumento, tanto por la venta de portátiles, como dispositivos, como videoconsolas. Al final el típico PC de torre será la minoría, por lo que hay que adaptarse a los nuevos tiempos. Las tarjetas gráficas para pinchar irán perdiendo importancia respecto a las soluciones integradas que supondrán un mucho mayor mercado.
Si alguien está pensando "que le pongan una discreta a esos aparatos", la gente empieza a ir prefiriendo silencio/temperatura/consumo/tamaño al rendimiento/turbina, de ahí las ventas de dispositivos y el cambio en las arquitecturas de las consolas.
Szasz escribió:...


Buenas gente. Si...una aproximación muy cercana :-| . Pero es q además digo lo mismo que antes, es absurdo simular una arquitectura de memoria (más allá de un laboratorio de desarrollo). Para que quieres hacer eso?.

Yo no intento demostrar nada, el problema es intentar crear fortalezas de debilidades.

Con respecto a lo que dice sebbbi, me da la razón XD . Si antes la latencia era poco importante, ahora mucho menos debido a las primitivas de sincronización, a la memoria compartida y a las cachés dentro de la GPU:

...the compute shader programming model with its on chip shared work memory, and very low overhead synchronization primitives allows much reduced memory traffic, reduce the need for latency hiding (most memory ops operate in the work memory, and it is as fast as L1 cache)...


@darksch justo todo lo contrario, lee el párrafo de sebbbi. Por otro lado usar otra partición de memoria para este tipo de tareas no es viable y es una tonteria más cuando el camino es unificar espacios de direcciones.

Un saludo.
Es un texto extraído del q habla de la importancia de una memoria intermedia, una cache.
...the compute shader programming model with its on chip shared work memory...

Ya sabemos q tú ves debilidades en este sistema, se tú opinión. Correspondida ademas por unos juegos con motores intergeneracionales q no le sacan partido y por una forma incorrecta de usar la sram y la no utilización de los dmes.

El tiempo dara o quitará la razón, no creo q lleguemos a ningún acuerdo.
Te hare una ultima reflexión. Amd cuando presentaron Ps4 dijo q era la APU más potente q habían creado hasta la fecha y q sacarían una prácticamente igual para PC pasado un tiempo. Pues bueno, extrañamente han cambiado de idea y no van a introducir memoria GDDR5 en sus APUs, cuando habia multitud de rumores apuntando a incorporar GDDR5 en las placas.

Hay muchas noticias en internet de ello. Por ejemplo:

http://m.slashdot.org/story/197075
Szasz escribió:Es un texto extraído del q habla de la importancia de una memoria intermedia, una cache.
...the compute shader programming model with its on chip shared work memory...

Ya sabemos q tú ves debilidades en este sistema, se tú opinión. Correspondida ademas por unos juegos con motores intergeneracionales q no le sacan partido y por una forma incorrecta de usar la sram y la no utilización de los dmes.

El tiempo dara o quitará la razón, no creo q lleguemos a ningún acuerdo.
Te hare una ultima reflexión. Amd cuando presentaron Ps4 dijo q era la APU más potente q habían creado hasta la fecha y q sacarían una prácticamente igual para PC pasado un tiempo. Pues bueno, extrañamente han cambiado de idea y no van a introducir memoria GDDR5 en sus APUs, cuando habia multitud de rumores apuntando a incorporar GDDR5 en las placas.

Hay muchas noticias en internet de ello. Por ejemplo:

http://m.slashdot.org/story/197075


Buenas gente. Ese es justo el problema, y no te lo tomes a mal pq no va por tí, es un comentario generalizado. Se coge un fragmento de un comentario en un foro o de una noticia y alguien que no controla mucho del tema ve similitudes o reminiscencias con cierta arquitectura y aleee...

Imagen

Ahí tienes la jerarquía de memoria de la arquitectura GCN, es explicativa por si misma. Si conoces este tipo de arquitectura y sobre todo si has programado GPGPU ya sea con OpenCL, CUDA, DirectCompute o Compute Shader sabes a lo q se está refiriendo sebbbi.

Debilidades veo en todos los sistemas pq ningún sistema es perfecto, todos se pueden mejorar, simplemente q algunos desarrollos y algunas decisiones me parecen mas o menos correctas.

Con respecto a tu reflexión, supongo q estarás convencido de q AMD no puso GDDR5 en sus APUs pq se dieron cuenta de q la DDR3 era mejor y era el futuro... Supongo q no tendría nada que ver, primero q no puedes comprar módulos de memoria GDDR5 en el mercado, q tendrías que meter el módulo directamente en la placa, q la memoria GDDR5 sea mas cara (y las APUs no persiguen eso), que la DDR4 esté relativamente cerca...

Yo te dejo otra reflexión. Si la latencia es tan importante y el uso de eSRAM/DDR3 en computación es la panacea, pq las gráficas que se usan en exclusiva para tareas de GPGPU (Nvidia Tesla por ejemplo) no usan esta configuración de memoria si es la mejor?.

Un saludo.
Sigo viéndolo igual, leyendo el artículo de Sebbbi. Estás reduciendo la computación a los compute shaders, como orientándose todo únicamente a render.

Pero bueno, viendo ese "its on chip shared work memory", eso es bienvenido a la eSRAM de Xbox One, memoria shared con acceso desde GPU y CPU. Es decir si es el futuro de arquitecturas unificadas (a lo que nos dirigimos) resulta que ya lo montan en un hardware que, dicho sea de paso, se hizo pensando en la especificación de una máquina acorde, como es DX12.

Yo te dejo otra reflexión. Si la latencia es tan importante y el uso de eSRAM/DDR3 en computación es la panacea, pq las gráficas que se usan en exclusiva para tareas de GPGPU (Nvidia Tesla por ejemplo) no usan esta configuración de memoria si es la mejor?.

1) Porque trabaja totalmente sola, en su micromundo.
2) Porque tiene un bus de uso exclusivo e interno enorme, por lo que suponemos que puede acceder a varios bancos a la vez.
3) Porque sólo se usa para eso, y no tiene ni que renderizar ni que hacer tareas de CPU por el mismo bus.

Es decir si lo aislamos totalmente, le metemos una potencia burraca, agregamos unos buses del carajo, y encima no hace ninguna otra cosa, podemos suponer que GDDR5 es mejor. Para sistemas unificados parece que no, como ya hemos podido comprobar en PC y los problemas del GPGPU hasta el día de hoy.

En una tarjeta discreta, además, no es cosa de GDDR5 o DDR3, de hecho con su GDDR5 interna y "discreta" en el más absoluto sentido de la palabra (ya sabemos como funciona el tema de los buses en PC), seguramente sea mejor en GDDR5. En PC con tarjetas discretas el mayor problema está en el bus para comunicar CPU y GPU. De todas formas el caso de tarjetas discretas no viene muy al caso aquí, es algo distinto. Dejemos de meter más y más información y diagramas de tarjetas discretas que son una arquitectura muy diferente y trabaja de forma bastante diferente (con su memoria propia y encerrada).
No se puede comparar una memoria Sram con una GDDR en temas de computación, es una locura.
No m imagino un Xeon funcionando con GDDR.

En el tema de las GPUs dedicadas para computación, llevan GDDR5 por tema de costes. Son las mismas tarjetas q las geforce con muy pequeños cambios en hardware y en software. El nucleo gk110 de las tesla es el mismo q el q usan algunas titan. Igual pasa con las AMD.
Mismo proceso productivo y mismos proveedores para los mismos productos.

Incorporar una memoria Sram a esas tarjetas subiria los costes una barbaridad. La memoria Sram es mucho más cara q la GDDR5.

Y como bien indica darksch no es lo mismo hablar de APUs q de GPUs.

Pero bueno, lo dicho. Ya se vera q sistema es mejor. Los dos tienen ventajas en unas areas y desventajas en otras. Pero para mi, lo siento mucho, la sram no es un parche para abaratar costes, es una filosofía diferente.
Szasz escribió:[...] La memoria Sram es mucho más cara q la GDDR5.
[...]


en teoria, asi es. en realidad, en cuanto el problema 'dark silicon' entra en escena, te das cuenta que la eSRAM es 'gratis'.
Buenas gente. @darksch no se si me has entendido mi mensaje anterior, pero Compute Shaders es como "nombra" OpenGL a los programas que implementan tareas de propósito general en la GPU, independientemente de la naturaleza de dichas tareas (fisicas, raycasting...). He enumerado lo más usados: OpenCL (estándar multiplataforma), CUDA (lenguaje GPGPU para las gráficas Nvidia), Direct Compute (GPGPU sobre DirectX 11) y Compute Shaders (GPGPU sobre OpenGL).

"its on chip shared work memory" no se refiere a la eSRAM se refiere a la GDS en el diagrama anterior, que se usa precisamente para eso.

Con respecto a lo que dices sobre las tarjetas que se usan en supercomputación:

1) Porque trabaja totalmente sola, en su micromundo.


No, trabaja de la misma forma que una GPU de escritorio de Nvidia. Escribes tus kernels de CUDA, copias tus datos, procesas, y devuelves. No es diferente (de hecho puedes enviar trabajos desde varias CPUs).

2) Porque tiene un bus de uso exclusivo e interno enorme, por lo que suponemos que puede acceder a varios bancos a la vez.


No tiene ningún bus exclusivo enorme. Para comunicación host-device se usa un PCIe. La arquitectura de este tipo de GPUs es prácticamente la misma (con algunas mejoras: soporte para memorias ECC, mecanismos para mejorar la consistencia de los datos...).

3) Porque sólo se usa para eso, y no tiene ni que renderizar ni que hacer tareas de CPU por el mismo bus.


Si decís que la memoria DDR3 por su latencia es lo mejor para tareas de GPGPU y si estas tarjetas solo sirven para hacer tareas de propósito general...pq no usar DDR3?.

El verdadero problema de ejecutar tareas de propósito general en una GPU es que necesitas copiar los datos de la memoria del sistema a la memoria de la GPU, tanto para enviar los datos que necesitas procesar como para recoger los resultados. Esto destroza el rendimiento, y aunque hagas mucho mas rápido el cálculo en la GPU debido a su masivo paralelismo, la penalización de la copia es tan alta q el volumen de datos tiene que ser alto para que sea rentable. Por eso se intenta ir a una arquitectura unificada, una arquitectura donde CPU y GPU compartan un espacio de direcciones común, donde puedas pasar un puntero y te evites la copia de los datos (y aparte puedas usar estructuras de datos más complejas). Obviamente, cuando más "ancho" y más rápido sea ese bus, mas beneficioso será para ambos el procesamiento.

@Szasz te repito lo mismo, vuelve a leer el párrafo que has puesto de sebbbi.

Un saludo.
Solo un último apunte. No digo q la DDR3 sea sustancialmente mejor q la GDDR5 para computación(al menos en GPUs). Pero sí la Sram.

La memoria Sram se suele usar en sistemas x86 como cache primaria. En pequeñas cantidades porq es muy cara.
No conozco ningún chip con 47MB de esta memoria.
Una pregunta ¿Por que es tan importante realizar trabajos de cpu en una gpu cuando estamos hablando de consolas cuyo fin ultimo es la realizacion de juegos?

Ademas en este caso las dos consolas, sí, esa que monta gddr5, tienen acceso a un unico espacio de memoria, en una ddr3 y en otra gddr5 con sus latencias, sus buses y sus cosas pero un unico espacio.

Por otra parte, y ya esto es una duda, algo pasara con la gddr5 cuando no se usa para proposito general y el precio no creo que sea ya que a el que esta la ddr3 y fabricando en masa no creo que gddr5 fuera mucho mas cara.

Si Amd sacaran una placa con gddr5, digamos 4gb y unas igp potentes para montarles algun sistema X86 ya fuera de Windows o Linux creo que muchos no le harian ascos para montarse una buena maquina de juegos.
No sabemos si la Tesla con otro tipo de configuración podría funcionar mejor. Pero como han dicho, por costes conviene más la fuerza bruta de algo estándar que tener que fabricar una arquitectura exclusiva para este modelo.

Al bus me refería interno, hacia su VRAM. Con lo cual una vez copiado los datos a su espacio pues vuela.

Al usarse PCIe no nos quita que siga teniendo esos mismos problemas. Con lo cual para ciertas tareas es posible que una CPU burra sea mejor, proporcionalmente, como ya ocurre en nuestros PCs. Si Tesla corre es porque tiene una gran fuerza bruta.
Para esto me remito a mi 1er párrafo, igual con algo más actual correría más, pero quizás por coste no conviene ser tan "exclusivo".

Edit: Aunque ahora que lo pienso, la Tesla he visto que tiene configuraciones con 3 e incluso ¿6GB? me ha parecido ver alguna. Bueno, el caso es que tienen GBs de memoria sólo para computación. Además es un tipo de computación diferente, no es del tipo frame-a-frame cuyos resultados son enviados-recibidos a CPU.
Con esto, en lugar de usar el PCIe para intercambiar y transferir datos, lo que se hará perfectamente es transferir todo lo necesario y ya la Tesla computa todo localmente con su memoria, transfiriendo de forma muy puntual resultados o adquiriendo algunos datos, por lo que el bus de sistema ya no sería problema, al no estar alimentándose constantemente de éste.
En un tipo de computación frame-a-frame cuyos datos deben ser compartidos con otros (como la CPU), y cuyo bus de sistema deba usarse de forma muy activa, es probable que Tesla encontrara problemas similares a los mencionados.
Por lo que creo que los 3 puntos que expuse como razones sí que se aplican al modelo de funcionamiento de Tesla.

Por lo tanto me parece que se están mezclando cosas que poco tienen que ver.
Me ancanta leeros, aunque sólo entienda las cosas a medias XD.

Un saludo.
jose1024 escribió:Una pregunta ¿Por que es tan importante realizar trabajos de cpu en una gpu cuando estamos hablando de consolas cuyo fin ultimo es la realizacion de juegos?


Buenas gente. Respuesta corta: pq una GPU puede hacer el mismo trabajo pero muchísimo más rápido que una CPU debido al paralelismo inherente a su arquitectura. No toda tarea tiene un acomodo natural a la arquitectura de una GPU, por lo q hay tareas que se ven mas beneficiadas al ser implementadas en una GPU. Las tareas de propósito general pueden ir desde el cálculo de las velocidades y posiciones de miles de partículas, hasta tareas relacionadas directamente con el render (de hecho esto último es lo que más se usa) por lo que aunque sean tareas de propósito general su fin es producir un frame.

Esto lo meto en spoiler pq creo q se puede ir un poco del tema del hilo (aunq está directamente relacionado en concepto) pero me parece muy intersante xD:

darksch escribió:No sabemos si la Tesla con otro tipo de configuración podría funcionar mejor. Pero como han dicho, por costes conviene más la fuerza bruta de algo estándar que tener que fabricar una arquitectura exclusiva para este modelo.


Actualmente y con la tecnología de la que se dispone, ese tipo de configuración de memoria es la mejor elección. Nvidia, AMD e Intel están de acuerdo. Montar 12GB de GDDR5 a 6GHz con un bus de 384 bits no es para nada barato XD , no obstante tener 4.2TFlops en SP y 1.2 TFlops en DP por 245W y todo por 6000€ es una ganga. A estos niveles una compañía como Nvidia se puede permitir el "lujo" de buscar otras alternativas si son una mejor solución. La memoria GDDR5 se abandonará con el tiempo pero aún falta un tiempecillo, veremos.

darksch escribió:Al bus me refería interno, hacia su VRAM. Con lo cual una vez copiado los datos a su espacio pues vuela.


Como todas las GPUs XD. Como digo el problema de este tipo de algoritmos es la copia de datos entre host y device y viceversa.

darksch escribió:Al usarse PCIe no nos quita que siga teniendo esos mismos problemas. Con lo cual para ciertas tareas es posible que una CPU burra sea mejor, proporcionalmente, como ya ocurre en nuestros PCs.


Como he dicho antes, no todos los problemas son fácilmente resolubles en GPU o bien el tamaño/tipo de datos/tareas no casa bien con la arquitectura de una GPU. La tecnología HSA va encaminada a eliminar ese tipo de problemas, donde las tareas se "repartan" de la forma más eficiente a las arquitecturas de los distintos dispositivos disponibles en el sistema.


Un saludo.
No has puesto mi "Edit", donde digo el porqué esa configuración de GDDR lineal aparenta ser lo mejor, y es porque realmente sí que está pensada para hacerlo todo en local, con esas grandes cantidades de VRAM dedicadas exclusivamente a computación.
No creo q sea el mejor ejemplo hablar de GPUs dedicadas de gran computación.
En los servidores q se montan no hay limitaciones de temperaturas, de consumos y sobretodo economicas.
Se monta lo más bruto q hay y a tirar.

Las APUs de consola se construyen para ser sistemas balanceados. Donde ningún elemento ralenticé a otro y se cumpla unos mínimos de consumos, temperaturas y precios.
No solo hay q tener la GPU más "tocha".
Como soy un cero a la izquierda en estos temas solo decir que me alegra que el hilo cobre vida de nuevo...gracias Polyteres por aportar..saludos makina.
Muy interesante lo que debatís, pero os centráis en lo que hay ahora.
Si observáis las tendencias en HPC, la línea a seguir durante los próximos años es clara:
- Uso de coprocesadores x86
- Uso de aceleradores FPGA
- Abandono de memorias GDDR en favor de soluciones con DRAM
- Abandono de la interfaz PCIe
- Uso de cloud computing para aliviar cargas de trabajo
- Mayor protagonismo al middleware. Simplificar el desarrollo para HPC.

Saludos.
Por qué han puesto el transformador de corriente fuera de la consola??
Miquelangel19 escribió:Por qué han puesto el transformador de corriente fuera de la consola??


¬_¬ ¬_¬
# Polyteres, en relacion a tu respuesta a mi pregunta ¿Por que es tan importante realizar trabajos de cpu en una gpu cuando estamos hablando de consolas cuyo fin ultimo es la realizacion de juegos? no iba por ahi.

Ya se que las gpus hacen mucho mas eficientemente trabajos paralelizados, a lo que me referia es a que no se hasta que punto este tipo de funcion es importante en los juegos y como estas estan implementadas en los motores graficos, normalmente los trabajos de Ias fisicas y comportamientos de personajes no controlados los ha realizado el cpu.

Ps4 ha reservado mas partes de su hardware grafico que Xbox One que a priori no ha reservado nada al tema de GPGPU, pero los motores graficos en especial los multiplataforma deben de hacer uso de ellos y ahi es donde no me queda tan claro que la cosa funcione.

Rompiendo una lanza a favor a de Xbox tampoco sabemos si esta se beneficiara de tener una eSRAM encapsulada en el Soc para trabajos de GPGPU.

En pcs de sobremesa y en el futuro de la computacion derivar trabajo a una parte mas eficiente como es la gpu es todo un acierto pero no tengo claro que esto sea asi, al menos todabia en plataformas destinadas como fin ultimo a la representacion de videojuegos donde cada recurso de representacion de graficos deberia utilizarse para estos.

Afinando mas ¿Los motores nuevos y futuros abandonaran el uso de la Cpu para fisicas e ia y moveran esta a las Gpus y es por eso que esto es tan importante que las Gpus dediquen parte de sus recursos a estos menesteres?

Cuda por poner un ejemplo siempre ha castigado y bastante el rendimiento grafico y tampoco los efectos eran muy relevantes por decir algo, en la experiencia de juego.
Buenas gente.

@darksch las necesidades de memoria de este tipo de GPUs usadas en HPC van acordes a los tamaños de los problemas con los que tienen que lidiar. Los problemas a los que te enfrentas son los mismos que cuando haces GPGPU en una gráfica de escritorio: las copias de datos entre host/device, el tamaño del problema a partir del cual una GPU es claramente superior a una CPU y merece la pena ser usada, el tipo de tarea que estás intentando implementar (por ejemplo códigos con muchos saltos condicionales no son buenos candidatos para una GPU), sincronizaciones/comunicación... A todo esto súmale que una GPU de este tipo puede estar recibiendo trabajos de más de una CPU a la vez, tiene encolados una serie de tareas que tiene que realizar... Como te digo la saturación del bus, la copia y la comunicación siempre es el problema xD.

Como he dicho en alguna ocasión anterior, por la propia arquitectura de una GPU, por el tipo de sistemas que son, por como son diseñadas, su principal necesidad es una memoria rápida, con un grandísimo ancho de banda (cuanto más mejor), dejando las latencias en un segundo plano (o tercero) pq las GPUs de base son tragonas de datos. Si a esto le sumas la adicción de cachés generales de nivel L2, cachés de nivel L1 para cada CU o SM, y para sincronización y compartición de datos entre las distintas unidades tienes una caché dedicada, la latencia aún cobra menos importancia como habeis puesto en el párrafo de sebbbi.

@Szasz es justo todo lo contrario de lo que dices. En HPC probablemente sea de los sitios donde más se cuidan las temperaturas, los consumos y los precios, es vital en sistemas como estos, y es uno de los motivos por los que se usan GPUs pq por 240W tienes 4.2TFlops en un espacio muy reducido.

Todo sistema se pretende que esté balanceado y no tenga cuellos de botella, da igual que sea una consola o una HPC de 10.000 núcleos. El problema es q estas cosas son delicadas y no siempre se consigue jeje. Como dije todas las máquinas tienen debilidades. No obstante una cosa es que el sistema esté balanceado y otra la potencia. Dos sistemas pueden tener potencias diferentes y sin embargo ambos estar balanceados.

@Aldebaran323 [beer]

@KinderRey

- Supongo que querrías decir coprocesadores ARM no?. Ha llegado un punto que la relación consumo/potencia de un procesador ARM comienza a ser relevante para ser introducido en este tipo de sistemas, vamos que por muy poco consumo tienes una cantidad de potencia bastante maja. No obstante no tiene mucha relación con las consolas.

- Lo de los FPGAs es el cuento de nunca acabar, a ver si se acaba introduciendo aunq por lo q he podido ver tiene mucho mas futuro en servidores donde puedes hacer la implementación hardware de un algoritmo en concreto que en centros de calculo intensivo.

- La GDDR se abandonará en favor de...cualquier sistema de memoria que permita un ancho de banda mayor con un menor consumo, lo lógico, como le pasa a la DDR4 frente a la DDR3, o como le pasó a...cualquier nuevo estándar de memoria. No obstante hasta dentro de un tiempecito no parece que lo vayamos a oler. Además estas configuraciones de memoria, HBM por ejemplo, se parecen como un huevo a una castaña a las que tenemos hoy en dia en cualquier dispositivo.

- Abandono de la interfaz PCIe: si te refieres a Nvlink de Nvidia hasta dentro de 2 años nada, a parte de que para q algo funcione tiene q estar estandarizado, veremos que hacen AMD e Intel. Además hablar de PCIe o Nvlink en consolas no tiene sentido.

- Uso de cloud computing para aliviar cargas de trabajo: esto no lo entiendo pq si estamos hablando de HPC no veo a q te refieres o q quieres decir.

- Mayor protagonismo al middleware. Simplificar el desarrollo para HPC: eso no es una tendencia actual, eso es una máxima en cualquier sistema de cualquier tipo sea un HPC o sea cualquier otro sistema.

@jose1024 pq hay muchas tareas de propósito general cuya finalidad está directamente relacionada con producir un render. Es q de hecho ese tipo de tareas son la mayoría dentro de una GPU. Como he dicho más arriba hay ciertas tareas que no se adecuan a la arquitectura de una GPU, por ejemplo todo aquello que tenga muchos saltos condicionales no es muy eficiente en una GPU.

Por ejemplo una tarea de propósito general que se puede hacer en una GPU que directamente está relacionada con el render es, crear las listas de luces que afectan a cada pixel en un Forward+, o componer un deferred rendered, o calcular la iluminación indirecta de una escena con un cone tracing... muchas cosas (y las que están por llegar) que una CPU sería incapaz de hacerlo en el tiempo que requiere un frame.

Por otro lado puedes tener otras tareas que te permiten tener mayor variedad o escala de lo que quieres implementar. Por ejemplo si llevas a la GPU la simuluación de un sistema de partículas puedes tener una mayor cantidad de ellas, puedes tener colisiones sobre objetos, o puedes tener movimiento de tela y ropa realistas...son cosas que las si delegas a una CPU por muy potente que sea es incapaz de gestionar a tiempo.

Con respecto a Ps4, no ha reservado nada, no obstante no es el hilo para hablar de ella.

Un saludo.
Todo lo que has citado como ejemplos para justificar el GPGPU son cuestiones graficas, estaria bueno que una grafica fuera mala calculando luces o montando un render, no es una critica pero supongo que quienes hacen hardware grafico tendran en mente la solucion de estos problemas mediante la modificacion de lo que es su propia arquitectura por eso Amd saco Gcn y Nvidia sacara la suya.

Cuando te hacia la pregunta pensaba que estaban moviendo fisicas e ia a la gpu que es lo que parece que ambiciona hacer Ps4 cuando dice, aunque luego no reserve nada, que tiene reservado 4 cu para GPGPU.

Si Ps4 va a usar sus 4 cu "reservadas" para calcular luces o hacer un post-procesado de cualquier tipo es que estan usando la gpu para lo que ha sido creada.

Lo de no hablar de Ps4 no tiene sentido cuando tienen una arquitectura tan parecida y van a compartir juegos durante toda la generacion, ademas hace patente la falta de un tono dialogante y maduro.

Personalmente seguire nombrando a Ps4 cada vez que piense en ella o crea conveniente hacer una alusion a ella, no he visto ninguna regla en este hilo en el que se impida nombrar a cualquier consola o marca concreta.
jose1024 escribió:Lo de no hablar de Ps4 no tiene sentido cuando tienen una arquitectura tan parecida y van a compartir juegos durante toda la generacion, ademas hace patente la falta de un tono dialogante y maduro.

Personalmente seguire nombrando a Ps4 cada vez que piense en ella o crea conveniente hacer una alusion a ella, no he visto ninguna regla en este hilo en el que se impida nombrar a cualquier consola o marca concreta.


Simplemente leyendo el nombre del hilo debería quedar mas que claro sobre que tema se debe tratarse aquí.
Los avisos de moderación han sido varios, pero si cada uno va hacer lo que crea conveniente, en vez de poner un simple aviso en el hilo (otro mas) nos veremos forzados a tomar otras medidas.
jose1024 escribió:Todo lo que has citado como ejemplos para justificar el GPGPU son cuestiones graficas, estaria bueno que una grafica fuera mala calculando luces o montando un render, no es una critica pero supongo que quienes hacen hardware grafico tendran en mente la solucion de estos problemas mediante la modificacion de lo que es su propia arquitectura por eso Amd saco Gcn y Nvidia sacara la suya.


Buenas gente. Yo no estoy justificando (se justifica solo xD) el trabajo de propósito general en una GPU te he dado ejemplos de usos reales y actuales de GPGPU. Quizás el problema haya sido mío al creer que más o menos se sabe que es GPGPU.

Intentando resumir mucho y sin explicar demasiado podríamos decir que una tarea de propósito general no es más que cualquier programa que se ejecuta en una GPU pero que no forma parte del pipeline gráfico y por tanto no usa ciertos elementos de su funcionalidad fija. Se utilizan todas las unidades de ejecución de una GPU (las CUs) de forma "libre". Se sigue un paradigma de programación muy parecido a lo que se usa en HPC con distribución/partición de los datos/tareas y demás, puesto que tenemos muchos núcleos que gestionar (768 ALUs en XboxOne). Esto te permite usar la GPU como un gran "supercomputador" (expresión que creo habéis escuchado mucho XD ).

Las tareas pueden ser de cualquier tipo. Qué ventaja tiene esto?. Pues que el pipeline gráfico de una GPU es muy rígido, y está "pensado" para hacer una tarea fija pero de forma muy eficiente (producir pixeles). Debido a esta rigidez hay cosas que aunq estén relacionados con el render no puedan ser ejecutadas en una GPU (aunq suene raro), o que la GPU sea el mejor lugar para hacer ese tipo de tareas. Que pasa si usamos GPGPU pues q te saltas esta limitación y tienes mucha libertad y flexibilidad para meterle a la GPU "cualquier" tarea sea de la naturaleza que sea, no estás limitado a los vértices, triángulos y pixeles. Obviamente si estamos en una máquina destinada a producir imágenes es normal que la mayoria de tus tareas aunq sean GPGPU sean de este corte, aunque no tiene pq ser así. Como he dicho antes usando la GPU para este tipo de cosas puedes tener mayor número de partículas, mejores físicas, simulación de pelo y ropa, cosas q a una CPU en comparación le costaría la vida misma y que una GPU te lo puede hacer en un par de microsegundos. No todo son los gráficos.

Un saludo.
ahona escribió:
jose1024 escribió:Lo de no hablar de Ps4 no tiene sentido cuando tienen una arquitectura tan parecida y van a compartir juegos durante toda la generacion, ademas hace patente la falta de un tono dialogante y maduro.

Personalmente seguire nombrando a Ps4 cada vez que piense en ella o crea conveniente hacer una alusion a ella, no he visto ninguna regla en este hilo en el que se impida nombrar a cualquier consola o marca concreta.


Simplemente leyendo el nombre del hilo debería quedar mas que claro sobre que tema se debe tratarse aquí.
Los avisos de moderación han sido varios, pero si cada uno va hacer lo que crea conveniente, en vez de poner un simple aviso en el hilo (otro mas) nos veremos forzados a tomar otras medidas.


¿Leyendo el nombre del hilo queda claro que?

De verdad que con una cierta edad y un cierto grado de madurez me cuesta creer que escribir las dos letras y el numero o mencionar a la competencia sea algo innombrable ¿decir la letra seguida de las dos letras iguales tambien es motivo de sancion o reprimenda o al no considerarse competencia se la puede nombrar sin miedo?

Yo por mi parte y definitivamente dejo el hilo por que me siento censurado no voy ni a seguir leyendo.

Gracias a quienes escribis y leeis sin considerar esto una lucha y si una simple conversacion.

Pd: Polyteres me ha quedado bastante claro gracias por la explicacion, estube leyendo un poco sobre Gcn y casi toda su arquitectura estaba orientada a hacer mas programable el pipeline como perfectamente has explicado.

Gracias.
Sí, se oye muchas veces lo de arquitectura de supercomputador al hablar de Xbox One. Lo dicen sus creadores y hasta en su pagina web lo pone:

"Xbox One es el equilibrio perfecto de potencia y rendimiento. Además de la revolucionaria arquitectura de Xbox One, la combinación de su CPU, GPU y ESRAM es como tener un superordenador(*traducción que han hecho de supercomputer) en el salón. Pero la potencia bruta no es nada sin velocidad. De modo que Xbox One usa su potencia más eficazmente, creando experiencias de velocidad luz diferentes a todo lo que habías conocido hasta ahora."

Das a entender que únicamente se le llama así por su GPU, en ese caso muchísima gente tiene un supercomputador en casa.

No creo(sí, creo, no me gusta dar por hecho cosas que desconozco a ciencia cierta) que Microsoft no la nombra así unicamente por la GPU, sino por más elementos, que profundizar en ellos, igual es algo polémico por lo que he podido comprobar otras veces.

Para entender esto habría que ir años atrás y localizarnos muy cerquita de nosotros, en nada más y nada menos que Barcelona. Donde Microsoft firmó y más adelante renovó un contrato con uno de los centros de supercomputación más grandes de Europa. En este centro se investigaba(y se sigue haciendo) como crear equipos de supercomputación a pequeña escala(como una Xbox One por ejemplo). Y todo dirigido por un vecino Aragones mio, Mateo Valero.

Por lo que, algunos elementos "extraños" del interior de Xbox One, no son por casualidad.
Coprocesadores, desdoblamiento de los CUs, varios procesadores de comando, memorias SRAM(algunas sin aparecer en los diagramas oficiales de Microsoft), MCUs (algunos de ellos localizados para dar lugar a la dark silicon o power islands) coherencia aumentada de la CPU.............etc.

Como digo, elementos "extraños" y que crean controversia, ya que algunos no son nombrados oficialmente, pero si que se pueden localizar físicamente. Pero que seguro, no están por casualidad.

Se que es difícil hablar sobre esto, pero es injusto que quede tan ridiculizado y minimizado semejante inversión de tiempo, dinero y muy seguramente, talento de sus ingenieros.
Entonces, digo desde mi "paletez ignorantez", todo esto que estais hablando y que me he leído el hilo entero, quiere decir que esta tecnología cuando por fin se saque provecho va a dar como resultado efectos visuales de la hostia, no digo 1080p 60 frames cansinos, si no partículas, explosiones no vistas hasta ahora, puede ser? Es que tanta información de golpe y sin tener ni idea [sonrisa] no se que pensar
Un saludo y genial este hilo
Takumi escribió:Entonces, digo desde mi "paletez ignorantez", todo esto que estais hablando y que me he leído el hilo entero, quiere decir que esta tecnología cuando por fin se saque provecho va a dar como resultado efectos visuales de la hostia, no digo 1080p 60 frames cansinos, si no partículas, explosiones no vistas hasta ahora, puede ser? Es que tanta información de golpe y sin tener ni idea [sonrisa] no se que pensar
Un saludo y genial este hilo

Has visto Quantum break???
antonio613 escribió:
Takumi escribió:Entonces, digo desde mi "paletez ignorantez", todo esto que estais hablando y que me he leído el hilo entero, quiere decir que esta tecnología cuando por fin se saque provecho va a dar como resultado efectos visuales de la hostia, no digo 1080p 60 frames cansinos, si no partículas, explosiones no vistas hasta ahora, puede ser? Es que tanta información de golpe y sin tener ni idea [sonrisa] no se que pensar
Un saludo y genial este hilo

Has visto Quantum break???

Si, lo vi en directo y casi me muero xD
@polyteres lo del cloud computing en HPC es simple, es mover las tareas a la nube aprovechando las ventajas que ofrece el grid computing, almacenamiento ilimitado y recursos de computación escalables al instante, ya sea mediante clusters compartidos o mediante entornos cloud 100% virtualizados. Tienes un buen ejemplo en Amazon EC2 HPC.

No hablaba de ARM, sino de x86, coprocesadores como Xeon Phi de Intel por ejemplo que hoy por hoy ya están a la par con las soluciones de Nvidia.

Por lo demás, correcto, aunque lo de la simplificación del middleware no es algo que se haya tomado muy en serio en temas de HPC. Por ejemplo, para hacer algo decente en CUDA tienes que ser poco menos que un genio.

Saludos.
17587 respuestas