Hablemos del interior de Xbox One

f5inet escribió:es curioso que cuando la noticia pueda ser tomada desde el punto de vista negativo (Overclocking de la consola), Misterxmedia pasa a ser una fuente fiable [fiu]


He sido yo el que ha empezado todo, y sea overcloking o que el directx12 calienta más la consola, no lo veo como noticia negativa.

De todos modos yo estoy leyendo mixtermedia por mero aburrimiento, tiene algunos vaticiones a corto plazo, veremos si son verdad... Yo al menos tanto para bien como para mal, no me creo lo que pone, y aqui creo que la mayoria lo hemos comentado y excepto una persona todos los demas no han dicho que sea negativo.
Curioso lo del artículo.
Con el texturizado virtualizado, la presión sobre la memoria se ve drásticamente reducida. Incluso con una tarjeta de 8MB sería suficiente para juego a 16 bits y 1024×768 o 32 bits y 800×600, no importa cual sea la carga de texturas.

Para quienes dicen que la eSRAM es insuficiente, la habrán calculado y les cuadraban 32MB, y en esos 32MB debe caber (suponemos que las pruebas de hardware en el desarrollo son acertadas) todo lo necesario para renderizar un fotograma. Así que las quejas deben venir por no saber usarla no porque sea insuficiente, porque para un tamaño de buffer predeterminado, con una capacidad determinada, tal y como tiene una consola de hardware cerrado, no importa la carga como dice Carmack.

Las direcciones virtuales pueden tomar como objetivo páginas en la RAM principal, en la ESRAM, o pueden no estar mapeadas. El Shader leer y escribe las páginas no mapeadas en resultados bien definidos, incluyendo códigos opcionales de error, en vez de bloquear la GPU. Esta habilidad es importante para el soporte de recursos en “tiles”, los cuales están parcialmente residentes en la memoria física.

O dicho de otra forma, si necesito algo y no está, en lugar de bloquar a la espera de ese algo voy haciendo otras cosas mientras me lo traigo (con componentes adicionales para ello sin depender del mismo controlador MMU).
Por ejemplo, como no es previsible totalmente lo que voy a necesitar, tengo parte de una textura que necesito, y otra no, pues en lugar de tener que esperar a traerme esa parte entera, voy realizando las tareas con la parte que tengo mientras me voy trayendo la que no tengo.

Uno que piensa como yo.
http://josepjroca.wordpress.com/2013/02/08/durango-nos-hace-coger-el-delorean/#comment-12109
La eficiencia es la clave, para el presente es importante así que para el futuro más. Con esta arquitectura M$ ya tiene una base de la que evolucionar en su división hardware. Porque siendo justos, XB1 aún tiene un margen de aumento de 20W para equipararse en consumo y ver que puede hacer. Y eso sólo a nivel de hardware a nivel de software habrá que ver cuanto puede mejorar el aprovechar mejor la arquitectura.
salocin21 escribió:
jose1024 escribió:El maximo creo que son 68gb/s segun el tipo de ddr3 y luego la gpu y esram pueden acceder al maximo de velocidad osea 68gb/s, la cpu a 25gb/s y los move engines a 25gb/s y aunque pueden leer y escribir al mismo tiempo no pueden acceder todos a la vez al maximo, vamos que el maximo son 68gb/s y si la gpu esta usando en ese momento todo el ancho de banda el resto de elementos no puede acceder, no se como ira el tema de gerarquias en los accesos pero el maximo es el que es y para graficos es poco, al menos en la forma tradicional y tratandose de texturas.

El bus de esram con la gpu si es realmente alta tanto en promedios como en picos.

Los move engines si tienen un bus independiente pero a la ram solo acceden con 25gb/s

Creo que es asi por lo que he leido.

Es mas por lo que he podido enteneder la idea de Microsoft es coger las texturas romperla en baldosas con los move engines, volverlas a la ram y desde la ram darselas a la gpu usando la esram para guardar la posicion de las baldosas agilizando el trabajo, osea, la idea de microsoft es que gracias a la api es que la memoria para el motor grafico vea una memoria virtual que aunque sera lenta por que en realidad seguira siendo una ddr3 los datos esten fraccionados y por lo tanto no demanden un alto ancho de banda.

Si la memoria es virtual y por lo tanto es transparente para los motores lo veo factible pero eso es algo de lo que tiene que encargarse la api que es quien de verdad habla con el hardware.



Correcto, salvo en que se la RAM esta dividida en dos bloques en dos buses independientes cada uno de ellos de esos 68 gigas/segundo, así que la velocidad real es 136g/s de transferencia apilada.

Eso dando por echo que no monta "stack" por que si no el ancho de banda seria mucho mas grande; aunque no me extrañaría que así pudiera ser y que la arquitectura de xbox sea similar a las que apus que venderá AMD en un año mas o menos, con memoria stack sobre ddr3 y un "optimizador" de memoria sram, pero como esto no esta confirmado pues lo doy por falso para no especular, aunque la placa y los diagramas y hasta las fechas de fin de DNA coinciden sorprendentemente.


De donde sacas lo de los 136g/s? Simple curiosidad.
@darksch: si la eficiencia es la clave los 20W de mas no los necesita para nada :P
Eficientemente se pueden usar 100w o 120w, pero el rendimiento sería mayor en el segundo caso.
Claro es la idea. Pero vamos coincido en que tampoco se pongan a subir los W porque a mí me gusta más una máquina que consuma poco y sea silenciosa. Lo que si es "justo" es que se ponga a la par de la competencia. Pero bueno todo eso ya se verá.
Szasz escribió:
salocin21 escribió:
jose1024 escribió:El maximo creo que son 68gb/s segun el tipo de ddr3 y luego la gpu y esram pueden acceder al maximo de velocidad osea 68gb/s, la cpu a 25gb/s y los move engines a 25gb/s y aunque pueden leer y escribir al mismo tiempo no pueden acceder todos a la vez al maximo, vamos que el maximo son 68gb/s y si la gpu esta usando en ese momento todo el ancho de banda el resto de elementos no puede acceder, no se como ira el tema de gerarquias en los accesos pero el maximo es el que es y para graficos es poco, al menos en la forma tradicional y tratandose de texturas.

El bus de esram con la gpu si es realmente alta tanto en promedios como en picos.

Los move engines si tienen un bus independiente pero a la ram solo acceden con 25gb/s

Creo que es asi por lo que he leido.

Es mas por lo que he podido enteneder la idea de Microsoft es coger las texturas romperla en baldosas con los move engines, volverlas a la ram y desde la ram darselas a la gpu usando la esram para guardar la posicion de las baldosas agilizando el trabajo, osea, la idea de microsoft es que gracias a la api es que la memoria para el motor grafico vea una memoria virtual que aunque sera lenta por que en realidad seguira siendo una ddr3 los datos esten fraccionados y por lo tanto no demanden un alto ancho de banda.

Si la memoria es virtual y por lo tanto es transparente para los motores lo veo factible pero eso es algo de lo que tiene que encargarse la api que es quien de verdad habla con el hardware.



Correcto, salvo en que se la RAM esta dividida en dos bloques en dos buses independientes cada uno de ellos de esos 68 gigas/segundo, así que la velocidad real es 136g/s de transferencia apilada.

Eso dando por echo que no monta "stack" por que si no el ancho de banda seria mucho mas grande; aunque no me extrañaría que así pudiera ser y que la arquitectura de xbox sea similar a las que apus que venderá AMD en un año mas o menos, con memoria stack sobre ddr3 y un "optimizador" de memoria sram, pero como esto no esta confirmado pues lo doy por falso para no especular, aunque la placa y los diagramas y hasta las fechas de fin de DNA coinciden sorprendentemente.


De donde sacas lo de los 136g/s? Simple curiosidad.


Por que la velocidad máxima en ddr3 son 68g/s pero la xone tiene la memoria dividida en dos bloques y dos buses que funcionan de manera independiente así que son 68+68= 136 teóricos.

Esta confirmado por los ingenieros de microsoft esto en una de las conferencias del e3; pero estoy con el movil y no lo encuentro ahora.


Siguiendo con la técnica de texturas parciales, cuando entiendes como funciona empiezas a entender como de avanzado es el hardware de one, optimizado para mover de manera ultra eficiente pequeños paquetes de datos de diferentes zonas a la sram y conseguir un rendimiento muy alto con una CPU discreta.

La cantidad de sram no es relevante por que en la sram rara vez están varias texturas a la vez, habrá solo una "baldosa" generándose y se transfiere a la RAM para ir generando el frame, que mas cantidad es mejor? Claro que si pero 32 megas para cargar una pequeña textura es de sobra para una calidad muy muy alta.

Cuando los motores de desarrollo y sobre todo las api estén preparadas vamos a ver el verdadero salto de esta generación, por que esta técnica no esta diseñada tanto para aligerar la carga del sistema como para conseguir unas texturas de una calidad casi imposible con las tecnicas habituales de volcar en RAM o streaming de texturas.

Para haceros una idea Ryse usa tiel resources para las texturas de los escenarios y en una versión muy primitiva de la misma.
No tiene 2 bloques, sino 4 de 64 bits. Unos 17gb/s por cada bloque. 68gb\s en total.
También tiene 4 bloques de Esram, pero esta, a 256bits cada uno.
Lo puedes comprobar aquí:

http://www.tmag.it/wp-content/uploads/2 ... IPie-1.jpg

En el resto del mensaje, muy de acuerdo.
Szasz escribió:No tiene 2 bloques, sino 4 de 64 bits. Unos 17gb/s por cada bloque. 68gb\s en total.
También tiene 4 bloques de Esram, pero esta, a 256bits cada uno.
Lo puedes comprobar aquí:

http://www.tmag.it/wp-content/uploads/2 ... IPie-1.jpg

En el resto del mensaje, muy de acuerdo.



Ese diagrama de bloques puede inducir a error ya que no indica bien los buses a la ram.

En una de las conferencias de directx 12, se confirmo que ese bus estaba duplicado y como tal se podía conseguir ese ancho de banda, y unos 204 g/s reales combinadas con sram.
http://sia1.subirimagenes.net/img/2014/ ... 376562.png
He seguido a flash desde el principio y cada vez sus teorías son más increíbles. Es como si se le hubiera subido a la cabeza.

No puedo estar más en desacuerdo con esa tabla.
Yo creo que son 68 por lo menos es lo que siempre nos han dicho. Luego pues se basan en coprocesadores, buses y cachés.
darksch escribió:Yo creo que son 68 por lo menos es lo que siempre nos han dicho. Luego pues se basan en coprocesadores, buses y cachés.


Si 68 son.. Pero 68 por bus y el sistema tiene dos, después para llegar hasta esos 204 gigas teoricos por la aportación de la sram.

Los cooprocesadores no se si estarán para optimizar eso o estará pensado para tareas especificas de DirectX 12
salocin21 escribió:
darksch escribió:Yo creo que son 68 por lo menos es lo que siempre nos han dicho. Luego pues se basan en coprocesadores, buses y cachés.


Si 68 son.. Pero 68 por bus y el sistema tiene dos, después para llegar hasta esos 204 gigas teoricos por la aportación de la sram.

Los cooprocesadores no se si estarán para optimizar eso o estará pensado para tareas especificas de DirectX 12



No estaría mal q pusieras el enlace de esa información. A mi al menos, me interesa.
salocin21 escribió:
darksch escribió:Yo creo que son 68 por lo menos es lo que siempre nos han dicho. Luego pues se basan en coprocesadores, buses y cachés.


Si 68 son.. Pero 68 por bus y el sistema tiene dos, después para llegar hasta esos 204 gigas teoricos por la aportación de la sram.

Los cooprocesadores no se si estarán para optimizar eso o estará pensado para tareas especificas de DirectX 12


Buenas gente:

Imagen

Las cuentas están claras:

- DDR3: 4 x 64 bits x 2133 MHz = 68 GB/s (bidireccional).
- eSRAM: 1024 bits x 853 MHz = 109 GB/s por dirección (escritura y lectura por separado).

Un saludo.
Yo lo veo exactamente igual q polyteres. No deja margen a la duda.
Y luego los 25Gb/s de los move engines que:

Ocuparian el ancho de banda de la memoria ddr3 cuando trabajara con esta ¿no?

Tambien serian 25Gb/s cuando trabajara con eSRAM ocupando tambien parte del ancho de banda ¿no?

Los move engines no pueden mover mas de 25Gb/s cuando acceden a cualquiera de las memorias por su propia configuracion de frecuencia y bus ¿no?
La información sale de aqui, y por cierto teniais razón con lo del drr3, había confundido esto al leerlo la primera vez.

http://www.3djuegos.com/comunidad-foros ... -xbox-one/

Aquí se supone que la xbox podría llegar a los 700 g/s pero no me cuadra demasiado el desarrollo que hace la verdad.
La DDR3 tiene un ancho TOTAL de 68 GB/s (contándolo todo). Los Move Engine pueden transferir a 25 GB/s, pero con la gran ventaja de independencia y paralelismo, así la GPU en lugar de tener que dedicar shaders (como pone en la documentación) para transferir RAM <-> eSRAM a 68 GB/s, se pueden usar todos los shaders en computación y AL MISMO TIEMPO los ME a 25 GB/s para RAM <-> eSRAM.

25 GB/s, si hacéis los cálculos, dan para transferir completamente los 32MB de eSRAM unas 13 veces por fotograma en un juego a 60 fps. Así que por ese ancho yo no me preocuparía mucho. XO se basa en tiled resources al máximo (hardware adicional de M$ incluido), con lo que sigue el principio que expuso Carmack en el artículo antes referenciado, donde decía que con dicha técnica se podía usar una cantidad de memoria fija sea cual sea la cantidad de carga de texturas. Y está claro que la tasa que la han puesto va acorde a los 32MB, pruebas habrán hecho más que de sobra en los años de desarrollo.
Jose_Redfield escribió:DirectX 12 no acercará Xbox One a los 1080p
según CD Projekt RED


noticia_directx-12-no-acercara-xbox-one-a-los-1080p-segun-cd-projekt-red_24705


One ya llega a los 1080p ... por lo que ya de por si el titulo es absurdo.
2º nunca se dijo que direct 12 fuera para los 1080p sino para el rendimiento en si de la consola, ports etc.
y lo mejor de todo es que lees la noticia original y luego la "opinion" y te partes. Juntan la opinion propia con la de los desarrolladores.

Es como si :
Desarrollador : la consola verde esta bien
Noticia : la consola esta bien pero muy verde
xD

Bueno volvemos a los temas de siempre . Yo lo que veo es mucho miedo a d12 ...
No, si ahora resultará que los de Cd Projekt no tienen ni idea y tal....
Jose_Redfield escribió:DirectX 12 no acercará Xbox One a los 1080p
según CD Projekt RED


noticia_directx-12-no-acercara-xbox-one-a-los-1080p-segun-cd-projekt-red_24705

Venga lo pongo otra vez again. Fuente http://www.elotrolado.net/hilo_xbox-one-solo-temas-sobre-xbox-one_1899382_s111560#p1736564582

DX12 por las mejoras que supone a nivel de computación y gestión de los recursos, es más de 60 fps que de 1080p.

Y yo personalmente me centraría más en hacer los juegos en el rango 720-900p a 60 fps y plagados de efectos que empecinarse en el 1080p y quitando efectos o reduciéndoles la calidad.
Cd Projekt no tiene acceso a Dx12 aún. Se basan en la información oficial de Microsoft a día de hoy, q habla de una mejora en la CPU únicamente.

Otro punto importante q se esta comentando q trae Dx12 es una mejora sustancial en tareas GPGPU, lo q no t da más resolución.

Yo sinceramente no me preocuparía por los 1080p, en eso estoy de acuerdo con darksch.
Hablan de One como si se tratara de un pc estándar, ya que es cierto que DirectX 12 si que va a mejorar las llamadas a dibujado respecto al 11.2 (vamos debería multiplicarlas), peeeero es que One tiene una arquitectura muy lejos de una estándar y en cuando liberen el direxct 12 y le digan a esta gente las posibilidades de sombreado que le da esta arquitectura tan particular (texturas parciales, PBR, etc ) se les va a hacer la boca agua.

Al tiempo, 2015 is incoming ;)
salocin21 escribió:Hablan de One como si se tratara de un pc estándar, ya que es cierto que DirectX 12 si que va a mejorar las llamadas a dibujado respecto al 11.2 (vamos debería multiplicarlas), peeeero es que One tiene una arquitectura muy lejos de una estándar y en cuando liberen el direxct 12 y le digan a esta gente las posibilidades de sombreado que le da esta arquitectura tan particular (texturas parciales, PBR, etc ) se les va a hacer la boca agua.

Al tiempo, 2015 is incoming ;)



Ufff, un resumen muy resumido, no crees? jajaja

Tampoco creo que el directx12 vaya a suponer un gran cambio en cuanto al hardware de la One, más bien espero que abra la puerta al cloud computing.
SangReal está baneado del subforo por "Flamer anti Xbox One"
Grinch escribió:
Jose_Redfield escribió:DirectX 12 no acercará Xbox One a los 1080p
según CD Projekt RED


noticia_directx-12-no-acercara-xbox-one-a-los-1080p-segun-cd-projekt-red_24705


One ya llega a los 1080p ... por lo que ya de por si el titulo es absurdo.
2º nunca se dijo que direct 12 fuera para los 1080p sino para el rendimiento en si de la consola, ports etc.
y lo mejor de todo es que lees la noticia original y luego la "opinion" y te partes. Juntan la opinion propia con la de los desarrolladores.

Es como si :
Desarrollador : la consola verde esta bien
Noticia : la consola esta bien pero muy verde
xD

Bueno volvemos a los temas de siempre . Yo lo que veo es mucho miedo a d12 ...

La noticia esta bien clara, la tienes en la portada de eol. O ahora resulta que sabes más que los de cd Projekt red?
Tampoco es tan sencilla la cosa, suponiendo, que Xbox de verdad sea un cambio en la forma de hacer juegos habria que ver como se adaptan los motores y como acoge la industria esto, como digo suponiendo, que quizas sea mucho suponer y al final Xbox sea una consola hasta la bola de debilidades y cuellos de botella, algo que dudo pero que no seria la primera vez, solo hay que mirar a Ps3 y su magnifico Cell.

Microsoft deberia de dar un golpe en la mesa y presentar algo en el que se usaran todas esas virtudes que supuestamente atesora su arquitectura, no es que tenga mucha prisa por ver nada en especial y la verdad es que 12cu y cpus de portatiles dan para lo que dan, pero la batalla del marketing la estan perdiendo de calle, declaraciones como la de este hombre que algo sabra del tema que para algo se dedica al motor del juego no ayudan nada.

Las tiled resourses dan para suplir un bajo ancho de banda pero tampoco van a hacer que los juegos sean mucho mejores es mas a priori no seran ni mejores, es mas con tiled o sin tiled las texturas en todos los juegos multi seran las mismas en todas las plataformas, al menos asi fue con Rage, que quizas sea lo que mas se acerca hoy al tema de las tiled.

Como decian los de Cryteck la calidad de un juego no se mide por sus texturas ni contando poligonos ni contando pixeles de resolucion, la calidad de un juego es un todo en el que la iluminacion y los efectos sobre la imagen tienen una gran repercusion, y ahi es donde se espera que las nuevas consolas enseñen sus virtudes.
Hoy en dia me parece un poco tonteria lo de los poligonos. Cuantos mas mejor, pero no se van a notar tanto.

Lo de las texturas no estoy de acuerdo, para mi si que hay aun mucho margen para mejorar.

Y la iluminacion si que es muy importante, una buena iluminacion puede hacer maravillas en el resultado final.
Sergitos2 escribió:No, si ahora resultará que los de Cd Projekt no tienen ni idea y tal....


No se si sea verdad, pero el que hizo los comentarios si no tiene idea, en el sentido que el no hace todos los juegos y todavia no lo ha experimentado.

Por ejemplo que pasa con los juegos que no tengan muchos efectos o no se necesite tanto de texturas, o ambas pero ahora puedan pues darnos los 1080. en ese caso si es mejor poner los 1080p no?

Cuales juegos por ejemplo algunos indies.

Otra es los costos de hacerlo o lo que decidan hacerlo, por ejemplo me decido a hacer un juego blanco y negro, o que tenga las franjas negras como el criticado order (a muchos no les entra en la cabeza que si pude ser verdad que decides hacer un juego asi).

Que por caracteristicas del juego la imagen no cambie mucho de campo a campo y ello te pueda ahorrar mucho trabajo y creacion y puedas aprovecharlo para poner 1080 se me ocurre por ejemplo los jrpg peleas por turnos por ejemplo......

es que no se puede hablar en terminos absolutos, imagina el forza hecho ahora con direct12 .....es que se depende de muchas cosas.

Besos
La cagaron al centrarse en TV en vez de en consola como dios manda y ahora lo están pagando.

Esta consola está mal parida y solo lo arregla el sacar una nueva (como hicieron de Xbox a Xbox 360, aunque esas dos fueron consolones y la One es un TDT)
Por favor, dejamos los offtopic y los comentarios Flames.

No aviso mas.
sabueXo escribió:La cagaron al centrarse en TV en vez de en consola como dios manda y ahora lo están pagando.

Esta consola está mal parida y solo lo arregla el sacar una nueva (como hicieron de Xbox a Xbox 360, aunque esas dos fueron consolones y la One es un TDT)


PD.: Borrado, he visto la intervención del Moderador y prefiero evitar la contestación.
!!Que es solo mi opinión!!, para mi se han equivocado en el planteamiento inicial de la consola, no es por buscar bronca. Microsoft hizo exactamente eso con la Xbox original para plantar cara a la competencia sacando la 360 antes de terminar el ciclo de vida normal de una consola.

Pero ok, no comentaré más ese tipo de cosas viendo que no se puede.
sabueXo escribió:La cagaron al centrarse en TV en vez de en consola como dios manda y ahora lo están pagando.

Esta consola está mal parida y solo lo arregla el sacar una nueva (como hicieron de Xbox a Xbox 360, aunque esas dos fueron consolones y la One es un TDT)


Claro que si campeón.

Ahora en serio:

Hay nueva información del insider de MS..

En resumen:

Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra.

Tema de los cooprocesadores programables, dice que hay mucho hardware desconocido todavía pero que van a dar mucho juego.

Ancho de banda de la GPU.. Se rumorea que la velocidad real del sistema rondaria los 500g..

Raytracing.. Confirmado que es una maquina pensada para ello, gear 5 tendrá raytracing completo.

Ps4 no tendrá capacidad técnica para raytracing y hablan de una posible ps5 en 2016.


Unreal engine, hay una versión ya especializada para call to metal en xbox one, la versión ps4 esta bloqueada y por eso los retrasos de juegos en esta maquina.
salocin21 escribió:
sabueXo escribió:La cagaron al centrarse en TV en vez de en consola como dios manda y ahora lo están pagando.

Esta consola está mal parida y solo lo arregla el sacar una nueva (como hicieron de Xbox a Xbox 360, aunque esas dos fueron consolones y la One es un TDT)


Claro que si campeón.

Ahora en serio:

Hay nueva información del insider de MS..

En resumen:

Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra.

Tema de los cooprocesadores programables, dice que hay mucho hardware desconocido todavía pero que van a dar mucho juego.

Ancho de banda de la GPU.. Se rumorea que la velocidad real del sistema rondaria los 500g..

Raytracing.. Confirmado que es una maquina pensada para ello, gear 5 tendrá raytracing completo.

Ps4 no tendrá capacidad técnica para raytracing y hablan de una posible ps5 en 2016.


Unreal engine, hay una versión ya especializada para call to metal en xbox one, la versión ps4 esta bloqueada y por eso los retrasos de juegos en esta maquina.


Te he resaltado lo más divertido, algunos os creéis lo primero que leéis.
Es información del insider no mia, no se donde lees que me lo crea.
Me ha chocado que pongas "ahora en serio" y a continuación pongas el texto que has puesto.
Hombre.. Es que es un hilo para hablar del hardware de One.. Con lo cual era la parte que quería resaltar, por lo que lo primero (que One es un tdt) no merece ni una reflexion en serio.

Si te hace mas fácil lo cambio por un " y cambiando de tema" y todos contentos.

Dicho esto ya que has resaltado lo de ps5, yo tampoco lo creo, pero si que es cierto que si todo lo que de rumorea la ps4 se vería en una posición muy difícil.

Y una cosa que es muy muy verosímil es que One va a soportar raytracing y texturas parciales, que es el futuro de este mundillo y el que nos va a dar muchas alegrías.

Y la ps4 no va a soportar texturas parciales por la arquitectura de su placa y su ridicula latencia debida a la ddr5.

Y el raytracing en una maquina de 1.6 teraflod (1.8 - 0.2 para audio) solo se podrá implementar de manera muy básica.

PD. Hablar aquí de ps4 es offtipar, pero venia al hilo del insider, sorry admins :)
Joder, vaya nivel que se gastan los "insiders" últimamente.... [facepalm]
salocin21 escribió:Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra.


Confirma? Ein?

Como es eso de que un post de un insider random en un sitio random confirma nada?
Zokormazo escribió:
salocin21 escribió:Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra.


Confirma? Ein?

Como es eso de que un post de un insider random en un sitio random confirma nada?



Y esto? Mixter-x vuelve a la carga?.
¿Quien ha dejado la puerta de la jaula abierta?

En fin...
Efectivamente misterXmedia vuelve a la carga.

He estado repasando su blog y resulta q tenemos la resolución al problema de para q han introducido 8GB de memoria flash.

Resulta q el Procesing in memory (PIM) q debe ser como un mecanismo para conseguir más flops (gpcompute) con un consumo energético reducido, funciona de la siguiente manera:

Dentro del SoC hay:

GPU clusters con su correspondiente CP.
CPU clusters
Hardware de propósito fijo. (Coprocesadores)
Y memoria virtual dentro del SoC, q en el caso de One se utiliza Sram para simular una stacked DRAM de pequeña capacidad y alto ancho de banda.

Fuera del SoC tenemos:
Stacked NVRAM o DRAM ( En el caso de One tenemos, SK Hynix h26m420036MR, q son 8GB stacked NVRAM).


Muy muy interesante. No estaría mal indagar más cosas por ahí. Porq hasta ahora nadie tenia ni idea para q One montaba stacked NVRAM. Todo esto encaja con el discurso de arquitectura de supercomputación.

Para quien quiera echar un vistazo y aportar datos:

http://misterxmedia.livejournal.com/172751.html
No deja de ser mixtermedia, pero si que me parece curioso que en el ultimo post haya cosas que se parecen a lo que flashbackman dice.

¿Se autoalimentaran entre ellos? Jajajaja
Nuhar escribió:No deja de ser mixtermedia, pero si que me parece curioso que en el ultimo post haya cosas que se parecen a lo que flashbackman dice.

¿Se autoalimentaran entre ellos? Jajajaja


¿Lo dudas? [sonrisa]
Szasz escribió:Efectivamente misterXmedia vuelve a la carga.

He estado repasando su blog y resulta q tenemos la resolución al problema de para q han introducido 8GB de memoria flash.

Resulta q el Procesing in memory (PIM) q debe ser como un mecanismo para conseguir más flops (gpcompute) con un consumo energético reducido, funciona de la siguiente manera:

Dentro del SoC hay:

GPU clusters con su correspondiente CP.
CPU clusters
Hardware de propósito fijo. (Coprocesadores)
Y memoria virtual dentro del SoC, q en el caso de One se utiliza Sram para simular una stacked DRAM de pequeña capacidad y alto ancho de banda.

Fuera del SoC tenemos:
Stacked NVRAM o DRAM ( En el caso de One tenemos, SK Hynix h26m420036MR, q son 8GB stacked NVRAM).


Muy muy interesante. No estaría mal indagar más cosas por ahí. Porq hasta ahora nadie tenia ni idea para q One montaba stacked NVRAM. Todo esto encaja con el discurso de arquitectura de supercomputación.

Para quien quiera echar un vistazo y aportar datos:

http://misterxmedia.livejournal.com/172751.html



Hombre utilizar VRAM ( tambien llamada dual-porter) tiene todo el sentido ya que es una memoria accesible por varios dispositivos a la vez y ya sabíamos que One tenia la capacidad de leer y escribir en RAM desde diferentes dispositivos simultáneamente (CPU,GPU) la única Manera que veo de utilizar esto es que mientras la GPU está sacando datos la CPU podría a la vez ir volcando otros distintos lo que de nuevo mejoraría mucho la eficiencia del sistema.

Desde luego esta hipótesis seria de lo mas coherente en una estructura de supercomputación, y mas si le añadimos la teoría de los tiempos de apagado que ya hablamos (dark silicon)

Me sorprende mucho que One pueda montar este tipo de hardware, desde luego seria algo nunca visto en arquitectura de pc.


PD para los troles varios que hay por aquí, si no os importa de lo que aquí se habla o no podéis aportar nada inteligente mejor no posteeis gracias.
no se porque siempre imagine que esos 8GB de memoria eran un tipo de memoria tipo cache, que se podria utilizar por ejemplo al momento de actualizar la consola, o una que otra tarea extra que no ameritace tanta velocidad!!

pero resulta interesante esta funcion que se le pretende dar, como muchas teorias, solo el tiempo lo dira.


siempre es bueno leerlos, cada dia hay algo nuevo que aprender y/o esperar
fabrihn escribió:no se porque siempre imagine que esos 8GB de memoria eran un tipo de memoria tipo cache, que se podria utilizar por ejemplo al momento de actualizar la consola, o una que otra tarea extra que no ameritace tanta velocidad!!

pero resulta interesante esta funcion que se le pretende dar, como muchas teorias, solo el tiempo lo dira.


siempre es bueno leerlos, cada dia hay algo nuevo que aprender y/o esperar


Hombre esos 8 gigas se tienen que utilizar para "framear" si o si, pero claro imagino la ram sacando y metiendo datos a alta velocidad en varios buses de manera simultanea y desde luego el potencial es tremendo.

A años luz de una arquitectura estándar de un PC.
Una pregunta ¿los 8GB que mencionáis, son la memoria RAM o es otra memoria aparte?

Saludos
Terrez escribió:Una pregunta ¿los 8GB que mencionáis, son la memoria RAM o es otra memoria aparte?

Saludos


Xbox One monta 8GB de DDR3 y 8GB de memoria flash(NVRAM, es decir, memoria no volátil).

En este caso hablamos de la memoria NVRAM de 8GB, la q se pensaba q tenia un uso de carga de apps o cambios de contexto entre los diferentes SO. Pero parece ser q no, y lo q se esta comentando por otros foros es q se utilizara de "nube local".

Me gustaría investigar más sobre el tema, pero es realmente difícil cuándo buscas nuevas arquitecturas en la red.
17587 respuestas