Hablemos del interior de Xbox One

Wow....retuiteado por Phil....
Muy interesante.....podríamos tener un post parche DirectX12 para Witcher 3 versión Xbox One
Absolute Terror escribió:
papatuelo escribió:
Una pregunta todo lo acertada que tu quieras.

Pero las normas del foro impiden hacerlo y si se reporta a la gente que esta contestando y moderación viene no van a tener más remedio que amonestarles.


Dudo mucho que alguien reporte a nadie por expresar cuales son sus expectativas con DX12 en One.

Basicamente porque de forma mas o menos velada eso es lo que se viene haciendo en el hilo desde que se creo.


Me da igual lo que creas, te digo lo que hay porque a mi me han reportado por lo mismo.

No conoces este hilo, creeme. Te reportan por eso.
Pf, si fuera sólo en este hilo. Todavía me acuerdo de algún que otro ban que me ha tocado por mencionarlo en hilos aun menos específicos.
ShadowWish escribió:yo ni idea del tema


Pues muchas de nosotras tampoco [carcajad] [carcajad] [carcajad] hasta los que "expertos".

Aqui y en casi todos lados se ponen y deducen las cosas en particular y no como un todo en general, tampoco tomamos en cuenta la pericia,intereses e ideas de los desarrolladores.

debes tomar con pinzas cuando te dicen mejoras o incrementos un apartado puede darte mejoras en algo y no ser suficiente o afectar otra cosa, por ejemplo mejoramos el uso de la memoria RAM, pero tenemos una memoria de 32 XD pos como desarrollador pues quedas con cara de palo....(tambien al contrario puede ser tienes una RAM de 512GB si de GB, pos dices que bien pero a mi eso no me preocupa).

Hemos sido testigos de muchas mejoras palpables en los juegos sobre todo en consolas que vienen mas de la mano de la pericia o que el desarrolaldor se dejo la piel en su trabajo ideando y equilibrando usos del codigo que de las herramientas mismas.

Por ejemplo ahi tienes Ryse, el trabajo final fue estupendo (y en un tiempo corto, dios supongo que una presion enorme). los puristas pues con su tecnisismo que esta a 900 de resuolucion...si eres practica pues dices magnifico trabajo.

del texto pues ya te estan diciendo y comparando mas de lo mismo mejoras y rendimiento, pero nada en terminos reales por decir una tonteria Direct12 que esta mas allba que mantle podria verse mas limitado en aplicaciones reales que mantle si se pusiera en la misma consola.....

cuando hablamos sin conocer un todo, es un poco especulativo o verdad a medias....la mejor tarjeta grafica que encuentres no es garantia de darte el mejor desempeño que otra mas modesta en determinados juegos, ejemplo barato XD pos los juegos viejitos en la pantalla LCD.....los pones en la de tubo y .....

besos
Manaum te vas a la pagina 1201 y te lees un pokito lo que pones, vuelvo a repetir has visto el juego para decir las afirmaciones que dices en dicha pagina?
Nosomi escribió:
Pues muchas de nosotras tampoco [carcajad] [carcajad] [carcajad] hasta los que "expertos".

Aqui y en casi todos lados se ponen y deducen las cosas en particular y no como un todo en general, tampoco tomamos en cuenta la pericia,intereses e ideas de los desarrolladores.


[beer]

yo tengo muy claro que muchas de las chapuzas de juegos que nos han colado es mas cosa de las desarroladoras que culpa de la consola; si pueden sacar x juego en x consola sin esforzarse mucho y en esta para cumplir el mismo objetivo necesitan rehacer algo de código, siempre es mas sencillo tirar a lo mas fácil como bajar resolución o cualquiero chorrada que esforzarse un poquito :P

PD. muy contento estoy la ONE y los juegos que tengo, que es al fin de cuentas lo que importa, juegoooooos :)
Es que las copias de datos es lo que se lleva al traste la mayoría de los intentos por usar GPGPU en los algoritmos. Fijaos en el detalle que DX12 trabaja con recursos en páginas. Por lo tanto seguramente sus compute shaders ya trabajen de esa manera en los hardware que lo soporten, y en los que no pues el driver tendrá que hacer el trabajo de copiado internamente.

También espero que se actualicen las C++ AMP y demás, o una forma sencilla de poder usarlo sin necesidad de iniciar todo un subsistema grafico si no vamos a usarlo, por ejemplo cuando solo interese usar la computación.
cch37 escribió:Manaum te vas a la pagina 1201 y te lees un pokito lo que pones, vuelvo a repetir has visto el juego para decir las afirmaciones que dices en dicha pagina?


Lo dices por esto?

Mamaun escribió:Con usar el modelo de escenas cinematicas + normal mapping a resolución alta te podría salir ese nivel de detalle.


La practica totalidad de juegos tienen un "modelo de cinematicas" desde el Assassins Creed hasta el FIFA pasando por el Uncharted y el Mario. Solo digio que usando el hipotético modelo de cinematicas de Halo5 (asset del juego) y poniéndole su correspondiente normal mapping a alta resolución, se consiguen niveles de detalle muy altos.


Y en cuanto a la otra cita:

eloskuro escribió:No he dicho igual xD He dicho que es casi igual xD que no es lo mismo. Con los mismos assets pero con mas calidad en la escena al ser cgi. Obvius xD

Mamaun escribió:El modelado de los personajes tiene MUCHO mas detalle que en el juego.

Estábamos hablando de el trailer de The Division, justo dos posts más arriba en la página 1200. http://www.elotrolado.net/viewtopic.php?p=1738757053


No se donde ves que he visto el juego. Evidentemente no lo he visto. Ya te dije que hablaba de cosas que sí había visto como Motorstorm, Zelda, Whatch Dogs, Uncharted, Killzone...
Vale si lo decias por the division me callo y te pido disculpas, es que a esas alturas andabamos hablando de halo5, saludos

Yo veo el articulo bastante incompleto, ya que no menciona nada del "Asyncronous Compute" del que se habla en el X D K de DX11 Mono, para ver si es lo mismo que lo de DX12 o no.
cch37 escribió:Vale si lo decias por the division me callo y te pido disculpas, es que a esas alturas andabamos hablando de halo5, saludos


Con tanto mensaje a veces es dificil seguir el hilo :D


PD: El "Asyncronous Compute" no lo usa "la competencia" en algunos juegos? Estoy ansioso por ver un juego full 100% optimizado para one a ver qué da de sí
Mamaun escribió:
cch37 escribió:Vale si lo decias por the division me callo y te pido disculpas, es que a esas alturas andabamos hablando de halo5, saludos


Con tanto mensaje a veces es dificil seguir el hilo :D


PD: El "Asyncronous Compute" no lo usa "la competencia" en algunos juegos? Estoy ansioso por ver un juego full 100% optimizado para one a ver qué da de sí


Si, ya se ha usado en juegos en PC y otras plataformas.

Pero son pocos juegos, entre ellos creo que el Battlefield...
Szasz escribió:
Szasz escribió:
Pada escribió:La HBM es un tipo de memoria dinámica y la eSRAM es estática. No son o mismo, mas tienen bastantes puntos en común.


No. En ningún documento pone q tiene q ser dinámica o estática. Repito hay un dataset de HBM de hynix con memoria sram. En este mismo hilo creo q se posteo tiempo atrás. Si tengo tiempo ya lo buscaré....


https://www.skhynix.com/inc/pdfDownload ... Memory.pdf

Fallo mío. No pone si es Sram o Dram, solo pone HBM. Por lo q puede q efectivamente el termino HBM debe ser usado para memoria Dram.

De todas formas la idea q subyace a mi razonamiento se mantiene, pero si preferís la llamaremos SHBM por ejemplo.


Ahora somo ingenieros y nos inventamos nombres para la memoria eSRAM [qmparto]

La memoria esRAM es memoria eSRAM punto (esto dicho por la propia Microsoft, que es lo lleva Xbox one en su interior)

La memoria HMB tiene dos caracteristicas principales para ser denominadas de esa forma:
1_ Utiliza una interface TSV
2_ Utiliza memoria DRAM apiladas, eso quiere decir que cada chip de memoria esta uno sobre el otro.
Imagen

La memoria HBM no esta embebida en el chip como la eSRAM (por eso su gran ancho de banda, la de la eSRAM), si no que esta conectada al SOC mediante un interposer en la misma placa logica.

Así que deja de ponerle nombres a algo en donde ni siquiera participaste en su diseño, llamemos las cosas por sus nombres.
Gracias por tu clase teórica, se lo q es una memoria HBM, pero se agradece tu dedicación.

Técnicamente One no monta una memoria HBM, pero si una interfaz 1024 bits en cada dirección, baja latencia, bajo consumo y un gran ancho de banda. No he participado en su diseño, pero no puedes demostrarme q no haya conexiones TSV y q no haya interposer en el SoC de One. Hay evidencias de 2.5D.

Puedes seguir buscándole la puntilla a lo q digo.
Szasz escribió:Gracias por tu clase teórica, se lo q es una memoria HBM, pero se agradece tu dedicación.

Técnicamente One no monta una memoria HBM, pero si una interfaz 1024 bits en cada dirección, baja latencia, bajo consumo y un gran ancho de banda. No he participado en su diseño, pero no puedes demostrarme q no haya conexiones TSV y q no haya interposer en el SoC de One. Hay evidencias de 2.5D.

Puedes seguir buscándole la puntilla a lo q digo.


Donde esta esa evidencia? 2.5D :-?

Yo solo se que el SoC de Xbox one es este
Imagen

y se ve que la memoria eSRAM esta incluida en el mismo chip, no fuera de este como pasa con la memoria HBM.
Yo diría que da igual dentro que fuera del soc pra decir que es HBM.

Juraría que lo importante es que la comunicación se realice a traves del silicio (eso singnifica TSV) ya sea verticalmente (3D) o por medio de un interposer (2,5D).

Con ello no estoy diciendo que la memoria eSRam sea HBM, eso que quede claro.
Refloto [360º]

Horizonte de sucesos escribió:

Imagen

Imagen

Imagen

Imagen

Imagen

Imagen



http://www.sematech.org/meetings/archiv ... 04_Lau.pdf



Rayos X (ONE tiene más capa de metal):
Imagen

Apilado 3D?
Imagen
Se supone que una de las ventajas del stacking o apilado es que puedes meter mas memoria en el mismo espacio. Pero segun se comento en los analisis del chip la superficie ocupada por la memoria concuerda con el tamanyo de esta con la tecnologia de fabricacion usada y sin apilar.

De todas formas, que mas da que sea 2.5D, 3D, HBM u otra cosa si al final lo importante es el tamanyo que tiene y el ancho de banda que proporciona?

Un saludo!
Horizonte de sucesos escribió:Refloto [360º]

Rayos X (ONE tiene más capa de metal):
Imagen

Y segun esos rayos x la "otra" también tiene varias capas de metal.

Apilado 3D?
Imagen

Es una pregunta o una afirmación?

PD: me pasas la fuente de esas imágenes, me interesa leer la explicación de todo esto.

argam escribió:Se supone que una de las ventajas del stacking o apilado es que puedes meter mas memoria en el mismo espacio. Pero según se comento en los análisis del chip la superficie ocupada por la memoria concuerda con el tamaño de esta con la tecnología de fabricación usada y sin apilar.

De todas formas, que mas da que sea 2.5D, 3D, HBM u otra cosa si al final lo importante es el tamaño que tiene y el ancho de banda que proporciona?

Un saludo!


Es una de las ventajas, no tiene sentido que utilicen una tecnología de este tipo para solo meter 32MB (es un desperdicio) y si no que se lo pregunten a Nvidia y sus futuras gráficas
Imagen
Tenemos interposer confirmado en One.
Papatuelo tiene información al respecto.
Dentro de un SoC se puede meter DRAM ? Supongo que sí, me suena lo de eDRAM ...
Pq la SRAM al final tiene un coste muy alto en transistores ... sino los procesadores llevarían unas caches mas tochas. Y por mucho que se consiga apilar, sería un coste muy alto aumentar la capacidad de una SRAM.

argam escribió:De todas formas, que mas da que sea 2.5D, 3D, HBM u otra cosa si al final lo importante es el tamanyo que tiene y el ancho de banda que proporciona?

+1
Hola,
tras leer en el blog de AMD la nueva funcionalidad de los async shaders que trae DX12, no me queda claro que diferencia hay con lo que hasta ahora hacían los ACEs, que como sabéis están ahí desde los comienzos de la arquitectura GCN. Su función era precisamente ocupar con operaciones de cómputo los "huecos" que el contexto gráfico principal dejara en la GPU (según tenía yo entendido). Que opináis?
aelio escribió:Hola,
tras leer en el blog de AMD la nueva funcionalidad de los async shaders que trae DX12, no me queda claro que diferencia hay con lo que hasta ahora hacían los ACEs, que como sabéis están ahí desde los comienzos de la arquitectura GCN. Su función era precisamente ocupar con operaciones de cómputo los "huecos" que el contexto gráfico principal dejara en la GPU (según tenía yo entendido). Que opináis?


Justamente los ACEs están para eso. Pero como siempre, se acaban sacando mejores soluciones......
Quedan exactamente 2 dias para la BUILD 2015

http://www.buildwindows.com/
eloskuro escribió:Quedan exactamente 2 dias para la BUILD 2015

http://www.buildwindows.com/


Exactamente no, a mi me marca 6 minutos mas [poraki] [poraki] [poraki] [poraki]
Yo estoy viendo pot twich un tio jugar,la verdad que me gusta lo que veo y va ha caer de salida,lo unico malo que tengo que ahorrar para un volante,ojala xbox tuviera uno como el logitech driving for gt encuanto a calidad precio
Nuhar escribió:
eloskuro escribió:Quedan exactamente 2 dias para la BUILD 2015

http://www.buildwindows.com/


Exactamente no, a mi me marca 6 minutos mas [poraki] [poraki] [poraki] [poraki]


Espero que digan fecha para Fable Legends con DX12 y Windows 10 debajo del brazo para insiders ^^
aelio escribió:Hola,
tras leer en el blog de AMD la nueva funcionalidad de los async shaders que trae DX12, no me queda claro que diferencia hay con lo que hasta ahora hacían los ACEs, que como sabéis están ahí desde los comienzos de la arquitectura GCN. Su función era precisamente ocupar con operaciones de cómputo los "huecos" que el contexto gráfico principal dejara en la GPU (según tenía yo entendido). Que opináis?

Fácil, que con DX11 u OpenGL no se usan como se debe. Se limitan a repartir UN trabajo entre los CU. Con DX12, Mantle y etc. además permite usarlos con todo su funcionalidad, que es por repartir LOS trabajos entre los CU, y mientras estos trabajos sean de ámbitos diferentes (como render y computación), pueden ejecutarse SIMULTÁNEAMENTE. Esto con DX11 por ejemplo no se hace, no se ejecutan trabajos de ámbitos diferentes simultáneamente.
darksch escribió:
aelio escribió:Hola,
tras leer en el blog de AMD la nueva funcionalidad de los async shaders que trae DX12, no me queda claro que diferencia hay con lo que hasta ahora hacían los ACEs, que como sabéis están ahí desde los comienzos de la arquitectura GCN. Su función era precisamente ocupar con operaciones de cómputo los "huecos" que el contexto gráfico principal dejara en la GPU (según tenía yo entendido). Que opináis?

Fácil, que con DX11 u OpenGL no se usan como se debe. Se limitan a repartir UN trabajo entre los CU. Con DX12, Mantle y etc. además permite usarlos con todo su funcionalidad, que es por repartir LOS trabajos entre los CU, y mientras estos trabajos sean de ámbitos diferentes (como render y computación), pueden ejecutarse SIMULTÁNEAMENTE. Esto con DX11 por ejemplo no se hace, no se ejecutan trabajos de ámbitos diferentes simultáneamente.


Es decir, que hasta ahora si una tarea de cómputo necesitaba 4 CUs, ¿las otras 8 estaban paradas hasta que se pasara a la siguiente tarea del búfer de comandos?
Si es así (corregidme si no lo es) la verdad es que es una funcionalidad que puede dar un impulso bastante importante al rendimiento de la GPU.
Asíncrono quiere decir que la ejecución no espera hasta que la tarea termine. Como mucho el proceso asíncrono ejecuta un callback al terminar y ya para notificar u otras operaciones.
Stylish escribió:Asíncrono quiere decir que la ejecución no espera hasta que la tarea termine. Como mucho el proceso asíncrono ejecuta un callback al terminar y ya para notificar u otras operaciones.

Pero es que según lo que explica en el blog, de alguna manera DX11 serializaba estas tareas asíncronas(lo que es un poco confuso y de ahí mi duda), mientras que en DX12 sí que se ejecuta de forma totalmente asíncrona.
Diría que a partir de mañana a las 17:30 empezaremos a tener respuestas... Aunque claro, miro atrás en el tiempo y recuerdo que es lo mismo que pensaba el año pasado...
atlasFTW escribió:Diría que a partir de mañana a las 17:30 empezaremos a tener respuestas... Aunque claro, miro atrás en el tiempo y recuerdo que es lo mismo que pensaba el año pasado...


+1
aelio escribió:
Stylish escribió:Asíncrono quiere decir que la ejecución no espera hasta que la tarea termine. Como mucho el proceso asíncrono ejecuta un callback al terminar y ya para notificar u otras operaciones.

Pero es que según lo que explica en el blog, de alguna manera DX11 serializaba estas tareas asíncronas(lo que es un poco confuso y de ahí mi duda), mientras que en DX12 sí que se ejecuta de forma totalmente asíncrona.


Tu mismo lo has dicho, el serializador serializa. Por definición los procesos asíncronos se lanzan en paralelo. En DX11 podrías enviárselos al serializador de forma asíncrona, otra cosa es lo que hiciera el serializador con ellos.
No creo que en el evento principal del BUILD2015 den detalles excesivamente técnicos e interesantes. En hora y media hablando de todo el ecosistema Windows (PC, Azure, movil, tablet, Xbox, Hololens, Band, IoT)... no espero nada mas que una keynote a lo Apple (hype máximo)

Hasta unas horas después no empiezan las sesiones "guays"
http://channel9.msdn.com/Events/Build/2 ... =200626356 (esta es la lista)
Muchisimas charlas de IoT que se ve apoyado en todo momento por Azure (tiene muy buena pinta)

Y que puedan interesaros, estas:
http://channel9.msdn.com/Events/Build/2015/2-637
http://channel9.msdn.com/Events/Build/2015/2-648
http://channel9.msdn.com/Events/Build/2015/3-673

A mi personalmente, me da la curiosidad esto:
http://channel9.msdn.com/Events/Build/2015/3-773 Soporte nativo NFC en plataformas Windows 10. Podria ser que se acabase activando esta funcionalidad del chipset de la One?
Lo de mañana pinta muy interesante, sobretodo por nuevas demos de hololens (y quien sabe si precio y lanzamiento)... entre otros muchos temas de win10 y para devs que son interesantes... pero de xbox poco o nada habrá. entre que phil dijo ayer en twitter que la xbox no estará presente (ni el tampoco): https://twitter.com/XboxP3/status/592781985917067264 y que le gustaría hablar de la plataforma en el E3 (no solo de juegos)... todo apunta a que se reservan el tema win10 para el E3 tambien.
eloskuro escribió:Miracast. Que no servia para nada decian ^^
https://www.youtube.com/watch?v=Kxqp7bqmfnI

Nos ha jodido es que eso es lo que se esperaba de un full Miracast, pero lo que anunciaron era solo para enviar fotos y videos a la pantalla del tv, cosa que ya se hace con el reproductor multimedia. Entonces lo que preguntaron por aquí con anterioridad la respuesta seria "si" visto lo visto.

Así si, y muy interesante y que poca gente conoce, Windows 8 lo incorpora de serie como proyección a una pantalla inalámbrica, que es lo que hace en el video.
Pero para utilizarlo en el PC por ejemplo con windows 8 hace falta tener una tarjeta/placa compatible con wifi direct no? Es decir, no funciona con la red wifi tradicional tambien, o incluso por cable.
Pada escribió:Pero para utilizarlo en el PC por ejemplo con windows 8 hace falta tener una tarjeta/placa compatible con wifi direct no? Es decir, no funciona con la red wifi tradicional tambien, o incluso por cable.


Correcto.
Es conectividad a la maxima exponencia. No sé le puede pedir más ^^ Puedes usar el movil o el ordenador y que la xbo sea otra pantalla más. Perfecto para cualquier situación. se conecta en segundo y, sin complicaciones, transcodes y mierdas en vinagre :P
Para la gente de perfil medio-bajo, es lo que verán mas facil para conectarse.

-----

Wifi direct acabará siendo ampliamente usado. Eso no es problema. Es tener tecnologia del presente. no del pleistoceno. Como si eso fuese un problema.
eloskuro escribió:Es conectividad a la maxima exponencia.

No, su conectividad se limita a redes privadas bajo demanda: wifi-direct

No sé le puede pedir más ^^


Aqui acaban de hacerlo y una bastante logico: la posibilidad de usar redes con infraestructura para establecer el canal IP.
Zokormazo escribió:
eloskuro escribió:Es conectividad a la maxima exponencia.

No, su conectividad se limita a redes privadas bajo demanda: wifi-direct

No sé le puede pedir más ^^


Aqui acaban de hacerlo y una bastante logico: la posibilidad de usar redes con infraestructura para establecer el canal IP.


Pero es que no quereis miracast xD. Quereis una red privada configurada por vosotros mismos. No tiene nada que ver. No sé a que vienen las comparativas y las quejas ^^

-----

Ir al feedback de xbox y pedir mas opciones de streeming etc :P
Por querer... XD

Aynque yo no he dicho que lo quiera :P
Enseguida van a hablar de Hololens en la BUILD

http://channel9.msdn.com/?wt.mc_id=build_hp

Por cierto: Visual studio para mac, linux y widnows
Microsoft lo va a petar con todo el ecosistema que está montando, estiman que mil millones de dispositivo usaran Windows 10, Hololens es una pasada.
Lo de Hololens no tiene nombre, ves los aparatos de VR actuales y ves eso y parece que ya han pasado 10 años tecnológicamente hablando.

Increíble.
17587 respuestas