Hablemos del interior de Xbox One

jusilus escribió:
chris76 escribió:Que inocente,lo que es fuerte es que el halo aun no hayan conseguido que funcione como toca con servers dedicados despues de 50 parches,que es lo que nos vendieron,y no vengais con si es por esto o por lo otro porque a mi lo que me importa es que funcione correctamente y punto pelota


No entiendo muy bien que hace este comentario en este hilo. Tampoco me parece normal decir cosas que no son ciertas (¿50 parches? ¿en serio?). Estaría bien que moderación recordara a los usuarios que si van a afirmar algo lo hagan con conocimiento de causa y no sólo por querer tener razón (aunque carezca de toda validez argumentativa).


jejejeje, tu si que eres inocente Jusi... [lapota]
NeCLaRT escribió:No tiene nada que ver esa filtracion publica con pirateria en la maquina, por mas que la gente lo repita sin leer.

Y los juegos con uso cloud ahora mismo deberia ser los de mundos persistentes o juegos solo online, ahora mismo dudo que se aplique a nada mas. En 3 años veremos, por ahi el internet en la consola al 100% ya quiza se puede dar por hecho y sino eres un perro verde que no cuentas.


Pues habrá de todo, juegos que su componente cloud sea tan potente que influya tanto en su jugabilidad que sea necesario estar conectado para poder jugar, como va a ser el Crackdown 3, donde la destrucción es ua parte primordial de la jugabilidad, O como lo ha sido Titanfall donde la IA se ejecuta en la nube.

Luego habrá otras juegos que el componente cloud solo sea un añadido "visual", que se desactivará si no estás online, y se activará cuando sí lo estés. Como sucede actualmente si dispones de GPU Nvidia y activas PhysX

https://www.youtube.com/watch?v=v97raiaPqCI

ITodo esto puede ir desde una implementación muy basica en un juego para cualquier parida, e ir subiendo al añadir simulación de viento realista que mueva la vegetación, humo y particulas como nunca antes visto, fisicas en fluidos realista, iluminación indirecta etc

PD: lo de los SDK no tiene nada que ver con la piratería, pero es mejor desviar la atención de la masa con ello para que pase más desapercibido lo nuevo que trae esos SDK.

Trabajo de astroturfers simplemente.
Lo del SDK mientras sea para homebrew perfecto, si es para piratear que se vayan a tomar por...

Respecto al siempre online, muchos juegos ya lo son, por ej. los de Ubisoft conectados a su UPlay o los de EA, como el DA:Inquisition para subir tus cambios a los servidores. La diferencia es que no lo dicen, pero lo son. Hay diferencia entre siempre online para complementar (computing, subir datos, etc.) respecto a siempre online obligatorio, que si no tienes conexión no poder arrancarlo siquiera.
Lo de los SDK es una tontería xq ya sabemos como funciona eso. En sucesivas actualizaciones se tapa el agujero.
No creo que a nadie le interese quedarse con una Xbox One que no conecta con internet y que solo puedo jugar juegos wave 1 y 2. No creo que nadie quiera quedarse sin jugar a los juegos DX 12 o quiera su consola sin W10.

De todas formas si se consigue piratear antes de que salga DX 12 = Golpe maestro.

Piratillas a comprar la primera next gen en la que se puede jugar by de face, las ventas aumentan de narices, siempre ha sido así. Se muestra DX 12 y los juegos son las pollas = todo el mundo a legalizar su hard para usar esos juegos.
Pues parece que la filtración del SDK ha confirmado y dado la razón a los que decían que la consola ha salido antes de tiempo y con unos drivers y APIs muy muy limitados y que durante el 2014 han introducido muchísimas cosas básicas. También se puede ver algún "preview" de funcionalidades que aportará dx12 próximamente.

Comentarios de la gente aqui, donde es bastante unánime la opinion de lo que acabo de decir: https://forum.beyond3d.com/threads/xbox ... ked.56362/

Interesante también lo del apartado Multiplayer 2015 de la documentación, donde parece ser que ya estará disponible alguna cosa de lo que comentaron en la presentación de la consola hace un año como el Smartmatch (matchmaking sin esperas, se hace a nivel de servidor aunque no estés jugando). También cambiarán el party chat, posiblemente por eso lleven tiempo sin arreglar los fallos que da ya que lo renovarán todo para windows10 que está al caer, y se deja entrever algun tema del Xbox Live Compute.... la nube cada vez mas cerca.

Feliz 2015, va a ser interesante :).
Horizonte de sucesos escribió:Pues habrá de todo, juegos que su componente cloud sea tan potente que influya tanto en su jugabilidad que sea necesario estar conectado para poder jugar, como va a ser el Crackdown 3, donde la destrucción es ua parte primordial de la jugabilidad, O como lo ha sido Titanfall donde la IA se ejecuta en la nube.

Luego habrá otras juegos que el componente cloud solo sea un añadido "visual", que se desactivará si no estás online, y se activará cuando sí lo estés.

Dudo que sea asi la verdad, que en ningun titulo offline se haga uso de esto, en plan activa y desactiva opciones graficas. Vamos pondria la mano en el fuego a que eso no va a ser asi. Otra cosa es que en 3 años todo juego te fuerce a estar online porque se da por hecho que es lo que todo el mundo hace aun un juego que perfectamente podria ser solo offline y entonces pueda estar sujeto a todo esto.

Crackdown 3 seguramente sera un juego solo online mundo tipo destiny o mundo persistente abierto, en el que todo eso tendra sentido.

Otra cosa es que sean extras tipo Forza 5 claro, que eso no afecta al juego activarlo o desactivarlo.

papatuelo escribió:Lo de los SDK es una tontería xq ya sabemos como funciona eso. En sucesivas actualizaciones se tapa el agujero.

Pero igualmente, no hay ningun agujero, solo se ha filtrado una herramienta de desarrollo mas o menos reciente al gran publico. La cual seguramente ya estaria filtrada previamente de manera interna entre ese tipo de grupos.
Pada escribió:Pues parece que la filtración del SDK ha confirmado y dado la razón a los que decían que la consola ha salido antes de tiempo y con unos drivers y APIs muy muy limitados y que durante el 2014 han introducido muchísimas cosas básicas. También se puede ver algún "preview" de funcionalidades que aportará dx12 próximamente.

Comentarios de la gente aqui, donde es bastante unánime la opinion de lo que acabo de decir: https://forum.beyond3d.com/threads/xbox ... ked.56362/

Interesante también lo del apartado Multiplayer 2015 de la documentación, donde parece ser que ya estará disponible alguna cosa de lo que comentaron en la presentación de la consola hace un año como el Smartmatch (matchmaking sin esperas, se hace a nivel de servidor aunque no estés jugando). También cambiarán el party chat, posiblemente por eso lleven tiempo sin arreglar los fallos que da ya que lo renovarán todo para windows10 que está al caer, y se deja entrever algun tema del Xbox Live Compute.... la nube cada vez mas cerca.

Feliz 2015, va a ser interesante :).


Lo q se ve es q ha tirado de una API dx11 prácticamente genérica de PC, sobretodo al principio. A partir de Octubre de 2014 es cuando ha empezado a tener unas herramientas interesantes. A partir de 2015 entiendo q las compañías ya habrán trabajado con kits algo más decentes. Pero aun faltan muchas cosas por implementar. Me parece a mi q vamos a oír mucho lo de los maletines y la paridad.
Szasz escribió:
Pada escribió:Pues parece que la filtración del SDK ha confirmado y dado la razón a los que decían que la consola ha salido antes de tiempo y con unos drivers y APIs muy muy limitados y que durante el 2014 han introducido muchísimas cosas básicas. También se puede ver algún "preview" de funcionalidades que aportará dx12 próximamente.

Comentarios de la gente aqui, donde es bastante unánime la opinion de lo que acabo de decir: https://forum.beyond3d.com/threads/xbox ... ked.56362/

Interesante también lo del apartado Multiplayer 2015 de la documentación, donde parece ser que ya estará disponible alguna cosa de lo que comentaron en la presentación de la consola hace un año como el Smartmatch (matchmaking sin esperas, se hace a nivel de servidor aunque no estés jugando). También cambiarán el party chat, posiblemente por eso lleven tiempo sin arreglar los fallos que da ya que lo renovarán todo para windows10 que está al caer, y se deja entrever algun tema del Xbox Live Compute.... la nube cada vez mas cerca.

Feliz 2015, va a ser interesante :).


Lo q se ve es q ha tirado de una API dx11 prácticamente genérica de PC, sobretodo al principio. A partir de Octubre de 2014 es cuando ha empezado a tener unas herramientas interesantes. A partir de 2015 entiendo q las compañías ya habrán trabajado con kits algo más decentes. Pero aun faltan muchas cosas por implementar. Me parece a mi q vamos a oír mucho lo de los maletines y la paridad.

Es lo que les quedará... Mentar la paridad. Cosa que nunca ha existido ni existirá
Se van conociendo los primeros detalles de Xbox One mediante su SDK filtrado hace escasos días.


No hace más de dos días que os adelantamos que el paquete de software para crear código en la consola de nueva generación de Microsoft había sido filtrado. Lejos de llamar al alarmismo hay que indicar que por el momento poco o nada se puede hacer pues este paquete de software necesita de una cuenta verificada por Microsoft y previo pago.

Quizá en el futuro se encuentre un método para saltarse esa limitación y poder cargar homebrew en la consola, pero por el momento vamos a quedarnos con la información extra que está saliendo de la documentación y changelogs oficiales que contiene el paquete.

Todos los kits de desarrollo son el mismo y necesitan de una cuenta activada por Microsoft para funcionar.
El sistema multiple compute context’s aún no está disponible.
Se confirma oficialmente el doble contexto gráfico mediante DirectX12.
La actualización a DirectX 11.2 trajo los tiles resourced en Enero de 2014.
El sistema cuando fue lanzado parecía estar exageradamente inmaduro por lo que aumenta la sospecha de haberse lanzado la consola prematuramente.
Hay relaciones a un nuevo Xbox Live 2.0 con mayor dependencia de Azure y el framework Orleans mejorado.
Es muy interesante que se confirme el caso doble del contexto gráfico mediante DirectX12 en Xbox One y esta información además, coincide con las declaraciones de Brad Wardell que afirmaba que solo se estaba utilizando un núcleo de la consola para el uso de DirectX11.Y esto es solo el principio, iremos ampliando información conforme conozcamos más datos.




http://soloxboxone.com/2015/01/01/lo-qu ... -xbox-one/
LuiTrO escribió:
Se van conociendo los primeros detalles de Xbox One mediante su SDK filtrado hace escasos días.


No hace más de dos días que os adelantamos que el paquete de software para crear código en la consola de nueva generación de Microsoft había sido filtrado. Lejos de llamar al alarmismo hay que indicar que por el momento poco o nada se puede hacer pues este paquete de software necesita de una cuenta verificada por Microsoft y previo pago.

Quizá en el futuro se encuentre un método para saltarse esa limitación y poder cargar homebrew en la consola, pero por el momento vamos a quedarnos con la información extra que está saliendo de la documentación y changelogs oficiales que contiene el paquete.

Todos los kits de desarrollo son el mismo y necesitan de una cuenta activada por Microsoft para funcionar.
El sistema multiple compute context’s aún no está disponible.
Se confirma oficialmente el doble contexto gráfico mediante DirectX12.
La actualización a DirectX 11.2 trajo los tiles resourced en Enero de 2014.
El sistema cuando fue lanzado parecía estar exageradamente inmaduro por lo que aumenta la sospecha de haberse lanzado la consola prematuramente.
Hay relaciones a un nuevo Xbox Live 2.0 con mayor dependencia de Azure y el framework Orleans mejorado.

Todos los kits de desarrollo son el mismo y necesitan de una cuenta activada por Microsoft para funcionar.
El sistema multiple compute context’s aún no está disponible.
Se confirma oficialmente el doble contexto gráfico mediante DirectX12.
La actualización a DirectX 11.2 trajo los tiles resourced en Enero de 2014.
El sistema cuando fue lanzado parecía estar exageradamente inmaduro por lo que aumenta la sospecha de haberse lanzado la consola prematuramente.
Hay relaciones a un nuevo Xbox Live 2.0 con mayor dependencia de Azure y el framework Orleans mejorado.
Es muy interesante que se confirme el caso doble del contexto gráfico mediante DirectX12 en Xbox One y esta información además, coincide con las declaraciones de Brad Wardell que afirmaba que solo se estaba utilizando un núcleo de la consola para el uso de DirectX11.Y esto es solo el principio, iremos ampliando información conforme conozcamos más datos.




http://soloxboxone.com/2015/01/01/lo-qu ... -xbox-one/


para bosotros jugadores [sonrisa]
A mí me suena casi más a una filtración voluntaria para ir callando bocas que a un fallo. Ya sabemos que hay filtraciones y "filtraciones".
El otro día me dio por mirar las primeras paginas del hilo de Xbox One, quería ver cuando posteé por primera vez y me encontré con algunos comentarios muy curiosos.

El caso es que ya nos quedan 19 días para ver si presentan algo interesante, aunque me da que será la resaca lo que más nos interesará porque el 21 se centraran en Windows 10.
si con 1 contexto grafico an conseguido hacer un forza horizon,un asesins unity con ese aspecto visual que a mi gusto los interiores de las catedrales son alucinantes ,en cuanto despierten el segundo contexto gráfico,a me me va dar algo cuando aparezca halo5 y gears of wars
Buenas gente. Vaya y yo q creía q despues de la filtración de los SDKs poco se puede discutir y ya estaba todo dicho pq más oficial que eso no hay nada y me vuelvo a encontrar lo del doble contexto gráfico de soloxboxone [facepalm] . Deberían leerse de nuevo el SDK, y entender lo q se lee, pq esto es ya de traca... Lo mejor es q no ponen ni una sola referencia, obvio el por qué... XD .

Hay cosas intersantes en el SDK (realmente todo es interesante, es como si hubieran venido los Reyes Magos jajajaja). Por ejemplo hay casi una revisión al mes...menos mal q no es noticia cada vez q mejoran el SDK XD , espero q por fin se destierre la idea del superescalador mágico, si buscáis bien encontraréis como manejar dicha unidad y q opciones hay (algoritmo Lanzcos...me suena XD), no hay más unidades de apoyo q las que se conocían desde el principio, no hay doble contexto gráfico accesible para desarrolladores (es más puesto q tienes q manejar tu a más bajo nivel la GPU expresamente dice q tienes q hacer para evitar que dos tareas se entrelacen y se ejecuten a la vez XD), podéis ver las latencias de acceso de todo el sistema (unos 170 ciclos de media para acceder a DDR3), no hay acceso directo por parte de la CPU a la eSRAM, hay disponibles 5GB de memoria para juegos, usa una API priopia basada en DirectX11 con muchos cambios a nivel de driver para eliminar el overhead, muy interesante todas las características de DirectX12 q ya posee como command list, draw bundles, table descriptor, pso y una reescritura completa de los deferred context para poder usar todos los núcleos de forma eficiente, la API ha mejorado muchísimo, han liberado de forma permanente el 50% del séptimo core...

Una lectura muuuuuuy interesante y recomendable a todo el mundo aunq no se entienda todo, pero sSupongo q todo esto no servirá de nada y la gente seguirá con lo suyo en este hilo...

Un saludo.
Pues el rescalador sí que es un poco mágico en el sentido de contar con un algoritmo Lanczos by-the-face. Mejor que usar uno genérico o depender del que traiga el TV, pues te aseguras usar uno bueno. Por si hay dudas del tipo de filtro que es:
Imagen
Slowest. Da muy buenos resultados, por eso se ven tan bien. Si me dices que puede aplicar eso 60 veces por segundo a una imagen final de 1920x1080, pues bueno sí que es.

Luego, pues lo que hay que tener en cuenta es que sigue siendo un SDK Windows 8 - DX11, así que ni se puede asegurar ni desmentir nada XD

En cualquier caso no creo que se de acceso a un multi-contexto para que tenga que manipularlo el propio programador aún de existir, eso pinta más bien de una API de muy muy bajo nivel. Eso se haría yo creo a nivel de driver, es lo que tiene lógica. A nivel de API eso se reduce a una serie de directrices a seguir, como por ejemplo usa un render-shader y GPGPU al mismo tiempo, y ya el driver es quien se encarga por debajo de usar el multi-contexto. Por lo que en un SDK no creo que lo mencionen a nivel de uso, porque de hecho no creo ni que tengas acceso directo.
@polyteres

Hay cosas que como dices ya están.

¿Pero desde cuando?

Desde que la paridad ha llegado, cosa que ha dejado con el culo torcido a los 50% "moa pogua!!!". Otras son tan recientes que no se han podido ver aun en juegos lanzados, cosas que por ejemplo se agregaron en octubre y creo que incluso otras en diciembre. Pero clarolo que dicen los developers de Dying Light tiene que ser por los maletines.

Como siempre se ha defendido fuera de los límites de este hilo XBOX ONE es una arquitectura tan normal que esas inclusiones han permitido acabar con ese gap que existía entre plataformas.

Llevamos más razón nosotros que tú, de lo contrario solo se podría explicar la paridad desde los maletines que tanto se nombran en multi.

Lo siento pero no cuela y encima lo gordo está por venir. Explicame tu como una GCN, con dos Jaguar y un parche de 32 megas para enmascarar el bajo ancho de banda es capaz de dar caza a otra GCN con un 50% más de CU's y 8 gigas de memoria GDDR5. Si todo fuera tan facil...

Podemos empezar por reconoces que esas ALU's tan peculiares en XBOX ONE están ahí sí o sí y que a priori indican que la arquitectura no es nada que conozcamos. Puedes seguir por la confirmación oficial de los dos comand y la organización de los 12 CU en dos cluster de 6 y así con todo lo que hemos dicho aquí.

Por otro lado date una una vuelta por los paper del primer día del ISCA 2014, ese que empezaba con una introduciión llamada "Un vistazo al interior de XBOX ONE" puedes empezar por el paper de Mateo Valero del centro de supercomputación que tiene Microsoft en Barcelona, centro con el que ciertos magufos tienen relaciones estrechas...

Te puedo asegurar que no vas a saber como salir de esta.
darksch escribió:...


Buenas gente, hombre claro q va rápido, es una implementación hardware de un algoritmo XD, no tiene nada q ver con hacerlo por software.

@papatuelo para discutir de Ps4 o hacer comparaciones con XboxOne ve a Multiplataforma, crea un hilo y estaré encantado de responderte, aquí solo se puede/debe hablar de XboxOne. Asiq lo del gap, la paridad y todo eso...a multi XD.

Las ALUs peculiares XD ?. Te has leido el SDK?. Más oficial que eso no hay nada chico. Expresamente dice lo q ya se sabia: 768 ALU ni una más ni una menos, ve a la parte de Hardware Overview y léelo por tí mismo. Lo de los dos contextos GRAFICOS digo lo mismo, leéte el SDK completo y encontrarás lo q he dicho en mi mensaje anterior.

Creo q después de esta filtración, de un SDK oficial...poco más hay q decir. Se q en este hilo muchos seguirán buscando cosas ocultas y trayendo patentes, papers de supercomputación y demás pero...tan fácil como ir a la documentación oficial y leerlo, ni más ni menos.

Un saludo.
Polyteres mira que te gusta trollear xD....

Que los juegos tengan disponibles 5 GB no quiere decir que siempre sea así, que la latencia sea de 170 ciclos no quiere decir que se quede así para siempre, que la CPU no tenga acceso directo a la esRAM no quiere decir que siempre sea así (aunque no se hasta que punto sería muy necesario esto). Lo que dices es el estado "actual" (octubre 2014) del SDK, que se parece poco al de octubre de 2013. Veremos en octubre de 2015 ;).

Obviamente estos SDKs no van a detallar nada de los posibles usos de directx12 excepto la 4 cosillas que ya fueron publicando, eso se verá en los "What's new..." de futuras revisiones del SDK....

Imagen
Polyteres escribió:
darksch escribió:...


Buenas gente, hombre claro q va rápido, es una implementación hardware de un algoritmo XD, no tiene nada q ver con hacerlo por software.

Un saludo.

Ya ya, pero que bueno es entonces. Eso no se puede negar. Aunque se haga por hardware, pues éste debe cumplir con los requisitos para poder ejecutarlo a esa velocidad. Sea como sea hay que meterlo y su buena capacidad tiene.

De la latencia, si se da en ciclos, pues eso va según el tipo y velocidad tanto de RAM como de CPU. Imagino que 170 es lo que sale para una DDR3 con el tipo y velocidad de CPU que monta. Eso es más un dato para que el programador lo tenga en cuenta.

Respecto al acceso de la CPU a la eSRAM, una de 2:
1) Los SDK actuales les faltan cosas, y esa sería una.
2) No tiene acceso directo si no que se usaría una zona de memoria o un buffer con una velocidad de 30 GB/s.

Si no se tiene un tipo de memoria o buffer como el punto 2, entonces es que estamos en el punto 1. Porque coherencia se sabe que se tiene desde el principio. Ya lo han dicho los ingenieros desde la 1ª hot chips.
Imagen

Esperemos que la coherencia por lo menos sí esté implementada ahora mismo, si no menudo desastre, y otra cosa a añadir en futuros.
Pada escribió:Polyteres mira que te gusta trollear xD....

Que los juegos tengan disponibles 5 GB no quiere decir que siempre sea así, que la latencia sea de 170 ciclos no quiere decir que se quede así para siempre, que la CPU no tenga acceso directo a la esRAM no quiere decir que siempre sea así (aunque no se hasta que punto sería muy necesario esto). Lo que dices es el estado "actual" (octubre 2014) del SDK, que se parece poco al de octubre de 2013. Veremos en octubre de 2015 ;).

Obviamente estos SDKs no van a detallar nada de los posibles usos de directx12 excepto la 4 cosillas que ya fueron publicando, eso se verá en los "What's new..." de futuras revisiones del SDK....

Imagen


Buenas gente. Hombre si por trollear te refieres a q me he leido el SDK y digo lo q hay... Lo de los 5GB no es algo malo, para los anchos de banda de estas consolas y el poder de procesamiento incluso con menos ya van servidos, no lo he dicho como algo negativo, y por supuesto q se va a liberar muuucho de ese espacio para juegos, lo mismo q han liberado el 50% minimo del septimo core (muy bien por ellos todo un acierto). Lo de bajar las latencias es un poco más complicado puesto q es un mecanismo hardware (no obstante lo vuelvo a decir no es algo malo, es un buen número!. A parte las latencias se pueden ocultar de muchas formas distintas desde el software). Con respecto a la eSRAM si no tienes un camino dedicado para acceder a la eSRAM por parte de la CPU poco vas a poder hacer en software que realmente merezca la pena, aunq estoy de acuerdo contigo, q la CPU tenga acceso a esta memoria no es ni siquiera bueno (para una memoria q tienes sin problemas de contención...no es cuestión de cargarsela).

Las caracteristicas de DirectX12 q tiene por ahora son las q he nombrado...las cuales son muchas.

Un saludo.
768, Ok.

Yo hable del numero?

Mira la litografia y ponme una de AMD q sea igual.

En cuanto a lo de PS4 llamalo X, pero dime como pueden rendir 12 CU's como 16? Como 15 si lo prefieres para q no compares con otras consolas.

O en general como puede rendir cualquier arquitectura igual q otra que tiene mas de todo.

A igualdad de arquitecturas. Te estas liando, vas q perder todo el credito q te queda.

Hacia tiempo q no aparecias y daba por hecho q habias decido salvar lo que te queda.

Tu mismo, yo no tngo nada q perder. Solo soy maestro de educacion primaria en paro. A ti se te suponen unos conocimientos.
Buenas gente. @darksch es coherente con respecto a las cachés y a la DDR3, ahí no pinta nada la eSRAM. No obstante vuelvo a decir lo mismo, no le quitemos una cosa buena a la eSRAM (contención) haciendo q la CPU pueda acceder de forma directa a ella, además para qué necesita la CPU acceder a la eSRAM?.

@papatuelo, dos amenazas, dos mensajes, sigue... No me estoy liando, y te vuelvo a decir lo mismo si quieres hablar de Ps4 y comparar ambas ve a multi, y hablamos allí.

Un saludo.
@Polyteres para uso con computación, por ejemplo los resultados ser usados por la CPU, sistemas heterogéneos. De todas formas que sea por eSRAM, por un espacio en DDR3 compartido y manejado por el North Bridge, eso es lo de menos. Lo importante es tener coherencia para tal fin, ya el como lo hagan pues como que da lo mismo. De cara a su uso pues se tiene coherencia de 30 GB/s y listo, tampoco merece la pena liarse a ver con que lo hacen.
Polyteres escribió:Buenas gente. Vaya y yo q creía q despues de la filtración de los SDKs poco se puede discutir y ya estaba todo dicho pq más oficial que eso no hay nada y me vuelvo a encontrar lo del doble contexto gráfico de soloxboxone [facepalm] . Deberían leerse de nuevo el SDK, y entender lo q se lee, pq esto es ya de traca... Lo mejor es q no ponen ni una sola referencia, obvio el por qué... XD .

no hay más unidades de apoyo q las que se conocían desde el principio, no hay doble contexto gráfico accesible para desarrolladores (es más puesto q tienes q manejar tu a más bajo nivel la GPU expresamente dice q tienes q hacer para evitar que dos tareas se entrelacen y se ejecuten a la vez XD), podéis ver las latencias de acceso de todo el sistema (unos 170 ciclos de media para acceder a DDR3),

Una lectura muuuuuuy interesante y recomendable a todo el mundo aunq no se entienda todo, pero sSupongo q todo esto no servirá de nada y la gente seguirá con lo suyo en este hilo...

Un saludo.



buenas gente,

Polyteres... ya que indicas que los de somosxbox publican sin referencias......puedes indicar tu las tuyas?

o debo entender que tus referecias son estas "me he leido el documento del SDk y se poner emoticonos como este XD"

que diferencia hay entre lo que tu críticas de somosxbox y lo que haces tu.

Tu propia palabra es referencia pero la de ellos no?

puedes explicar porque deduces que no hay doble contexto gráfico?...porque no lo has explicado. Solo has dicho que lo has leído....
darksch escribió:@Polyteres para uso con computación, por ejemplo los resultados ser usados por la CPU, sistemas heterogéneos. De todas formas que sea por eSRAM, por un espacio en DDR3 compartido y manejado por el North Bridge, eso es lo de menos. Lo importante es tener coherencia para tal fin, ya el como lo hagan pues como que da lo mismo. De cara a su uso pues se tiene coherencia de 30 GB/s y listo, tampoco merece la pena liarse a ver con que lo hacen.


Buenas gente. Pero es q eso lo sigues teniendo usando los 30GB/s de acceso coherente a la DDR3, lo q importan son las cachés y que puedas compartir datos sin copiar, esa es la verdadera ventaja asiq en eso estamos de acuerdo. No obstante y vuelvo a repetir casi lo veo como una ventaja en este caso. Si la CPU pudiera acceder de forma directa a la eSRAM tendrías que arbitrar su acceso y su eficiencia bajaría. No es algo malo, desde mi punto de vista es algo correcto y recomendable.

Un saludo.
@Polyteres lo de trollear no era porque no creyese que lo hayas leido, claro que me lo creo si yo también le eché un vistazo. Lo decía mas bien porque dabas a entender que todo lo que has dicho ya eran verdades inmóviles y que ya no pueden cambiar, com dices 5 GB son mas que suficientes para juegos pero ya veremos en unos años... es algo que pueden aumentar fácilmente.

Por otra parte juraría que he visto en su momento en uno de los esquemas un bus que conectaba la CPU con la esRAM así que es bastante probable que si pueda acceder a esta memoria, aunque no ahora mismo con el estado actual del SDK, y al igual que tú no entiendo bien en que puede beneficiar eso, pero por lo menos tengo los pies en el suelo y se que la gente que ha diseñado esa máquina sabe más que cualquiera de nosotros y les doy el beneficio de la duda ;), y bien utilizada no necesariamente debería provocar contención ya que se puede leer y escrbirir en ella simultáneamente como bien sabes.
Cada vez que aparece una noticia positiva respecto a Xbox One me siento como Theoden apostado en las murallas de Cuernavilla a la espera de que los astrotu... diiiiiiigo, que los de siempre aparezcan.

Y no falla, en serio. Siempre es la misma historia en este post. Cada vez que aparece una noticia positiva, hay que desmentirla y desviarla sea como sea.

Imagen
@Polyteres ya que te has leído la documentación, a ver si me puedes decir lo que se oye por ahí, de que se tiene un modo automático de gestión de la eSRAM, aunque creo que el que se ha filtrado no es el último y no sé si lo tendrá.

Es algo muy recomendable, el tener un modo automático y eficiente de gestión. Puede que manualmente se fuera capaz de mejorarlo, pero la verdad creo que muy pocos sabrán hacerlo mejor que en el modo "por defecto" que haría el automático, quizás Crytek, Turn10, y poco más.

Recuerdo que el XNA en X360 lo tenía con la eDRAM, la X360 sólo puede renderizar sobre eDRAM, de 10 MB, sin embargo en XNA podías poner 1080p con 4xMSAA y lo gestionaba automáticamente.

Lo digo porque de tenerlo a ver que excusa le quedaba al Kojima para no usarlo en su Fox Engine [carcajad]
Si es tan sencillo como creerse a un desarrollador.

"En términos de ventajas, lo principal es lo mucho que ha mejorado el control de la eSRAM", comenta Binkowski a GamingBolt. "La nueva API permite hacer mucho más con la eSRAM, cosas que los desarrolladores siempre quisieron hacer pero no eran fácilmente accesibles".

Que no es que lo haya dicho Microsoft y este vendiendo humo, sino ha sido una third party.

No dice que antes no se pudieran hacer, Xbox One cuenta con una api de bajo nivel, pero el problema es que no les daba la gana usarla porque es complicado. Y esto se traduce en mejoras visuales.
Buenas gente. @Pada el problema es q mucha gente cree q todo lo q digo es malo o en contra de XboxOne [+risas] pero no es así. Hay cosas q si son inamovibles y otras q cambiarán con el tiempo. Tener 5GB de memoria para unas máquinas de este tipo es una cantidad muy respetable y muy aceptable, veo bien el número. No creo q tengan demasiados problemas de espacio en esta generación la verdad y más teniendo todavía un gran colchón para liberar.

Yo tb he visto ese diagrama pero no parecía un bus al uso, sino algún tipo de comunicación externa, incluso desaconsejaban su uso para tal fin. Si haces q la CPU acceda a la eSRAM aunq hiles fino, vas a tener problemas de contención si o si, puesto q es algo inherente al acceso compartido y simultáneo, y como dices, yo tampoco le veo mucho sentido, más pudiendo puentear y escribir de forma coherente en las cachés.

@ubn para una vez q podemos hablar todos con documentación oficial en la mano y compartir nuestros puntos de vista, como por ejemplo la conversasión con Pada ahora mismo, no empecemos con estas tonterías por favor.

@darksch no he visto nada al respecto de un manejo automático de la eSRAM, de hecho se hace lo contrario dar mucha mucha flexibilidad a la hora de usarla y cada vez más, no se hasta q punto sería bueno dejar al sistema su manejo. No te lo aseguro pq habría q estudiarlo más en profundidad. Lo q si han hecho ha sido mejorar MUCHO las herramientas de profiling y esto realmente ayuda muchísimo a manejar correctamente la eSRAM.

EDITO: una cosa q me ha resultado muy curiosa, intersante y bastante "chula", la forma de hacer MSAAx4, ahora entiendo mejor FH2, muy chulo la verdad.

Un saludo.
Polyteres escribió:Buenas gente. @darksch es coherente con respecto a las cachés y a la DDR3, ahí no pinta nada la eSRAM. No obstante vuelvo a decir lo mismo, no le quitemos una cosa buena a la eSRAM (contención) haciendo q la CPU pueda acceder de forma directa a ella, además para qué necesita la CPU acceder a la eSRAM?.

@papatuelo, dos amenazas, dos mensajes, sigue... No me estoy liando, y te vuelvo a decir lo mismo si quieres hablar de Ps4 y comparar ambas ve a multi, y hablamos allí.

Un saludo.


Yo no amenazo, para amenazar tengo que ser capaz de provocarte algún perjuicio, y evidentemente no puedo hacerlo.

Solo te prevengo de los que vas a conseguir tu solito, estás quemando el Nick.

Si sigues diciendo que La GPU de XBOX ONE es una GCN al uso te pido por favor que me muestres una litografica GCN que se parezca a esta:

Imagen

Y no estoy hablando de si son 768 o un gritón. Te hablo de la disposición.

¿Esta no es una fuente primaria?
Imagen

1,3TF*2contextos=2.6TF
2,6TF/1,8TF=1,44

GLORIOUS 44% MOAR PAWAH.
papatuelo escribió:
Polyteres escribió:Buenas gente. @darksch es coherente con respecto a las cachés y a la DDR3, ahí no pinta nada la eSRAM. No obstante vuelvo a decir lo mismo, no le quitemos una cosa buena a la eSRAM (contención) haciendo q la CPU pueda acceder de forma directa a ella, además para qué necesita la CPU acceder a la eSRAM?.

@papatuelo, dos amenazas, dos mensajes, sigue... No me estoy liando, y te vuelvo a decir lo mismo si quieres hablar de Ps4 y comparar ambas ve a multi, y hablamos allí.

Un saludo.


Yo no amenazo, para amenazar tengo que ser capaz de provocarte algún perjuicio, y evidentemente no puedo hacerlo.

Solo te prevengo de los que vas a conseguir tu solito, estás quemando el Nick.

Si sigues diciendo que La GPU de XBOX ONE es una GCN al uso te pido por favor que me muestres una litografica GCN que se parezca a esta:

Imagen

Y no estoy hablando de si son 768 o un gritón. Te hablo de la disposición.

¿Esta no es una fuente primaria?


Buenas gente. Gracias por el consejo. Con respecto a las ALUs...tienes la entrevista a los arquitectos de XboxOne en DigitalFoundry donde lo dicen expresamente, y a parte tienes el SDK que han filtrado, más fuente primaria que esa no vas a encontrar.

EDITO: @f5inet si es q vosotros solos lo ponéis, "compute context", pues eso...compute no graphics. Lee el párrafo completo q es muy aclaratorio por sí mismo. Además esa captura es de la revisión de marzo de 2014 no?.

Un saludo.
Q dicen expresamente de las Alus?

Q son 768 y q estan "basadas" en sea island?
papatuelo escribió:Q dicen expresamente de las Alus?

Q son 768 y q estan "basadas" en sea island?


Buenas gente. Te dice q la GPU es GCN (de hecho hay miles de referencias a ello, tb tienes los papers de Emil Persson por ejemplo para salir de dudas), el número, cuantas instrucciones pueden hacer por ciclo, y la frecuencia a la q van.

EDITO: tengo una preguntilla un poco offtopic creo q interesante pero...hasta que punto es legal poner cosas del SDK como por ejemplo párrafos completos o una captura de pantalla de la documentación oficial?. Al ver la imagen de f5inet me ha asaltado la duda vayamos a tonterias...

Un saludo.
Polyteres escribió:[...]
EDITO: @f5inet si es q vosotros solos lo ponéis, "compute context", pues eso...compute no graphics. Lee el párrafo completo q es muy aclaratorio por sí mismo. Además esa captura es de la revisión de marzo de 2014 no?.

Un saludo.


ah, bueno, pues si prefieres separar los contextos, te los separo, hombre...

1,3TFs GRAPHICS POWAH & 1,3TFs COMPUTE POWAH

GLORIOUS 44% MOAR POWAH OVERALL!
Aa de hoy "compute" puede referirse a muchas cosas, no sé si es correcto limitarlo a decir que sea computación o algo concreto. En estos sistemas unificados compute podría significar incluso "cualquier cosa que pueda procesar".

Por lo que tampoco aseguremos nada porque a mí no me queda claro en que pueden usarse esos "compute". Lo que si queda claro es una cosa, y es que dicen que ahora hay uno y que en el futuro habrá más.
Digital Foundry: Microsoft gives more CPU power to Xbox One developers

Up until recently, both Xbox One and PlayStation 4 have reserved two entire CPU cores (out of eight available) in order to run the background operating system in parallel with games. Since October, Microsoft has allowed developers access to 50 to 80 per cent of a seventh processing core - which may partly explain why a small amount of multi-platform titles released during Q4 2014 may have possessed performance advantages over their PS4 counterparts in certain scenarios.

However, there's no such thing as a free lunch, and the additional CPU power comes with conditions and trades attached - however, there is the potential for many games to benefit. Firstly, developers need to give up custom, game-specific voice commands in order to access the seventh core at all, while Kinect's infra-red and depth functionality is also disabled. Secondly, the amount of CPU time available to developers varies at any given moment - system-related voice commands ("Xbox record that", "Xbox go to friends") automatically see CPU usage for the seventh core rise to 50 per cent. At the moment, the operating system does not inform the developer how much CPU time is available, so scheduling tasks will be troublesome. This is quite important - voice commands during gameplay will be few and far between, meaning that 80 per cent of the core should be available most of the time. However, right now, developers won't know if and when that allocation will drop. It's a limitation recognised in the documentation, with Microsoft set to address that in a future SDK update.

It's an interesting theory, but the timing of the presentation (August 2014 - two months before the new feature was added to the SDK) suggests not. Speaking to a prominent developer, one potential explanation is that differences in code compiler efficiency might favour Microsoft's console right now. How the availability of a seventh processing core will affect game performance going forward remains to be seen. Certainly, the whole point of Ubisoft's presentation is that moving CPU tasks to GPU is the future, and in this respect, it is the PS4 that is in the driving seat. Based on the single example Ubisoft's presentation provides (and it's worth stressing that all of these numbers are derived from just one piece of code), PS4 is almost twice as fast.

http://www.eurogamer.net/articles/digit ... opers-blog
Antes siempre te gustaba explicar todo lo que te preguntaban con tus palabras, ultimamente usas mucho "ves alli y lo miras" y algo el "esto aqui no va". Que igual es casualidad pero da la sensacion de que ya hay cosas que no quiere discutir como antes.

Las opiniones estan expuestas, como siempre los juegos diran. De momento estan hablando mucho mas hacia un extremo (maquina menos bruta pero mas eficiente que puede lograr algo cercano/igual) que hacia el otro (iguales de forma y 50% mejor), aunque cuando se pregunta por eso (ahora) se desvie.
NeCLaRT escribió:Antes siempre te gustaba explicar todo lo que te preguntaban con tus palabras, ultimamente usas mucho "ves alli y lo miras" y algo el "esto aqui no va". Que igual es casualidad pero da la sensacion de que ya hay cosas que no quiere discutir como antes.

Las opiniones estan expuestas, como siempre los juegos diran. De momento estan hablando mucho mas hacia un extremo (maquina menos bruta pero mas eficiente que puede lograr algo cercano/igual) que hacia el otro (iguales de forma y 50% mejor), aunque cuando se pregunta por eso (ahora) se desvie.


Es q la comida de cabeza que ha habido a sido brutal. Solo con ver el texto que ha posteado NucelarGen te das cuenta del mensaje constante de los medios. ¿Noticia buena de Xbox ONE? Vale, pero acabamos con un recadito, "Based on the single example Ubisoft's presentation provides (and it's worth stressing that all of these numbers are derived from just one piece of code), PS4 is almost twice as fast. "

A medida que pase el tiempo y se vaya notando las mejoras en los SDKs, veremos con que salen.
Y no olvideis q ese twice faster de Ubi estaba basado en lo q parece un bench q usaba el AC unity. Y todos sabemos lo twice faster q es PS4 con el unity...
No se porque os empeñáis, una y otra vez, en hablar de PS4 aquí.
Creo que se han dado suficientes avisos como para que todos sepan cual es el topic del hilo y el subforo en el que están.
Nos quedamos sin argumentos y nos liamos a reportar? Y seguro q ha sido alguno de los q cuando interesaba han mentado a PS4 por activa y por pasiva.

Todo se derrumba!!!
Pero aun vamos a seguir confundiendo algunos los gestionadores de los ACEs con lo de los Shaders ?!! Es adrede verdad ?!! Porque esta mas que demostrado ya que el "dual graphic context " es para la gestión del pipeline . Me puedo volver a remontar unas cuantas cientos de paginas atrás y volver a reflotar lo que subí de los documentos oficiales de AMD ... El graphics command gestionan el pipeline y este los shaders .One tiene 2 de cada , 2 para compute que gestionan los ACEs (los 2 famosos pipes que tanto gustan de repetir ) y 2 graphics para los shaders ( pipelines ).4 CPs vs 1 CP en GPUs actuales. Tan difícil es de ver o asimilar ?!!!
djfran28 escribió:Los juegos hablaran.

Ya están hablando.
Ryse referente gráfico de la mano de los forzas. Busca eso en otra plataforma....
Pero se hacen los ciegos y sordos y van al truño rider como referente gráfico
ahona escribió:No se porque os empeñáis, una y otra vez, en hablar de PS4 aquí.
Creo que se han dado suficientes avisos como para que todos sepan cual es el topic del hilo y el subforo en el que están.


En cambio solo se banean a presuntos conspiranoicos. Buen trabajo, chicos.
Nucelar, como siempre, fantástico en la busca y captura de novedades. Por desgracia, la noticia demuestra lo vendida que está esa gente. No es normal que con pruebas en la mano (hardware y software) se sigan soltando cosas como esas.
@Polyteres, lo que no entiendo es porque nunca te sorprendes de nada y siempre dices que "todo se ha dicho ya en los papers y la entrevista de 2013"...

No voy a buscar el mensaje pero me acuerdo perfectamente (porque hace 2 meses jeje) cuando salió Forza Horizon 2 y te empezo toda la gente ahí a atacar diciendo:
"oye, pero si tú decias que no cabían 1080p en los 32mb"
A lo que contestastes diciendo "dije que cabría en un Forward+ y qué es lo que tiene FH2?? ehh XD " y todos dijeron "alaaaaaaaa siempre te sales con la tuyaaaaaaaaaaaaaaa"

Vale pero.. y Destiny mismo.. ¿Cómo cabe en 32mb?.. porque Destiny es un Deferred como una casa y finalmente salió a 1080p.. y no sólo ese juego, cada vez vemos como más juegos salen a 1080p en ONE cosa que parecía imposible.. o mejor dicho Tú decías que era imposible en Deferred Rendering (tú y muchos más) pero ahora vemos juegos en One 1080 por aquí, 1080 por allá.

Parece ser que 1080 será un hecho en 2015.. ¿cómo es posible?.. Porque claro, dices que pasas de esforzarte en explicarte y tal.. que aquí siempre estamos los mismos tontos retroalmientandonos entre nosotros e interpretado los papers cual fanáticos.

Es decir, repito ¿ahora reconoces que One puede con Deferred a 1080p?.
Pero si titulos a 1080 los hay el dia 1. Si los hay en 360 :o
17587 respuestas