Hablemos del interior de Xbox One

Joder, me dió por pasar por aquí a echar un vistazo, a ver que comentais, y me parece haber entrado en un foro en finlandes... no entiendo la mitad de lo que decis... [carcajad]

salu2
Me pasa lo mismo que a[tomaaa]
Buenas gente.

Szasz escribió:Das a entender que únicamente se le llama así por su GPU, en ese caso muchísima gente tiene un supercomputador en casa.


Si, así es. A nivel de concepto no hay muchos cambios, por ejemplo la forma de partir los datos o las tareas, la sincronización entre las hebras...

Con respecto al resto de tu mensaje, sobre las divagaciones de mixtersmedia y amigos, y sus teorías, te remito a la entrevista de Eurogamer con los arquitectos de XboxOne. No hay ningún elemento "extraño" o esotérico en el hardware. Todas las cosas que nombras ya se han sido explicadas y aclaradas por aquí en más de una ocasión.

@KinderRey creo q ha habido una pequeña confusión. Estábamos hablando sobre las tendencias futuras en HPCs, por tanto no le veo sentido a eso que dices del Cloud Computing cuando se lleva a cabo en HPCs.

Con respecto a Intel Xeon Phi, tienes razón no había caido en ese detalle, quizás pq lo veo como una GPU o como un sistema híbrido (heredero del proyecto Larrabee). No obstante para los que preguntaban sobre la latencia y el impacto en CPUs o procesadores x86, Intel Xeon Phi son núcleos x86 con memoria GDDR5 que se usan en exclusiva para computación.

Personalmente he usado CUDA, OpenCL, OpenMPI y OpenMP, Direct Compute y Compute Shaders, no soy ningún genio y no me han resultado para nada complejos, todo lo contrario

Un saludo.
Para los más expertos, y pensando en los que los somos menos...

¿Como creeis que la máquina aguantará el tirón a medio plazo?

Las nuevas herramientas para desarrolladores suelen realmente mejorar el rendimiento, ha pasado siempre asi, pero tengo dudas viendo las caracteristicas técnicas de juegos como Battlefield 4 (resolución, rendimiento fps...)

Desde el desconocimiento de muchas cosas de las que hablais, espero que la máquina de bastante más de sí, pero p.ej. Turn 10 con Forza 5 decina haber aprovechado casi el 100% de la máquina....

Podeis arrojar algo de luz sobre esto? (aunque sea especulativamente...)

salu2
@polyteres

Cualquiera diría q has participado en el diseño del SOC de Xbox One, lo digo por la contundencia con la q das por validas tus OPINIONES sobre el.

El otro día me "acusaste" de sesgar la información, de coger los datos q m interesan y excluir los q no. Mi pregunta es, ¿Estas exento de ello? ¿No estas dejando de lado ninguna información q resulta molesta o difícil de explicar?

Expongamos los hechos.

Aparecen unas fotografías sobre las CUs desdobladas de la GPU de Xbox One. TÚ conclusión, es por tema de temperaturas, siguen siendo la misma arquitectura. Explicación desde un punto de vista científico, nada valida.

Aparece una declaración de Phill Spencer hablando de pruebas de raytracing en Xbox One, "con resultados impresionantes". No se le da importancia a esta declaración, supongo q es tomado como una herramienta de marketing q no debe ser tomada en cuenta.

Declaraciones de Microsoft hablando de la computación en la nube, del impulso q le daran a Xbox One. Se duda claramente de q esta información sea real y posible.

Entrevista a los ingenieros de Xbox One, todo es tomado al pie de la letra y no puede haber ni un matiz q se distancie de esa declaración.

Declaraciones de q Xbox esta hecha para cambiar con el tiempo. No hay MCUs, no lo dicen en la entrevista.

Aparece una declaración de Phill Spencer diciendo q Dx12 no sera un "game changer". Dx12 no supondrá ningún cambio.

Y podría dar miles de ejemplos en los q una información es tomada en serio o no dependiendo de las conveniencias de cada uno. Pero decir, q todo ha sido explicado ya, me parece un poco presuntuoso. Más aún cuando Microsoft esta buscando la manera de hacer demostraciones de ancho de banda y de la tecnología de la nube.

Podemos estar de acuerdo o no en temas q no se han tratado de la forma correcta por misterxmedia y amigos, pero donde no vamos a estar de acuerdo es en decir q Xbox One tiene arquitectura de supercomputador unicamente por la GPU y dejar de lado todo lo demás. La información de Microsoft no es "humo" cuando no nos interesa y verdad absoluta cuando nos interesa.

No voy a poner en duda tus conocimientos(en todo lo q sabes), pero si voy a poner en duda tu seguridad en la construcción del SOC, más aun cuándo Microsoft ya dijo q dejaba "fuera" de los diagramas de la hotchips elementos clave de su arquitectura.

Icaro3m. Xbox One mejorará, igual q todas las videoconsolas.
Una pregunta, ¿alguien sabe donde es la Azure Dev_Camp en Sevilla?. Es que dependiendo de donde sea igual me apunto, pero si me pilla muy lejos no me apuntaría, quedaría feo apuntarse y luego no ir.
Xbox One esta usando la Api Dx11 de PC, al menos en multis.

http://www.eurogamer.net/articles/digit ... tform-game

Oles Shishkovstov: Let's put it that way - we have seen scenarios where a single CPU core was fully loaded just by issuing draw-calls on Xbox One (and that's surely on the 'mono' driver with several fast-path calls utilised). Then, the same scenario on PS4, it was actually difficult to find those draw-calls in the profile graphs, because they are using almost no time and are barely visible as a result.

In general - I don't really get why they choose DX11 as a starting point for the console. It's a console! Why care about some legacy stuff at all? On PS4, most GPU commands are just a few DWORDs written into the command buffer, let's say just a few CPU clock cycles. On Xbox One it easily could be one million times slower because of all the bookkeeping the API does.

But Microsoft is not sleeping, really. Each XDK that has been released both before and after the Xbox One launch has brought faster and faster draw-calls to the table. They added tons of features just to work around limitations of the DX11 API model. They even made a DX12/GNM style do-it-yourself API available - although we didn't ship with it on Redux due to time constraints


Vaya despropósito. A Microsoft le pilló el toro. Ahora sí se puede decir q tiene muchooo margen de mejora con Dx12.
Buenas gente. @Szasz íbamos bien, hablando muy tranquilamente sobre temas interesantes, no me gustaría que se estropeara ahora.

No suelo rehuir o dejar de lado ninguna información pero tampoco leo todo lo que sale en este u otros hilos. Comento lo que leo y sobre todo cuando tengo tiempo y ganas, no soy ningún policía del hilo viendo lo q creo q está bien o mal... Cuando hablo siempre lo hago desde lo que se y desde mi propia experiencia, si te sirve bien, sino tb bien [beer] , no te obligo a que me creas pero al igual que hay opiniones en un mensaje puede haber hechos.

Sobre las fotografías de los layout, lo dije y lo vuelvo a repetir, la fabricación de chips, el diseño y distribución de los layout es una de las cosas más complejas que hay y es más un arte que una ingeniería. Sacar conclusiones a partir de unas fotos es algo totalmente erróneo y eso te lo dirá cualquiera que sepa de fabricación de chips. Pero es q lo q dije sobre las ALUs fue lo siguiente, saca tus propias conclusiones:

Nadie ha pensado q esa distribución podría ser mas correcta para el diseño de su APU, quizás para disipar calor, o para mejorar los yields, por una cuestión meramente de diseño de máscaras...hay mil motivos por los q puede tener esa disposición....


A parte de eso en ese mismo mensaje a continuación añadí qué pasaría si hubiera el doble de ALUs a mismo proceso de fabricación, pq no tenía sentido si esas ALUs eran para operaciones de doble precisión como se rumoreaba... Suelo explicar las cosas que digo, pero de ti depende si estás de acuerdo con ellas o no.

Szasz escribió:Aparece una declaración de Phill Spencer hablando de pruebas de raytracing en Xbox One, "con resultados impresionantes". No se le da importancia a esta declaración, supongo q es tomado como una herramienta de marketing q no debe ser tomada en cuenta.

Declaraciones de Microsoft hablando de la computación en la nube, del impulso q le daran a Xbox One. Se duda claramente de q esta información sea real y posible.

Entrevista a los ingenieros de Xbox One, todo es tomado al pie de la letra y no puede haber ni un matiz q se distancie de esa declaración.

Declaraciones de q Xbox esta hecha para cambiar con el tiempo. No hay MCUs, no lo dicen en la entrevista.

Aparece una declaración de Phill Spencer diciendo q Dx12 no sera un "game changer". Dx12 no supondrá ningún cambio.

Y podría dar miles de ejemplos en los q una información es tomada en serio o no dependiendo de las conveniencias de cada uno. Pero decir, q todo ha sido explicado ya, me parece un poco presuntuoso. Más aún cuando Microsoft esta buscando la manera de hacer demostraciones de ancho de banda y de la tecnología de la nube.


De las cosas que has puesto ahí personalmente creo que no me he pronunciado ni en una cuarta parte. No obstante sobre las declaraciones siempre me fiaré más de los arquitectos de XboxOne y de los desarrolladores que de todos los relaciones públicas de Microsoft, es lo más oficial que tenemos. Prefiero creérmelos a ellos (que además cuadra con los números y con cómo funcionan las cosas) que a una persona que no ha parado de dar bandazos de un lado a otro intentando hacer que su teorías cuadren.

Sobre la nube hablé muy al principio cuando salió, y mantengo lo mismo que dije en su momento.

Por otro lado, cuando digo que las cosas ya se han explicado y aclarado, no digo que lo haya hecho yo XD lee mi mensaje anterior. Muchos foreros han contribuido a comentar estas cosas y a aclararlas no me atribuyas toda la responsabilidad no soy ni tan egocéntrico ni tan presuntuoso.

De la entrevista que has puesto, me parece una entrevista interesante, un par de cosillas que me han llamado la atención:

Is ESRAM really that much of a pain to work with?

Oles Shishkovstov: Actually, the real pain comes not from ESRAM but from the small amount of it. As for ESRAM performance - it is sufficient for the GPU we have in Xbox One. Yes it is true, that the maximum theoretical bandwidth - which is somewhat comparable to PS4 - can be rarely achieved (usually with simultaneous read and write, like FP16-blending) but in practice I've seen only a few cases where it becomes a limiting factor.


But Microsoft is not sleeping, really. Each SDK that has been released both before and after the Xbox One launch has brought faster and faster draw-calls to the table. They added tons of features just to work around limitations of the DX11 API model. They even made a DX12/GNM style do-it-yourself API available - although we didn't ship with it on Redux due to time constraints.


Cuantas veces se habrán comentado aquí estas dos cosas...

Un saludo.
@polyteres

Igual no lo he expresado de la mejor manera y he sido demasiado agresivo. En ese caso, lo siento.

Todos aprendemos mucho con tus aportaciones y es divertido e instructivo dialogar contigo, pero no comparto tú "actitud" en algunos casos.
Normalmente tus aportaciones son un "sí, esto sera así", o "no, esto no es así". En muchas de ellas aun hablando de cosas que es imposible que puedas conocer, por lo que se puede hacer imposible debatir contigo sobre algunos temas, ya que afirmas o niegas, pero no podemos ir juntos a ver que posibilidades ahí de que tal suceso sea cierto. Desde un punto de vista científico, la actitud correcta es la de la curiosidad, la de poder ver que hipótesis son ciertas y cuales no. No voy a entrar a rebatirte cuestiones de desarrollo, o de como se trabaja con una u otra arquitectura, porque son puntos en los que no tengo el conocimiento suficiente para hacerlo. Pero considero que tampoco estas en la posición de poder afirmar determinados sucesos.

Por poner un ultimo ejemplo, refiriéndome a la entrevista a los desarrolladores de Redux , se puede leer como Microsoft les dio una API de Dx11 de PC, que sobrecarga de trabajo un hilo. Tú mismo, por sentido común, dijiste que las APIs de consolas no son así y que repartiría el trabajo adecuadamente. Sí, dijiste que las herramientas mejoran con el tiempo (que empeoren es imposible), pero negaste la posibilidad que esto pasara.

Desde luego si hiciéramos una lista con las cosas que aciertas y las que fallas, la lista de aciertos seria ampliamente superior. Pero considero que no es lo mismo errar desde la opinión, que desde la afirmación, y en tu caso da la sensación de que no son opiniones, sino hechos en la mayoría de los casos.

Yo intento estar abierto a todas las posibilidades, no cerrar puertas. ¿Quien creía a misterxmedia cuando dijo que Xbox One tendría Dx12? ¿Quien le creyo cuando hablo de Dx "mono" para third partys y Dx "mono con trazas de Dx12 para first partys(ahora tmb para Thirds)?

Pues resulta que tenia razón. Y para mi, la información no es cierta por el simple hecho de venir de polyteres, ni es falsa por el simple hecho de proceder de misterxmedia. Eso es lo que quiero q se entienda.
Desde mi ignorancia total...tenía entendido que la one tenia su propia api y que direct x12 poco aportaría...o eso han recalcado algunos foreros...este pavo dice que es direct x11 de pc...no entiendo.
Buenas gente. @Szasz tranquilo no tienes que pedir perdón, no me he sentido ofendido [beer] [beer] [beer] .

Siempre se puede debatir conmigo de todos los temas que quieras, tan solo tienes que traer argumentos sólidos y válidos y que contradigan lo que estoy diciendo, eso es un debate. Pero hay ciertas cosas que es q son así, pq son así, no pq las diga yo [+risas] . Mira te pongo un ejemplo:

Si me dices que XboxOne tiene las CUs desdobladas o duplicadas una para cálculo de simple precisión y las otras para cálculo de doble precisión, lo primero que te diré es q es una mala decisión de diseño, y lo argumento con una serie de factores (este tema ya lo traté en este mismo, no lo voy a repetir jejeje).

Szasz escribió:Por poner un ultimo ejemplo, refiriéndome a la entrevista a los desarrolladores de Redux , se puede leer como Microsoft les dio una API de Dx11 de PC, que sobrecarga de trabajo un hilo. Tú mismo, por sentido común, dijiste que las APIs de consolas no son así y que repartiría el trabajo adecuadamente. Sí, dijiste que las herramientas mejoran con el tiempo (que empeoren es imposible), pero negaste la posibilidad que esto pasara.


No, por sentido común no, por lo que he leído, no hace falta traer la documentación oficial de Ms. Pero hay que entender lo que se lee. Vámonos a la entrevista de los arquitectos de XboxOne:

Digital Foundry: DirectX as an API is very mature now. Developers have got a lot of experience with it. To what extent do you think this is an advantage for Xbox One? Bearing in mind how mature the API is, could you optimise the silicon around it?

Andrew Goossen: To a large extent we inherited a lot of DX11 design. When we went with AMD, that was a baseline requirement. When we started off the project, AMD already had a very nice DX11 design. The API on top, yeah I think we'll see a big benefit. We've been doing a lot of work to remove a lot of the overhead in terms of the implementation and for a console we can go and make it so that when you call a D3D API it writes directly to the command buffer to update the GPU registers right there in that API function without making any other function calls. There's not layers and layers of software. We did a lot of work in that respect.


XboxOne tiene su propia API donde una gran parte del diseño ha sido heredado de DX11 (por compatibilidad o por lo que sea, sus motivos tendrían). Pero puntualiza que han trabajado duro quitando mucho overhead y puesto que es una consola les permite que las llamadas a la API se escriban directamente en el command buffer. De ahí a decir que XboxOne usa una API de PC tal cual...pues que quieres que te diga va un huevo sobre todo por lo que he marcado en negrita. Y de hecho un poquito más abajo en esa misma respuesta puedes leer como dice que muchas de estas cosas esperan poder implementarlas en futuras versiones de DirectX para GPUs de escritorio...a alguien le suena acceso a bajo nivel en DirectX 12?. Pues eso. Pero es q si leemos con tranquilidad en la entrevista que has puesto tu encontramos lo siguiente:

I don't really get why they choose DX11 as a starting point for the console


"Realmente no entiendo pq elegieron DX11 como punto de partida" para una consola. De ahí a lo q tu has puesto de que usa DX11 de PC pues va un rato.

Con respecto a la repartición de trabajo entre varios hilos, leamos:

Let's put it that way - we have seen scenarios where a single CPU core was fully loaded just by issuing draw-calls on Xbox One (and that's surely on the 'mono' driver with several fast-path calls utilised).


Donde dice ahí que solo un core pueda escribir en el command buffer?. Ahí lo que dice es q mediante el profiler han visto q hay draw-calls que tienen tanto overhead (todavía) que son capaces de saturar un core de la CPU, pero en ningún momento dice que sea el único que puede escribir en el command buffer.

Yo no me invento nada. Entiendo que hay ciertas cosas que para entenderlas hay que tener un profundo conocimiento de como funcionan ciertas cosas a bajo nivel y entiendo que aquellos que no tengan este conocimiento lean ciertas cosas y puedan interpretar otras.

Por último con respecto a la entrevista del desarrollador de la saga Metro que has nombrado en tu mensaje anterior, analicemos tranquilamente:

But Microsoft is not sleeping, really. Each SDK that has been released both before and after the Xbox One launch has brought faster and faster draw-calls to the table. They added tons of features just to work around limitations of the DX11 API model. They even made a DX12/GNM style do-it-yourself API available - although we didn't ship with it on Redux due to time constraints


"Incluso pusieron a disposición una API del estilo DX12/GNM ("hazlo tu mismo")". XboxOne ya cuenta con una API close-to-metal con las mejoras que traerá DirectX12, asiq el q siga esperando la liberación de potencia oculta con la llegada de DirectX12 que se lo replantee.

Con respecto a DirectX12 y XboxOne siempre he dicho lo mismo, que no supondría la mejora que muchos esperan, que no es la panacea, q XboxOne ya tiene muchas características que tendrá DirectX12, que XboxOne ya tiene acceso a bajo nivel en su API, que cada nuevo SDK supondrá una mejora con respecto al anterior indpendientemente de DirectX12. Y toda esta entrevista no hace más que darme la razón.

Un saludo.
Y seguimos sesgando!
Termina la frase de q tienen a su disposicion una api similar a directx 12,
Añade la parte en la q dice q no la usaron, muy guionizadas tienes tu las respuestas. Quien quiera saber de que pelo vas solo tiene q mirar en tu historial como capeaste el incidente de la caida del psn en PS3 durante semanas..
Sospecho terriblemente de tus intereses en este hilo. Es opinion personal que quede claro.
Lo que esta claro es que Xbox One se sacó antes de tiempo y hasta ahora ha estado funcionando mediante "apaños" que han ido mejorando cosas, seguro, pero de ahi a decir que Xbox One hoy por hoy es DX12... cuando las mayoría de los multis estan diciendo mas o menos que hacen lo que pueden.

Igual que hay cosas que no se entienden si no tienes ciertos conocimientos, hay otras que a poco que leas se puede "adivinar" o intuir, y hasta que no veamos a Xbox One funcionar con DX12, que es para lo que está diseñada no sabremos de que es capaz. No se trata solo de una mejora natural en el ciclo de una consola.

Bueno, yo desde luego sin tener ni puta idea no voy a hacer afirmaciones tan rotundas, ni a favor ni en contra que luego vienen los Zascass, lo veremos en los juegos...pero vaya que debatir y abrirse a nuevas posibilidades no hace mal a nadie, de hecho si no fuese por eso no avanzariamos nada, no hay que ser tan cuadriculado [beer]
"In general - I don't really get why they choose DX11 as a starting point for the console. It's a console! Why care about some legacy stuff at all? On PS4, most GPU commands are just a few DWORDs written into the command buffer, let's say just a few CPU clock cycles. On Xbox One it easily could be one million times slower because of all the bookkeeping the API does."

¿Millones de veces mas lenta que en Ps4 por todos los cuellos que produce la API? Sí, una API muy cercana al metal.
Tanto que el mismo se pregunta porque la han elegido en vez de hacer una desde 0. Simple, esta en camino Dx12 (versión modificada q sacaran para adaptarla a Xbox).

¿Cual es el problema de Dx11 en PC?Que sobrecarga un hilo y no lo reparte bien entre el resto de los hilos, por eso más Mhz e IPC en PC es más importante que muchos núcleos.


Let's put it that way - we have seen scenarios where a single CPU core was fully loaded just by issuing draw-calls on Xbox One

¿Que no es EXACTAMENTE Dx11 de PC? Obvio. Pero tampoco me tomes por tonto, que me acuerdo perfectamente de las conversaciones que se tuvieron en este hilo.
Polyeters, por lo que te entiendo Xbox one ya hace uso de DX12 a su manera?. Es precupante lo que afirmas ya que si fuera el caso ningún juego futuro llegara a los polémicos 1080p como es el caso actual de Metro Redux que solo aumento de 900p a 912p. La verdad no creo que sea tan asi.

Saludos.
Lo que dice en la entrevista es lo que ya se había hablado antes, que la api que usaba One no era direcxt 12 si no una para salir del paso.

Supongo que sera una versión modificada de DirectX 11.2 que tiene alguna funcionalidad de DirectX 12 adaptada con algunas llamadas close to metal especificas.

Pero claro sigue siendo una api muy ineficaz para el hardware que monta one, y DirectX 12 si que va a marcar diferencias importantes.
salocin21 escribió:Lo que dice en la entrevista es lo que ya se había hablado antes, que la api que usaba One no era direcxt 12 si no una para salir del paso.

Supongo que sera una versión modificada de DirectX 11.2 que tiene alguna funcionalidad de DirectX 12 adaptada con algunas llamadas close to metal especificas.

Pero claro sigue siendo una api muy ineficaz para el hardware que monta one, y DirectX 12 si que va a marcar diferencias importantes.





Concuerdo contigo. Pero de ahi a que Xone ya implemente DX12 no me la creo, como tampoco me creo que sea la panacea como algunos creen.

Saludos
jor79 escribió:
salocin21 escribió:Lo que dice en la entrevista es lo que ya se había hablado antes, que la api que usaba One no era direcxt 12 si no una para salir del paso.

Supongo que sera una versión modificada de DirectX 11.2 que tiene alguna funcionalidad de DirectX 12 adaptada con algunas llamadas close to metal especificas.

Pero claro sigue siendo una api muy ineficaz para el hardware que monta one, y DirectX 12 si que va a marcar diferencias importantes.





Concuerdo contigo. Pero de ahi a que Xone ya implemente DX12 no me la creo, como tampoco me creo que sea la panacea como algunos creen.

Saludos



Ten en cuenta que direcxt 11 esta pensado para el paradigma actual de programación, es decir sistemas con pocos nucleos, lo que para One es precisamente la peor manera de hacerla trabajar.

Direcxt 12 para One trae además el uso de los cooprocesadores, fpgas, etc

Y sobre todo la descarga de la cpu, así que la mejora va a ser MUY importante.
No es que Dx12 sea la panacea, hay ya no entro. Pero la API actual es un "flop", un fracaso, y te lo están diciendo literalmente los de Metro Redux, no yo.

Dx12 sera una importante mejora, más por demérito de la actual que por merito propio. El resto de teorías sobre Dx12 quedan en suspenso.
Szasz escribió:No es que Dx12 sea la panacea, hay ya no entro. Pero la API actual es un "flop", un fracaso, y te lo están diciendo literalmente los de Metro Redux, no yo.

Dx12 sera una importante mejora, más por demérito de la actual que por merito propio. El resto de teorías sobre Dx12 quedan en suspenso.


Es que la api actual es un "apaño" para tirar hasta que se lance DX 12, y aun así One se ha llevado el premio a mejores gráficos (Ryse)

Esta claro que One mejorara mucho cuando
use el software para el que a sido creada.

Pero vamos que el aumento de rendimiento no sera de un dia para otro, si no que irán añadiendo según necesiten a lo largo de la generación.
Tengo una duda sobre la entrevista de 4J Games (Metro), dicen que el problema de la ESRAM es su tamaño, no su rendimiento, y dicen que el ancho de banda no es problema y que el maximo teorico es "comparable" al de PS4 pero no es lo comun estar usandolo todo, pero el ancho de banda maximo teorico no es superior al de PS4? esta ultima no tiene un ancho de banda disponible para la CPU de 20 gb/s?
La panacea no se, pero si hasta ahora está manteniedo el tipo mas que dignamente, (quitando la guerra absurda de marketing de los 1080p), en el futuro quien sabe?. Por eso son tan significtivas esas declaraciones.

Yo creo que estamos todos expectantes y es normal que estemos buscando pistas de por donde ira la cosa, vamos! un poquito de ilusión digo yo, pero bueno ya se verá... Halo5?
Yo lo que no entiendo es como puede ser que gente de este hilo diga que directx12 va a traer un importante aumento del renmiento(o mejor dicho,la version acabada e la api de la consola) cuando el mismisimo maximo representante de xbox ya a dicho que no va a ser asi

Haber.....que te lo esta diciendo tito philp,te lo estan diciendo los desarroyadores y seguis con paranoias conspiratorias

Te dice que solo tiene 1,31tfps y la gente buscando justificaciones asombrosas,que solo hay una gpu y la gente buscando otra,que no hay staked ram y lo mismo

Tenemos las specificaciones oficiales dadas por el propio fabricante y la gente como no son de su agrado no hace mas que enredrar y enredrar buscando cosas que no existen

Si el harware de one es como es,es por que microsft en su momento lo decidio asi,tanto cuesta entender a la gente que lo que esperabamos la mayoria no se corresponde con lo que sacaron?

Alguien duda realmente que si ms,visto lo visto,pudiera retroceder en el tiempo y volver a parir la one no tendria nada que ver con la actual?
en lo personal si creo que la One no estaba para salir el año pasado!! se ve con estas actualizaciones mensuales!! ahora bien, viendo el en momento que estamos del año, creo no se, igual si la hubiesen sacado este año todavia estarian de camino con el api (un poco mas madura si, pero no terminada) y contando de que DX12 para pc sale hasta el otro año, igual se hubiese tenido que esperar a ver algo "mejor" en la consola

sigo espectante a lo que se pueda ver, no se si al final esos fpga son de echo eso, no se si habra algo mas ahi, puede ser que si, en mi pequeño mundo me gusta pensarlo (pero obvio esto es ya muy personal)

igual siempre me gusta leer el hilo, que aunque al final de todo habran muchas cosas que monta o no la One igual estoy aprendiendo :P
Imagen

En fin, que sí, que ya lo sabemos todo.
Buenas gente.

@papatuelo antes de entrar como un elefante en una cacharrería, acusando de vete tu a saber q, deberías leerte la conversación completa, y saber de q estamos hablando antes de meter la pata.

Sesgando q?. En la conversación que estábamos manteniendo ninguno de los dos hemos mencionado si el port es mejor o peor, o q herramientas han usado, la entrevista está ahí todo el mundo puede leerla. Estábamos hablando de las APIs de las que dispone XboxOne, no de si han usado una u otra, es algo q me da igual pq este hilo no es de analizar juegos o versiones o de hacer comparaciones es para hablar justo de lo q estábamos hablando.

Respuestas guionizadas?. De que pelo voy?. Sospechas de mi intenciones en este hilo?. Y según tú cuales son las respuestas a esas preguntas?. Si tienes algún problema con mi actitud reporta mi mensaje a moderación, que ya me estoy cansando con tanta tontería, paranoias y gilipolleces.

Por otro lado ahí está mi historial lo puede leer todo el mundo íntegro y completo XD XD XD , es q esto me parece surrealista jajajaja. Tengo mi propia opinión sobre muchos temas, y escribo en varios hilos como cualquier forero XD .

@Szasz a la API a la que se refiere es a la propia de XboxOne la que está basada en DirectX 11 y es la q han usado para hacer el juego. La API más a bajo nivel, mas cercana a DirectX12 y GNM no la han podido usar como apunta papatuelo. Como dicen en la entrevista, Ms está trabajando muy duro para mejorar esta API y reducir el overhead. No te tomo por tonto tan solo te pido que leas tranquilamente y entiendas lo que lees.

@jor79 los futuros juegos de XboxOne mejorarán mucho a todos los niveles como es normal y la resolución será uno de esos niveles. Siempre lo he dicho los juegos actuales no son ni mucho menos el techo de la consola, esto no ha hecho nada mas que empezar.

Un saludo.
Pues eso, tu historial está ahí para quien lo quiera leer...
Todos sabemos que One ahorro en hardware para invertir en Kinect :o

Pero bueno,llegado este momento,tengo ilusion con los nuevos SDK esos de los que tan bien hablan,a ver si aumenta el rendimiento de la consola,que por ahora me decepciona un poco...
papatuelo escribió:Imagen

En fin, que sí, que ya lo sabemos todo.


Esto como se traduciría.

Yo solía ser una buena fuente de Microsoft. Entonces Microsoft me daba todo a cambio de un acuerdo de no divulgación (NDA). Ahora estoy jodido o soy un desastre?
Papatuelo,valla por delante que vendi mi one y estoy valorando volverla a comprar com buen seguidor de xbox,pero respecto a lo del NDA,¿acaso crees realmente que existe una pieza angular en el sistema(por decirlo de algun modo)que destape el verdadero potencial de la maquina pero spencer te diga que no esperemos ningun gran cambio.con directx12?

Ms concivio one como un sistema all in one,fue a sus ingenieros i les dijo...oye mira,no quiero una simple consola,quiero mas,quiero un dispositivo multitarea en tiempo real,que este encendido conjuntamente al televisor las mismas horas para disfrutar de sus servicios,que se pueda manejar completamente sin ningun mando (excepto juegos clasicos,claro) pueda estar jugando y utilizando skipe para una videconferencia al mismo tiempo,o viendo la tele o etc etc y todo esto basado en windows y con un precio de venta no superior a 500 $\€

Y hicieron un gran trabajo,esto explica el porque de su harware tan peculiar,por que consume tan poco,por que no se oye en absoluto ni se calienta,por que no se entendia su venta sin kinect,por que tiene una entrada de video y guia de television,por que tiene 2 sistemas operativos independientes entre juegos y apps y el modo snap,por que se opto por los 8gb ddr3 y asi todo

Lo acertaron?,pues las ventas dicen que ni de cońa,por eso estamos viendo todos estos cambios y los esfuerzos que estan haciendo en recuperar a los gamers,pero como digo si la tubieran que volver a parir ahora mismo,el hardware de la consola no tendria mucho que ver con lo que tenemos ahora
Barcelo Cola escribió:Todos sabemos que One ahorro en hardware para invertir en Kinect :o

Pero bueno,llegado este momento,tengo ilusion con los nuevos SDK esos de los que tan bien hablan,a ver si aumenta el rendimiento de la consola,que por ahora me decepciona un poco...


Al precio que vale la consola sin kinect 400€ (que no es poco) sumale todo el dinero que se han gastado en i+d.
No es solo el precio final de la consola.

El tiempo dará o quitara la razón a unos u otros. Además el catálogo de la nueva generación deja mucho que desear, hay que esperar a los grandes AAA, para ver de lo que es capaz de hacer XboxOne. A mi lo que me mosquea es que no hayan enseñado nada de halo 5 (solo 4 imágenes que no muestran nada).
Hombre seamos justos,quantum break se ve muy muy bien,apenas tiene nada que envidiar a the order,el multi del halo 2 es 1080p 60fps y tambien se ve muy bien,se puede comparar de tu a tu con el multi del kz perfectamente tambien

Total en el peor de los casos que estamos hablando de una diferencia de 900p vs 1080p?,eso en numeros es mucho pero a la hora de jugar en la tele no es otro mundo ni mucho menos
Szasz escribió:
papatuelo escribió:Imagen

En fin, que sí, que ya lo sabemos todo.


Esto como se traduciría.

Yo solía ser una buena fuente de Microsoft. Entonces Microsoft me dío todo a cambio de un acuerdo de no divulgación (NDA). Ahora estoy jodido o soy un desastre?
Marcollo escribió:http://soloxboxone.com/2014/08/27/desarrollador-de-metro-redux-piensa-que-directx-12-sera-importante-para-xbox-one/
Parece que lo mejor de ONE aun esta por verse


Bueno, pues lo que se venia comentando, pero en español, para evitar malas interpretaciones...veremos en un futuro que supone DX12.

EDITO: aun así hay medios españoles que se sacan titulares de la mangaa, vergonzoso.
http://www.3djuegos.com/foros/tema/32449667/0/la-escasa-cantidad-de-esram-de-xbox-one-ha-sido-un-dolor-para-los-creadores-de-metro-redux/ en serio??
Marcollo escribió:http://soloxboxone.com/2014/08/27/desarrollador-de-metro-redux-piensa-que-directx-12-sera-importante-para-xbox-one/
Parece que lo mejor de ONE aun esta por verse

Justo esto iba a poner. Vaya tela más o menos la API inicial era una porquería total para la consola, y con los sucesivos SDK van depurando, pero al parecer están lejos aún de que sea la API para la que la consola fue echa.

Está la alternativa close-to-the-metal, pero eso no lo usa casi nadie claro. Los juegos que aún vemos están hechos en su mayoría con una API obsoleta. Cuando se liberen todos esos recursos de CPU a ver que tal se plantean los juegos.
Marcollo escribió:http://soloxboxone.com/2014/08/27/desarrollador-de-metro-redux-piensa-que-directx-12-sera-importante-para-xbox-one/
Parece que lo mejor de ONE aun esta por verse


Buenas gente. La traducción bien no?.

Traducir esto:

Actually, the real pain comes not from ESRAM but from the small amount of it. As for ESRAM performance - it is sufficient for the GPU we have in Xbox One. Yes it is true, that the maximum theoretical bandwidth - which is somewhat comparable to PS4 - can be rarely achieved (usually with simultaneous read and write, like FP16-blending) but in practice I've seen only a few cases where it becomes a limiting factor.


Por esto:

Actualmente, el verdadero problema no viene de la ESRAM ni de su pequeño tamaño. Su rendimiento es suficiente para la GPU que tiene la Xbox One. Si, es cierto que su máximo teórico de ancho de banda (comparable a lo que pasa en PS4) rara vez se consigue, normalmente sucede cuando se usa la lectura y escritura simultánea, como en el FP16-blending, pero en la práctica solo he visto unos pocos casos en los que fuera un factor limitador.


Es directamente engañar al personal, y además de tener mucha cara intentando colarlo. Lo que pone ahí:

Realmente el verdadero dolor [como problema] no viene de la eSRAM sino de la pequeña cantidad de esta. En cuanto al rendimiento de la eSRAM - es suficiente para la GPU que tenemos en XboxOne. Si es cierto, que el máximo ancho de banda teórico - el cual es en cierto modo comparable al de Ps4 - puede ser conseguido en raras ocasiones (generalmente con lecturas y escrituras simultáneas, como mezclas en FP16 [punto flotante de 16 bits]) pero en la práctica solo he visto unos cuantos caso en los que llega a ser un factor limitante.


Puede ser conseguido en raras ocasiones en XboxOne por la configuración de memoria que tiene: dos buses que permiten lectura y escritura simultánea a módulos independientes de memoria que si machacas el dato y no puedes conseguir maximizar la utilización, justo como pone en la entrevista de los arquitectos de XboxOne a Eurogamer es q no pone nada nuevo.

Traducir: "we have seen scenarios where a single CPU core was fully loaded just by issuing draw-calls on Xbox One" por "hemos visto momentos en los que solo un core de la CPU estaba a pleno rendimiento solo usando draw-calls en Xbox One " cuando lo q pone en realidad es "hemos visto situaciones en las que un solo núcleo de la CPU estaba totalmente cargado [echándo humo] solo por realizar [simplemente realizando] draw-calls en Xbox Uno ", en respuesta a una pregunta sobre la sobrecarga deI driver y el overhead de la CPU, y más cuando apostilla que en el gráfico del profiler (un "programa" que se usa para comprobar el rendimiento de un sistema) en Ps4 esas llamadas ni siquiera aparecían pq el tiempo que empleaba esta era prácticamente nulo.

Y encima los medios mienten...es de traca.

Un saludo.
Si tenéis algo en contra de algún usuario en concreto resolverlo por MP o postearlo en Feedback (también tenéis la opción de Ignorar), pero no ensuciar este Hilos con Offtopics y buscando las cosquillas :-|
Pero si es que lo interesante de las declaraciones es que los propios desarrolladores están admitiendo que están trabajando con herramientas obsoletas y que Micro está trabajando para mejorarlas hasta que llegue DX12, ya está, eso es lo importante,no hay más vueltas que darle al tema. Están "peleandose" porque las herramientas no son las adecuadas, tan difícil es admitirlo que hay que estar dándole vueltas a todo.

Por mi parte, yo no he dicho que los medios mientan, porque mentir no mienten, pero de una entrevista de la que se hablan de varios temas, sacar cuatro cosas de contexto y cascarle ese titular... Pues bueno, para informar precisamente no es.

Lo siento por el offtopic, ya no sigo con el tema.
Resumen del hilo

Alaba las caracteristicas tecnicas y la api de Xbox one.

No hables de la competencia.

Traduce como quieras.

Supongo que se me sancionara de alguna manera por decir lo que creo pero es lo que pienso, ademas creo que el moderador ayuda a que el hilo este asi.
Qué cansinos sois los que decís que os vais, pero no os acabáis de ir. Al menos aportad algo coño.
La traducción de la noticia no es correcta. Hay algunos errores llamativos.
Pero la forma de afrontar la noticia de 3djuegos es lamentable. Sensacionalismo puro y duro en busca de visitas. Ni siquiera son capaces de dejar el link para leer la noticia original.

Con el tema del ancho de banda, en TEORÍA es bastante superior el de One, lo que pasa que por su peculiaridad es difícil alcanzarlo.
Pero realmente pueden sumarse ambos ancho de banda (tanto de la DDR3 como de la Sram)

"Nick Baker: First of all, there's been some question about whether we can use ESRAM and main RAM at the same time for GPU and to point out that really you can think of the ESRAM and the DDR3 as making up eight total memory controllers, so there are four external memory controllers (which are 64-bit) which go to the DDR3 and then there are four internal memory controllers that are 256-bit that go to the ESRAM. These are all connected via a crossbar and so in fact it will be true that you can go directly, simultaneously to DRAM and ESRAM."

Esto en teoría da 109 (read) + 109 (write) + 68 (DDR3)= 286 gb/s

El problema es que en la práctica baja sustancialmente.

"The same discussion with ESRAM as well - the 204GB/s number that was presented at Hot Chips is taking known limitations of the logic around the ESRAM into account. You can't sustain writes for absolutely every single cycle. The writes is known to insert a bubble [a dead cycle] occasionally... One out of every eight cycles is a bubble, so that's how you get the combined 204GB/s as the raw peak that we can really achieve over the ESRAM. And then if you say what can you achieve out of an application - we've measured about 140-150GB/s for ESRAM. That's real code running. That's not some diagnostic or some simulation case or something like that. That is real code that is running at that bandwidth. You can add that to the external memory and say that that probably achieves in similar conditions 50-55GB/s and add those two together you're getting in the order of 200GB/s across the main memory and internally."

Segun Microsoft tienen medidos corriendo código real 140-150GB/s para la Sram y 50-55GB/s para la DDR3, lo que hace un total de 200GB/s reales.

Y esto es algo que me choca mucho. Es un ancho de banda muy grande y esta medido y comprobado por ellos.

Por lo que tengo la impresión de que en los primeros XDKs el ancho de banda venia capado. Por eso el tweet de Phill Spencer diciendo que se había liberado ancho de banda en los ultimos XDKs. Algo que concuerda con esto:

"Nick Baker: When we started, we wrote a spec. Before we really went into any implementation details, we had to give developers something to plan around before we had the silicon, before we even had it running in simulation before tape-out, and said that the minimum bandwidth we want from the ESRAM is 102GB/s. That became 109GB/s [with the GPU speed increase]. In the end, once you get into implementing this, the logic turned out that you could go much higher."

Así q los chicos de Metro Redux han programado el juego con unas herramientas muy verdes, ya que no se han aprovechado de nada de esto. Que por cierto, han hecho un gran trabajo.
Exacto, ahí mismo lo has dicho, ellos han trabajado con kits antiguos, recuerdo que salio una entrevista u algo asi cuando estaban lo de Ucrania en guerra o que se yo, y ellos pasaban los proyectos y esas cosas en maletines a lo oculto que según se lo requisaban y por eso se quedó con los antiguos.
La fuente de lo que dice lo estoy buscando, fue cuando se anuncio el juego a esos pocos días...
marjalone está baneado por "Saltarse el ban con un clon"
entrevista completa en español

aver si la gente se aclara un poco

http://soloxboxone.com/2014/08/27/desar ... -xbox-one/
Esa traducción esta errada en la traduccion correcta dicen que el problema no es la velocidad y si su bajo tamaño.

A las malas texto original en ingles y traductor
Esa traducción está errada en muchos puntos. ¿Alguien que se dedica a escribir sobre esto y traduce "actually" como actualmente? ¿Pone un "ni" donde debería haber un "sino", cambiando totalmente el sentido de la frase? Aunque esperable en un fansite de un producto como xbox (o eso me da a entender el nombre, no conozco ese sitio), al menos lo que te viene como literal en una entrevista, deberías traducirlo tal cual viene o a al menos no entrecomillarlo para que parezca que literalmente ha dicho eso.
Szasz, la noticia de 3d juegos sí tiene el link de la noticia original. Aunque en vez de ponerlo en el pie del artículo (que sería lo más correcto), va en un hiperenlace en el cuerpo.
Porque madre mía con los dos artículos españoles, cada uno barriendo para un lado de una forma bastante lamentable. Menos mal que tenemos a mano el texto original.

Yo hay una cosa que no se ha comentado mucho, también puede que lo haya entendido yo mal. Más que usar una API más nueva o una más antigua, lo que me ha dado a entender el de 4A Games, es que los desarrolladores tienen ahora en XBOX dos APIs disponibles:
-una de alto nivel, con la que han hecho el remake de Metro en cuatro meses
-una de bajo nivel; más compleja, que conlleva más desarrollo, pero que en teoría te permitiría sacar más partido a la máquina, sobre todo a base de tener más control sobre el hardware y menos capas intermedias.

No sé si es así y en ese caso, si siempre han estado disponibles las dos APIs (o una API con dos modos de trabajo)
En cualquier caso, una entrevista muy jugosa.
La última actualización del SDK de Xbox One confirma la mejoría prometida y, por ejemplo, Styx alcanzará 1080p
http://www.3djuegos.com/noticia/146188/38/xbox-one-sdk/syx-1080/

Y eso que aún es el SDK DX11, pero por lo menos parece que el "lenguaje" hacia la GPU ya es más depurado. Ahora lo que mejorará sustancialmente DX12 es en el consumo de CPU.

Si tenemos en cuenta más aún que en XOne los comandos de sistema de Kinect siempre están funcionando, y que puedes acoplar una App, es sencillamente sorprendente lo que rinde este hardware.
El insider de mixtermedia dice que sobre Noviembre enviaran los nuevos sdks, los que se supone que ya son los que marcaran una gran diferencia.

Pero no se si se refiere a que son los que incluyen el directx12 o a que puede ser...

Aunque mixtermedia nunca ha sido una fuente fiable jejeje
Se supone que aún no llevan DX12, y menos aún cuando leí que a los indies de primeras no les van a dar el SDK con DX12 y tendrán que tirar un tiempo con el DX11.
Szasz escribió:La traducción de la noticia no es correcta. Hay algunos errores llamativos.
Pero la forma de afrontar la noticia de 3djuegos es lamentable. Sensacionalismo puro y duro en busca de visitas. Ni siquiera son capaces de dejar el link para leer la noticia original.

Con el tema del ancho de banda, en TEORÍA es bastante superior el de One, lo que pasa que por su peculiaridad es difícil alcanzarlo.
Pero realmente pueden sumarse ambos ancho de banda (tanto de la DDR3 como de la Sram)

"Nick Baker: First of all, there's been some question about whether we can use ESRAM and main RAM at the same time for GPU and to point out that really you can think of the ESRAM and the DDR3 as making up eight total memory controllers, so there are four external memory controllers (which are 64-bit) which go to the DDR3 and then there are four internal memory controllers that are 256-bit that go to the ESRAM. These are all connected via a crossbar and so in fact it will be true that you can go directly, simultaneously to DRAM and ESRAM."

Esto en teoría da 109 (read) + 109 (write) + 68 (DDR3)= 286 gb/s

El problema es que en la práctica baja sustancialmente.

"The same discussion with ESRAM as well - the 204GB/s number that was presented at Hot Chips is taking known limitations of the logic around the ESRAM into account. You can't sustain writes for absolutely every single cycle. The writes is known to insert a bubble [a dead cycle] occasionally... One out of every eight cycles is a bubble, so that's how you get the combined 204GB/s as the raw peak that we can really achieve over the ESRAM. And then if you say what can you achieve out of an application - we've measured about 140-150GB/s for ESRAM. That's real code running. That's not some diagnostic or some simulation case or something like that. That is real code that is running at that bandwidth. You can add that to the external memory and say that that probably achieves in similar conditions 50-55GB/s and add those two together you're getting in the order of 200GB/s across the main memory and internally."

Segun Microsoft tienen medidos corriendo código real 140-150GB/s para la Sram y 50-55GB/s para la DDR3, lo que hace un total de 200GB/s reales.

Y esto es algo que me choca mucho. Es un ancho de banda muy grande y esta medido y comprobado por ellos.

Por lo que tengo la impresión de que en los primeros XDKs el ancho de banda venia capado. Por eso el tweet de Phill Spencer diciendo que se había liberado ancho de banda en los ultimos XDKs. Algo que concuerda con esto:

"Nick Baker: When we started, we wrote a spec. Before we really went into any implementation details, we had to give developers something to plan around before we had the silicon, before we even had it running in simulation before tape-out, and said that the minimum bandwidth we want from the ESRAM is 102GB/s. That became 109GB/s [with the GPU speed increase]. In the end, once you get into implementing this, the logic turned out that you could go much higher."

Así q los chicos de Metro Redux han programado el juego con unas herramientas muy verdes, ya que no se han aprovechado de nada de esto. Que por cierto, han hecho un gran trabajo.


Leo esto y recuerdo cómo el usuario @supremegaara me trataba de paleto y de decir burradas cuando afirmé que Xbox One podía sumar la velocidad de su DDR3 y ESRAM. La ignorancia de algunos es bastante osada.

http://www.elotrolado.net/hilo_albert-penello-el-frenesi-de-noticias-y-el-drama-estan-nublando-la-logica-y-la-razon_1947168_s60#p1734098311
17587 respuestas