Hablemos del interior de Xbox One

No entiendo, se supone que el senyor Burger iba a hablar de xbox one y acaba saliendo por los cerros de Ubeda con arquitecturas FPGA en los servidores de Bing?

No seria mas sencillo realmente hablar de Xbox One y dejarse de rodeos?

Un saludo!
argam escribió:No entiendo, se supone que el senyor Burger iba a hablar de xbox one y acaba saliendo por los cerros de Ubeda con arquitecturas FPGA en los servidores de Bing?

No seria mas sencillo realmente hablar de Xbox One y dejarse de rodeos?

Un saludo!


Eso parece, yo creia que era la tipica desviacion que hacemos en el hilo, pero parece que viene de mas arriba el mezclar todo xD
Es que yo por lo menos me estoy liando bastante, como encima estais ironicos... cualquiera se aclara.

Si iban a hablar de la arquitectura de xbox one y hablan de FPGA será porque estan dentro de la One, digo yo, ¿no?

Venga, mojaros un poco y afirmar algo jajaja.
Yo afirmo que podría ser lo uno, lo otro o puede que nada, de eso estoy firmemente convencido.
Nuhar escribió:Es que yo por lo menos me estoy liando bastante, como encima estais ironicos... cualquiera se aclara.

Si iban a hablar de la arquitectura de xbox one y hablan de FPGA será porque estan dentro de la One, digo yo, ¿no?

Venga, mojaros un poco y afirmar algo jajaja.


Jajajaja, yo hice la misma suposicion hace unas paginas pero me dijeron que no, que no hay FPGA xDDDD

Pero seguro que iba a hablar de xbox one? O lo hemos soñao? No vaya a ser que estemos haciendonos la picha un lio por una confusion xD

Oh quiza, no sera que los FPGAs estan en la nube para el cloud computing? xD
Zokormazo escribió:Oh quiza, no sera que los FPGAs estan en la nube para el cloud computing? xD


Si estarian en la nube hablarian entonces de Azure (o como se llame ahora el servicio) y no de Xbox One, y yo creo que venía escrito en la temática.

Me imagino que tendre que esperar a la demo oficial para users de microsoft, espero que Coco y Epi me ayuden a entender todo esto XD
Lo unico que me queda claro que todos nosotros estamos en una nube...con FGPA o no
Nuhar escribió:
Zokormazo escribió:Oh quiza, no sera que los FPGAs estan en la nube para el cloud computing? xD


Si estarian en la nube hablarian entonces de Azure (o como se llame ahora el servicio) y no de Xbox One, y yo creo que venía escrito en la temática.

Me imagino que tendre que esperar a la demo oficial para users de microsoft, espero que Coco y Epi me ayuden a entender todo esto XD


En la demo se vera algo de todo esto?

Yo lo planteaba mas bien como un techdemo de lo que es capaz de hacer la consola, dx12 y la borrasca a nivel visual, no de internals.

Con eso si que podrian callar bocas si la nube y dx12 son eso que dicen que son. Una demo que mueva mil historias a 1080p/60fps generado proceduralmente y que siempre sea distinto para demostrar que la potencia de la cloud hace milagros y de chip gordo.

Pero ahi no nos dirian nada de FPGAs xD
Recordar que aquí siempre se suele hablar de cosas que no están confirmadas. Nos gusta indagar esas cosas para ver hacia donde van los tiros de esta extraña arquitectura. Se sabe que Xbox está pensada para la insercion de codigo por la nube. Es un hecho. Nos gusta hacer predicciones y tratar de unir puntos estemos o no equivocados. Criticar con ironía ese punto es no comprender este hilo.

Y discrepo Zokor :P Aunque xbox one no tenga FPGA y sus coprocesadores no sean reprogramables y todas esas cosas... Que los servidores que use Microsoft sean el doble de potentes nos vendrá muy bien para calculos de fisicas ;) por ejemplo.
Yo lo que me pregunto es si la consola se planteo desde un primer momento para rular en Dx12 + nube a medio plazo, asumiendo que el inicio de la misma iba a salir pero parada técnicamente en los juegos que la ps4.

La verdad es que si tuviera que elegir de nuevo cual comprarme, casi con seguridad tiraría a por la ps4. Desde mi punto de vista llega a alcanzar mejor lo que ofrece un PC de alta gama hoy en día pero sigo teniendo esa esperanza, ilusión, inocencia de que la One realmente es superior en rendimiento. Eso si, cuando se use adecuadamente las herramientas para lo que yo creo que esta parida (Dx12 + Nube)
LaBestiaHumana+ está baneado por "saltarse el ban con un clon"
Ni de coña pensaban esta diferencia, sino lo hubieran reconocido, ellos asumian tener peor grafica pero se tragaron, que la PS4 tendría 4 Gigas de Ram y ellos sabian que con 8 o 12, sería mucha diferencia que compensaria esa pequeña diferencia de potencia gráfica.

Ademas el efecto de suavizado gráfico de la memoria interna, ya había hecho milagros en la 360.

YO "creo" que pensaron que para su sistema de 3 niveles era recomendable 12 Gigas, pero si su competencia tenia 4, con 8 Gb les quedaria amplio margen. Ahora tienen que optimizar todo.

Entre la memoria, y las prisas que le metió la competencia el resultado.

Por ahora la nube en xbox one es lo mismo que en 360 mejores servidores, ping y "matchmaking". Nada novedoso.

Ejemplo titanfall.

Si algun otro juego vacilan de la nube, decírmelo que estoy deseando de descubrir su "magia".

Usuario: "¿y el poder de la nube?.

Microsoft: Culpa vuestra de no estar siempre online.

Usuario: TitanFall es online todos los usuarios tienen que estar online para jugar, porque no implementa la mejora grafica del 300% que dijisteis?

Microsoft: En Titanfall, se utiliza para el matchmaking.

Usuario: La 360 tb lo tiene se beneficia tb de la nube¿?





mecro escribió:Yo lo que me pregunto es si la consola se planteo desde un primer momento para rular en Dx12 + nube a medio plazo, asumiendo que el inicio de la misma iba a salir pero parada técnicamente en los juegos que la ps4.

La verdad es que si tuviera que elegir de nuevo cual comprarme, casi con seguridad tiraría a por la ps4. Desde mi punto de vista llega a alcanzar mejor lo que ofrece un PC de alta gama hoy en día pero sigo teniendo esa esperanza, ilusión, inocencia de que la One realmente es superior en rendimiento. Eso si, cuando se use adecuadamente las herramientas para lo que yo creo que esta parida (Dx12 + Nube)
LaBestiaHumana+ escribió:
Ni de coña pensaban esta diferencia, sino lo hubieran reconocido, ellos asumian tener peor grafica pero se tragaron, que la PS4 tendría 4 Gigas de Ram y ellos sabian que con 8 o 12, sería mucha diferencia que compensaria esa pequeña diferencia de potencia gráfica.

Ademas el efecto de suavizado gráfico de la memoria interna, ya había hecho milagros en la 360.

YO "creo" que pensaron que para su sistema de 3 niveles era recomendable 12 Gigas, pero si su competencia tenia 4, con 8 Gb les quedaria amplio margen. Ahora tienen que optimizar todo.

Entre la memoria, y las prisas que le metió la competencia el resultado.

Por ahora la nube en xbox one es lo mismo que en 360 mejores servidores, ping y "matchmaking". Nada novedoso.

Ejemplo titanfall.

Si algun otro juego vacilan de la nube, decírmelo que estoy deseando de descubrir su "magia".

Usuario: "¿y el poder de la nube?.

Microsoft: Culpa vuestra de no estar siempre online.

Usuario: TitanFall es online todos los usuarios tienen que estar online para jugar, porque no implementa la mejora grafica del 300% que dijisteis?

Microsoft: En Titanfall, se utiliza para el matchmaking.

Usuario: La 360 tb lo tiene se beneficia tb de la nube¿?





mecro escribió:Yo lo que me pregunto es si la consola se planteo desde un primer momento para rular en Dx12 + nube a medio plazo, asumiendo que el inicio de la misma iba a salir pero parada técnicamente en los juegos que la ps4.

La verdad es que si tuviera que elegir de nuevo cual comprarme, casi con seguridad tiraría a por la ps4. Desde mi punto de vista llega a alcanzar mejor lo que ofrece un PC de alta gama hoy en día pero sigo teniendo esa esperanza, ilusión, inocencia de que la One realmente es superior en rendimiento. Eso si, cuando se use adecuadamente las herramientas para lo que yo creo que esta parida (Dx12 + Nube)


Que gráfica según tu tiene la one ?

Que yo sepa no coincide con ninguna para asignarla o decir que es peor. Si me vas a poner una por favor con fuente de ms .. no como una suposicion.
Phil Spencer sobre DX12:

"It will help developers on XBOX One. It's not going to be a massive change but will unlock more capability for devs."

https://twitter.com/XboxP3/status/478731382660034560
Geim escribió:Phil Spencer sobre DX12:

"It will help developers on XBOX One. It's not going to be a massive change but will unlock more capability for devs."

https://twitter.com/XboxP3/status/478731382660034560

creo que este hombre no se entera de la pelicula,que no va a haber un gran canvio con directx12 dice,esto es por que no a leido a flasbackman y mitermxmedia xd!!! [+risas]
chris76 escribió:
Geim escribió:Phil Spencer sobre DX12:

"It will help developers on XBOX One. It's not going to be a massive change but will unlock more capability for devs."

https://twitter.com/XboxP3/status/478731382660034560

creo que este hombre no se entera de la pelicula,que no va a haber un gran canvio con directx12 dice,esto es por que no a leido a flasbackman y mitermxmedia xd!!! [+risas]


Y ahora es cuando hay que reirse, no?
¿Y si dejamos el tema?

¿O alguno esta buscando un descanso?
hadock0 escribió:
chris76 escribió:
Geim escribió:Phil Spencer sobre DX12:

"It will help developers on XBOX One. It's not going to be a massive change but will unlock more capability for devs."

https://twitter.com/XboxP3/status/478731382660034560

creo que este hombre no se entera de la pelicula,que no va a haber un gran canvio con directx12 dice,esto es por que no a leido a flasbackman y mitermxmedia xd!!! [+risas]


Y ahora es cuando hay que reirse, no?

para nada,yo solo dije que mezclais mucho todas las bondades de la api directx12 de pc con la one,cuando one,aunque lleve una api basada en direcx11/12 lleva su propia api

ahora viene este hombre y "parece" que me da algo de razon,la api no parara de mejorar pero los milagros a Lourdes

Por cierto,que rapidez con la moderacion,alguien intenta censurar comentarios no tan optimistas,que ridiculo
Quien se emparanoia con que dx12 va a ser un cambio bestial de 2x es misterxmedia y compañia. Aqui estamos hablando de que mejorará xbox one. Parece que algunos tiene que venir a comparar la consola con ps4 todo el rato si o si...
Que pesadilla. Iros a multi a decidir que consola es la mejor. Dejarnos a los usuarios de xbox one tranquilos
chris76 escribió:
Geim escribió:Phil Spencer sobre DX12:

"It will help developers on XBOX One. It's not going to be a massive change but will unlock more capability for devs."

https://twitter.com/XboxP3/status/478731382660034560

creo que este hombre no se entera de la pelicula,que no va a haber un gran canvio con directx12 dice,esto es por que no a leido a flasbackman y mitermxmedia xd!!! [+risas]
will unlock more capability for devs."

No se va a convertir en una titan Z, pero desbloqueara más capacidades. Cordura, sí, pero otro paso adelante.
La XO no tiene FPGA, eso son los servidores. Por coste.

DX12 va a mejorar en lo que se ha dicho, paralelizar y distribuir la carga en la CPU. Pero las tareas de la API. Esto puede permitir solventar cuellos de botella en la CPU para ciertos juegos, que es como más puede notarse. Pero los componentes no van a correr más, mas allá de la pertinente optimización en el uso de éstos.

Cuanto más complejo sea el juego, más se notaría sobre todo para conseguir más fps o mantener el tipo sin bajadas ni tirones.

Así que lo que más se espera de DX12 sería fluidez, no poder subir de 720 a 1080 un juego que esté petado de gráficos.
Szasz escribió:will unlock more capability for devs."

No se va a convertir en una titan Z, pero desbloqueara más capacidades. Cordura, sí, pero otro paso adelante.


algo similar venia a comenar, que por lo general solo se toma la primera parte, pero la segunda parte de la sentencia no se le hace mucha bulla!!

al final no va a ser una revlucion pero si se convierte en una mejora, y cualquier mejora siempre sera bienvenida
hadock0 escribió:
chris76 escribió:
Geim escribió:Phil Spencer sobre DX12:

"It will help developers on XBOX One. It's not going to be a massive change but will unlock more capability for devs."

https://twitter.com/XboxP3/status/478731382660034560

creo que este hombre no se entera de la pelicula,que no va a haber un gran canvio con directx12 dice,esto es por que no a leido a flasbackman y mitermxmedia xd!!! [+risas]


Y ahora es cuando hay que reirse, no?


Pues la verdad es que yo me he reido, el tal flashbackman no tengo ni idea de quien es pero el misterxmedia bastante me he pasado por su blog y creo que las peliculas que se ha montado con dx12 eran precisamente eso peliculas.

Creo que Phil Spencer hace lo mejor que puede hacer, poner algo de cordura en este tema que si no recordais paso lo mismo con el dx11. Mejor asi que no seguir engordando la bola de nieve y dandoles falsas esperanzas a los usuarios.

Yo lo comente hace un tiempo, el Dx12 si mejoraria pero se notaria mas en PC que en consola.
Creo q tmb sería correcto hacer referencia al tweet al q contesta Phil.

"@XboxP3 This might be random but will dx12 be a game changer for xbox one????? And how? why ?"

¿Q entendemos por game changer? ¿Nueva forma de hacer los videojuegos? ¿Un avance gigantesco a la altura del salto de las 2D/3D?

Brad Wardell tmb dijo en su twitter: "it's not literally (it's software, not hardware) but yes, dx12 games will likely by more than 2x as fast."

Mejorar, mejora. Falta saber cuanto, 50%, 100%, 20%......

Creo q seguimos igual, bueno, queda descartada la teoría de los 5,2tflops, pero dudo mucho, q mucha gente la creyera.
Es que lo de los 5 Tflops... Ya lo de los 2,6 Tflops me parece una autentica burrada.

Yo lo que tenía entendido (corregirme si me equivoco) que con el directx12 "supuestamente" se podría usar al 100% el hardware de la consola y el rendimiento iba a ser superior, pero que también es un software que iba a integrar la nube en la consola.

Ahora, lo de cuanto es el rendimiento en la xbox one o como iba a afectar la nube es el misterio que todos queremos saber.
Nuhar escribió:Es que lo de los 5 Tflops... Ya lo de los 2,6 Tflops me parece una autentica burrada.

Yo lo que tenía entendido (corregirme si me equivoco) que con el directx12 "supuestamente" se podría usar al 100% el hardware de la consola y el rendimiento iba a ser superior, pero que también es un software que iba a integrar la nube en la consola.

Ahora, lo de cuanto es el rendimiento en la xbox one o como iba a afectar la nube es el misterio que todos queremos saber.


Efectivamente, se supone q los CP compute están trabajando como ACEs de manera asíncrona ya q Dx11 solo ve 1 CP gfx.

Lo q se espera es q con Dx12 haya paralelismo. Q pueda realizar tareas de GPGPU junto a tarea de GFX al mismo tiempo, por eso Xbox One tiene el doble de ALUs, pero no así, el doble de ROPs, tmus...etc.

Dx12 por software mejora el rendimiento en CPU, sobretodo en PC( en one yo no apostaría por esa mejora). Si tienes en cuenta q un sistema HSA como es One, el objetivo es q una GPU pueda hacer de CPU, y tienes esas areas desdobladas, es lícito pensar q por ahí tiene q venir una importante mejora.

Eso no te da el doble de potencia en gráficos como tal, pero si q te puede aportar nuevos efectos. Yo siempre he apostado por algo de la iluminación como raytracing.

¿Esto es así seguro? Pues no, no es seguro q funcione así. Pero lanzo la siguiente pregunta, ¿Para q Microsoft se molesta en añadir CP y alus a su consola? ¿Para hacer lo mismo?
Estas cosas hay que cogerlas con pinzas, una mejora del 10-20% no es un cambio significativo, no va a ser una gran revolución como puede ser el cloud computing (en caso que realmente funcione).

Pero si el 10% "del kinect" ya se esta notando, tener otro tanto adicional se notaria bastante. Habrá que esperar para averiguar cuanto es capaz de mejorar XD
Nuhar escribió:Estas cosas hay que cogerlas con pinzas, una mejora del 10-20% no es un cambio significativo, no va a ser una gran revolución como puede ser el cloud computing (en caso que realmente funcione).

Pero si el 10% "del kinect" ya se esta notando, tener otro tanto adicional se notaria bastante. Habrá que esperar para averiguar cuanto es capaz de mejorar XD


Puede que si, puede que no tanto. Con el 10% "del kinect" han liberado ancho de banda ademas de potencia, lo que ha podido suponer un incremento extra por liberar un cuello de botella. Si fuera el caso, liberar otro tanto no tendria una subida escalar en el rendimiento. Se notaria pero no tanto.
Zokormazo escribió:
Nuhar escribió:Estas cosas hay que cogerlas con pinzas, una mejora del 10-20% no es un cambio significativo, no va a ser una gran revolución como puede ser el cloud computing (en caso que realmente funcione).

Pero si el 10% "del kinect" ya se esta notando, tener otro tanto adicional se notaria bastante. Habrá que esperar para averiguar cuanto es capaz de mejorar XD


Puede que si, puede que no tanto. Con el 10% "del kinect" han liberado ancho de banda ademas de potencia, lo que ha podido suponer un incremento extra por liberar un cuello de botella. Si fuera el caso, liberar otro tanto no tendria una subida escalar en el rendimiento. Se notaria pero no tanto.


Es que mezclamos muchas cosas en estos porcentajes, porque el 10% del kinect creo que era sobre la gpu, no es un rendimiento global.

En el caso del directx12 creo que lo que libera es el rendimiento de la CPU, por lo que un 10% extra de cpu no es un 10% extra global.

Pero vamos, que yo creo que estaba claro por donde iban mis comentarios, no? jajaja. Un 5-10-15-20% extra de rendimiento global no es un enorme cambio pero si que se va a notar.

Yo creo que los tiros del twit iban mas por los que flipaos que dicen que va a rendir como una titan de 5,2 Tflops jajaja.
Yo lo que creo es que no se termina de entender. No es cuestión de un 10%, 20%, 50%. Es cuestión de poner a funcionar el sistema como se diseñó en sus comunicaciones internas y REPARTIENDO el trabajo de la API (render, sonido, etc.) entre todos los coprocesadores + todos los núcleos de CPU, que ahora sólo se una 1 para tareas de la API.

¿Cuánto % de mejora supone esto?. No se puede cuantificar, lo que debe entenderse es como eliminación de cuellos de botella o limitadores por cargar demasiado 1 único componente, que es el 1er núcleo de la CPU que es la que ahora lo hace todo. Cuando lo sobrecargas ya puedes tener todo lo que quieras por otros lados que ahí te vas a quedar.

Lo que cabe esperar pues, no es un % en bruto, sino mayor tasa de fps especialmente con carga, mayor número de elementos, poder hacer juegos a 60 fps que antes serían impensables. Pero no porque de repente corra el doble, sino porque antes podrían encontrarse limitados al cargar demasiado 1 solo núcleo. Por lo tanto si el limitador de 30 fps es la GPU, en DX12 el juego seguirá a 30 fps (seguramente quitando slow-down), y la única forma de subirle fps sería bajando resolución.

En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.
darksch escribió:Yo lo que creo es que no se termina de entender. No es cuestión de un 10%, 20%, 50%. Es cuestión de poner a funcionar el sistema como se diseñó en sus comunicaciones internas y REPARTIENDO el trabajo de la API (render, sonido, etc.) entre todos los coprocesadores + todos los núcleos de CPU, que ahora sólo se una 1 para tareas de la API.

¿Cuánto % de mejora supone esto?. No se puede cuantificar, lo que debe entenderse es como eliminación de cuellos de botella o limitadores por cargar demasiado 1 único componente, que es el 1er núcleo de la CPU que es la que ahora lo hace todo. Cuando lo sobrecargas ya puedes tener todo lo que quieras por otros lados que ahí te vas a quedar.

Lo que cabe esperar pues, no es un % en bruto, sino mayor tasa de fps especialmente con carga, mayor número de elementos, poder hacer juegos a 60 fps que antes serían impensables. Pero no porque de repente corra el doble, sino porque antes podrían encontrarse limitados al cargar demasiado 1 solo núcleo. Por lo tanto si el limitador de 30 fps es la GPU, en DX12 el juego seguirá a 30 fps (seguramente quitando slow-down), y la única forma de subirle fps sería bajando resolución.

En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.


Er, se usa solo un nucleo para tareas de calldraws de D3D, no para la api al completo. El sonido y demas mierdas que no sean los drawcalls de d3d se reparten sin problemas. De hecho creo que fue Poly quien dijo que en DX11 tambien se pueden paralelizar los drawcalls aunque el control sobre esto ultimo sea limitado.
Er, no. Aunque DX11 "diga" que lo hace no es que lo haga muy bien que digamos, como ninguna API hasta ahora.

http://www.extremetech.com/gaming/178904-directx-12-detailed-backwards-compatible-with-all-recent-nvidia-gpus-will-deliver-mantle-like-capabilities

Mira un dato IMPORTANTE, los ms que le lleva al Thread 0, si esos ms superan los 16, despídete de los 60 fps. Si resulta que se pueden reducir bastante, repartiendo, si mantienes todos los threads por debajo de 16 ms, ahí tienes 60 fps.

Y para lo otro lo mismo, si vas sumando elementos se van sumando al Thread 0, que ralentizará todo lo demás. Si repartes y tienes 4 Threads, puedes cargar 4 veces más elementos porque se reparte, a nivel de CPU, otra cosa es cuando toque renderizarlos. Pero la descarga está ahí.

Es cuestión de estar limitado por la "barra más alta", como puede ver ahí.

Lo de que las otras partes de la API que no son 3D se paralelizan, pues no lo sabemos. Si la 3D no lo hace no podemos suponer que el resto sí.
Entonces que me aclare yo.

Si no me confundo, se supone que la gpu tiene momentos que esta "dormida" porque esta en espera de la cpu, pero que gracias al nuevo directx12 y la arquitectura nueva se aprovecharía mas, no?

Entonces entiendo que algo de mejora en gpu habra, pero quitando esa parte, parece que lo que mas afectaria sería a una mejora en la CPU, pero si la gpu esta ocupada y el máximo sería 30fps, ¿para que usamos la potencia sobrante de la cpu?

Sobretodo lo digo por juegos como el crackdown donde las fisicas y la IA encima se podrían trasladar a la nube, ¿No habría una enorme cantidad de CPU sin aprovechar?
Pues viene a ser eso.

Para mejores IA, físicas, colisiones, minimizar slow-downs (por picos de procesamiento en algún algoritmo), añadir elementos (partículas, o elementos que no sean muy difíciles de renderizar para no cargar aún más la GPU), simulaciones (como el cielo).

Teniendo 8 núcleos mucho se puede hacer en local. Como ya he dicho muchas veces para gran cantidad de cosas la XO puede hacerlas por ella sola si se aprovechan todos, sin necesidad de la nube.
Pero todo eso q estáis hablando es la parte inherente al software, es decir, tier 1 y 2. WiiU y PS4 también se beneficiarán de ello. Sony ya esta reclutando profesionales.

Lo q se supone q impulsa más el rendimiento es tener una arquitectura nativa Dx12. Es decir, tier 3.

Tier 1 y 2, es igual o prácticamente igual a Mantle a día de hoy. Q seguramente haya nacido del trabajo conjunto con Microsoft al realizar la Xbox One.
Por eso se supone que en XO debería beneficiarse más aún, y no como al revés dicen algunos que en PC se notará más. En la gráficas actuales sólo con actualización de drivers sin cambios en el hardware pues se beneficia a nivel de software, pero no de hardware.
En xone se notara mas que en un i7, mas que nada porque sus cores son bastante menos potentes que los de un i7. Y si el cuello de botella lo tenemos en core0... ding, bingo xD
darksch escribió:Yo lo que creo es que no se termina de entender. No es cuestión de un 10%, 20%, 50%. Es cuestión de poner a funcionar el sistema como se diseñó en sus comunicaciones internas y REPARTIENDO el trabajo de la API (render, sonido, etc.) entre todos los coprocesadores + todos los núcleos de CPU, que ahora sólo se una 1 para tareas de la API.

¿Cuánto % de mejora supone esto?. No se puede cuantificar, lo que debe entenderse es como eliminación de cuellos de botella o limitadores por cargar demasiado 1 único componente, que es el 1er núcleo de la CPU que es la que ahora lo hace todo. Cuando lo sobrecargas ya puedes tener todo lo que quieras por otros lados que ahí te vas a quedar.

Lo que cabe esperar pues, no es un % en bruto, sino mayor tasa de fps especialmente con carga, mayor número de elementos, poder hacer juegos a 60 fps que antes serían impensables. Pero no porque de repente corra el doble, sino porque antes podrían encontrarse limitados al cargar demasiado 1 solo núcleo. Por lo tanto si el limitador de 30 fps es la GPU, en DX12 el juego seguirá a 30 fps (seguramente quitando slow-down), y la única forma de subirle fps sería bajando resolución.

En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.

Precisamente esa paralelizacion que llegará de forma global en dx12 para hardware diverso ya esta presente en la API actual de Xbox one mediante el uso de extensiones. De otra forma en la vida podrias haber visto Ryse corriendo en nucleos jaguar.
druida escribió:
darksch escribió:Yo lo que creo es que no se termina de entender. No es cuestión de un 10%, 20%, 50%. Es cuestión de poner a funcionar el sistema como se diseñó en sus comunicaciones internas y REPARTIENDO el trabajo de la API (render, sonido, etc.) entre todos los coprocesadores + todos los núcleos de CPU, que ahora sólo se una 1 para tareas de la API.

¿Cuánto % de mejora supone esto?. No se puede cuantificar, lo que debe entenderse es como eliminación de cuellos de botella o limitadores por cargar demasiado 1 único componente, que es el 1er núcleo de la CPU que es la que ahora lo hace todo. Cuando lo sobrecargas ya puedes tener todo lo que quieras por otros lados que ahí te vas a quedar.

Lo que cabe esperar pues, no es un % en bruto, sino mayor tasa de fps especialmente con carga, mayor número de elementos, poder hacer juegos a 60 fps que antes serían impensables. Pero no porque de repente corra el doble, sino porque antes podrían encontrarse limitados al cargar demasiado 1 solo núcleo. Por lo tanto si el limitador de 30 fps es la GPU, en DX12 el juego seguirá a 30 fps (seguramente quitando slow-down), y la única forma de subirle fps sería bajando resolución.

En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.

Precisamente esa paralelizacion que llegará de forma global en dx12 para hardware diverso ya esta presente en la API actual de Xbox one mediante el uso de extensiones. De otra forma en la vida podrias haber visto Ryse corriendo en nucleos jaguar.


Imagen
Imagen
Imagen


Imagen
Zokormazo escribió:En xone se notara mas que en un i7, mas que nada porque sus cores son bastante menos potentes que los de un i7. Y si el cuello de botella lo tenemos en core0... ding, bingo xD

Eso para empezar, cuando se tienen muchos de menos potencia es imprescindible repartir el trabajo. La otra, que no se olvide, es que XO tiene buffers en forma de eSRAM incluidos en la CPU para el sistema de encolar operaciones, y sus buses están más preparados para esa paralelización que otras máquinas que tienen un único bus principal por donde va todo.

Total, que quiero 60 fps ¡YA!
eloskuro escribió:
druida escribió:
darksch escribió:Yo lo que creo es que no se termina de entender. No es cuestión de un 10%, 20%, 50%. Es cuestión de poner a funcionar el sistema como se diseñó en sus comunicaciones internas y REPARTIENDO el trabajo de la API (render, sonido, etc.) entre todos los coprocesadores + todos los núcleos de CPU, que ahora sólo se una 1 para tareas de la API.

¿Cuánto % de mejora supone esto?. No se puede cuantificar, lo que debe entenderse es como eliminación de cuellos de botella o limitadores por cargar demasiado 1 único componente, que es el 1er núcleo de la CPU que es la que ahora lo hace todo. Cuando lo sobrecargas ya puedes tener todo lo que quieras por otros lados que ahí te vas a quedar.

Lo que cabe esperar pues, no es un % en bruto, sino mayor tasa de fps especialmente con carga, mayor número de elementos, poder hacer juegos a 60 fps que antes serían impensables. Pero no porque de repente corra el doble, sino porque antes podrían encontrarse limitados al cargar demasiado 1 solo núcleo. Por lo tanto si el limitador de 30 fps es la GPU, en DX12 el juego seguirá a 30 fps (seguramente quitando slow-down), y la única forma de subirle fps sería bajando resolución.

En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.

Precisamente esa paralelizacion que llegará de forma global en dx12 para hardware diverso ya esta presente en la API actual de Xbox one mediante el uso de extensiones. De otra forma en la vida podrias haber visto Ryse corriendo en nucleos jaguar.


Imagen





No se que quieres decir con esos slides ya que no contradicen para nada lo que he comentado de hecho en la diapositiva de Forza 5 viene resaltado:

.Some Feautures are already on Xbox one es decir algunas caracteristicas ya estaban en la APi de Xbox one siendo una de ellas:
-Nearly zero D3D resource overhead.
Que la APi tenga sobrecarga cero es ni mas ni menos el resultado de la parelización que ahora se va a introducir de forma global para todo tipo de hardware bajo el standar directx 12 pero como puedes ver según Turn10 ya estaba funcionando en Xbox one.

Teneis que diferenciar de lo que es la APi global para multiples dispositivos de la que Microsoft desarrolla para Xbox one, pueden ser similares pero no iguales.
tú me dirás que juegos están hechos con DX12 :P

Una cosa es tener un creador de comandos para usar paralelizacion y otra muy distinta tener las herramientas perfectas para usar esa arquitectura.. Crytek, respawn y otros muchos, se han tenido que complicar la vida para aprovechar la esram y los 8 nucleos de la consola.

Poco a poco las herramientas van a ir mejorando y vendrán todas las funciones DX12. Lo bueno es que la mejora se antoja mas grande que de dx10 a dx11, pero sin pasarse. claro está.

Ahora mismo los desarrolladores no se han complicado mucho la vida en estas cosas... Solo unos pocos. La tendencia irá en alza a medida que salgan tarjetas compatibles con estas tecnologias.
1) Bundles which is part of "CPU Overhead: Redundant Render Commands"
Imagen

2) Nearly zero D3D resource overhead which should be part of "Direct3D 12 – Command Creation Parallelism"

Imagen
Imagen
These features will be available on XB1 later. Also "Descriptor Heaps & Tables" which is a sort of bindles rendering (page 19 under the "CPU Overhead: Redundant Resource Binding") would be possible only on GPUs that are fully DX11.2 capable (tier 2) and beyond. Considering that both DX11.2 and DX12 were announced for XB1 and DX team is prototyping DX12 on XB1 HW right now, it's likely that Descriptor Heaps & Tables will be available on XB1, too.

Imagen
darksch escribió:
En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.

Un detalle en el que estas errando, si hay una gran CPU dependencia no afecta a la resolucion de hecho uno de los sintomas para saber que la tienes es que no ganas nada de rendimiento bajandola.
(mensaje borrado)
druida escribió:
darksch escribió:
En resumen, que a partir de DX12 los juegos estarán limitados por GPU. Para mí es muy ventajoso porque aparte de permitir mayor complejidad (más elementos, más procesamiento, etc.), permite, llegado el caso de alcanzar el tope de la GPU, decidir, si lo quieres poner a mayor resolución a 30 fps o menor a 60 fps. Es como cuando tienes un PC cuya CPU está por encima de la GPU.

Así que no debe buscarse un % de mejora, otra vez con los numeritos de las narices, sino tal y como se ha dicho abrir posibilidades.

Un detalle en el que estas errando, si hay una gran CPU dependencia no afecta a la resolucion de hecho uno de los sintomas para saber que la tienes es que no ganas nada de rendimiento bajandola.


Si estamos hablando de los cores de xbox one.... No estamos hablando de cores de 4GHz precisamente... Lo que quiere decir es que La GPU y la CPU tienen que estar equilibrados. DX12, opengl y mantle ayudarán a esto tanto en PC como en consolas.
Disculpadme el offtopic pero es que me parto la p....

Imagen

Puto Sheldon si yo fuera listo me sentiría identificado con él.
Una pregunta ... nadie ha entendido que los 5,2 tflops son una mera comparación contra un PC actual ... con su dx11, optimización y demás lastres?
17587 respuestas