Hablemos del interior de Xbox One

He leído las últimas 50 páginas pero no me queda clara una cosa... ¿DX12 significa que Xbox One ofrecerá mejores framerates y resolución que PS4 en un futuro a medio plazo en juegos multiplataforma? En mi opinión, veo muy difícil que las third party gasten tanto tiempo en realizar estas optimizaciones para DX12... Si el problema es el método de renderizado, ¿creeis que se va a utilizar en cada plataforma el que más rendiemiento le saque a la máquina?
@Zabbah aqui no se habla o compara con ps4



Segun lo que he entendido las thirds no es que gasten su tiempo para d12 sino todo lo contrario sera mas facil . Y si un third puede hace un port sencillo de pc a consola o al reves gracias a esto realmente lo que haces es ahorrar recursos y tiempo
Zabbah escribió:He leído las últimas 50 páginas pero no me queda clara una cosa... ¿DX12 significa que Xbox One ofrecerá mejores framerates y resolución que PS4 en un futuro a medio plazo en juegos multiplataforma? En mi opinión, veo muy difícil que las third party gasten tanto tiempo en realizar estas optimizaciones para DX12... Si el problema es el método de renderizado, ¿creeis que se va a utilizar en cada plataforma el que más rendiemiento le saque a la máquina?


Y si lo que se estandariza en un par de años es el directx12, que por cierto, es lo más probable?
Yo diría que el diseño va más por el rendimiento y complejidad que por resolución.
Según tengo entendido gracias a la ESRAM bajo DX12 no son necesarios ROPs ni RBEs.Porque se van a hacer mucho uso intensivo del compute shader en los nuevos motores.Además hay que contar que con los DMEs la ESRAM puede soltar la textura sin que pase por la GPU. Yo creo que es una GPU preparadisima para ese tipo de trabajos y si le han aumentado las caches tal como confirman en ese enlace cada SC x CU de GCN va a rendir bastante mas el SC. Vamos hasta que punto llegan el desconocimiento de algunas webs profesionales.Esas cosas como aumentos de caches no se deben tomar nunca a la ligera. [+furioso]
Creo que para poner textura siempre hará falta la ROP, en la eSRAM la almacenas y es de acceso más rápido pero para ponerla en el pixel necesitarás la ROP.

La idea más bien iría por lanzar hilos de cosas que sabes no deberían colisionar o usen partes diferentes y que ya se reparta a través de esa dualidad multi-contexto. Por ejemplo lanzar 3 hilos con z-pass, color-pass y computación, y que se reparta como se pueda entre lo que haya libre que, sin esa dualidad, estaría pillado aunque esté en desuso.
darksch escribió:Creo que para poner textura siempre hará falta la ROP, en la eSRAM la almacenas y es de acceso más rápido pero para ponerla en el pixel necesitarás la ROP.

La idea más bien iría por lanzar hilos de cosas que sabes no deberían colisionar o usen partes diferentes y que ya se reparta a través de esa dualidad multi-contexto. Por ejemplo lanzar 3 hilos con z-pass, color-pass y computación, y que se reparta como se pueda entre lo que haya libre que, sin esa dualidad, estaría pillado aunque esté en desuso.

Pero te olvidas en la ecuación a los DMEs , que ellos ya se encargan de comprimir/descomprimir la textura y a la capacidad de la ESRAM de poder "lanzarla' si la GPU esta ocupada aunque claro supongo que esto no pasa con motores deferred y dx11.
Los DME sirven para poder mover datos DDR3 <-> eSRAM sin coste para CPU/GPU. La compresión que soportan para poder comprimir el framebuffer (o datos, ya se verán si otros) y reducir así el flujo optimizando el ancho de banda.

Precisamente al ser coprocesadores pueden transferir, como dije, sin necesidad de ocupar a la CPU o GPU en el proceso. Forma parte del diseño tiled resources + caché (eSRAM).
Hay mucho hard de One no utilizado todavía adecuadamente y tal como dices mucho es para utilizar motores forwad + y PRTs.Opino que todo esto conforme mas desarrolladores se vayan subiendo al carro de esos motores veremos brillar a esta maquina. En otras cosas hablo desde cosas que he leído pero no puedo afirmarlas así que por lo menos otorgo el beneficio de la duda.
Por cierto, mucho se ha hablado del chip de sonido y del, ya no se si real, hanna2.

Alguien sabe donde se encuentran estos dos tanto en los esquemas como en las fotografías de la placa y/o del SoC ?
Me gusta mucho este hilo cuando se habla en serio y educadamente! :) yo no entiendo ni la mitad de cosas que decís, pero creo que puedo "entender" porque un portento gráfico como Forza Horizon puede ir 1080p nativos y un arcade como el trials no pasa de 900p, es una arquitectura que hay que saber exprimir y poco a poco seguro que vemos cosas muy buenas.

Yo este año con far cry 4, unity y horizon 2 me parece que va a ser una gen cojonuda a nivel de gráficos por muy "obsoletas" que hayan nacido las máquinas.

Un saludo!
darksch escribió:Creo que para poner textura siempre hará falta la ROP, en la eSRAM la almacenas y es de acceso más rápido pero para ponerla en el pixel necesitarás la ROP.

La idea más bien iría por lanzar hilos de cosas que sabes no deberían colisionar o usen partes diferentes y que ya se reparta a través de esa dualidad multi-contexto. Por ejemplo lanzar 3 hilos con z-pass, color-pass y computación, y que se reparta como se pueda entre lo que haya libre que, sin esa dualidad, estaría pillado aunque esté en desuso.


con la arquitectura de XboxONE no son necesarios los ROPs. Usas la eSRAM como scratchpad para los resultados del shader y una vez tienes el tile renderizado en la eSRAM, vuelcas a la DDR3 mediante una peticion asincrona a los DME.
En algún momento tienes que coger la textura y aplicarla, eso se hace en el proceso de color. Vamos que el resultado que se escribe en la eSRAM que luego mandarás a la DDR3 ya debe llevar la información de color, y de eso se encarga el ROP.

Los DME transfieren, los shader ejecutan, pero el resultado final de color debe pasar por un ROP.
eloskuro escribió:
http://gamingbolt.com/directx-12-and-mantle-have-draw-call-performance-of-7-5-times-of-directx-11

AMD recently held a presentation in Singapore talking about the future of GPU technologies. The event was titled Future of Compute and it was attended by the industry’s top developers. During the event, Futuremark’s Oliver Baltuch took center stage to gauge the differences between DirectX 12, DirectX 11 and Mantle.
Futuremark’s provides PC and mobile benchmark tools which includes 3DMark. Using 3D Mark, Oliver showcased the difference between DirectX 12 and Mantle. Surprisingly the performance of draw calls on both the API is similar but when one compares it to DX 11, it’s almost 7.5 times greater.
Draw Call is one of the performance parameter which is an indication of how many objects can be drawn on the screen and it seems like DX12 and Mantle have the same capacity. Now we are not sure whether this will hold true in case of practical implementation as AMD’s Mantle is still being adopted by developers and DX 12 is still a year away.

Other advantages of DX12 include 50% reduction in CPU cycles and bottlenecks in a dual GPU configuration. It should possibly benefit the Xbox One as well since it uses an API which is similar to DirectX.

Imagen

-----
Más del amigo oliver


“We were very happy when Microsoft chose 3DMark to show some of the benefits of DirectX 12,” explains Oliver. “In their demo, they showed two major improvements over DirectX 11 – a 50% improvement in CPU utilization, and better distribution of work among threads.”

“With DirectX 12 game developers will be able to create richer scenes with more objects. DirectX 12 also introduces a set of new rendering features that will improve the efficiency of algorithms used in rendering and collision detection.” However he thinks it’s too early to deliver a final verdict about its benefits since it is still more than year away from launch. “It’s too early to know the exact performance gains, but when DirectX 12 is ready we’ll be there with a 3DMark benchmark that shows the new possibilities,” he added.

Given that Futuremark are deep into bench-marking, we asked Oliver’s thoughts about Microsoft’s claim of making the Xbox One more powerful using the cloud. Oliver’s response was positive.

“It does look promising, doesn’t it? I imagine the challenge will be to use it in such a way that gameplay isn’t compromised if the console is offline, or has a poor connection. It will be interesting to see how developers make use of it,” he said.


Ya si Amd no sabe lo que construye, mal vamos...

El rendimiento es sobre un PC, los beneficios pueden ser diferentes pero que los va a tener yo creo que esta bastante claro.

Palabra de AMD, alabemos al señor :P
Buenas gente. @pspskulls con respecto a lo q dices de los bundles...o sabes de q va el tema y descaradamente confundes al personal a propósito o bien no sabes muy bien por donde van los tiros. En un frame hay cosas q renderizas siempre, y las cuales tienes q enviar una y otra vez a la GPU, si hubiera alguna forma de generar/grabar los comandos una vez y luego simplemente con una llamada ejecutarlos conseguirías reducir el overhead de tener que hacer varias llamadas que cambien el estado, seleccionen lo q hay q dibujar... Los bundles hacen precisamente eso, son pequeñas listas de comandos donde grabas todos estos estados, cambios y llamadas de render una vez pero q puedes ejecutar las veces q quieras. Son similares a las Display List que tenía OpenGL antes de la versión 3 y q quitaron (desgraciadamente). La ventaja q tienen con respecto a estas es q son más flexibles puesto q puedes cambiar parametros , no son fijas.

Como se q no me vais a creer, os dejo un enlace al q supongo le haréis mas caso q a mi, en él incluso se puede ver el código para crear, grabar y ejecutar un bundle:

https://software.intel.com/en-us/blogs/ ... -5-bundles

Bundles are a small list of commands that are recorded once, yet reused multiple times. They can be reused across frames or in a single frame, there are no restrictions on reuse. Bundles can be created on any thread and used an unlimited amount of times. But the bundles are not tied to the PSO state. Meaning the PSO can update the descriptor table then when the bundle is run again with the different bindings the game gets a different result. Like a formula in an Excel spreadsheet, the math is always the same, but the result is different based on the source data. To ensure the driver can implement bundles efficiently certain restrictions exist. Specifically no commands that change the render target, but that still leaves quite a lot of commands that can be recorded and played back.


Con respecto a lo que dices refiriendote a mi directamente:

1.- No digo q no se me haya pasado pero...donde lo pone exactamente?.

2.- Lo q te he dicho de las ROPs no es exclusivo de XboxOne, no he puesto en entredicho su potencia. Esto le pasa a XboxOne, Ps4, una 970 de Nvidia y dos Titan en SLI...

3.- Es curioso pq FH2 no usa exactamente un Forward+, usa lo q se conoce como un Cluster Forward+ que es una variante, donde no se usa un Z-prepass pq lo q hace es dividir el frustum en pedacitos y ver q luces hay en cada uno. Lo de la latencia no me lo invento yo, incluso los arquitectos de XboxOne lo dicen en la famosa entrevista de Digital Foundry, y lo dicen pq una GPU está diseñada para maximizar el trabajo por unidad de tiempo y ocultar las latencias o crees q todos contextos dentro de una CU, todos los wavefront, planificadores, todo el entrelazamiento de tareas dentro de una GPU los ponen por gusto?.

4.- Este hilo es del interior de XboxOne y no suelo hablar de Ps4, y menos para compararlas, abre un hilo en multi y hablamos allí.

@darksch lo primero lo de "no te inventes las cosas" sobra, siempre he sido muy respetuoso con todo el mundo y ese tipo de expresiones a mi no me gustan ni un pelo. Y no me invento nada. Por otra parte las ROPs no se usan para texturizar de eso se encargan las TexUnit las cuales hay 4 por CU si no recuerdo mal. En las ROPs se rasteriza, se hace el blending, el z-culling, z-fighting, el antialiasing, escribir en diferentes render target...

@Pada si te das cuenta no hablo de 10% hablo de 2 o 3% que es en lo q se quedó el sistema como reserva despues de la última actualización.

Un saludo.
Yo creo que microsoft se ha equivocado en el sentido de sacar el hardware antes que el software.
Todo cambio conlleva un tiempo y habria sido mas rebtable y mejor algo mas traducional porque para cuando se empiece a hacer uso de la arquitectura de one como se debiera ya estar xbox2. Vamos algo similar a Sony con Ps3
Phellan_Wolf escribió:Yo creo que microsoft se ha equivocado en el sentido de sacar el hardware antes que el software.
Todo cambio conlleva un tiempo y habria sido mas rebtable y mejor algo mas traducional porque para cuando se empiece a hacer uso de la arquitectura de one como se debiera ya estar xbox2. Vamos algo similar a Sony con Ps3


Hizo exactamente lo mismo con la 360 (sacar hardware avanzado) y no le fue nada mal.
f5inet escribió:* MOVBE: instruccion destinada a mover/transponer datos Bigendian a Littleendian y viceversa. Esto, que parece una patochada, toma sentido cuando se sabe que los procesadores X86 son LittleEndian y los procesadores PowerPC son BigEndian y que en caso de querer hacer un 'emulador' de PPC, se pierde de media un 20% de la potencia en 'transponer' los datos. (retrocompatibilidad en proceso...)

Una pregunta, esto sería para emular el procesador de la 360 ? O para leer los datos que le dejaría un PPC que se añadiría físicamente en la APU ?
laleshe escribió:
Phellan_Wolf escribió:Yo creo que microsoft se ha equivocado en el sentido de sacar el hardware antes que el software.
Todo cambio conlleva un tiempo y habria sido mas rebtable y mejor algo mas traducional porque para cuando se empiece a hacer uso de la arquitectura de one como se debiera ya estar xbox2. Vamos algo similar a Sony con Ps3


Hizo exactamente lo mismo con la 360 (sacar hardware avanzado) y no le fue nada mal.

La ventaja fue que PS3 no salio hasta mas tarde.Así mientras iban aprendiendo nuevas tecnicas le iban pillando el truco a los shaders unificados.Si hubieran salido a la vez quizás no hubiera cantado tanto puesto que por aquella época aun estaban con los shaders y vertex shaders por otro lado. Pero ya sabemos que paso cuando salio la PS3 con su mega resistance y se encontró al gears con el UE basado en la arquitectura de 360... [carcajad] [sonrisa]
Si parecía eso otra gen XD!!!!
Phellan_Wolf escribió:Yo creo que microsoft se ha equivocado en el sentido de sacar el hardware antes que el software.
Todo cambio conlleva un tiempo y habria sido mas rebtable y mejor algo mas traducional porque para cuando se empiece a hacer uso de la arquitectura de one como se debiera ya estar xbox2. Vamos algo similar a Sony con Ps3


Pues a mi me parece acertado, si realmente el hardware se empieza a exprimir al 100% a partir de ahora debido a directx12 es toda un sorpresa, y esto alarga enormemente la vida y el rendimiento a medio-largo plazo de xbox one.

De todas formas lo dicho...tiempo al tiempo que la gen pasada ha durado 8-9 años y ahora lo queremos todo en dos.

Salu2
Esta muy claro. Hoy por Xbox One es igual a una i7 con sli con MsDos 6.22.
Hacia varias décadas (soy del 72) que no veía tanta innovación junta. Tengo la misma sensación que cuando salio el Amiga 1000, copros, multitarea, nuevas formas de hacer las cosas. La única diferencia es que este salio en plenitud de software.
Yo soy de los que piensan que aparte del X2 que aparece ahora, después llegara otro X2 con los copró y CPU "ligada a la red" entre otras lindezas escondidas.
Esta mas que claro que esto es un "leap frog" de los que hace muchos muchos años no se veía.
pspskulls genial y cercano. Enhorabuena.
Hookun escribió:
laleshe escribió:
Phellan_Wolf escribió:Yo creo que microsoft se ha equivocado en el sentido de sacar el hardware antes que el software.
Todo cambio conlleva un tiempo y habria sido mas rebtable y mejor algo mas traducional porque para cuando se empiece a hacer uso de la arquitectura de one como se debiera ya estar xbox2. Vamos algo similar a Sony con Ps3


Hizo exactamente lo mismo con la 360 (sacar hardware avanzado) y no le fue nada mal.

La ventaja fue que PS3 no salio hasta mas tarde.Así mientras iban aprendiendo nuevas tecnicas le iban pillando el truco a los shaders unificados.Si hubieran salido a la vez quizás no hubiera cantado tanto puesto que por aquella época aun estaban con los shaders y vertex shaders por otro lado. Pero ya sabemos que paso cuando salio la PS3 con su mega resistance y se encontró al gears con el UE basado en la arquitectura de 360... [carcajad] [sonrisa]
Si parecía eso otra gen XD!!!!


La facilidad de programar para los shaders en contra de los núcleos del cell fue más que patente. Si el tema está ahí, en facilitar las cosas a los desarrolladores, y de ahí la importancia del Dx12.
@Polyteres OK pues perdón pues. Entonces lo cambiaría por que pusiste cosas que se contradicen. Igual una es tu opinión y la otra es la que sale de la entrevista, pero lo mismo no quieren decir, que era el trasfondo.
A mi es q no me deja nada claro lo q dice.

El tema de los bundles habla de como se generan y q sirven para reducir el overhead.

Pero la duda es. ¿Con directx11 se puede hacer 2 "draws" a la vez? ¿Sí o no?
¿Con Dx12 se puede? ¿Sí o no?

El resto, paja pura y dura.
Felicidades pspskulls por toda la info que has espuesto y sobretodo por como la has expuesto.

Buena información la que se ha expuesto aquí, de un hachazo se han cargado los "famosos" porcentajes con los que tantos se llenaban la boca hablando.
Roundabout: "Microsoft lo ha clavado con las últimas actualizaciones del SDK"


Según el desarrollador de Roundabout "Microsoft lo ha clavado con las últimas actualizaciones del SDK" |

Microsoft no solo trabaja en actualizar Xbox One para los usuarios, sino que también emplea mucho tiempo y recursos en hacer la vida más fácil a los desarrolladores. Un buen ejemplo de ello fue la actualización de junio que permitía llegar más fácilmente a los 1080p.

En declaraciones a GamingBolt, el desarrollador de Roundabout ha hablado de este tema:

“Microsoft lo ha estado clavando con las últimas actualizaciones del SDK. Obviamente no puedo hablar de detalles porque eso sería una violación de la NDA, pero ha sido fantástico ver como tanto Unity como Xbox responden directamente a las cosas que hemos necesitado para llevar fácilmente Roundabout a Xbox One.”

Y esto a la espera de DirectX 12, que ya promete convertir a Xbox One en un paraíso para los desarrolladores.
Vosotros que estáis puestos con la tecnología de nuestra gran amiga, me gustaría saber qué tecnología usan para poder transmitir la señal de audio al mando, puesto que necesita de un adaptador y una actualización del mando... yo creo suponer que ese adaptador es un receptor inalámbrico... y que la xbox one tiene la capacidad de enviar a esa frecuencia dicha señal... o eso es lo que me imagino, pero vosotros que conocéis la máquina a fondo me gustaría que me sacaran de dudas.

No entiendo que la consola transmita esa señal de audio o tenga esa posibilidad y que se tenga que comprar el adaptador... ¿porqué no realizaron el mando con esa posibilidad directamente (como el ds4) si ya la consola por sí misma transmite esa señal????... bueno esto es solo una suposición.

Pd. La señal que se recibe no tiene mucho volumen, pero se escucha bien :-?

Saludos.
Se comunica con el mando por wifi. Por eso puede transmitir el audio en buen calidad, al tener más ancho que el Bluetooth.

El adaptador no hace nada, no es receptor, sólo adapta clavija como su nombre indica.
darksch escribió:Se comunica con el mando por wifi. Por eso puede transmitir el audio en buen calidad, al tener más ancho que el Bluetooth.

El adaptador no hace nada, no es receptor, sólo adapta clavija como su nombre indica.



Me parece demasiada circuitería solo para adaptar, si la señal de audio ya la recibe el mando no tendría razón de ser esta circuitería, sería conectar los pines adecuados a una salida de jack, sin embargo tiene hasta un circuito integrado.....

https://www.youtube.com/watch?v=-fIz4iGOkDc


La cosa no me parece que sea tan simple (hablo desde el desconocimiento)
Para regular el volumen. Ten en cuenta que el conector del mando es en realidad un puerto de datos y no un jack de audio. Por eso se necesita algo de circuitería.

Fíjate que hay hasta unos cascos estéreo en los cuales se oye el sonido del juego desde el mando, se puede variar el volumen del juego o del chat.
Hookun escribió:
laleshe escribió:
Phellan_Wolf escribió:Yo creo que microsoft se ha equivocado en el sentido de sacar el hardware antes que el software.
Todo cambio conlleva un tiempo y habria sido mas rebtable y mejor algo mas traducional porque para cuando se empiece a hacer uso de la arquitectura de one como se debiera ya estar xbox2. Vamos algo similar a Sony con Ps3


Hizo exactamente lo mismo con la 360 (sacar hardware avanzado) y no le fue nada mal.

La ventaja fue que PS3 no salio hasta mas tarde.Así mientras iban aprendiendo nuevas tecnicas le iban pillando el truco a los shaders unificados.Si hubieran salido a la vez quizás no hubiera cantado tanto puesto que por aquella época aun estaban con los shaders y vertex shaders por otro lado. Pero ya sabemos que paso cuando salio la PS3 con su mega resistance y se encontró al gears con el UE basado en la arquitectura de 360... [carcajad] [sonrisa]
Si parecía eso otra gen XD!!!!


Ha microsoft le saldria la jugada redonda si se estandariza el dx12, pero por ahora.........
El caso de 360 es algo distinto porque ya se sabia que la industria tiraria por ahi. Sin embargo creo que se ha llegado al punto en el que se encontro intel en su momento con el P4 y la lucha de los Ghz, que cada uno tira hacia un lado y queda por ver cual va a ser el acertado.
Ahora bien lo que espero realmente es alguna innovacion en cuanto a gfx, ademas de en videojuegos porque despues de lo que hee visto en la portada de eol este fin de, me he quedado frio frio


Buenas gente,

Eso confirma que DX12 no aportará nada a Xbox One, ves que pone Windows 10 y no Xbox One, ¿ves, ves?
Cómo va a aportar algo si la One tiene reservada el 50% de la GPU a mostrar apps acopladas (Polyteres dixit)
KinderRey escribió:


Eso confirma que DX12 no aportará nada a Xbox One, ves que pone Windows 10 y no Xbox One, ¿ves, ves?
Cómo va a aportar algo si la One tiene reservada el 50% de la GPU a mostrar apps acopladas (Polyteres dixit)

Estas de coña no?
No, lo que esta es flameando y de seguir por ese camino, todos sabemos como va a terminar.
La actualización a Windows 10 va a ser grande, e imagino que en el espacio reservado para actualizaciones no entrará. Por lo que supongo que se hará en varios pasos, seguramente 1º se descargue el instalador y se reinicie, luego los ficheros de sistema y se reinicie, y finalmente los elementos del interfaz y programas built-in y se reinicie.
ahona escribió:No, lo que esta es flameando y de seguir por ese camino, todos sabemos como va a terminar.


Pues yo creo que ha sido irónico, y no se que malo hay en eso, o hay algo oculto o no me he enterado bien XD

De cualquier manera, yo creo que MS no es tonta, y que todo el tema Dx12 lo tendra ya apalabrado y seguramente firmado con varias de las compañias "gordas", me extraña que una empresa tan grande y con tanta presencia en el mundo PC se tire a una piscina sin saber si hay agua o cemento.
ahona escribió:No, lo que esta es flameando y de seguir por ese camino, todos sabemos como va a terminar.


Mis disculpas, he editado mi mensaje para suavizarlo. Creo que así no queda duda alguna sobre su baja conductividad térmica.
(mensaje borrado)
Esto se puede entender de muchas formas, porque como ya hemos dicho, solo la mejora de calls entre los nucleos ya aportará una mejora de rendimiento.

Pero también tenemos que puede estar refiriendose a algún servicio de Azure que pueda utilizar.

El pensar que pasar de Dx11.2 a Dx12 no va a suponer una diferencia es un poco absurdo, no hacen las cosas para nada.
Solo tomando de base el balanceo en los cores que hace automáticamente DX12, cuando para hacer eso en la API de Xbox One tienes que ir close to the metal para hacerlo "manualmente", pues ya estás dejandoselo todo más sencillo a los devs de base.

Eso para mí no es darles más potencia. Pero lógicamente no tienen que invertir recursos en esos menesteres. Lo que hará que todos los juegos que estén desarrollados bajo DX12 en xbo, tengan más facilidad con las IA(entre otras cosas)

Cuando se habla de darle más potencia a la GPU de XBO no es subirle los TF. Serán siempre los mismos. Lo que hará DX 12 es darle un salto cualitativo a la facilidad de porteo, de desarrollo y de aprovechamiento de hard. (que ya es mucho)
Eso se traducirá en mejora en los juegos? Si. Pero no en más power :P

Ya hemos visto e este inicio de Gen lo que ha sido desarrollar para xbo al princpio(Malos ports incluso en arcades ) y un año despues. (casos de juegos multi bastante buenos como GTAV)


Parece ser que por febrero debe expirar algún NDA de directX12 por lo que comento el tipo ese. A lo mejor es cuando microsoft hace también el evento que se rumoreaba para presentar el tema de windows 10 en la consola.



Y esto da todavía mas fuego a los mensajitos "ocultos" de microsoft en su presentación de windows 10 allá por octubre. Recordar la imagen en la que salía Cayo Ambergris con la frase "its almost time to talk about xbox".

Imagen
What we basically do today in games is render a frame and then apply a bunch of post-process effects to it. In a DirectX 12 / Mantle world we’ll render images the same way they did CGI in the past. With a modern CPU + GPU combo with DirectX 12 you could do parts of the Battle of Helms Deep from LOTR in real-time. Keep a very close eye on Unreal 4, Frostbite, Crytek and of course Nitrous.


Bottom line: In DirectX 11 this frame took almost 9ms to render. In DirectX 12, it took about 4ms.


http://www.littletinyfrogs.com/article/459838/DirectX_12_vs_DirectX_11

Imagen

Debajo de este mensaje podéis escribir:
a) XBOX ONE no es compatible con DX 12 xq cuando se desarrollo DX 12 no existía.
b) XBOX ONE no es compatible con DX 12 xq tiene su propia API.
c) XBOX ONE no mejorará con DX 12 xq ya tiene una API a bajo nivel y eso lo único que aporta DX 12.
d) Eso ya lo hace OpenGl
Aleluya que esto estaba ya muerto.

Se te ha olvidado mencionar:
e) La "otra" hace todo eso mismo más y mejor.
f) LOTR es un petardo porque no es de "otra" Pictures.
darksch escribió:Aleluya que esto estaba ya muerto.

Se te ha olvidado mencionar:
e) La "otra" hace todo eso mismo más y mejor.
f) LOTR es un petardo porque no es de "otra" Pictures.


y tambien falta:

g) eso contradice las declaraciones de P.Spencer, "no habrá cambio masivo".
h) los desarrolladores de XB1 ya lo explicaron todo en una entrevista en eurogamer.
i) Segun declaraciones de MR. Satán "Todo es un truco"
Bueno, hasta aquí la tontería.
Poner una noticia esta cojonudo. Aprovechar para flamear es otro tema.

@papatuelo @darksch @enaguas @nuggle
Daros los 4 por avisados.
17587 respuestas