Hablemos del interior de Xbox One

Preview de anandtech de directx12, de momento PC obviamente, pero promete :)

http://www.anandtech.com/show/8962/the- ... star-swarm

CPU
Imagen


Imagen

Imagen

GPU
Imagen

Imagen


dx12 vs mantle
Imagen

Imagen

FrameTime
Imagen

Conclusiones
First Thoughts

Bringing our preview of DirectX 12 to a close, what we’re seeing today is both a promising sign of what has been accomplished so far and a reminder of what is left to do. As it stands much of DirectX 12’s story remains to be told – features, feature levels, developer support, and more will only finally be unveiled by Microsoft next month at GDC 2015. So today’s preview is much more of a beginning than an end when it comes to sizing up the future of DirectX.

But for the time being we’re finally at a point where we can say the pieces are coming together, and we can finally see parts of the bigger picture. Drivers, APIs, and applications are starting to arrive, giving us our first look at DirectX 12’s performance. And we have to say we like what we’ve seen so far.

With DirectX 12 Microsoft and its partners set out to create a cross-vendor but still low-level API, and while there was admittedly little doubt they could pull it off, there has always been the question of how well they could do it. What kind of improvements and performance could you truly wring out of a new API when it has to work across different products and can never entirely avoid abstraction? The answer as it turns out is that you can still enjoy all of the major benefits of a low-level API, not the least of which are the incredible improvements in CPU efficiency and multi-threading.

That said, any time we’re looking at an early preview it’s important to keep our expectations in check, and that is especially the case with DirectX 12. Star Swarm is a best case scenario and designed to be a best case scenario; it isn’t so much a measure of real world performance as it is technological potential.

But to that end, it’s clear that DirectX 12 has a lot of potential in the right hands and the right circumstances. It isn’t going to be easy to master, and I suspect it won’t be a quick transition, but I am very interested in seeing what developers can do with this API. With the reduced overhead, the better threading, and ultimately a vastly more efficient means of submitting draw calls, there’s a lot of potential waiting to be exploited.
Aquí tenéis una comparativa interesante entre DirectX 11 , DirectX 12 y Mantle:

http://m.neogaf.com/showthread.php?t=987116

saludos.

Edit:Se me adelantó Pada [carcajad]
Pada escribió:Preview de anandtech de directx12, de momento PC obviamente, pero promete :)

http://www.anandtech.com/show/8962/the- ... star-swarm

CPU
Imagen


Imagen

Imagen

GPU
Imagen

Imagen


dx12 vs mantle
Imagen

Imagen

FrameTime
Imagen

Conclusiones
First Thoughts

Bringing our preview of DirectX 12 to a close, what we’re seeing today is both a promising sign of what has been accomplished so far and a reminder of what is left to do. As it stands much of DirectX 12’s story remains to be told – features, feature levels, developer support, and more will only finally be unveiled by Microsoft next month at GDC 2015. So today’s preview is much more of a beginning than an end when it comes to sizing up the future of DirectX.

But for the time being we’re finally at a point where we can say the pieces are coming together, and we can finally see parts of the bigger picture. Drivers, APIs, and applications are starting to arrive, giving us our first look at DirectX 12’s performance. And we have to say we like what we’ve seen so far.

With DirectX 12 Microsoft and its partners set out to create a cross-vendor but still low-level API, and while there was admittedly little doubt they could pull it off, there has always been the question of how well they could do it. What kind of improvements and performance could you truly wring out of a new API when it has to work across different products and can never entirely avoid abstraction? The answer as it turns out is that you can still enjoy all of the major benefits of a low-level API, not the least of which are the incredible improvements in CPU efficiency and multi-threading.

That said, any time we’re looking at an early preview it’s important to keep our expectations in check, and that is especially the case with DirectX 12. Star Swarm is a best case scenario and designed to be a best case scenario; it isn’t so much a measure of real world performance as it is technological potential.

But to that end, it’s clear that DirectX 12 has a lot of potential in the right hands and the right circumstances. It isn’t going to be easy to master, and I suspect it won’t be a quick transition, but I am very interested in seeing what developers can do with this API. With the reduced overhead, the better threading, and ultimately a vastly more efficient means of submitting draw calls, there’s a lot of potential waiting to be exploited.


Si esto no es una mejora "masiva" respecto a DX11, apaga y vamonos.
Y mañana entrevistan los del TiC podcast a Brad Wardell respecto directx12: https://twitter.com/TiC_Podcast/status/ ... 6871595008

Pero vamos, que fijo que solo mejora PC. [/scarcasmo]
Y eso en hardware no nativo. [rtfm]
Se viene el apocalipsis.
Pada escribió:Preview de anandtech de directx12, de momento PC obviamente, pero promete :)

http://www.anandtech.com/show/8962/the- ... star-swarm

CPU
[img]http://images.anandtech.com/graphs/graph8962/71448.png[/img


Imagen

Imagen

GPU
Imagen

Imagen


dx12 vs mantle
Imagen

Imagen

FrameTime
Imagen

Conclusiones
First Thoughts

Bringing our preview of DirectX 12 to a close, what we’re seeing today is both a promising sign of what has been accomplished so far and a reminder of what is left to do. As it stands much of DirectX 12’s story remains to be told – features, feature levels, developer support, and more will only finally be unveiled by Microsoft next month at GDC 2015. So today’s preview is much more of a beginning than an end when it comes to sizing up the future of DirectX.

But for the time being we’re finally at a point where we can say the pieces are coming together, and we can finally see parts of the bigger picture. Drivers, APIs, and applications are starting to arrive, giving us our first look at DirectX 12’s performance. And we have to say we like what we’ve seen so far.

With DirectX 12 Microsoft and its partners set out to create a cross-vendor but still low-level API, and while there was admittedly little doubt they could pull it off, there has always been the question of how well they could do it. What kind of improvements and performance could you truly wring out of a new API when it has to work across different products and can never entirely avoid abstraction? The answer as it turns out is that you can still enjoy all of the major benefits of a low-level API, not the least of which are the incredible improvements in CPU efficiency and multi-threading.

That said, any time we’re looking at an early preview it’s important to keep our expectations in check, and that is especially the case with DirectX 12. Star Swarm is a best case scenario and designed to be a best case scenario; it isn’t so much a measure of real world performance as it is technological potential.

But to that end, it’s clear that DirectX 12 has a lot of potential in the right hands and the right circumstances. It isn’t going to be easy to master, and I suspect it won’t be a quick transition, but I am very interested in seeing what developers can do with this API. With the reduced overhead, the better threading, and ultimately a vastly more efficient means of submitting draw calls, there’s a lot of potential waiting to be exploited.


Star Swarm???

Vaya por dios quien dijo hace ya mas de un año q sabia lo q sabia porque estaba involucrado en el proyecto?

Ah sí!!! Ya me acuerdo, el tantas veces calificado en este foro como bocachancla o cantamañanas Brad Wardell...

Me ha dicho q os diga de su parte.


Zaaaascaaaaa!!!
Un resumen en español..

Simplemente para que quede claro porque de tanto leer que la one nada de nada,estaría bien dejarlo claro para los negacionistas..

Bueno y así nos enteramos todos ,un resumen para los que no lo hemos entendido muy bien.. [tomaaa]
Si uno se pone a ver las graficas estas puestas arriba, el rendimiento es de mas del 100% de pasar de Dx11 a dx12.

La duda esta en cuanto de Dx12 esta ya en la Juana, porque como lo que este a dia de hoy en la juana sea Dx11.... joooooooooooder.
Hombre puede que no mejore un 500% como la R9 290X. Pero Brad Wardell ya dijo, y haciendo alusión a Star Swarm, que la mejora en XBOX ONE podía rondar el 200%.

Y desde luego lo que XBOX llevaba en la primera hornada de juegos era DX11 puro y duro, así que sin saber a que nivel está la API actual metele las mejoras a los juegos de primera hornada.
Con gráficas y tablas se entiendo todo mucho mejor jjajaja. Esperemos que sea cierto y XBOX ONE mejore bastante. Qué ganas de que llegue el E3 y muestren juegos 100% DX12!!
Esta noche salta por los aires este hilo.

The Inner Circle
‏@TiC_Podcast
TiC's 1st tech interview, hear it from him finally. @draginol Brad Wardell, he knows DX12 on Sat. 02/07 @2:00pm RT

Y la semana que viene podcast con Aaron Greenberg.
La mejora en CPU y batching es brutal.
Con que la mejora sea de un 30% mas luego la evolucion natural con los años, al ir los desarrolladores conociendo el hard, nos podriamos dar con un canto en los dientes. En total acabaria la gen con mejoras de mas del 60% respecto a lo que habia inicialmente.
dicanio1 escribió:Un resumen en español..

Simplemente para que quede claro porque de tanto leer que la one nada de nada,estaría bien dejarlo claro para los negacionistas..

Bueno y así nos enteramos todos ,un resumen para los que no lo hemos entendido muy bien.. [tomaaa]


La entrevista traducida:

Primeros Pensamientos
Llevar nuestra vista previa de DirectX 12 a su fin, lo que estamos viendo hoy es a la vez un signo prometedor de lo que se ha logrado hasta ahora y un recordatorio de lo que queda por hacer. Tal como está la mayor parte de la historia de DirectX 12 sigue siendo que se les diga - características, niveles de rendimiento, soporte para desarrolladores, y más serán sólo finalmente se dio a conocer por Microsoft el próximo mes en la GDC 2015. Así previsualización de hoy es mucho más de un principio que un fin cuando viene a dimensionar el futuro de DirectX.

Pero por el momento, por fin estamos en un punto donde podemos decir que las piezas se unen, y por fin podemos ver partes de la imagen más grande. Drivers, APIs y aplicaciones están empezando a llegar, que nos da nuestra primera mirada en el rendimiento de DirectX 12. Y tenemos que decir que nos gusta lo que hemos visto hasta ahora.

Con DirectX 12 Microsoft y sus socios se propusieron crear un proveedor cruz pero aún API de bajo nivel, y si bien no era la verdad es pocas dudas que pudieran llevarlo a cabo, no siempre ha sido la cuestión de lo bien que podían hacerlo. ¿Qué tipo de mejoras y el rendimiento podría realmente sacar hacia fuera de una nueva API cuando se tiene que trabajar en diferentes productos y no puede evitar del todo la abstracción? La respuesta resulta que es que todavía se puede disfrutar de todos los beneficios principales de la API de bajo nivel, no menos importante de las cuales son las mejoras increíbles en la eficiencia de la CPU y multi-threading.

Dicho esto, cualquier momento que estamos buscando en una primera vista previa que es importante mantener nuestras expectativas en el registro, y eso es especialmente el caso con DirectX 12. Estrella Swarm es un mejor de los casos y diseñado para ser el mejor de los casos; que no es tanto una medida de desempeño en el mundo real como potencial tecnológico.



Pero para ello, está claro que DirectX 12 tiene un gran potencial en las manos adecuadas y las circunstancias adecuadas. No va a ser fácil de dominar, y sospecho que no será una transición rápida, pero estoy muy interesado en ver lo que los desarrolladores pueden hacer con esta API. Con la sobrecarga reducida, mejor threading, y en última instancia, un medio mucho más eficaz para la presentación de las llamadas de sorteo, hay un gran potencial de espera para ser explotado.


El futuro de Xbox con HW nativo de DX 12 pinta fatal ;)

Imagen
Ahora que están poniendo el os medios extranjeros lo del roadmap de XBOX ONE, jajajaja, me descojono.

Los magufos les llevamos años, A_Ñ_O_S!!!

Por cierto no os preocupéis por la traducción porque la introducción de DX12 en el mercado de videojuego es un salto tan grande (hasta 500% en PC) que no tiene precedentes así que lo veréis pronto en portada de EOL.

Supongo que están trabajando en ello.
¿Como es posible que DirectX 12 rinda peor en configuracion AMD que Mantle, si Microsoft pago a AMD la friolera de 2 Millones de dolares americanos para comprarles Mantle y cambiarle el nombre y ponerle DirectX 12?

Otro mito que se cae, ya van unos cuantos ya...
2015 va ser el año de quitar caretas y que se descubra la realidad.
Magnarock escribió:¿Como es posible que DirectX 12 rinda peor en configuracion AMD que Mantle, si Microsoft pago a AMD la friolera de 2 Millones de dolares americanos para comprarles Mantle y cambiarle el nombre y ponerle DirectX 12?

Otro mito que se cae, ya van unos cuantos ya...
2015 va ser el año de quitar caretas y que se descubra la realidad.


Lo de que microsoft pago 2 millones a AMD para comprarles Mantle es una tonteria, con todo el respeto :).

Lo de que las NVIDIA rinden mas que las de AMD es un poco relativo, depende de los modelos y el test, de todas formas Brad Wardell precisamente no opina lo mismo, el dice que las AMD consiguen x5 frente al x3 de NVIDIA: https://twitter.com/draginol/status/563833492992454656

Pero bueno, esto son generalizaciones y ya hay que mirar el modelo de tarjeta y test realizado para comparar AMD vs NVIDIA al respecto. Y no hay que olvidarse que esto es una preview, faltarán drivers por pulir en ambos lados seguramente.

EDIT: Perdón entendí mal tu post, pense que hablabas de AMD vs NVIDIA en vez de dx12 vs mantle en AMD. La verdad solo hay un test en el que mantle sale mejor, de todas formas tampoco me parece sorprendente que mantle (hecho por AMD) mejore un poco a dx12 en sus propias tarjetas en algun test. De hecho a mi me sorprende las mejoras de dx12 respecto a mantle, pense que iban a estar mas igualados.
Joer, qué gráficas de comparativas más molonas! Cómo se intentará desacreditar ahora ese boost gracias a dx12? Que las estadísticas se han hecho con powerpoint 1.0?

Negacionistas, where are you?
Venga empiezo yo:

1. La API de XBOX ONE ya es close to metal así que no va a experimentar mejoría.

Eso debe ser cierto xq como sabemos todos los juegos en XBOX ONE rinden 5x, mínimo, que sus versiones en PC.
Que no, que no, que la One usa DX8, todo esto es truco...

Imagen
¿Hay que sorprenderse de éstas gráficas con DX12?... Yo aún diría que no me sorprenden lo suficiente :)
pspskulls escribió:¿Hay que sorprenderse de éstas gráficas con DX12?... Yo aún diría que no me sorprenden lo suficiente :)


Jodó! Más madera! XD
Supongo que alguno esperará que con DX12 la One haga como su predecesora en cierta película:

Imagen
Extracto del artículo de anandtech

Oxide Games has emailed us this evening with a bit more detail about what's going on under the hood, and why Mantle batch submission times are higher. When working with large numbers of very small batches, Star Swarm is capable of throwing enough work at the GPU such that the GPU's command processor becomes the bottleneck. For this reason the Mantle path includes an optimization routine for small batches (OptimizeSmallBatch=1), which trades GPU power for CPU power, doing a second pass on the batches in the CPU to combine some of them before submitting them to the GPU. This bypasses the command processor bottleneck, but it increases the amount of work the CPU needs to do (though note that in AMD's case, it's still several times faster than DX11).


Recordemos por 239874209348 vez, de la entrevista:

We also took the opportunity to go and highly customise the command processor on the GPU. Again concentrating on CPU performance... The command processor block's interface is a very key component in making the CPU overhead of graphics quite efficient. We know the AMD architecture pretty well - we had AMD graphics on the Xbox 360 and there were a number of features we used there. We had features like pre-compiled command buffers where developers would go and pre-build a lot of their states at the object level where they would [simply] say, "run this". We implemented it on Xbox 360 and had a whole lot of ideas on how to make that more efficient [and with] a cleaner API, so we took that opportunity with Xbox One and with our customised command processor we've created extensions on top of D3D which fit very nicely into the D3D model and this is something that we'd like to integrate back into mainline 3D on the PC too - this small, very low-level, very efficient object-orientated submission of your draw [and state] commands.


Vamos que será toda una sorpresa (ironia) empezar a ver doble command processor en las gráficas full dx12 "de verdad" (feature level 12) que se anuncien dentro de poco, justo como lleva la one.
Pada escribió:Extracto del artículo de anandtech

Oxide Games has emailed us this evening with a bit more detail about what's going on under the hood, and why Mantle batch submission times are higher. When working with large numbers of very small batches, Star Swarm is capable of throwing enough work at the GPU such that the GPU's command processor becomes the bottleneck. For this reason the Mantle path includes an optimization routine for small batches (OptimizeSmallBatch=1), which trades GPU power for CPU power, doing a second pass on the batches in the CPU to combine some of them before submitting them to the GPU. This bypasses the command processor bottleneck, but it increases the amount of work the CPU needs to do (though note that in AMD's case, it's still several times faster than DX11).


Recordemos por 239874209348 vez, de la entrevista:

We also took the opportunity to go and highly customise the command processor on the GPU. Again concentrating on CPU performance... The command processor block's interface is a very key component in making the CPU overhead of graphics quite efficient. We know the AMD architecture pretty well - we had AMD graphics on the Xbox 360 and there were a number of features we used there. We had features like pre-compiled command buffers where developers would go and pre-build a lot of their states at the object level where they would [simply] say, "run this". We implemented it on Xbox 360 and had a whole lot of ideas on how to make that more efficient [and with] a cleaner API, so we took that opportunity with Xbox One and with our customised command processor we've created extensions on top of D3D which fit very nicely into the D3D model and this is something that we'd like to integrate back into mainline 3D on the PC too - this small, very low-level, very efficient object-orientated submission of your draw [and state] commands.


Vamos que será toda una sorpresa (ironia) empezar a ver doble command processor en las gráficas full dx12 "de verdad" (feature level 12) que se anuncien dentro de poco, justo como lleva la one.


Cómo???

Que han utilizado tecnología que aun no estaba en el mercado???

Guau, quien se lo podría haber imaginado teniendo en cuenta que todos los antecedentes apuntaban directamente a ello. Que tios!!! Como nos han engañao!!!

Imagen
Anda ya una 7790 no tiene eso, son todo cuentos chinos.
papatuelo escribió:
Pada escribió:Extracto del artículo de anandtech

Oxide Games has emailed us this evening with a bit more detail about what's going on under the hood, and why Mantle batch submission times are higher. When working with large numbers of very small batches, Star Swarm is capable of throwing enough work at the GPU such that the GPU's command processor becomes the bottleneck. For this reason the Mantle path includes an optimization routine for small batches (OptimizeSmallBatch=1), which trades GPU power for CPU power, doing a second pass on the batches in the CPU to combine some of them before submitting them to the GPU. This bypasses the command processor bottleneck, but it increases the amount of work the CPU needs to do (though note that in AMD's case, it's still several times faster than DX11).


Recordemos por 239874209348 vez, de la entrevista:

We also took the opportunity to go and highly customise the command processor on the GPU. Again concentrating on CPU performance... The command processor block's interface is a very key component in making the CPU overhead of graphics quite efficient. We know the AMD architecture pretty well - we had AMD graphics on the Xbox 360 and there were a number of features we used there. We had features like pre-compiled command buffers where developers would go and pre-build a lot of their states at the object level where they would [simply] say, "run this". We implemented it on Xbox 360 and had a whole lot of ideas on how to make that more efficient [and with] a cleaner API, so we took that opportunity with Xbox One and with our customised command processor we've created extensions on top of D3D which fit very nicely into the D3D model and this is something that we'd like to integrate back into mainline 3D on the PC too - this small, very low-level, very efficient object-orientated submission of your draw [and state] commands.


Vamos que será toda una sorpresa (ironia) empezar a ver doble command processor en las gráficas full dx12 "de verdad" (feature level 12) que se anuncien dentro de poco, justo como lleva la one.


Cómo???

Que han utilizado tecnología que aun no estaba en el mercado???

Guau, quien se lo podría haber imaginado teniendo en cuenta que todos los antecedentes apuntaban directamente a ello. Que tios!!! Como nos han engañao!!!

Imagen


Xbox utilizando tecnología que todavía no esta en el mercado... IMPOSIBLE, solo hay que ver que no lo hizo con xbox y 360....wait si que lo hizo y ambas maquinas tenían mucha mas potencia que la competencia. XD

Estáis listos para que One duplique la potencia efectiva?

Imagen
Todo esos datos están muy bien y todo.
Pero después ves juegos como la beta del battlefield hardline a 720 p , o el mismísimo halo 5 a la misma resolución y a uno pues se le caen los ojos al suelo.

Yo estoy deseando que se cumplan vuestras profecías para comprarme una pero no hay manera.
comance escribió:Todo esos datos están muy bien y todo.
Pero después ves juegos como la beta del battlefield hardline a 720 p , o el mismísimo halo 5 a la misma resolución y a uno pues se le caen los ojos al suelo.

Yo estoy deseando que se cumplan vuestras profecías para comprarme una pero no hay manera.


Yo me la voy a comprar igual aunque no se cumplan.
Claro porque todos sabemos que las mejoras de DX12 se tienen que ver en los juegos DX11...

Claro que si...
marjalone está baneado por "Saltarse el ban con un clon"
comance escribió:Todo esos datos están muy bien y todo.
Pero después ves juegos como la beta del battlefield hardline a 720 p , o el mismísimo halo 5 a la misma resolución y a uno pues se le caen los ojos al suelo.

Yo estoy deseando que se cumplan vuestras profecías para comprarme una pero no hay manera.


la one nacio solo con una pata coja con el dx11 , con el dx12 tendra 4 y ¡¡¡ tu te tendras que quedar solo con 2 !!! [boing]
Pues ojala y sea verdad .
Yo no soy de tener 2 consolas y menos si hay que pagar el online de las 2 , pero si sacan un Halo en dx 12 como decís donde se note en el tema gráfico , vendo mi ps4 y me compro una one.
Pero personalmente veo que microsoft tiene el tiempo en su contra.
Se les esta pegando el arroz.
Cuantos años van a aguantar esta generación la competencia.
comance escribió:Todo esos datos están muy bien y todo.
Pero después ves juegos como la beta del battlefield hardline a 720 p , o el mismísimo halo 5 a la misma resolución y a uno pues se le caen los ojos al suelo.

Yo estoy deseando que se cumplan vuestras profecías para comprarme una pero no hay manera.

Pero Halo 5 sí que es una beta y aún queda casi 1 año de aquí a que salga. Además que dijeron que no se habían centrado en el apartado gráfico para la beta. Que no te quepa la menor duda, que Halo 5, mínimo, sale a 900p 60fps.
Seguir llamando "profecias" a la cuestion DX12 yo creo que ya habria que considerarlo flame. Ya no digo decir que no se nota en titulos betas pre DX12.
marjalone está baneado por "Saltarse el ban con un clon"
comance escribió:Pues ojala y sea verdad .
Yo no soy de tener 2 consolas y menos si hay que pagar el online de las 2 , pero si sacan un Halo en dx 12 como decís donde se note en el tema gráfico , vendo mi ps4 y me compro una one.
Pero personalmente veo que microsoft tiene el tiempo en su contra.
Se les esta pegando el arroz.
Cuantos años van a aguantar esta generación la competencia.


one salio antes de hora por la salida de la otra , one es tecnologia nueva en gpu como las r9 3xx full dx12 y doble contexto , ahora se vera todo lo que lleva con el dx12 que es para lo que esta concebida
Morepawer está baneado por "hater, flames y clones"
Me he quedado francamente sorprendido de estas primeras pruebas y el rendimiento que da DX12. Y siendo franco, en un ppio he sido algo reacio para creer lo que podía aportar DX12 pero tengo que reconocer que ante una evidencia como son éstas últimas imágenes, independientemente de cual va a ser el resultado final en X1, me quito el sombrero y felicito a MS pero su gran movimiento.

Los Pceros y Xboxers están de enhorabuena.

https://twitter.com/draginol/status/563834860989845504

Felicidades.
Tenéis opiniones muy interesantes sobre el tema de DirectX12 en NeoGAF , por ejemplo , del propio Durante , el creador de GeDoSaTo y DSfix , y de gente que sabe realmente de qué va el tema

http://m.neogaf.com/showthread.php?t=987116&page=5

también comentan declaraciones de Phil Spencer:

“On the DX12 question, I was asked early on by people if DX12 is gonna dramatically change the graphics capabilities of Xbox One and I said it wouldn’t. I’m not trying to rain on anybody’s parade, but the CPU, GPU and memory that are on Xbox One don’t change when you go to DX12. DX12 makes it easier to do some of the things that Xbox One’s good at, which will be nice and you’ll see improvement in games that use DX12, but people ask me if it’s gonna be dramatic and I think I answered no at the time and I’ll say the same thing.”


"Sobre DirectX12 , ya me preguntaron si DirectX12 va a cambiar de forma dramática las capacidades gráficas de Xbox One y dije que no lo haría. No estoy intentando aguarle la fiesta a nadie, pero la CPU , GPU y la memoria que hay en Xbox One no cambia cuando pasas a DirectX12. directX12 hace que sea más fácil hacer algunas de las cosas en las que Xbox One es buena de por sí , lo cual será bueno y se verá una mejora en juegos que usen DirectX12, pero la gente me pregunta si va a ser un cambio drástico y creo que ya respondí que no en aquella ocasión y seguiré diciendo lo mismo"

Habría que saber en qué contexto le preguntaron , y porqué declaro éso exactamente , él seguramente sepa lo justito del tema y simplemente se dedique a hacer su trabajo como cara visible de la marca

también se comenta que el cambio podría ser como pasar del Perfect Dark Zero de Xbox 360 al Halo 4 , de Xbox 360 también , dicho por Phil Spencer

lo dicho , está muy interesante el tema en GAF.

un saludo.
josemayuste escribió:Tenéis opiniones muy interesantes sobre el tema de DirectX12 en NeoGAF , por ejemplo , del propio Durante , el creador de GeDoSaTo y DSfix , y de gente que sabe realmente de qué va el tema

http://m.neogaf.com/showthread.php?t=987116&page=5

también comentan declaraciones de Phil Spencer:

“On the DX12 question, I was asked early on by people if DX12 is gonna dramatically change the graphics capabilities of Xbox One and I said it wouldn’t. I’m not trying to rain on anybody’s parade, but the CPU, GPU and memory that are on Xbox One don’t change when you go to DX12. DX12 makes it easier to do some of the things that Xbox One’s good at, which will be nice and you’ll see improvement in games that use DX12, but people ask me if it’s gonna be dramatic and I think I answered no at the time and I’ll say the same thing.”


"Sobre DirectX12 , ya me preguntaron si DirectX12 va a cambiar de forma dramática las capacidades gráficas de Xbox One y dije que no lo haría. No estoy intentando aguarle la fiesta a nadie, pero la CPU , GPU y la memoria que hay en Xbox One no cambia cuando pasas a DirectX12. directX12 hace que sea más fácil hacer algunas de las cosas en las que Xbox One es buena de por sí , lo cual será bueno y se verá una mejora en juegos que usen DirectX12, pero la gente me pregunta si va a ser un cambio drástico y creo que ya respondí que no en aquella ocasión y seguiré diciendo lo mismo"

Habría que saber en qué contexto le preguntaron , y porqué declaro éso exactamente , él seguramente sepa lo justito del tema y simplemente se dedique a hacer su trabajo como cara visible de la marca

también se comenta que el cambio podría ser como pasar del Perfect Dark Zero de Xbox 360 al Halo 4 , de Xbox 360 también , dicho por Phil Spencer

lo dicho , está muy interesante el tema en GAF.

un saludo.


Muchas gracias, pero aquí también a gente que controla del tema.

Por cierto le estáis dando de si a las dos únicas declaraciones de Phill Spencer que os interesan.

Del resto, como si no existieran:
Imagen

Te recuerdo que también ha dicho que XBOX ONE es full compatible con DX12 y que cuando la crearon sabían lo que había con DX12.
@papatuelo ¿Y hay algo en mi mensaje que diga lo contrario?.
josemayuste escribió:@papatuelo ¿Y hay algo en mi mensaje que diga lo contrario?.


Lo mismo es q no te pasas mucho por aquí, pero las declaraciones esas q ponen de Phill Spencer las han puesto ya por aqui medio millón de veces.

Por cierta q ha sido sin querer, pero has elegido la única q se puede usar para hacer damage control de la noticia.

Que raro q siendo test de Star Swarm no hayas puesto las de Wardell hablando de entre 300% y 500% en arquitecturas DX11.

Habra sido casualidad.
A las 20:00 salia el podcast de The Inner Circle a Brad Wardell..
Pues no sé qué es Star Swarm sinceramente , no , no me paso mucho por el hilo , ni tampoco he visto esas declaraciones de Brad Wardell en NeoGAF , la web que tengo como referencia , la mejora tengo entendido que solucionará principalmente los problemas de cuellos de botella en juegos que requieran tirar de CPU y en su comunicación con la GPU y en una mejor gestión de la memoria del sistema , más allá de eso ...
comance escribió:Todo esos datos están muy bien y todo.
Pero después ves juegos como la beta del battlefield hardline a 720 p , o el mismísimo halo 5 a la misma resolución y a uno pues se le caen los ojos al suelo.

Yo estoy deseando que se cumplan vuestras profecías para comprarme una pero no hay manera.


Son dos betas a las que les queda mucho desarrollo..

Redefines el término agarrarse a un clavo ardiendo con tal de echar mierda verdad?

Cuando veas halo 5 a 1080p y con features de DX12 como RT lo que se te van a caer son los huevos al suelo

Intento troll failed

Josemayuste@ con todo respecto.. Si no sabes de que va el rollo no entres a trolear anda, que estaba este hilo muy "limpio" últimamente.
https://www.youtube.com/watch?v=47cnFWK0dRM

Sobre el podcast, ya en los primeros minutos Brad comenta lo que yo en este hilo...

NADIE se va a preocupar de utilizar APIs que no sean DX11 o DX12, nadie se va a preocupar de volver al ensamblador (con el que se conseguiría mejor rendimiento) pero NADIE lo va a hacer. No hay APIs ocultas o específicas: cuando haces un juego lo haces multiplataforma o al menos con código que facilmente pueda serlo, y aquí es cuando incluso Mantle sale de la ecuación pues no es sostenible usar una API específica solamente para AMD y con un gasto de desarrollo adicional cuando directamente puede usarse DX o GL.
La cuestión es que no dejamos de hablar de márgenes teóricos de mejora de rendimiento, y en este contexto es muy recurrente que algunas personas se muestres escépticas o cautas.
Serán los juegos desarrollados con la nueva api los que permitan debatir con algo mas allá de las conclusiones particulares.
Cuando podremos ver por fin los nuevos juegos desarrollados con dx12? imagino que a corto plazo no, y que los títulos que están por salir este año no han sido desarrollados con la nueva api, lo que generara mas polémica.
Basicamente dice que solo hay un hilo a través dle cual se comunican CPU y GPU. Tanto en PC como en XBOX ONE todos los cores de la CPU pueden trabajar al mismo tiempo tiempo y todos los de la GPU también, pero a la hora de hablar unos con otros no pueden hacerlo más que de forma serializada. La mejora observable se debe fundamentalmente en que a partir de ahora cada uno de los ocho nucelos puede hablar a la vez con la GPU, nada de esperar,
david1995w escribió:
comance escribió:Todo esos datos están muy bien y todo.
Pero después ves juegos como la beta del battlefield hardline a 720 p , o el mismísimo halo 5 a la misma resolución y a uno pues se le caen los ojos al suelo.

Yo estoy deseando que se cumplan vuestras profecías para comprarme una pero no hay manera.

Pero Halo 5 sí que es una beta y aún queda casi 1 año de aquí a que salga. Además que dijeron que no se habían centrado en el apartado gráfico para la beta. Que no te quepa la menor duda, que Halo 5, mínimo, sale a 900p 60fps.


Halo 5 funciona con DX12, y actualmente las Xbox ONE que hay en las casas no disponen de esta API, así que cuando sale la Beta, esta tiene que adaptarse a la API actual, no puede salir con la calidad que lo haría con DX12, ni lo pretenden tampoco.
17587 respuestas