› Foros › Multiplataforma › General
Sois muy pesados con la fuente.
No pidáis la fuente a quien opina porque es una opinión.
Lo de pedir fuentes está bien pero es que algunas fuentes son intersadas, ciencia ficción o flipados de la vida, así que poner eso y no poner nada es lo mismo.
Que cada uno ponga la fuente que quiera y si no quiere poner nada y le ponen la cara roja que se aguante.
TRASTARO escribió:
Con Unreal Engine 4 ya han realizado alguna demostracion de D3D12 en windows 10 technical preview.
https://www.youtube.com/watch?v=u91gN0ELS6E
Natsu escribió:No sé si he entendido el significado de este hilo, pero DirectX12 está enfocado únicamente al PC, Ps4 ya dispone de un equipo de ingenieros con bastante talento que crean sus propias Apis y librerías para sacarle jugo al sistema, poco o nada le afectan mantle, dx12 o lo que sea.
Paboh escribió:No se si fué para el Directx10 que también anunciaron a bombo y platillo la mejora de rendimiento, pero fuera de los benchmarks el asunto quedó en humo y poco mas. Así que no tengo muchas esperanzas en esto...
josemurcia escribió:Pero Sony no da nunca detalles de su API y con PS4 han hecho bien los deberes abriendo completamente el hardware desde el principio.
Y Microsoft quitando el marketing y el humo el único cambio destacable es en el uso de la ESRAM, que no ha salido con las herramientas adecuadas y todavía no la pueden usar al 100%.
Fable Legends:
DX12 tarda casi 5ms menos en renderizar un frame que DX11.
DX11: 20.5ms -> 48.8 fps
DX12: 15.8ms -> 63.3 fps
Vemos aproximadamente un 30% de mejora de rendimiento.
darksch escribió:Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.
Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.
David Ricardo escribió:darksch escribió:Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.
Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.
Todas las informaciones con fuente, por favor. Si lo ha dicho un desarrollador, enlace a las declaraciones. Si sale de una conferencia de Microsoft, enlace al video o al artículo de una web fiable. Si sale de una web técnica, enlace al artículo, etc...
Es la única manera de controlar el hilo y la fiabilidad de la información.
darksch escribió:David Ricardo escribió:darksch escribió:Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.
Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.
Todas las informaciones con fuente, por favor. Si lo ha dicho un desarrollador, enlace a las declaraciones. Si sale de una conferencia de Microsoft, enlace al video o al artículo de una web fiable. Si sale de una web técnica, enlace al artículo, etc...
Es la única manera de controlar el hilo y la fiabilidad de la información.
Si wuana
http://www.dualshockers.com/2015/03/04/directx-12-will-boost-xbox-ones-cpu-by-up-to-20-according-to-phil-spencer/
http://www.redgamingtech.com/esram-performance-improves-15-dx12-info-xbox-one-analysis/
Tal como había anunciado Microsoft, Phil Spencer ha hablado sobre DirectX 12 en la GDC de San Francisco. El principal responsable de la división Xbox de Microsoft ha revelado que la GPU de Xbox One aumentará un 20% su rendimiento con DirectX 12, mientras que la CPU tendrá un aumento de hasta el 50%.
He also added to this via his Twitter account “Microsoft has cool new tool for optimizing esram use called Pix. Demo I saw resulted in ~15% boost.” While fifteen percent might not sound astounding, you should remember that this is currently – and doesn’t take into account some of the other optimizations the Xbox One will receive.
Microsoft realized this, and have finally started implemented tools for developers to simulate different ESRAM strategies for PIX and figure out the best way of running this
J_Ark escribió:Sigue haciendo referencia a la charla de GDC, donde el 20% se matizó que era para PC.
Y tampoco es que se le tenga como a una referencia a Wardell: http://www.neogaf.com/forum/showthread.php?t=1021024
Polyteres escribió:Es como decir q por tener una llave inglesa un coche gana un 15% de rendimiento, lo único q te permite la llave inglesa es abrir el motor y mirar que se puede mejorar pero por si sola no hace nada.
Microsoft realized this, and have finally started implemented tools for developers to simulate different ESRAM strategies for PIX and figure out the best way of running this. Brad Wardell says in a blog post “This is where DirectX 12 comes in. First, they’re redoing the APIs to deal with eSRAM based on developer feedback. Second, they have a wonderful tool called “Pix” that now has a feature (or will very soon) that lets developers try out different strategies in using eSRAM and see how it performs without having to rebuild the project (i.e. they can simulate it in the tool). This too is huge.”
David Ricardo escribió:@darksch ¿Lo haces a propósito? Aquí todo con fuente.
David Ricardo escribió:@polyteres fuente, por favor.
darksch escribió:David Ricardo escribió:@darksch ¿Lo haces a propósito? Aquí todo con fuente.
Vamos a ver, ¿lo hacéis aposta vosotros?. Está en la misma fuente que ya he puesto.
http://www.redgamingtech.com/esram-performance-improves-15-dx12-info-xbox-one-analysis/
Vaya tela
DirectX 12 enables PC developers to have a new level of power and control and is a single API developers can access across Windows devices. As shown with Fable Legends running on Unreal Engine 4, there has been a 20% improvement in performance. And as announced today, Epic is creating Unreal Tournament using Unreal Engine 4 running on DirectX 12, which sets a new bar for visual fidelity in PC gaming.
David Ricardo escribió:https://m.youtube.com/watch?v=2nNMrDqZcj8
Este es el enlace del video donde phil spencer dice que directx12 traerá una mejora de hasta el 50% en cpu según el juego y en concreto, en el caso de fable, una mejora del 20% en gpu respecto a directx11. Lo dice a partir del minuto 23.30 y no dice nada de Xbox.
Edit: @J_ark fuente por favor.
David Ricardo escribió:Información concreta, por favor. Y la información lo más intacta posible. Si posteas el quote literal de la parte del artículo que dice lo que tú quieres transmitir, mejor aún.
Este post necesita las normas que tiene porque la gente no es suficientemente madura para debatir de manera razonable y lógica por sí misma estos temas tan polémicos. Si a alguien no le gusta como funciona este post y quiere discutir las normas que hay en él, que cree un hilo en feedback y lo debatiré con él gustosamente.
@todos Este hilo es para poner información de fuentes fiables, no para hacer interpretaciones y demagogias.
Mantle, Metal, DX12 are all proprietary API’s that enable the GPU to be programmed in a very explicit way. Vulkan, with its Mantle roots, is also a very explicit API, and it achieves this in a cross-OS, cross-GPU fashion. To better understand the real benefit of these explicit APIs, we need to go back to their inspiration: the game console. For years, the console game engineers have been developing their software directly on the hardware. The extended life-cycles of video game consoles allows these platforms to reach a large audience; and using a 3D API can get in the way of creating a better game engine. The engine developers took over the responsibilities of building command buffers, keeping them in flight and managing the GPU resources required to ensure the hardware worked properly and efficiently. Ultimately the console game engines were able to squeeze the maximum performance out of the GPU while still leaving plenty of CPU bandwidth available for the game logic itself.
Traditional PC and mobile hardware are in a different boat. With new and better hardware coming out very frequently from competing vendors, change comes quickly on these platforms. 3D APIs are necessary to insulate the engine developer from a proliferation of hardware traditionally at a cost to overall performance. The task of building command buffers, keeping them in flight and managing GPU resources falls primarily to the drivers. Efficiently getting the most performance out of PC Hardware has become more complicated than the console way of programming directly to the hardware. The previously mentioned explicit APIs recognize that challenge, and have embraced the type of programming traditionally done on consoles allowing game engine developers to write more directly to the hardware. Vulkan's explicit approach exposes the nature of how modern GPUs work while still managing to abstract away most of the hardware and OS differences. The result is a manageable number of special cases that can be written by engine developers to enable a broad range of hardware to work more effectively than ever.
Nuhar escribió:Pero vamos a ver, este hilo es para aportar noticias? Si pedimos noticias con fuentes entonces coartamos las opiniones?
Porque esto va a ser como siempre, se aporta una info de dx12 y aunque alguien hable en generico siempre va a saltar la legion de fanboys diciendo que en xbox no, luego se van a mostrar las 200 diapositivas oficiales que sale el nombre, marca, dibujo de la consola y en la siguiente noticia va a volver a pasar. Vamos, como el hilo de xbox jajaja.
Aclaramos normas y hablamos o dejamos el hilo sentenciado para cerrarlo tarde o temprano?
*aclaro: Yo no se el rendimiento que habra en una u otra maquina pero lo que no hago es inventarme cosas, me espero a datos oficiales, porque dx12 va a llegar si o si a xbox one.
papatuelo escribió:Por ejemplo Wardell en el podcast de Inner Circle dice q los multi no se programan close to metal en consola, y es facilmente contrastable, coge un multi y compara el rendimiento en consola y PC y busca el boost q confiere el supuesto close to metal.
josemurcia escribió:papatuelo escribió:Por ejemplo Wardell en el podcast de Inner Circle dice q los multi no se programan close to metal en consola, y es facilmente contrastable, coge un multi y compara el rendimiento en consola y PC y busca el boost q confiere el supuesto close to metal.
¿Todavía seguimos tomando en serio las declaraciones de Brad Wardell sobre consolas? ¿Después de que dijera en la GDC que no había trabajado ni estaba trabajando en nada para ONE?
Luego sale un dev de The Witcher 3 diciendo algo malo de ONE y se le ignora por el mismo motivo, seamos un poco coherentes.
Y aquí nadie ha negado, por ejemplo, la mejora de rendimiento que va a tener ONE con las nuevas herramientas de la ESRAM, porque se sabe que hay problemas desde el principio, y han hablado de mejora explícitamente sobre ONE, no como con DX12 que las declaraciones o son sobre PC o cuando se habla de ONE son totalmente ambiguas.
papatuelo escribió:O en las ultimas diapositivas de AMD se habla del computo asincrono como algo q no se ha usado nunca en ONE, ni en los juegos en los q si se ha ha usado en PS4.
sixsilum escribió:papatuelo escribió:O en las ultimas diapositivas de AMD se habla del computo asincrono como algo q no se ha usado nunca en ONE, ni en los juegos en los q si se ha ha usado en PS4.
En las diapositivas de amd solo aparecia un multi, ademas de primera horneada, que lo habia usado, no? Supongo que en ps4 nadie mas lo habra utilizado porque no les interesaria invertir tiempo y dinero en una caracteristica que solo podian usar en una plataforma.
Supongo que con la salida de directx12 tanto one como ps4 haran uso de ello con mayor frecuencia.
EDITO:
"Most people start with the GNMX API which wraps around GNM and manages the more esoteric GPU details in a way that's a lot more familiar if you're used to platforms like D3D11. We started with the high-level one but eventually we moved to the low-level API because it suits our uses a little better," says O'Connor, explaining that while GNMX is a lot simpler to work with, it removes much of the custom access to the PS4 GPU, and also incurs a significant CPU hit.
josemurcia escribió:En todo caso es al revés. GNMX es una API de mayor nivel de abstracción pensada para portear fácilmente desde DX11 y GNM la close to the metal. Pero vamos, que GNM se ha utilizado desde el principio también, en ningún momento ha sido exclusiva de firsts."Most people start with the GNMX API which wraps around GNM and manages the more esoteric GPU details in a way that's a lot more familiar if you're used to platforms like D3D11. We started with the high-level one but eventually we moved to the low-level API because it suits our uses a little better," says O'Connor, explaining that while GNMX is a lot simpler to work with, it removes much of the custom access to the PS4 GPU, and also incurs a significant CPU hit.
http://www.eurogamer.net/articles/digit ... ystation-4