› Foros › Multiplataforma › General
Polyteres escribió:Buenas gente. Al leer el hilo la pregunta q me viene a la cabeza es, de q trata el hilo? . Es decir, q se está discutiendo?. Cuales serán los beneficios de DirectX 12?. Beneficios de las nuevas APIs que están por llegar?. Se está discutiendo de APIs de consolas?. Puede q hoy esté más espeso de lo normal pero no me queda demasiado claro jeje.
Un saludo.
DirectX 11 vs. DirectX 12 oversimplified
Unlike previous versions of DirectX, the difference between the new DirectX and previous generations are obvious enough that they can be explained in charts (and maybe someone with some visual design skill can do this).
This article is an extreme oversimplification. If someone wants to send me a chart to put in this article, I’ll update.
Your CPU and your GPU
Since the start of the PC, we have had the PC and the GPU (or at least, the “video card”).
Up until DirectX 9, the CPU, being 1 core in those days, would talk to the GPU through the “main” thread.
DirectX 10 improved things a bit by allowing multiple cores send jobs to the GPU. This was nice but the pipeline to the GPU was still serialized. Thus, you still ended up with 1 CPU core talking to 1 GPU core.
It’s not about getting close to the hardware
Every time I hear someone say “but X allows you to get close to the hardware” I want to shake them. None of this has to do with getting close to the hardware. It’s all about the cores. Getting “closer” to the hardware is relatively meaningless at this point. It’s almost as bad as those people who think we should be injecting assembly language into our source code. We’re way beyond that.
It’s all about the cores
Last Fall, Nvidia released the Geforce GTX 970. It has 5.2 BILLION transistors on it. It already supports DirectX 12. Right now. It has thousands of cores in it. And with DirectX 11, I can talk to exactly 1 of them at a time.
Meanwhile, your PC might have 4, 8 or more CPU cores on it. And exactly 1 of them at a time can talk to the GPU.
Let’s take a pause here. I want you to think about that for a moment. Think about how limiting that is. Think about how limiting that has been for game developers. How long has your computer been multi-core?
But DirectX 12? In theory, all your cores can talk to the GPU simultaneously. Mantle already does this and the results are spectacular. In fact, most benchmarks that have been talked about have been understated because they seem unbelievable. I’m been part of (non-NDA) meetings where we’ve discussed having to low-ball performance gains to being “only” 40%. The reality is, as in, the real-world, non-benchmark results I’ve seen from Mantle (and presumable DirectX 12 when it’s ready) are far beyond this. The reasons are obvious.
To to summarize:
DirectX 11: Your CPU communicates to the GPU 1 core to 1 core at a time. It is still a big boost over DirectX 9 where only 1 dedicated thread was allowed to talk to the GPU but it’s still only scratching the surface.
DirectX 12: Every core can talk to the GPU at the same time and, depending on the driver, I could theoretically start taking control and talking to all those cores.
That’s basically the difference. Oversimplified to be sure but it’s why everyone is so excited about this.
The GPU wars will really take off as each vendor will now be able to come up with some amazing tools to offload work onto GPUs.
Not just about games
Cloud computing is, ironically, going to be the biggest beneficiary of DirectX 12. That sounds unintuitive but the fact is, there’s nothing stopping a DirectX 12 enabled machine from fully running VMs on these video cards. Ask your IT manager which they’d rather do? Pop in a new video card or replace the whole box. Right now, this isn’t doable because cloud services don’t even have video cards in them typically (I’m looking at you Azure. I can’t use you for offloading Metamaps!)
It’s not magic
DirectX 12 won’t make your PC or XBox One magically faster.
First off, the developer has to write their game so that they’re interacting with the GPU through multiple cores simultaneously. Most games, even today, are still written so that only 1 core is dedicated to interacting with the GPU.
Second, this only benefits you if your game is CPU bound. Most games are. In fact, I’m not sure I’ve ever seen a modern Nvidia card get GPU bound (if anyone can think of an example, please leave it in the comments).
Third, if you’re a XBox One fan, don’t assume this will give the XBO superiority. By the time games come out that use this, you can be assured that Sony will have an answer.
Rapid adoption
There is no doubt in my mind that support for Mantle/DirectX12/xxxx will be rapid because the benefits are both obvious and easy to explain, even to non-technical people. Giving a presentation on the power of Oxide’s new Nitrous 3D engine is easy thanks to the demos but it’s even easier because it’s obvious why it’s so much more capable than anything out there.
If I am making a game that needs thousands of movie-level CGI elements on today’s hardware, I need to be able to walk a non-technical person through what Nitrous is doing differently. The first game to use it should be announced before GDC and in theory, will be the very first native DirectX 12 and Mantle and xxxx game (i.e. written from scratch for those platforms).
A new way of looking at things: Don’t read this because what is read can’t be unread
DirectX 12/etc. will ruin older movies and game effects a little bit. It has for me. Let me give you a straight forward example:
Last warning:
Seriously.
Okay. One of the most obvious limitations games have due to the 1 core to 1 core interaction are light sources. Creating a light source is “expensive” but easily done on today’s hardware. Creating dozens of light sources simultaneously on screen at once is basically not doable unless you have Mantle or DirectX 12. Guess how many light sources most engines support right now? 20? 10? Try 4. Four. Which is fine for a relatively static scene. But it obviously means we’re a long long way from having true “photo realism”.
So your game might have lots of lasers and explosions and such, but only (at most) a few of them are actually real light sources (and 3 of them are typically reserved lighting the scene).
As my son likes to say: You may not know that the lights are fake but your brain knows.
You’ll never watch this battle the same again.
Or this. Wow, those must be magical explosions, they don’t cast shadows…Or maybe it’s a CGI scene..
And once you realize that, you’ll never look at an older CGI movie or a game the same because you’ll see blaster shots and little explosions in a scene and realize they’re not causing shadows or lighting anything in the scene. You subconsciously knew the scene was “fake”. You knew it was filled with CGI but you may not have been able to explain why. Force lightning or a wizard spell that isn’t casting light or shadows on the scene may not be consciously noticeable but believe me, you’re aware of it (modern CGI fixes this btw but our games are still stuck at a handful).
Why I’ve been covering this
Before DirectX 12, I had never really talked about graphics APIs. That’s because I found them depressing. My claim to fame (code-wise) is multithreading AI programming. I wrote the first commercial multithreaded game back in the 90s and I’ve been a big advocate of multithreading since. GalCiv for Windows was the first game to make use of Intel hyperthreading.
Stardock’s games are traditionally famous for good AI. It’s certainly not because I’m a great programmer. It’s because I have always tossed everything from path finding to AI strategy onto threads. The turn time in say Sorcerer King with > 1000 units running around is typically less than 2 seconds. And those are monsters fighting battles with magical spells and lots of pathfinding. That’s all because I can throw all this work onto multiple threads that are now on multiple cores. In essence, I’m cheating. So next time you’re playing a strategy game where you’re waiting 2 minutes between turns, you know why.
But the graphics side? Depressing.
That magical spell is having no affect on the lighting or shadows. You may not notice it consciously but your brain does (DirectX 9). A DirectX 10/11 game would be able to give that spell a point light but as you can see, it’s a stream of light which is a different animal.
You don’t need an expert
Assuming you’re remotely technical, the change from DirectX 11 to DirectX 12/Mantle changes are obvious enough that you should be able to imagine the benefits. If before only 1 core could send jobs to your GPU but now you could have all your cores send jobs at the same time, you can imagine what kinds of things can become possible. Your theoretical improvement in performance is (N-1)X100% where N is how many cores you have. That’s not what you’ll really get. No one writes perfect parallelized code and no GPU is at 0% saturation. But you get the idea.
GDC
Pay very very close attention to GDC this year. Even if you’re an OpenGL fan. NVidia, AMD, Microsoft, Intel and Sony have a unified goal. Something is about to happen. Something wonderful.
Polyteres escribió:Buenas gente. Al leer el hilo la pregunta q me viene a la cabeza es, de q trata el hilo? . Es decir, q se está discutiendo?. Cuales serán los beneficios de DirectX 12?. Beneficios de las nuevas APIs que están por llegar?. Se está discutiendo de APIs de consolas?. Puede q hoy esté más espeso de lo normal pero no me queda demasiado claro jeje.
Un saludo.
papatuelo escribió:Polyteres escribió:Buenas gente. Al leer el hilo la pregunta q me viene a la cabeza es, de q trata el hilo? . Es decir, q se está discutiendo?. Cuales serán los beneficios de DirectX 12?. Beneficios de las nuevas APIs que están por llegar?. Se está discutiendo de APIs de consolas?. Puede q hoy esté más espeso de lo normal pero no me queda demasiado claro jeje.
Un saludo.
No te preocupes, si no lo entiendes o te parece absurdi no es nesario q participes. Los foros funcionan asi, nadie te va a poner una falta de asistencia.
David Ricardo escribió:Un saludo.papatuelo escribió:Polyteres escribió:Buenas gente. Al leer el hilo la pregunta q me viene a la cabeza es, de q trata el hilo? . Es decir, q se está discutiendo?. Cuales serán los beneficios de DirectX 12?. Beneficios de las nuevas APIs que están por llegar?. Se está discutiendo de APIs de consolas?. Puede q hoy esté más espeso de lo normal pero no me queda demasiado claro jeje.
Sencillamente en el primer post pone todo lo q pregunta.
No te preocupes, si no lo entiendes o te parece absurdi no es nesario q participes. Los foros funcionan asi, nadie te va a poner una falta de asistencia.
No ha dicho que le parezca absurdo, sólo que no sabe cuál es el tema del post. Te habría llevado menos pulsaciones de teclado escribir "nuevas apis y desarrollo de juegos" que lo que pusiste.
Parece que te decepcione que no haya el mal rollo o las broncas que esperabas. Quizá los usuarios de multi no sean tan malos como los pintan.
Mapache Power escribió:Sin ser en absoluto un experto en el tema, tampoco entiendo muy bien en que puede ayudar una API de PC a las consolas, cuando estas ya están siendo programadas a bajo nivel y además tienen una evolución constante en este aspecto. Ya se ha podido ver la evolución de One durante el año pasado y en PS4 las mejoras de The Order usando el último SDK.
Entiendo que DX12 puede estar bien para portear fácilmente indies o títulos "de clase media", pero no acabo de verlo para AAAs que pretendan exprimir la máquina.
Mapache Power escribió:Sin ser en absoluto un experto en el tema, tampoco entiendo muy bien en que puede ayudar una API de PC a las consolas, cuando estas ya están siendo programadas a bajo nivel y además tienen una evolución constante en este aspecto. Ya se ha podido ver la evolución de One durante el año pasado y en PS4 las mejoras de The Order usando el último SDK.
Entiendo que DX12 puede estar bien para portear fácilmente indies o títulos "de clase media", pero no acabo de verlo para AAAs que pretendan exprimir la máquina.
josemurcia escribió:¿Qué upgrade ha tenido The Order?
Mapache Power escribió:josemurcia escribió:¿Qué upgrade ha tenido The Order?
http://www.meristation.com/playstation-4/noticias/the-order-llegara-con-graficos-mejorados/1872611/2035438
David Ricardo escribió:Según dijeron los de Ready at Dawn en mayo respecto al retraso de the order a 2015, los motivos eran mantener una alta calidad en todo el juego, sin altibajos o zonas que se ven peor, y conseguir que las transiciones entre escenas sean todas fluidas y que no se note cuando está cargando, etc...
eloskuro escribió:... El mundo de los numeros grnadilocuentes se está terminando y se está volvioendo caduco. Ahora hay que tener sistemas balanceados y que no pierdan comba en ningun instante.
...
eloskuro escribió:David Ricardo escribió:Según dijeron los de Ready at Dawn en mayo respecto al retraso de the order a 2015, los motivos eran mantener una alta calidad en todo el juego, sin altibajos o zonas que se ven peor, y conseguir que las transiciones entre escenas sean todas fluidas y que no se note cuando está cargando, etc...
Tengo confianza en ready at dawn. Seguro que les sale un juego majo.
Pero siguiendo con el hilo... Creo que DX12 si que supondrá mejoras en juegos para xbox one, como cualuqier mejora en la OpenGL lo aprovechará sony para meterle mas chicha a su propia API.
Esta es una suposición mia, pero me dá que las proximas tarjetas trataran de quitar esa ociosidad a las CU´s, fomentarán mas si cabe el gpgpu . Se aproximan lo que podriamos denominar PC 2.0 con HSA. El mundo de los numeros grnadilocuentes se está terminando y se está volvioendo caduco. Ahora hay que tener sistemas balanceados y que no pierdan comba en ningun instante.
Las API tienen que estar preparadas para ello, y es lo que vamos a presenciar estos años.
wabo escribió:Por volver el tema al hilo, hay una cosa que no me cuadra de la cita original, y es la parte del "CPU bound" ("juegos limitados por la CPU"), que dice que hoy en día son la mayoría y en PC no hay problemas con las gráficas.
Cuadra si partimos de la base de que los juegos multiplataforma se programan con la base de las consolas. Las consolas, con sus limitadas CPU, crean un límite artificial al juego en su versión PC. Cuestiones como la IA se suelen delegar en la CPU y no se suelen diseñar dos IAs...
Si se refiere intrínsecamente a que la CPU limita los juegos, en general y por el mismo motivo, no es cierto. Las CPUs actuales están infrautilizadas; véanse comparativas entre i5 vs i7, donde llega un punto que un aumento en el "escalafón" no se traduce en ninguna mejora del rendimiento.
wabo escribió:Por volver el tema al hilo, hay una cosa que no me cuadra de la cita original, y es la parte del "CPU bound" ("juegos limitados por la CPU"), que dice que hoy en día son la mayoría y en PC no hay problemas con las gráficas.
Cuadra si partimos de la base de que los juegos multiplataforma se programan con la base de las consolas. Las consolas, con sus limitadas CPU, crean un límite artificial al juego en su versión PC. Cuestiones como la IA se suelen delegar en la CPU y no se suelen diseñar dos IAs...
Si se refiere intrínsecamente a que la CPU limita los juegos, en general y por el mismo motivo, no es cierto. Las CPUs actuales están infrautilizadas; véanse comparativas entre i5 vs i7, donde llega un punto que un aumento en el "escalafón" no se traduce en ninguna mejora del rendimiento.
darksch escribió:Pero es que AC Unity no es una demo gráfica. Seguramente cuando se toparon con el CPU-bound delegaron cosas a la GPGPU por lo que les quedó menos disponible. Si no probablemente tendrías el juego a 1080p pero a 20 fps. Es todo un conjunto.
darksch escribió:Pero es que AC Unity no es una demo gráfica. Seguramente cuando se toparon con el CPU-bound delegaron cosas a la GPGPU por lo que les quedó menos disponible. Si no probablemente tendrías el juego a 1080p pero a 20 fps. Es todo un conjunto.
Según el supuesto de que delegaron cosas a GPGPU hasta que fue GPU+CPU bound la versión de X1 debería ir bastante peor
darksch escribió:Pero es que AC Unity no es una demo gráfica. Seguramente cuando se toparon con el CPU-bound delegaron cosas a la GPGPU por lo que les quedó menos disponible. Si no probablemente tendrías el juego a 1080p pero a 20 fps. Es todo un conjunto.
darksch escribió:Habrá cosas que puedas delegar y otras que no por la forma de funcionar GPGPU. Aún sin estar aprovechada al 100% la parte de GPU, puedes estar limitado aún por CPU. Y esa parte ser insuficiente para subir. Realmente es muy raro encontrarse con un programa que aproveche 100/100 perfectamente balanceado CPU/GPU.Según el supuesto de que delegaron cosas a GPGPU hasta que fue GPU+CPU bound la versión de X1 debería ir bastante peor
¿Por?.
J_Ark escribió:darksch escribió:Habrá cosas que puedas delegar y otras que no por la forma de funcionar GPGPU. Aún sin estar aprovechada al 100% la parte de GPU, puedes estar limitado aún por CPU. Y esa parte ser insuficiente para subir. Realmente es muy raro encontrarse con un programa que aproveche 100/100 perfectamente balanceado CPU/GPU.Según el supuesto de que delegaron cosas a GPGPU hasta que fue GPU+CPU bound la versión de X1 debería ir bastante peor
¿Por?.
Por la GPU de X1, bastante inferior a la de Ps4.
darksch escribió:Ah, vale. Ya veo a que han venido algunos a transformar el hilo.
Nada seguid a lo vuestro, a seguir disfrutando de ese 50% mor powah
darksch escribió:J_Ark escribió:Por la GPU de X1, bastante inferior a la de Ps4.
Ah, vale. Ya veo a que han venido algunos a transformar el hilo.
Nada seguid a lo vuestro, a seguir disfrutando de ese 50% mor powah
darksch escribió:Nada nada, a seguir trayendo la misma mierda en TODOS los hilos de EOL. Y seguid con la imagencita de los test de Ubisoft, que no es un caso real (memoria compartida, falta de optimización en X1 que les preguntaron y ni respondieron, falta de API en X1 para hacer dicho test en condiciones usando el compilador a pelo, etc.). El día que saquen demos (no de juegos) habrá muchos que hasta las pagarán y todo.
J_Ark escribió:Sí tiene más CUs, más shaders, más ACEs, más texture units, más ROPs,... en resumen más espacio en chip para meter más chicha por culpa del tamaño comido por la ESRAM. ¿Como puede ser que todo Internet tenga claro esto y siga habiendo gente que se niega a creerlo? Si fueran chips de diferentes compañías aún, pero proveniendo ambas del mismo fabricante en el mismo periodo de tiempo o_O
josemurcia escribió:Es ONE la que todavía tiene que demostrar que es igual o más potente que PS4, no nosotros demostrar que no lo es.
A ver si ahora comentar los resultados reales que hay sobre la mesa va a ser traer mierda y las pajas de Misterxmedia no.
David Ricardo escribió:J_Ark escribió:Sí tiene más CUs, más shaders, más ACEs, más texture units, más ROPs,... en resumen más espacio en chip para meter más chicha por culpa del tamaño comido por la ESRAM. ¿Como puede ser que todo Internet tenga claro esto y siga habiendo gente que se niega a creerlo? Si fueran chips de diferentes compañías aún, pero proveniendo ambas del mismo fabricante en el mismo periodo de tiempo o_O
Está claro que hay gente que piensa distinto y la posición desde moderación en EOL es respetarlo hasta el punto de que está prohibido hablar de hardware en multi porque se lia. Por eso, mejor dejar de lado el hablar de obviedades de hardware. Habla de apis y desarrollo de juegos, que es de lo que trata el post, y no te preocupes que, para quien quiera verlo, quedará bastante clara cual es la realidad. Quien no quiera verlo, no lo va a ver nunca por muchos "numeritos" que le enseñes.
Edit: @j_ark es triste, pero es así. No se puede hablar de hardware en multi. Asúmelo y juega dentro de las limitaciones que tienes.
Nuhar escribió:[APIs Next Gen]
No creo que ponga hardware de consolas, y creo que con next gen significa las nuevas apis, no las consolas.
Que siempre sois los mismos que venis a joder los hilos, a flamear y a console wars.
Nuhar escribió:Se puede hablar de lo que va a beneficiar una api nueva a una consola sin la irresistible necesidad de echar mierda a otras plataformas y menos a usuarios.
A ver si podemos tener un buen hilo para comentar cosas.
Alguien tiene algun enlace sobre mejoras del opengl o rumores o algo? Estoy totalmwnte perdido en este tema.
J_Ark escribió:Ojoas, va en serio? Creía que se limitaba al hilo de comparativa de juegos multi. Porque una cosa es que la contribución de un usuario en multi se limite en 9/10 mensajes tocar los cojones diciendo A es más potente que B, pero que se impida hablar de hard en todo multi me parece la ostia. Además tampoco lo veo chincheteado.
David Ricardo escribió:J_Ark escribió:Ojoas, va en serio? Creía que se limitaba al hilo de comparativa de juegos multi. Porque una cosa es que la contribución de un usuario en multi se limite en 9/10 mensajes tocar los cojones diciendo A es más potente que B, pero que se impida hablar de hard en todo multi me parece la ostia. Además tampoco lo veo chincheteado.
Tienes el post de "hoygan que consola es mejor debería cambiar la mía" chincheteado que básicamente viene a decir que no se pueden hacer versus de consolas. Tampoco haría falta, esto se asemeja a la jurisprudencia de los tribunales. Siempre que se crea un post para hablar de hardware de consolas se cierra, así que aunque no haya una norma concreta que lo diga, sabes que no se puede porque si creas un post de hardware te lo van a chapar.
Edit: por mi parte fin del offtopic.