[APIs Next Gen] El advenimiento del like CGI.

1, 2, 3, 4
De todas formas me hace gracia q haya gente q diga:

Estos putos radicales de mierdas con sus gilipolleces no nos dejan a los demas hablar tranquilamente de la unica verdad.

Esa es vuestra actitud.
Bueno hilo, le auguro futuro.
Ninguno por desgracia, esta visto q la tierra es plana.
papatuelo escribió:De todas formas me hace gracia q haya gente q diga:

Estos putos radicales de mierdas con sus gilipolleces no nos dejan a los demas hablar tranquilamente de la unica verdad.

Esa es vuestra actitud.

Deberías leer el enlace que tienes en la firma a "la falacia del hombre de paja", luego leer lo que acabas de escribir y reflexionar un poco.
papatuelo escribió:De todas formas me hace gracia q haya gente q diga:

Estos putos radicales de mierdas con sus gilipolleces no nos dejan a los demas hablar tranquilamente de la unica verdad.

Esa es vuestra actitud.

Demasiados insultos.

Realmente es como si se prohibiera hablar de la forma de la tierra porque unos pocos que creen que es plana se cabrean de lo lindo cuando alguien dice que es redonda. Y cuando alguien pregunta: "¿Y por qué en cualquier punto de su superficie la gravedad es constante y dirigida hacia el mismo lugar?" y el otro contesta "Pues porque la tierra es redonda" los de la tierra es plana vienen a ensuciar el hilo diciendo que eso es meter mierda, que los llaman radicales gilipollas y no se cuantas exageraciones más. Lo mejor es la solución: que no se hable de la forma de la tierra. Brilliant xD
Bueno que quieres si vienes de una secta es normal que la gente no te crea.
Tierras planas, modelos geocéntricos, nebulosas más allá de Orión... A ver si alguno va a acabar con una amonestación por desviar el hilo. [risita]

A todo esto, ¿quién de los aquí presentes tiene un concepto -erróneo siquiera- de qué es una API? [ayay]
papatuelo escribió:Parece ser que al final habrá Kalise para todos.

Según el desarrollador Brad Wardell, en la última entrada de su blog, este año veremos en la GDC de lo que son capaces estas nuevas APIs. Puesto que para poder hablar sobre ellas es necesario hablar de todas las plataformas he pensado abrir este hilo en el que daremos cabida a los usuarios de PS4, XBOX ONE y PC.


Uhm jo Aqui tampoco la Wii-U??, ni por casualidad o interes!!!

Personalmente creo que algunas APIS serian mas eficientes si las desarrolla o modifica el fabricante de la consola.

El PC es distinto pues pude tragar mas y no esta cerrado o tan limitado

de la wikipedia:

Interfaz de programación de aplicaciones (IPA) o API (del inglés Application Programming Interface) es el conjunto de funciones y procedimientos (o métodos, en la programación orientada a objetos) que ofrece cierta biblioteca para ser utilizado por otro software como una capa de abstracción. Son usadas generalmente en las bibliotecas.

Besos
J_Ark escribió:Demasiados insultos.

Realmente es como si se prohibiera hablar de la forma de la tierra porque unos pocos que creen que es plana se cabrean de lo lindo cuando alguien dice que es redonda. Y cuando alguien pregunta: "¿Y por qué en cualquier punto de su superficie la gravedad es constante y dirigida hacia el mismo lugar?" y el otro contesta "Pues porque la tierra es redonda" los de la tierra es plana vienen a ensuciar el hilo diciendo que eso es meter mierda, que los llaman radicales gilipollas y no se cuantas exageraciones más. Lo mejor es la solución: que no se hable de la forma de la tierra. Brilliant xD


Básicamente estás dando a entender que, o se piensa como tu, o están equivocados.

Perfecto, ¿y para qué queremos el foro si ya tenemos la respuesta a cada duda en tus comentarios/afirmaciones? Con lo simple que sería crear un subforo llamado "Dogma de fe J_Ark" y que ahí fueras poniendo lo que debe la gente o no opinar sobre diversos asuntos, nos ahorraríamos leer peleas, y todos sabríamos lo que debemos comprar, pensar y creer en cada momento.

Brilliant.
Nuhar escribió:Alguien tiene algun enlace sobre mejoras del opengl o rumores o algo? Estoy totalmwnte perdido en este tema.


Buenas gente. Antes de q se lie del todo, se sabe muy muy poco de OpenGL NG (de hecho no se sabe ni el nombre, el Khronos Group tiene un formulario para q participes en ponerle nombre, yo ya lo he rellenado XD ). De lo poco q se sabe esto:

https://www.khronos.org/assets/uploads/ ... _Dec14.pdf
http://www.anandtech.com/show/8363/khro ... initiative

No obstante como digo en mi mensaje...visto el chasco q supuso la versión 3.0 prefiero esperarme y ver si realmente son capaces de romper con todo y empezar de cero. Yo me daría con un canto en los dientes si se empezara de cero de verdad (ruptura con las versiones anteriores, no retrocompatibilidad), si se unificara escritorio y mobile (OpenGL ES 3.1 con el AEP es practicamente la versión de escritorio) y si se pareciera a Mantle todo lo q puedan XD.

Un saludo.
Hasta aquí...
Una cosa es que haya algo de off-topic a raiz del hilo, y otra que os pongáis a debatir qué se puede o no se puede comentar en Multiplataforma, y de quién es culpa.
Para cualquier duda tenéis Feedback, dejad este hilo para hablar sobre su temática, y haced el favor de aparcar las rencillas personales.
eloskuro está baneado del subforo por "flames"
Polyteres escribió:
Nuhar escribió:Alguien tiene algun enlace sobre mejoras del opengl o rumores o algo? Estoy totalmwnte perdido en este tema.


Buenas gente. Antes de q se lie del todo, se sabe muy muy poco de OpenGL NG (de hecho no se sabe ni el nombre, el Khronos Group tiene un formulario para q participes en ponerle nombre, yo ya lo he rellenado XD ). De lo poco q se sabe esto:

https://www.khronos.org/assets/uploads/ ... _Dec14.pdf
http://www.anandtech.com/show/8363/khro ... initiative

No obstante como digo en mi mensaje...visto el chasco q supuso la versión 3.0 prefiero esperarme y ver si realmente son capaces de romper con todo y empezar de cero. Yo me daría con un canto en los dientes si se empezara de cero de verdad (ruptura con las versiones anteriores, no retrocompatibilidad), si se unificara escritorio y mobile (OpenGL ES 3.1 con el AEP es practicamente la versión de escritorio) y si se pareciera a Mantle todo lo q puedan XD.

Un saludo.


Gracias por el aporte. Supongo que el momento oportuno de mostrar todas las cartas de DX12, mantle 2.0 y OpenGL NG (me gusta el nombre) será el GDC verdad? Del 2 al 6 de marzo.
No creo que OpenGL Next se muestre en la GDC, tiene pinta de que hasta el año que viene no tendrán nada.
¿Y opengl tiene ya o va a recibir algun tipo de mejora para parecerse a Mantle o Directx 11.3? Me refiero mas que nada a la mejora de drawcalls en la cpu.
josemurcia escribió:No creo que OpenGL Next se muestre en la GDC, tiene pinta de que hasta el año que viene no tendrán nada.

Según lo que dice Brad Wardell en el OP hay algo maravilloso que va a suceder en el desarrollo de juegos y lo veremos en la GDC y afectará a todos. A saber. Yo, estas afirmaciones hypeantes, me las suelo tomar con una buena dosis de escepticismo porque puede ser cualquier cosa y probablemente nada revolucionario.

El desarrollo en consolas va mejorando poco a poco progresivamente. Y los grandes saltos en los resultados, desde mi punto de vista, van más por el tema artístico y lógico de saber optimizar lo que se tiene que no por un salto repentino en las capacidades técnicas. Es decir, para mí es más importante saber bien donde gastas los recursos, donde pones los detalles y donde ahorras poniendo la textura fea que no un aumento del 10% en potencia disponible, por ejemplo.
Buenas gente. @eloskuro pues la verdad no tengo ni idea XD. En la página de la GDC ya se pueden ver las conferencias q va a haber (aún no está cerrado creo). Supongo q Microsoft presentará con mucho bombo y platillo su flamante API, como es habitual en el, en un evento a parte (pero como digo solo supongo). En teoría Mantle debe ser la primera en salir. Lleva bastante tiempo en beta cerrada y dijeron q a principios de este año se lanzaría pero...

Con respecto a OpenGL NG o como se acabe llamando, yo apuesto por el Siggraph. Ojalá me equivoque y sea antes... Luego dependerá de la prisa que se den los fabricantes de hardware con sus drivers.

Nuhar escribió:¿Y opengl tiene ya o va a recibir algun tipo de mejora para parecerse a Mantle o Directx 12? Me refiero mas que nada a la mejora de drawcalls en la cpu.


Fixed. Y si por supuesto:

Imagen

Imagen


Un saludo.
Cuando es la dichosa GDC?
eloskuro está baneado del subforo por "flames"
Espero que os sea de utilidad. Yo entiendo el decimonoveno de todo esto, siendo generoso xD

Posibles caracteristicas de Opengl NG y conclusiones interesantes sobre el paralelismo y el nuevo hardware venidero

http://www.g-truc.net/doc/Candidate%20features%20for%20OpenGL%205.pdf
Por cierto; ¿esta tendencia hacia la paralelización y GPGPU es debido a las nuevas consolas o las nuevas consolas fueron diseñadas así porque ya se sabia que el futuro iba a ir en esa dirección?
Lo segundo. De hecho en PC se lleva practicando bastante tiempo el GPGPU con cosas como Physics y TressFX.
OK. Esperemos que mejoren también el rendimiento, que esas cosas consumen bastantes recursos de la gráfica.

Bueno, el Physx hace un tiempo que le he perdido la pista, igual ahora es bastante menos tragón que en sus inicios.
Llevando una APU y encima con memoria unificada es lo más natural. Se busca la computación heterogénea.
http://es.thefreedictionary.com/heterogénea
heterogéneo, -nea adj. Que está formado por elementos de distinta clase o naturaleza.
No se que pinta esto que se a puesto de moda .
Apu , CPU de gama baja y GPU de gama baja/media--media , memoria unificada y saturada , veo que algunos el tema apu se lo an vendido muy bien sony y microsoft , pero en pc con CPU buenas , GPU buenas y memorias buenas también se puede hacer GPGPU , las apu de consola son lo que son y no hacen milagros ni tienen hardware extraterestre .
eloskuro está baneado del subforo por "flames"
nanoxxl escribió:http://es.thefreedictionary.com/heterogénea
heterogéneo, -nea adj. Que está formado por elementos de distinta clase o naturaleza.
No se que pinta esto que se a puesto de moda .
Apu , CPU de gama baja y GPU de gama baja/media--media , memoria unificada y saturada , veo que algunos el tema apu se lo an vendido muy bien sony y microsoft , pero en pc con CPU buenas , GPU buenas y memorias buenas también se puede hacer GPGPU , las apu de consola son lo que son y no hacen milagros ni tienen hardware extraterestre .


Exacto, les sirve para ahorrar costes mas que nada. De todas formas se les puede sacar mucha chicha aún.
Polyteres escribió:...


Fixed no, la 11.3 mejora las drawcalls al igual que hace Mantle 1.

Otra cosa que Dx12 haga un monton de cosas mas o lo mejore aún más, pero no lo he metido porque aún no tenemos toda la información en la mano y no quiero especular de más.

Bueno, por ahora vamos a ver que dicen esta tarde, a ver si sueltan alguna cosita (poco me imagino) y luego a esperar a las diferentes conferencias para ver en que se traducen estas nuevas Apis.
eloskuro escribió:Exacto, les sirve para ahorrar costes mas que nada. De todas formas se les puede sacar mucha chicha aún.

Eso espero , pero también pienso que las consolas y los pc son distintos , las mejoras del dx12 en pc no sera lo mismo a xboxone , es mas depende del pc las mejores no serán igual entre dos pc distintos , a ver que mejoras trae pero esas CPU y GPU de las consolas necesitan mucha optimización , las consolas están muy limitadas y el pc evoluciona muy rápido ( ddr4 y gddr6 ) , las nuevas api se verán al 100% en pc buenos
nanoxxl escribió:
eloskuro escribió:Exacto, les sirve para ahorrar costes mas que nada. De todas formas se les puede sacar mucha chicha aún.

Eso espero , pero también pienso que las consolas y los pc son distintos , las mejoras del dx12 en pc no sera lo mismo a xboxone , es mas depende del pc las mejores no serán igual entre dos pc distintos , a ver que mejoras trae pero esas CPU y GPU de las consolas necesitan mucha optimización , las consolas están muy limitadas y el pc evoluciona muy rápido ( ddr4 y gddr6 ) , las nuevas api se verán al 100% en pc buenos


La mejora es proporcional a la potencia. Logicamente donde mas haya mas se puede sacar.

No se porque algunos os emperrais en que en Xbox one no va a haber casi mejora... suena muy "raro" esa postura.
GDDR6!?!?!?

Stacked Memory. Ese es el futuro de las memorias de GPUs.

La cual ayudará a tener unas mejores latencias, mayor interfaz de la memoria y mejores consumos.

Las GPUs next gen también buscarán la forma de mejorar la coherencia con la CPU. Dx12, mantle y futuras APIs seguro q tienen cambios en el manejo de las menorías.
Nuhar escribió:
nanoxxl escribió:
eloskuro escribió:Exacto, les sirve para ahorrar costes mas que nada. De todas formas se les puede sacar mucha chicha aún.

Eso espero , pero también pienso que las consolas y los pc son distintos , las mejoras del dx12 en pc no sera lo mismo a xboxone , es mas depende del pc las mejores no serán igual entre dos pc distintos , a ver que mejoras trae pero esas CPU y GPU de las consolas necesitan mucha optimización , las consolas están muy limitadas y el pc evoluciona muy rápido ( ddr4 y gddr6 ) , las nuevas api se verán al 100% en pc buenos


La mejora es proporcional a la potencia. Logicamente donde mas haya mas se puede sacar.

No se porque algunos os emperrais en que en Xbox one no va a haber casi mejora... suena muy "raro" esa postura.

Hombre. Si el propio Phil Spencer dijo hace unos meses que "directx12 no supondrá un gran cambio para Xbones" yo le creo, ¿tú no?
unknown escribió:
Nuhar escribió:La mejora es proporcional a la potencia. Logicamente donde mas haya mas se puede sacar.

No se porque algunos os emperrais en que en Xbox one no va a haber casi mejora... suena muy "raro" esa postura.

Hombre. Si el propio Phil Spencer dijo hace unos meses que "directx12 no supondrá un gran cambio para Xbones" yo le creo, ¿tú no?

Para "raro" lo que piensa tito Phil sobre el asunto, rarísimo dirio yo [+risas]
A ver que dice hoy el tito Phil sobre los juegos de PC.
Nuhar escribió:
nanoxxl escribió:
eloskuro escribió:Exacto, les sirve para ahorrar costes mas que nada. De todas formas se les puede sacar mucha chicha aún.

Eso espero , pero también pienso que las consolas y los pc son distintos , las mejoras del dx12 en pc no sera lo mismo a xboxone , es mas depende del pc las mejores no serán igual entre dos pc distintos , a ver que mejoras trae pero esas CPU y GPU de las consolas necesitan mucha optimización , las consolas están muy limitadas y el pc evoluciona muy rápido ( ddr4 y gddr6 ) , las nuevas api se verán al 100% en pc buenos


La mejora es proporcional a la potencia. Logicamente donde mas haya mas se puede sacar.

No se porque algunos os emperrais en que en Xbox one no va a haber casi mejora... suena muy "raro" esa postura.

Porque creemos que Xbox One no usa DX 11 con Windows ni Ps4 FreeBSD con OpenGL, sino que se curraron APIs derivadas de dichos lenguajes y con suficientes cambios orientados al hard específico de la plataforma como para que los cambios que están por llegar sean anecdóticos respecto a las APIs de consola pero no de las APIs de ordenador.

Otra cosa es que algo puedan rascar.
eloskuro está baneado del subforo por "flames"
http://gamingbolt.com/3-game-changing-technologies-for-xbox-one-that-microsoft-can-showcase-at-windows-10-event


The next generation of graphics API from Microsoft, DirectX 12 has a ton of potential. Microsoft will be reportedly showing off its integration with the Windows 10 platform. GamingBolt has spoken to a lot of developers in the past regarding how DX12 could help change the scene of PC and Xbox One games development and much of the response has been positive. DX12 is a game changer and it could potentially bring CGI visuals on Xbox One.

We have already seen implementations of DX12 in several demonstrations such as Forza Motorsport 5 and Futuremark Benchmark (see video above), and there is no doubt that the CPU overhead is reduced by several percentages. Let us hope that Microsoft will be talking about it even more during the Windows 10 event.


Yo creo que programar a bajo nivel está bien, pero DX12 y mantle, a parte de eso, consiguen equilibrar los accesos a los nucleos de una manera eficiente. Tanto de GPU, como de CPU y su comunicación entre ellos.

¿Que un porron de ingenieros pueden hacer lo mismo o mejro a bajo nivel en las consolas actuales? Si, pero a ver quien es el guapo que paga la millonada que costaría eso. Nadie... salvo los first de turno.

Imagen

Por eso dice Phill que abre mas capacidades para los devs en xbo
Imagen
Mapache Power escribió:OK. Esperemos que mejoren también el rendimiento, que esas cosas consumen bastantes recursos de la gráfica.

Bueno, el Physx hace un tiempo que le he perdido la pista, igual ahora es bastante menos tragón que en sus inicios.

No es que Physx sea tragón especialmente, es que los cálculos que realiza son muy pesados. Que algo sea más eficiente de calcular en la GPU no quiere decir que el coste de realizarlo sea mínimo, puede ser muy grande en la GPU e imposible de hacer con la CPU.

Han vendido la moto mucho con el GPGPU cuando no creo que vaya a hacer magia, si que permitirá hacer cosas que antes no se podían pero si te llevas todos los cálculos posibles a la GPU al final te quedas sin tiempo para gráficos.
josemurcia escribió:
Mapache Power escribió:OK. Esperemos que mejoren también el rendimiento, que esas cosas consumen bastantes recursos de la gráfica.

Bueno, el Physx hace un tiempo que le he perdido la pista, igual ahora es bastante menos tragón que en sus inicios.

No es que Physx sea tragón especialmente, es que los cálculos que realiza son muy pesados. Que algo sea más eficiente de calcular en la GPU no quiere decir que el coste de realizarlo sea mínimo, puede ser muy grande en la GPU e imposible de hacer con la CPU.

Han vendido la moto mucho con el GPGPU cuando no creo que vaya a hacer magia, si que permitirá hacer cosas que antes no se podían pero si te llevas todos los cálculos posibles a la GPU al final te quedas sin tiempo para gráficos.

Yo que he estado trasteando con CUDA he visto algoritmos que se arrastran en CPU volar en GPU. Usando muchos menos recursos en la gráfica puede ir tan bien como en CPU y ver como ese juego que se arrastraba por culpa de la CPU volver a tener margen de mejora.
Nuhar escribió:La mejora es proporcional a la potencia. Logicamente donde mas haya mas se puede sacar.

No se porque algunos os emperrais en que en Xbox one no va a haber casi mejora... suena muy "raro" esa postura.

Dice lo a quien diga eso , que mejora ? Si , pero como tu dices depende del hardware y xboxone con una CPU de gama baja y una GPU de gama baja/media que espera ?
nanoxxl escribió:
Nuhar escribió:La mejora es proporcional a la potencia. Logicamente donde mas haya mas se puede sacar.

No se porque algunos os emperrais en que en Xbox one no va a haber casi mejora... suena muy "raro" esa postura.

Dice lo a quien diga eso , que mejora ? Si , pero como tu dices depende del hardware y xboxone con una CPU de gama baja y una GPU de gama baja/media que espera ?


El problema es de que porcentaje estamos hablando, porque Misterx habla de casi 400% mientras que Brad habla del 50-100% (no se cual de las dos es con tanto post :P ), de aqui lo que dijo Phil Spencer, que lo clarifico en una entrevista a posteriori. Yo creo que rondará el 10-20%.

El caso es que precisamente en consolas es donde más se notará la mejora de drawcalls ya que son las Cpu lo que mas problemas dan, como ejemplo tenemos el Unity y que seguramente con el nuevo opengl que distribuya mejor los hilos podría llegar muchisimo mas alto en PS4 que yo creo que le hizo un poco cuello de botella y no se pudo utilizar mejor la GPU (posiblemente este diciendo una barbaridad).

El caso es que tenemos pruebas realizadas en dispositvos que no son un PC:

https://www.youtube.com/watch?v=yVdXy7t9oJs

Por otro lado, en un PC se notará siempre que este equilibrado, metele a un dual core una titan a ver que pasa :P , se supone que las consolas suelen estar bien proporcionadas, se supone jajaja.
Las CPU de consolas son malas , pero las GPU no son mucho mejor , quitar tareas a las CPU para pasarlas a GPU esa bien , otra cosa es ver esa GPU si tiran bien o se saturan por falta de potencia , las demo están bien pero no son juegos
nanoxxl escribió:Las CPU de consolas son malas , pero las GPU no son mucho mejor , quitar tareas a las CPU para pasarlas a GPU esa bien , otra cosa es ver esa GPU si tiran bien o se saturan por falta de potencia , las demo están bien pero no son juegos

Las GPU son varias ordenes de magnitud mejores que las CPUs, sobretodo en cálculos paralelizables. Si te refieres a que las GPUs de consola no son ninguna maravilla en comparación a los PCs es correcto, caja de zapatos FTW.
Según parece para que rente derivar algo a GPGPU es recomendable que sea paralelizable-64, es decir, que al menos se puedan tener 64 "trozos" de ese cálculo computándose a la vez. Algo tipo un dato-computa-otro dato-computa...eso mata al GPGPU y la CPU será incluso más eficiente. Y si se tienen datos lineales, pero no muy paralelizables, seguramente la CPU con su SIMD sea más eficiente también que la GPU.
eloskuro está baneado del subforo por "flames"
Interestes comentarios de AMD:

However, PC GPUs still rely on DDR3 RAM. What kind of bottlenecks does this create for the system and can DDR4 memory help resolve it? GamingBolt spoke to AMD head of global technical marketing Robert Hallock on the same.
"“I do not believe DDR3 memory presents any sort of bottleneck to a modern graphics card. CPU-bound scaling is a function of the game’s API calls on the producer thread vs. the CPU’s ability to prepare those calls in the command buffer for the GPU’s consumer thread. Memory doesn’t play much of a role there.”

http://gamingbolt.com/amd-exec-ddr3-memory-not-a-bottleneck-12-gb-gpus-wont-become-the-standard-anytime-soon
eloskuro escribió:Interestes comentarios de AMD:

However, PC GPUs still rely on DDR3 RAM. What kind of bottlenecks does this create for the system and can DDR4 memory help resolve it? GamingBolt spoke to AMD head of global technical marketing Robert Hallock on the same.
"“I do not believe DDR3 memory presents any sort of bottleneck to a modern graphics card. CPU-bound scaling is a function of the game’s API calls on the producer thread vs. the CPU’s ability to prepare those calls in the command buffer for the GPU’s consumer thread. Memory doesn’t play much of a role there.”

http://gamingbolt.com/amd-exec-ddr3-memory-not-a-bottleneck-12-gb-gpus-wont-become-the-standard-anytime-soon

Que la memoria RAM ( ddr3 ) no tiene influencia por que las nuevas GPU tendrán 12GB gddr4 ..
AMD Exec: DDR3 Memory Not A Bottleneck, 12 GB GPUs Won’t Become The Standard Anytime Soon


Muy interesante .....
Buenas gente. @Nuhar no, el fixed está correcto. No puedes comparar Mantle con DirectX 11.3, una es una API "a bajo nivel" y otra es una continuación de lo q ya hay. DirectX 11.3 lo q hace es traer las nuevas características que los fabricantes de hardware han anunciado a una revisión de DirectX 11, como por ejemplo el raster conservativo.

Mantle/DirectX12/OpenGL NG por un lado y OpenGL/ES 4.x-3.x/DirectX 11.x por otro. Para conseguir esa reducción del overhead, entre otras muchas cosas, necesitas dejar a la aplicación el manejo de muchas de las tareas que ahora mismo esta haciendo el driver. Esto acarrea ventajas (menor overhead y posiblidad de "hablar" mas directamente con el hardware) pero tb complica la vida pq eres tú el q tiene q lidiar por ejemplo con la sincronización de un recurso compartido. Para los q no se quieran complicar pero si quieran usar las nuevas características de hardware ahí tendrán DirectX 11.3 (u OpenGL 4.5 con sus extensiones), para el q quiera ir más allá...que elija entre las distintas APIs que vendrán.

El problema que veo es q no se q es lo q la gente se cree q es una API [+risas] .

Características que tendrá DirectX 12 ya disponibles en OpenGL mediante extensiones, el hardware dicta que puedes hacer, el software es una herramienta:

https://developer.nvidia.com/gameworks-opengl-samples

Nuhar escribió:El problema es de que porcentaje estamos hablando, porque Misterx habla de casi 400% mientras que Brad habla del 50-100% (no se cual de las dos es con tanto post :P ), de aqui lo que dijo Phil Spencer, que lo clarifico en una entrevista a posteriori. Yo creo que rondará el 10-20%.

El caso es que precisamente en consolas es donde más se notará la mejora de drawcalls ya que son las Cpu lo que mas problemas dan, como ejemplo tenemos el Unity y que seguramente con el nuevo opengl que distribuya mejor los hilos podría llegar muchisimo mas alto en PS4 que yo creo que le hizo un poco cuello de botella y no se pudo utilizar mejor la GPU (posiblemente este diciendo una barbaridad).


Si tu juego es CPU-bound pq estás intentando dibujar miles de elementos en pantalla cada uno con sus características propias y de un plumazo te reducen mucho el overhead verás una ganancia de rendimiento bastante maja. Si por el contrario tu juego es GPU-bound...poco vas a rascar, pq la gráfica no da más de sí y por mucho q le eches no va a dibujar más de lo q puede.

Ps4 usa una API propietaria, poco tiene que ver con OpenGL, por lo q las mejoras que le hagan a esta API poco le van a influir. La API de Ps4 es bastante similar a Mantle, dicho por Johan Andersson de DICE, pero obviamente y al igual que la API de XboxOne, a un nivel mucho más a bajo.

eloskuro escribió:Interestes comentarios de AMD:

However, PC GPUs still rely on DDR3 RAM. What kind of bottlenecks does this create for the system and can DDR4 memory help resolve it? GamingBolt spoke to AMD head of global technical marketing Robert Hallock on the same.
"“I do not believe DDR3 memory presents any sort of bottleneck to a modern graphics card. CPU-bound scaling is a function of the game’s API calls on the producer thread vs. the CPU’s ability to prepare those calls in the command buffer for the GPU’s consumer thread. Memory doesn’t play much of a role there.”

http://gamingbolt.com/amd-exec-ddr3-mem ... ytime-soon


La CPU produce/escribe los comandos que tiene que ejecutar la GPU en una cola, command buffer, ring buffer...como quieras llamarlo xD. Luego esta se pasa a la GPU para su ejecución a través del PCIe o del canal de comunicación que se tenga. La memoria poco influye ahí, puesto q lo realmente importante es la capacidad que tenga la CPU de escribir/producir esos comandos. Si tu CPU tarda mucho en escribir estos comandos...puedes llegar a ser CPU-bound y tener la GPU paradita. No está hablando de que una GPU use DDR3, DDR4 o GDDR5 o q incluso la memoria del sistema sea DDR3 o DDR4, eso en este contexto influye poco.

Un saludo.
También puede ser que la API actual de X1 sea un truño hecho de prisa y corriendo copia de DX11 y el advenimiento de DX12 si que implique un gran cambio si deciden actualizarla. Solo que lo dudo tanto xD
@Polyteres lo de la ddr3 del articulo entiendo que la ram ddr3 actual no hace cuello de botella y en un futuro la gpu tendrán tanta memoria que no nesecitaran usar la RAM , antiguamente se dedicaba parte de la RAM como memoria de vídeo , actualmente no se
J_Ark escribió:También puede ser que la API actual de X1 sea un truño hecho de prisa y corriendo copia de DX11 y el advenimiento de DX12 si que implique un gran cambio si deciden actualizarla. Solo que lo dudo tanto xD


Si eso fuera cierto y con la basura de CPU que tiene no podría mover los juegos de forma tan pareja a PS4.

Pero vamos, que las declaraciones de Brad Wardell poniendo a Mantle por las nubes 1 año después de haber salido, y diciendo que PS4 y ONE van a recibir APIs similares 2 años después no hay por donde cogerlas.
josemurcia escribió:
J_Ark escribió:También puede ser que la API actual de X1 sea un truño hecho de prisa y corriendo copia de DX11 y el advenimiento de DX12 si que implique un gran cambio si deciden actualizarla. Solo que lo dudo tanto xD


Si eso fuera cierto y con la basura de CPU que tiene no podría mover los juegos de forma tan pareja a PS4.

Pero vamos, que las declaraciones de Brad Wardell poniendo a Mantle por las nubes 1 año después de haber salido, y diciendo que PS4 y ONE van a recibir APIs similares 2 años después no hay por donde cogerlas.


No es cierto ahora, pero si lo era en la primera oleada de juegos. Los juegos que empezaron a trabajar como Dios quiere y manda en XBOX ONE son los del famosos paritygate, cuando todo el mundo dijo que se debía a los maletines.

Si echáis un ojo al SDK filtrado veréis que habla de dos drivers, el UMD y el MONO, parece ser que el UMD era un truño enorme hecho deprisa y corriendo. El mono no se libero hasta Mayo, antes estuvo en fase beta y supongo que solo lo utilizaron las first, de ahí la diferencia entre unos títulos y otros.

Así que evidentemente la diferencia sobre los primeros títulos será enorme en XBOX y no tan grande sobre los de segunda ornada.

De todas formas hablan de Driver y no de API no se por que, y dicen que el UMD era básicamente software de PC con elementos legacy incluido. El mono daba más rendimiento, pero si es un driver no es un API y puede que el API fuera el mismo.

Perdonar mi incultura y aclarar lo que debáis.
josemurcia escribió:
J_Ark escribió:También puede ser que la API actual de X1 sea un truño hecho de prisa y corriendo copia de DX11 y el advenimiento de DX12 si que implique un gran cambio si deciden actualizarla. Solo que lo dudo tanto xD


Si eso fuera cierto y con la basura de CPU que tiene no podría mover los juegos de forma tan pareja a PS4.

Pero vamos, que las declaraciones de Brad Wardell poniendo a Mantle por las nubes 1 año después de haber salido, y diciendo que PS4 y ONE van a recibir APIs similares 2 años después no hay por donde cogerlas.

Por eso lo dudo tanto xD
J_Ark escribió:
josemurcia escribió:
J_Ark escribió:También puede ser que la API actual de X1 sea un truño hecho de prisa y corriendo copia de DX11 y el advenimiento de DX12 si que implique un gran cambio si deciden actualizarla. Solo que lo dudo tanto xD


Si eso fuera cierto y con la basura de CPU que tiene no podría mover los juegos de forma tan pareja a PS4.

Pero vamos, que las declaraciones de Brad Wardell poniendo a Mantle por las nubes 1 año después de haber salido, y diciendo que PS4 y ONE van a recibir APIs similares 2 años después no hay por donde cogerlas.

Por eso lo dudo tanto xD



Brad wardell lleva poniendo a mantle por la nubes desde que salio ¬_¬

Estaba implicado en el bench Star Swarm pensado precisamente para demostrar el verdadero potencial de Mantle y siempre ha dicho que Mantle era aun más potente que Directx 12. Asi que eso de que un año despúes...

Sencillamente no es cierto.
189 respuestas
1, 2, 3, 4