Hablemos del interior de Xbox One

No te equivoques, no son los desarrolladores los que tiran de resolución para sacar pecho y si no lee

CD Projekt: La diferencia entre 720p y 1080p es puro marketing

Estamos aún trabajando en cómo sacarle todo el jugo a las consolas, y Microsoft nos está ayudando en ese tema. Sobre si va a ser 720p o 1080p, tuvimos un debate en el estudio al respecto de este asunto y de hecho le pedimos a los chicos de tecnología que nos explicaran como funciona. Me mandaron algunas gráficas complejos con cosas como 'si tengo este tamaño de pantalla y me siento a un metro o dos de distancia, entonces podré ver la diferencia.'

Es más una diferenciación para PRs, algo que es muy importante para Sony ahora mismo —y que están usando, obviamente—, que algo realmente significativo para los jugadores.


http://www.anaitgames.com/noticias/cd-projekt-la-diferencia-entre-720p-y-1080p-es-puro-marketing
Sin ir mucho mas lejos para no convertirse esto en una guerra, Sony vende televisores, le interesa todo este tema de resoluciones, es algo logico, cada uno mira por sus intereses y hacen muy bien en hacerlo.

Por otro lado, si que hay diferencia entre 720p y 1080p, y si que alguien "experto" lo puede notar, pero el caso que nos ocupa es que son reescalados y que tampoco en todos los casos la diferencia de resoluciones es tanta como el de ese ejemplo.

Hay muchas otras cosas q se notan mucho mas y pocos lo dicen.
Os olvidais que hablais de consolas, consolas de hoy. Aparatos pensados para que los compre en masa el usuario medio con el minimo coste posible que consiga cubrir lo basico.

Algunos sinceramente parece que hableis de otra cosa totalmente diferente, o que os hayan cobrado otro precio.

Nuhar escribió:Por otro lado, si que hay diferencia entre 720p y 1080p, y si que alguien "experto" lo puede notar, pero el caso que nos ocupa es que son reescalados y que tampoco en todos los casos la diferencia de resoluciones es tanta como el de ese ejemplo.

Eso se nota facil, pero el caso es que esa diferencia no es ni muchisimo menos el caso que nos ocupa, ni reescalado ni sin reescalar, asi que es tonteria debatirla.
Zokormazo escribió:Pero no te extraña que un hardware tan customizado, con tantos chips para offloads y demas, y que se diseño desde el principio como una maquina a estar siempre en idle/stand-by consuma tanto para reproducir un simple video?

A mi si, una barbaridad xD Esperaba un consumo mucho mejor en tareas especificas como la de reproduccion de video.

Lo voy a explicar. Tienes que hacer una máquina de uso global, no sólo multimedia, por lo tanto debes buscar lo óptimo en relación potencia/consumo/precio. Bien para tal fin lo más óptimo es el uso de una APU para todo, es lo más eficiente para un uso general global.

Ahora bien, hablemos de multimedia.
1) ¿Qué montas?, si montas algo en plan R.Pi que va justo para el 1080p te quedas corto para el blu-ray 3D, que requiere el doble de fps (para alternar), con lo cual tirando el multimedia de la APU no sólo tienes para el 3D, sino para lo que pudiera venir después. Con lo cual es más flexible y abierto.
2) Supongamos que montamos algo no tan justo, aparte de la duplicidad hay que adaptar la placa y sus buses para añadir eso. Bien, supongamos que el coste del conjunto (adaptar y componentes) fueran unos 40€, para todo eso no me parece exagerado. Pues resulta que con esos 40€ le puedes meter un subidón por ejemplo a la GPU bastante importante. Explica por qué esos 40€ los has usado sólo para reducir el consumo del multimedia y no en aumentar la GPU.

Con esto, el día que a la gente le de igual pagar lo que sea por ponerlo todo, pues OK, lo harán. Igualmente, el día que este tipo de gestión de energía de aislamiento total de componentes se pueda integrar en una APU que no sea de ultra-portátil, también OK. Pero mientras no sea así, lo óptimo para un uso global es tirar para todo de lo que haga la APU, e invertir cada $ de más en incrementar dicha APU y lo que le rodea (memoria, buses, etc.).

Distinto es el caso del chip de sonido, que desde siempre ha sido un componente individual. Dado esto, mientras más cosas haga dicho chip pues mejor, más eficiente que encargárselo a la APU. Idem con el resto de coprocesadores si al fin y al cabo se van a usar en la arquitectura, no suponen duplicidades, y al mismo tiempo suponen una mayor eficiencia que cargárselo a la APU.
@darksch: pues eso, lo que decia, el bajo consumo en estados de baja carga no ha sido un objetivo, habia otros objetivos que primaban mas. Pero no por ello es tecnologicamente imposible conseguir un alto rendimiento en carga a la vez que un bajo consumo en estados de idle/baja carga.

Personalmente, siendo una maquina diseñada para que este 24/7 encendido opino que tiene que tener muy en cuenta su consumo en estados de carga bajos/cuasi-inexistentes, puesto que estara en esos estados la gran mayoria del tiempo y tanto el consumo de electricidad como el calor como la vida util del aparato tendran mejoras sustanciales cuidando ese consumo.

Se ve que para microsoft no ha sido un objetivo.

Ojo, que no opino lo mismo de una consola diseñada para apagarlo. Pero no es el caso. Estamos hablando de un dispositivo diseñado con la premisa del always-online y asistente de tv en mente. Es lo que no me cuadra.
http://www.elotrolado.net/viewtopic.php?p=1735932878

Para consumir menos no se debería depender de la APU para multimedia, sino tener algo aparte, y "apagar" la APU mientras se reproduce. Sin embargo esto encarecería más el producto, porque la parte multimedia de la APU hace falta para juegos por lo que habría duplicidades.


Creo que ya es que ni se me lee [triston]

Lo que querías de tener tecnología no ultra-portátil y sin embargo su gestión de energía, pues aa de hoy no es posible, tal y como dije. Que no existe vamos.
La tecnologia existe, opciones tambien. Si se hubieran empeñado en crear una consola que en idle consumiera menos de 15watts y que a full diese 3teraflops lo habrian hecho. Acaso no podrian hacer un SoC 8+2 donde los 2 sean de bajo consumo y entren en juego solo en estados de baja carga apagando los 8 cores jaguar? Se hace en arm, y es perfectamente viable hacerlo en x86. Pero no era el objetivo ni entraba en el presupuesto. Punto.

El que no exista tal aplicacion concreta no significa que no sea posible desarrollarlo. Tampoco existe ningun otro SoC como el de la xboxone, con esa configuracion y no ha sido ningun impedimento para desarrollarlo. Han cogido de aqui y alla y han montado eso, lo que querian montar.
Zokormazo escribió: Acaso no podrian hacer un SoC 8+2 donde los 2 sean de bajo consumo y entren en juego solo en estados de baja carga apagando los 8 cores jaguar?

AMD no tiene ningún SoC de 8 , son 4+4 , o eso tengo entendido
Imagen
buenas a todos

no soy un experto en esto del hard aunque como a muchos por aqui me gusta aprender

yo solo digo esto: cuando se hablo del hard de la xbox 360 se menciono que estaba basado en la serie X1800 de Ati, pero que sucedio, salio con Shaders Unificados, algo que hasta esa fecha no se habia hecho y M$ junto con AMD hisieron algo tan importante e interesante y que ahora es tan comun que lo podemos pasar por alto, aparte de eso, esa misma GPU (la de la xbox 360) venia preparada para DX 9 sin embargo en su momento se dijo que tenia algunas api's de DX 10, entonces, cuando se empezo a desarrollar la xbox 360? y cuando salio el DX10?

a que me refiero con esto, yo veo perfectamente viable que M$ haya hecho algo mas en el Soc de la One de lo que nosotros sepamos, lo hiso antes con sus consolas, porque no lo podria hacer ahora? que estaba buscando rendimiento optimo/consumo/capacidad? pues puede ser que si, no creo que le hayan metido tanto co-procesador extra para nada

al final creo que la competencia si puede ser mas potente, pero no creo que sea ya tan drastico como ha salido hasta ahora (50-60%) lo que si no entiendo es el porque MS que venia simplificando el desarrollo de soft para una consola sea ahora la que tiene el "hard Complicado" pero buee, yo no lo entiendo, mientras las desarrolladoras lo entiendan es lo importante
fabrihn escribió:buenas a todos

no soy un experto en esto del hard aunque como a muchos por aqui me gusta aprender

yo solo digo esto: cuando se hablo del hard de la xbox 360 se menciono que estaba basado en la serie X1800 de Ati, pero que sucedio, salio con Shaders Unificados, algo que hasta esa fecha no se habia hecho y M$ junto con AMD hisieron algo tan importante e interesante y que ahora es tan comun que lo podemos pasar por alto, aparte de eso, esa misma GPU (la de la xbox 360) venia preparada para DX 9 sin embargo en su momento se dijo que tenia algunas api's de DX 10, entonces, cuando se empezo a desarrollar la xbox 360? y cuando salio el DX10?

a que me refiero con esto, yo veo perfectamente viable que M$ haya hecho algo mas en el Soc de la One de lo que nosotros sepamos, lo hiso antes con sus consolas, porque no lo podria hacer ahora? que estaba buscando rendimiento optimo/consumo/capacidad? pues puede ser que si, no creo que le hayan metido tanto co-procesador extra para nada

al final creo que la competencia si puede ser mas potente, pero no creo que sea ya tan drastico como ha salido hasta ahora (50-60%) lo que si no entiendo es el porque MS que venia simplificando el desarrollo de soft para una consola sea ahora la que tiene el "hard Complicado" pero buee, yo no lo entiendo, mientras las desarrolladoras lo entiendan es lo importante


Ten claro q lo han hecho otra vez. La diferencia esta gen es q esta basado en x86, arquitectura muy conocida. Y rápidamente le han puesto simils.

Ahora es como el fútbol, todo el mundo entiende.....
(mensaje borrado)
(mensaje borrado)
@Zokormazo otra vez, lee el quote que he puesto, más directo no se puede.

Es lo 1º que puse, y que había duplicidades, y ESO NO SE PUEDE HACER, porque se te va el coste de la máquina. Para uso global hay que centralizarlo. Y otra vez lo mismo, rendimiento y consumo en 1 único componente, no existe.

Lo tendré que escribir en arameo.
De la entrevista a Crytek

http://gamingbolt.com/the-big-interview-crytek-talks-about-cryengine-dx12-cloud-and-optimizing-games-for-new-consoles

Rashid Sayed: Xbox One has on an on board audio processor. How does CRYENGINE utilizes that? Furthermore, How does CRYENGINE tackle a situation where there is no audio processor, for example the PlayStation 4?

Sean Tracy: The xma and now the newer wxma format are proprietary xbox codecs for compressed audio. They basically have audio processing power set aside so that it doesn’t use the CPU for decoding any other platform, such as the PS4 or WiiU, uses software decoding wholly depending on the CPU for decoding. The CRYENGINE technically doesn’t decode the audio as we rely on middleware packages such as FMOD or WWise for this process which are fairly standard across the industry.

Rashid Sayed: Microsoft recently announced DirectX12 and its strong push towards cloud gaming. What are your thoughts on this and what kind of benefits will this give to CryEngine, should you decide to use them?

Sean Tracy: Microsoft’s announcement of DirectX12 is very interesting to us as we are always pushing the boundaries of what is possible on current and even next gen hardware. With cloud gaming and DirectX12 it is still very early days and any of the benefits for developers would just be pure conjecture at this point, however, it should be noted that there will clearly be a benefit to players who will be able to access powerful machines and hardware through the cloud to be able to experience high end PC gaming on much less expensive setups or perhaps even mobile and tablets.

This is a real force multiplier for developers. On DirectX12 any more control that is given to the developers versus relying on manufacturer drivers is in our opinion a good thing so we hope that it brings with it some benefits for leveraging the power of the hardware in new and unique ways.



Como hemos dicho otras veces, XBO tiene procesdor de audio dedicado, PS4 no. Además de que DX12 y la nube lograrán ser un boost para PC´s y XBO.

Es curioso que de lo único de lo que se habla en las noticias de las paginas webs españolas sobre esta entrevista, sea que lo de que los 8GB puedan quedarse cortas (el hombre dice que la apsada gen tuvieron el mismo problema pero lo fueron solventando bien :P )
Las webs españolas no quieren hablar del Shape ni de la nube?
eloskuro escribió:De la entrevista a Crytek

http://gamingbolt.com/the-big-interview-crytek-talks-about-cryengine-dx12-cloud-and-optimizing-games-for-new-consoles

Rashid Sayed: Xbox One has on an on board audio processor. How does CRYENGINE utilizes that? Furthermore, How does CRYENGINE tackle a situation where there is no audio processor, for example the PlayStation 4?

Sean Tracy: The xma and now the newer wxma format are proprietary xbox codecs for compressed audio. They basically have audio processing power set aside so that it doesn’t use the CPU for decoding any other platform, such as the PS4 or WiiU, uses software decoding wholly depending on the CPU for decoding. The CRYENGINE technically doesn’t decode the audio as we rely on middleware packages such as FMOD or WWise for this process which are fairly standard across the industry.


Rashid Sayed: Microsoft recently announced DirectX12 and its strong push towards cloud gaming. What are your thoughts on this and what kind of benefits will this give to CryEngine, should you decide to use them?

Sean Tracy: Microsoft’s announcement of DirectX12 is very interesting to us as we are always pushing the boundaries of what is possible on current and even next gen hardware. With cloud gaming and DirectX12 it is still very early days and any of the benefits for developers would just be pure conjecture at this point, however, it should be noted that there will clearly be a benefit to players who will be able to access powerful machines and hardware through the cloud to be able to experience high end PC gaming on much less expensive setups or perhaps even mobile and tablets.

This is a real force multiplier for developers. On DirectX12 any more control that is given to the developers versus relying on manufacturer drivers is in our opinion a good thing so we hope that it brings with it some benefits for leveraging the power of the hardware in new and unique ways.



Como hemos dicho otras veces, XBO tiene procesdor de audio dedicado, PS4 no. Además de que DX12 y la nube lograrán ser un boost para PC´s y XBO.

Es curioso que de lo único de lo que se habla en las noticias de las paginas webs españolas sobre esta entrevista, sea que lo de que los 8GB puedan quedarse cortas (el hombre dice que la apsada gen tuvieron el mismo problema pero lo fueron solventando bien :P )
Las webs españolas no quieren hablar del Shape ni de la nube?



Que mania hay comparativa con Ps4 todo el rato, muchas veces me da la sensación de que la gente intenta justificar su compra mas que otra cosa... por que madre mia no se cuantas paginas se lleva ya para hablar siempre de lo mismo... solo digo que este hilo no es un Vs. de una contra otra y siempre las comparaciones son odiosas, que cada uno disfrute con lo que tiene y listo, las maquinas son las que son, y montan el hard que montan.

Saludos compañeros.
eloskuro escribió:De la entrevista a Crytek

http://gamingbolt.com/the-big-interview-crytek-talks-about-cryengine-dx12-cloud-and-optimizing-games-for-new-consoles

Rashid Sayed: Xbox One has on an on board audio processor. How does CRYENGINE utilizes that? Furthermore, How does CRYENGINE tackle a situation where there is no audio processor, for example the PlayStation 4?

Sean Tracy: The xma and now the newer wxma format are proprietary xbox codecs for compressed audio. They basically have audio processing power set aside so that it doesn’t use the CPU for decoding any other platform, such as the PS4 or WiiU, uses software decoding wholly depending on the CPU for decoding. The CRYENGINE technically doesn’t decode the audio as we rely on middleware packages such as FMOD or WWise for this process which are fairly standard across the industry.

Rashid Sayed: Microsoft recently announced DirectX12 and its strong push towards cloud gaming. What are your thoughts on this and what kind of benefits will this give to CryEngine, should you decide to use them?

Sean Tracy: Microsoft’s announcement of DirectX12 is very interesting to us as we are always pushing the boundaries of what is possible on current and even next gen hardware. With cloud gaming and DirectX12 it is still very early days and any of the benefits for developers would just be pure conjecture at this point, however, it should be noted that there will clearly be a benefit to players who will be able to access powerful machines and hardware through the cloud to be able to experience high end PC gaming on much less expensive setups or perhaps even mobile and tablets.

This is a real force multiplier for developers. On DirectX12 any more control that is given to the developers versus relying on manufacturer drivers is in our opinion a good thing so we hope that it brings with it some benefits for leveraging the power of the hardware in new and unique ways.



Como hemos dicho otras veces, XBO tiene procesdor de audio dedicado, PS4 no. Además de que DX12 y la nube lograrán ser un boost para PC´s y XBO.

Es curioso que de lo único de lo que se habla en las noticias de las paginas webs españolas sobre esta entrevista, sea que lo de que los 8GB puedan quedarse cortas (el hombre dice que la apsada gen tuvieron el mismo problema pero lo fueron solventando bien :P )
Las webs españolas no quieren hablar del Shape ni de la nube?



¿Qué quiere de ir que tiene un procesador de audio dedicado? Significa que si compro unos headset stereo este procesador de audio dedicado actúa como descodificador para dar 5.1 o 7.1

No creo, pero no entiendo del tema.
Eso se puede hacer tanto por software como por hardware. No hay problema(solo que unos headset stereo nunca darán 5.1 o .71 real, creo que solo emulado). Solo que XBO no consume tantos recursos de CPU, por lo que deja libre esos recursos para otras cosas.
Tanto PS4 como XBO te dan señal de audio 5.1 y 7.1, pero necesitarias un equipo de sonido para ello. Altavoces,subwofer etc

Sgallego :

Entonces que digo? Mucha gente con lo del true audio cree que PS4 tiene un procesador dedicado a ello. Lo he leido varias veces... Solo trato de decir las cosas tal y como son en este aspecto. Que sea mejor o peor solucion eso ya queda a la interpretación de cada uno, pues PS4 tiene más GPU para aprovecharla en estos menesteres.

Si relees todo lo que he escrito en ningun momento digo que es mejor o peor, por lo que tu comentario en mi caso no tiene sentido ninguno.
@darkschr: no es que no se pueda, no es el objetivo dentro de ese presupuesto. Pero poder, tecnicamente hablando, se puede. De hecho se hace.
eloskuro escribió:Eso se puede hacer tanto por software como por hardware. No hay problema(solo que unos headset stereo nunca darán 5.1 o .71 real, creo que solo emulado). Solo que XBO no consume tantos recursos de CPU, por lo que deja libre esos recursos para otras cosas.
Tanto PS4 como XBO te dan señal de audio 5.1 y 7.1, pero necesitarias un equipo de sonido para ello. Altavoces,subwofer etc

Sgallego :

Entonces que digo? Mucha gente con lo del true audio cree que PS4 tiene un procesador dedicado a ello. Lo he leido varias veces... Solo trato de decir las cosas tal y como son en este aspecto. Que sea mejor o peor solucion eso ya queda a la interpretación de cada uno, pues PS4 tiene más GPU para aprovecharla en estos menesteres.

Si relees todo lo que he escrito en ningun momento digo que es mejor o peor, por lo que tu comentario en mi caso no tiene sentido ninguno.


Buenas, me referia a que tu comentario sobre que One si y Ps4 no...sobre chipset de audio en un post donde se habla exclusivamente de el hard de One a mi modo de ver sobra...
Saludos.
No que no se puede hacer en el mundo real. Donde el dinero importa y donde cada componente duplicado son de 2 a 4 CU.

Y sí, las comparativas son feas. Pero más feo es mentir con eso de que nos lo sacamos del ojete un chip full TrueAudio a última hora y ya es mejor que SHAPE.
A esto se ha llegado donde las noticias de portada son los vs de resolución. Mentiras, flameos, comparativas continuas y a veces absurdas...lo que queda es pasar con la rueda del ratón. Es que Sony (y sus usuarios hay que admitirlo) ayudan muy poco mintiendo más que hablan para quedar siempre por encima de los demás en todo, aunque sea más falso que Judas lo que dicen. Lo que tampoco se puede permitir es que te mientan para quedar por encima y dejarse pisotear admitiendo la farsa y dejándolo ahí. Lo que nos interesa es información, si se pudieran evitar comparativas y flameos pues mejor.
Totalmente de acuerdo, pero TODAS intentan venderte la moto igualmente...ellos lo tienen muy facil, por que como lei de un comentario por ahi... " Al fin y al cabo hay una legión ahi fuera queriendo creer..."

Saludos.
eloskuro escribió:De la entrevista a Crytek

http://gamingbolt.com/the-big-interview-crytek-talks-about-cryengine-dx12-cloud-and-optimizing-games-for-new-consoles

Rashid Sayed: Xbox One has on an on board audio processor. How does CRYENGINE utilizes that? Furthermore, How does CRYENGINE tackle a situation where there is no audio processor, for example the PlayStation 4?

Sean Tracy: The xma and now the newer wxma format are proprietary xbox codecs for compressed audio. They basically have audio processing power set aside so that it doesn’t use the CPU for decoding any other platform, such as the PS4 or WiiU, uses software decoding wholly depending on the CPU for decoding. The CRYENGINE technically doesn’t decode the audio as we rely on middleware packages such as FMOD or WWise for this process which are fairly standard across the industry.

Rashid Sayed: Microsoft recently announced DirectX12 and its strong push towards cloud gaming. What are your thoughts on this and what kind of benefits will this give to CryEngine, should you decide to use them?

Sean Tracy: Microsoft’s announcement of DirectX12 is very interesting to us as we are always pushing the boundaries of what is possible on current and even next gen hardware. With cloud gaming and DirectX12 it is still very early days and any of the benefits for developers would just be pure conjecture at this point, however, it should be noted that there will clearly be a benefit to players who will be able to access powerful machines and hardware through the cloud to be able to experience high end PC gaming on much less expensive setups or perhaps even mobile and tablets.

This is a real force multiplier for developers. On DirectX12 any more control that is given to the developers versus relying on manufacturer drivers is in our opinion a good thing so we hope that it brings with it some benefits for leveraging the power of the hardware in new and unique ways.



Como hemos dicho otras veces, XBO tiene procesdor de audio dedicado, PS4 no. Además de que DX12 y la nube lograrán ser un boost para PC´s y XBO.

Es curioso que de lo único de lo que se habla en las noticias de las paginas webs españolas sobre esta entrevista, sea que lo de que los 8GB puedan quedarse cortas (el hombre dice que la apsada gen tuvieron el mismo problema pero lo fueron solventando bien :P )
Las webs españolas no quieren hablar del Shape ni de la nube?



Muchas gracias por información, ya me extrañaba a mí que Crytek soltara tal burrada de golpe. En AKB.ES tenéis algunas partes de la entrevista que más me han llamado la atención.
Es logico al hablar de one nombrar la ps4,son competencia directa y necesitas tener una referencia para saber a que nivel te encuentras,sea inferior o superior,pero sin llegar a debates entre ellas ya que este no seria el hilo apropiado

Lo que no seria nada normal es hablar de una,la que sea,sin nombrar a la otra como si no existiese,vamos pienso yo
eloskuro escribió:
Rashid Sayed: Microsoft recently announced DirectX12 and its strong push towards cloud gaming. What are your thoughts on this and what kind of benefits will this give to CryEngine, should you decide to use them?

Sean Tracy: Microsoft’s announcement of DirectX12 is very interesting to us as we are always pushing the boundaries of what is possible on current and even next gen hardware. With cloud gaming and DirectX12 it is still very early days and any of the benefits for developers would just be pure conjecture at this point, however, it should be noted that there will clearly be a benefit to players who will be able to access powerful machines and hardware through the cloud to be able to experience high end PC gaming on much less expensive setups or perhaps even mobile and tablets.

.




Traducción guarra google:

Anuncio de DirectX12 de Microsoft es muy interesante para nosotros, ya que siempre estamos empujando los límites de lo que es posible en el próximo hardware actual e incluso gen. [b] Con juegos en la nube y DirectX12 todavía es muy temprano día y ninguno de los beneficios para los desarrolladores sería más que una simple conjetura en este punto, sin embargo, debe tenerse en cuenta que no habrá claramente un beneficio a los jugadores que sean capaces de acceso máquinas potentes y hardware a través de la nube para poder experimentar de gama alta en los juegos de PC y mucho menos costosas configuraciones o incluso móviles y tabletas.


Esto ya lo había oido yo antes... Y curiosamente esta en la famosa hoja de ruta.

Si directx 12 esta preparado para funcionar con la nube puede que realmente estemos ante un gran cambio que beneficiará a muchos productos.

EDITO: "...debe tenerse en cuenta que no habrá claramente ..." La traducción dice NO, pero no se de donde se saca la negación (¿not-ed?), precisamente dice todo lo contrario.
Es que no se de donde saca ese "no" el traductor de google. En el texto original no aparece...

Edit: me he hecho una traduccion rapida, que creo que queda algo mas clara que la de google. Espero que os sea de ayuda.

Rashid Sayed: Microsoft ha anunciado recientemente DirectX 12 y su fuerte impulso hacia el cloud gaming. Que opinas de esto y que tipo de beneficios le puede dar a CryEngine, en caso de que decidais usarlo?

Sean Tracy: El anuncio de Microsoft acerca de DirectX12 es muy interesante para nosotros ya que siempre estamos llevando al limite lo que es posible hacer con el hardware actual y el de next gen. El cloud gaming y DirectX12 todavia estan en su etapa inicial y sus beneficios para los desarrolladores son puras conjeturas en estos momentos, aunque debemos considerar que claramente habra un beneficio para los jugadores, que podran tener acceso a a unas maquinas y un hardware potente gracias a la nube para poder disfrutar de juegos de pc de alta gama en equipos mucho mas baratos, e incluso en moviles y tabletas.
Es por el any, q lo confunde con una negación. Lo traduce por "ningún" en vez de por "cualquier". O al menos eso entiendo yo.
chris76 escribió:Es logico al hablar de one nombrar la ps4,son competencia directa y necesitas tener una referencia para saber a que nivel te encuentras,sea inferior o superior,pero sin llegar a debates entre ellas ya que este no seria el hilo apropiado

Lo que no seria nada normal es hablar de una,la que sea,sin nombrar a la otra como si no existiese,vamos pienso yo

La innombrable no se puede mencionar hombre, es la primera regla de este foro. [+risas]

PD: es broma gente [poraki] ( o no?)
Viendo como ms se esta poniendo las pilas descartariais una nueva pequeńa subida del clock de gpu?

Por consumo,disipacion,temperatura ,sonoridad etc aun tendria algo de margen,no?
Subieron clock al principio para compensar el software, ahora que el software debería empezar a dar fruto no tendrían porque subir clocks.
BladneiR escribió:
Sgallego escribió:Que mania hay comparativa con Ps4 todo el rato, muchas veces me da la sensación de que la gente intenta justificar su compra mas que otra cosa... por que madre mia no se cuantas paginas se lleva ya para hablar siempre de lo mismo... solo digo que este hilo no es un Vs. de una contra otra y siempre las comparaciones son odiosas, que cada uno disfrute con lo que tiene y listo, las maquinas son las que son, y montan el hard que montan.

Saludos compañeros.

+1000


Todo el mundo lo hace, nadie se libra, se llama disonancia cognitiva.

En el tema del aumento de frecuencias yo me olvidaría por completo. La escalabilidad no es perfecta, por lo q aumentar un 20% los clocks no representa un 20% más de rendimiento, sobretodo al llegar a un nivel determinado. Y puede disparar el consumo y temperatura si pasas de determinado nivel.

Se supone q Xbox One ya esta balanceada. Ahora toca depurar el software y esperar.
Y aumentar esponencialmente los casos de consolas fritas y de fallos de hardware sin necesidad de freirse.

Ademas con AMD, conocido por apagar los cores que fallan en sus pruebas internas y rebrandear en low-end. Como suban un poco de mas los clocks empezaran a cascar cores uno detras de otro.
Zokormazo escribió:Y aumentar esponencialmente los casos de consolas fritas y de fallos de hardware sin necesidad de freirse.

Ademas con AMD, conocido por apagar los cores que fallan en sus pruebas internas y rebrandear en low-end. Como suban un poco de mas los clocks empezaran a cascar cores uno detras de otro.


Juraria que eso lo hacen todas...
Probar y lockear las clocks y quedarse con las mejores unidades para high-end si, lo hacen todas.

Sacar al mercado procesadores quadcore con un core capado porque cascaba por todos lados quedandose en un procesador tricore, solo lo he visto en AMD xD
eloskuro escribió:Imagen


Da gusto ver gente tan entusiasmada con su trabajo :)
argam escribió:
eloskuro escribió:Imagen


Da gusto ver gente tan entusiasmada con su trabajo :)


Si tienes los medios antes que nadie y ayuda a tutiplen. No hay que olvidar que Lionhead es de Microsoft y como tal tienen acceso a kits de desarrollo mas depurados y cualquier dificulta que surja a los desarrolladores de las api's al lado con lo que.....
Solo faltan un par de semanas y el e3 estallra el bombazo.
OpenGL Needs a Reboot or it has No Chance of Catching upto D3D12 and Mantle


http://wccftech.com/open-gl-reboot-no-chance-catching-d3d12-mantle/

Microsoft cargandose a su verdadera competencia, lo he dicho mil veces, Steam.

Steam OS/OpenGL VS Windows/Directx 12
Eso es normal, lo de la API me refiero. La arquitectura DX12 está reescrita en gran parte, con la paralelización y el acceso a más bajo nivel de base. Es algo que ya hemos leído en la entrevista a Crytek. Es lo mismo que hace Mantle, una API pensada directamente pensando en el hardware.

El problema de OpenGL es que al no ser de una marca, y depender de una especie de consorcio (creo, que es más abierto vamos), igual no es tan fácil el reescribirlo por completo o en gran parte para adaptarlo. De ahí el artículo.
darksch escribió:Eso es normal, lo de la API me refiero. La arquitectura DX12 está reescrita en gran parte, con la paralelización y el acceso a más bajo nivel de base. Es algo que ya hemos leído en la entrevista a Crytek. Es lo mismo que hace Mantle, una API pensada directamente pensando en el hardware.

El problema de OpenGL es que al no ser de una marca, y depender de una especie de consorcio (creo, que es más abierto vamos), igual no es tan fácil el reescribirlo por completo o en gran parte para adaptarlo. De ahí el artículo.


No creo q sea lo mismo MANTLE q DX12, se las esta comparando porque las dos trabajan "close to metal", pero Dx12 si las informaciones no son falsas, hara trabajar a la GPU al 100%(o cerca) todo el tiempo, ademas de que implicara algún cambio de hardware en Tier 3.
Szasz escribió:
darksch escribió:Eso es normal, lo de la API me refiero. La arquitectura DX12 está reescrita en gran parte, con la paralelización y el acceso a más bajo nivel de base. Es algo que ya hemos leído en la entrevista a Crytek. Es lo mismo que hace Mantle, una API pensada directamente pensando en el hardware.

El problema de OpenGL es que al no ser de una marca, y depender de una especie de consorcio (creo, que es más abierto vamos), igual no es tan fácil el reescribirlo por completo o en gran parte para adaptarlo. De ahí el artículo.


No creo q sea lo mismo MANTLE q DX12, se las esta comparando porque las dos trabajan "close to metal", pero Dx12 si las informaciones no son falsas, hara trabajar a la GPU al 100%(o cerca) todo el tiempo, ademas de que implicara algún cambio de hardware en Tier 3.


Por aclarar. Podrias decir donde se menciona lo de que DX12 hara trabajar a la GPU al 100% (o cerca) todo el tiempo? Es por acabar de entender a lo que te refieres.

Y otra cosa, a que harware te refieres con el cambio ese en Tier 3?

Un saludo!
argam escribió:
Szasz escribió:
darksch escribió:Eso es normal, lo de la API me refiero. La arquitectura DX12 está reescrita en gran parte, con la paralelización y el acceso a más bajo nivel de base. Es algo que ya hemos leído en la entrevista a Crytek. Es lo mismo que hace Mantle, una API pensada directamente pensando en el hardware.

El problema de OpenGL es que al no ser de una marca, y depender de una especie de consorcio (creo, que es más abierto vamos), igual no es tan fácil el reescribirlo por completo o en gran parte para adaptarlo. De ahí el artículo.


No creo q sea lo mismo MANTLE q DX12, se las esta comparando porque las dos trabajan "close to metal", pero Dx12 si las informaciones no son falsas, hara trabajar a la GPU al 100%(o cerca) todo el tiempo, ademas de que implicara algún cambio de hardware en Tier 3.


Por aclarar. Podrias decir donde se menciona lo de que DX12 hara trabajar a la GPU al 100% (o cerca) todo el tiempo? Es por acabar de entender a lo que te refieres.

Y otra cosa, a que harware te refieres con el cambio ese en Tier 3?

Un saludo!


Sistemas operativos compatibles

Aunque DirectX 12 llegará inicialmente con el futuro sistema operativo Windows 9, Microsoft está trabajando muy duro en implementarlo también en Windows 8.1/8 y Windows 7 (lamentablemente Windows Vista y anteriores no soportarán esta nueva API).

GPUs compatibles con DirectX 12

En este punto tenemos buenas y malas noticias para los usuarios, en primer lugar, aunque muchas GPUs DirectX 11 actuales serán parcialmente compatibles con DX12(algunas funciones vía hardware como la abstracción a bajo nivel y la mejor administración del CPU; otras vía emulación por software “Tier 1 y Tier 2”, como sus nuevos efectos gráficos); para aprovechar todas las bondades que ofrecerá el nuevo API (Microsoft aún no las ha revelado completamente) se requerirán de nuevos GPUs DirectX 12 con hardware que siga las directrices del futuro API (Tier 3).

De momento tenemos que los siguientes GPUs son parcialmente (DirectX 12 Tier Level1 y/o Tier Level 2) compatibles con DIrectX 12:


AMD Graphics Core Next 1.0 1.1, 2.0 (Hardware Level 11, 11.1 y 11.2).
Intel: Haswell Graphics y superiores (Hardware Level 11).
Nvidia: Maxwell, Kepler y Fermi (Hardware Level 11).
Qualcomm Adreno DirectX 11.


Los GPUs 100% compatibles por hardware (Tier 3) con el nuevo API serán:


AMD Graphics Core Next 3.0 “Pirate Islands” (Radeon R 300 Series) y superiores.
Intel Braswell Graphics (Core de sexta generación) y superiores.
Nvidia Volta (GeForce 900 Series) y superiores.



[url]chw.net[/url]

http://blogs.msdn.com/b/directx/archive/2014/03/20/directx-12.aspx
http://www.pcper.com/live/
http://techreport.com/news/26210/directx-12-will-also-add-new-features-for-next-gen-gpus




Imagen
@eloskuro

Gracias por la aclaración.

Lo del 100% ahora mismo no me acuerdo donde lo leí, pero se hablo aquí en este hilo. También se decía q los disipadores de las GPU actuales tampoco estaban preparados para aguantar esa carga de trabajo, y q por eso Xbox One montaba semejante disipador.

Lo busco y si lo encuentro lo adjunto.

Edito:
"It’s also worth mentioning that the planned use of the DirectX 12 API will optimize multithreading and allow the CPU to feed the GPU with more commands, more often. This could definitely push the GPU closer to its hardware and heat management limits, and an optimization of its power consumption would definitely help in juicing it further.

Improving engineering practices also has a relevant indirect effect on performance, as it leads to better build quality and higher resilience to fault under stress."

http://www.dualshockers.com/2014/05/08/ ... practices/

Dx12 alimenta constantemente a la GPU(baja latencia, Esram....), lleva al limite el hardware y la disipación de calor.
Szasz escribió:@eloskuro

Gracias por la aclaración.

Lo del 100% ahora mismo no me acuerdo donde lo leí, pero se hablo aquí en este hilo. También se decía q los disipadores de las GPU actuales tampoco estaban preparados para aguantar esa carga de trabajo, y q por eso Xbox One montaba semejante disipador.

Lo busco y si lo encuentro lo adjunto.

Edito:
"It’s also worth mentioning that the planned use of the DirectX 12 API will optimize multithreading and allow the CPU to feed the GPU with more commands, more often. This could definitely push the GPU closer to its hardware and heat management limits, and an optimization of its power consumption would definitely help in juicing it further.

Improving engineering practices also has a relevant indirect effect on performance, as it leads to better build quality and higher resilience to fault under stress."

http://www.dualshockers.com/2014/05/08/ ... practices/

Dx12 alimenta constantemente a la GPU(baja latencia, Esram....), lleva al limite el hardware y la disipación de calor.


Lo que no entiendo entonces es por que dices que es diferente de Mantle en ese aspecto. Imagino que el objetivo de cualquier API es sacar el maximo partido del hardware (o al menos ponerlo a disposicion de los desarrolladores de la forma mas conveniente).

Un saludo!
Es decir, que el disipador tocho y la salida superventilada de la One ya venía pensada para el futuro DX12?
HispaCoder escribió:Es decir, que el disipador tocho y la salida superventilada de la One ya venía pensada para el futuro DX12?


No. esta pensado para el sistema multicore dinamico E2.
http://research.microsoft.com/en-us/projects/e2/
HispaCoder escribió:Es decir, que el disipador tocho y la salida superventilada de la One ya venía pensada para el futuro DX12?


El año pasada deduje que todo fue trabajo de unos chimpances que trabajan en microsoft, asi que espero no tener que reafirmarme y pienso que esto seria mas logico.

Porque no es logico que tenga la fuente externa, ese tamaño y esa exagerada ventilacion, a menos que los ingenieros de ms sean monos.
argam escribió:
Szasz escribió:@eloskuro

Gracias por la aclaración.

Lo del 100% ahora mismo no me acuerdo donde lo leí, pero se hablo aquí en este hilo. También se decía q los disipadores de las GPU actuales tampoco estaban preparados para aguantar esa carga de trabajo, y q por eso Xbox One montaba semejante disipador.

Lo busco y si lo encuentro lo adjunto.

Edito:
"It’s also worth mentioning that the planned use of the DirectX 12 API will optimize multithreading and allow the CPU to feed the GPU with more commands, more often. This could definitely push the GPU closer to its hardware and heat management limits, and an optimization of its power consumption would definitely help in juicing it further.

Improving engineering practices also has a relevant indirect effect on performance, as it leads to better build quality and higher resilience to fault under stress."

http://www.dualshockers.com/2014/05/08/ ... practices/

Dx12 alimenta constantemente a la GPU(baja latencia, Esram....), lleva al limite el hardware y la disipación de calor.


Lo que no entiendo entonces es por que dices que es diferente de Mantle en ese aspecto. Imagino que el objetivo de cualquier API es sacar el maximo partido del hardware (o al menos ponerlo a disposicion de los desarrolladores de la forma mas conveniente).

Un saludo!


Aa de hoy no hay ninguna API q lleve al limite a ninguna GPU en los juegos. Lo más cercano son los benchmarks preparados para ello.

Es muy difícil llevar a una GPU al 100%(o cerca) todo el tiempo tal y como están concebidas aa de hoy.

Las diferentes modificaciones de Microsoft en la GPU junto a Dx12 viene a paliar ese problema.

¿Por que no CREO q es lo mismo q MANTLE?
Pues porque MANTLE trabaja "close to metal" consiguiendo reducir el uso de la CPU y dando mayor uso a los diferentes núcleos. Si buscas benchs de MANTLE veras q el verdadero beneficio esta en GPUs potentes con CPUs de gama baja\media.

Dx12 conlleva un reboot(ademas de ser "close to metal"), un nuevo paradigma. Se avecinan nuevas memorias apiladas q buscan gran ancho de banda y baja latencia. Y las necesidades de tier3 aun están por desvelar, pero no me extrañaría q fueran por ese camino.

Desde mi humilde punto de vista y con los datos q puedo ver y valorar, llego a la conclusión de q MANTLE y Dx12 no son los mismo.
Szasz escribió:Aa de hoy no hay ninguna API q lleve al limite a ninguna GPU en los juegos. Lo más cercano son los benchmarks preparados para ello.

:-?
los benchmarks corren sobre API como DX11 , los benchmarks son como juegos , otra cosa es que ningún juego lleve al limite las GPU de una forma optima , pero los benchmarks y los jueogos usan las API de la misma forma
17587 respuestas