eloskuro escribió:Horizonte de sucesos escribió:De donde sacas lo del 80% y el 40%? O son números que te has inventado a modo de ejemplo?
Se basa en las palabras de carmack
Si el rendimiento de las consolas en un juego era el doble que en PC. Ejemplo. Tarjeta grafica de 1 TF en consola rindiendo como tarjeta grafica de 2 GFLOPS de PC
Si se supone que nunca se llega al rendimiento real podemos hacer ciencia ficcion y decir que un juego top podria llegar a 800GFLOPS en esa consola de 1TF y el mismo juego con los equivalentesen hard para compatibles sería de 400 GLOPS
DarKDoG escribió:las consolas se acercan mucho más a ese máximo teórico que los PC puesto que los programadores saben a qué arquitectura específica se están enfrentando.
eloskuro escribió:Acaba de salir la nueva version de UE. La 4.9
A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...
New: Asynchronous Real-time Audio Decompression
Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.
Guillermo GT3 escribió:eloskuro escribió:Acaba de salir la nueva version de UE. La 4.9
A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...
New: Asynchronous Real-time Audio Decompression
Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.
¿Esto quiere decir que para cuando salga Gears Of War 4 el chip SHAPE estará en pleno funcionamiento?
Guillermo GT3 escribió:eloskuro escribió:Acaba de salir la nueva version de UE. La 4.9
A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...
New: Asynchronous Real-time Audio Decompression
Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.
¿Esto quiere decir que para cuando salga Gears Of War 4 el chip SHAPE estará en pleno funcionamiento?
darksch escribió:Pero la descompresión...¡que menos!. Eso lo tiene hasta PS4, no me digan que ahora mismo se hace en plan burro con la CPU. El coste de motores genéricos es terrible entonces. Una cosa muy distinta es el procesamiento de audio.
now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.
There’s no such thing as “full support” for DX12 on the market today
Mamaun escribió:No sé si lo habréis puesto pero me parece interesante.
http://www.guru3d.com/news-story/amd-there-is-no-such-thing-as-full-support-for-dx12-today.htmlThere’s no such thing as “full support” for DX12 on the market today
PD: Me ha chocado el "ACEPTO" del hilo.
Xboxman escribió:Pero la r9 285 era dx12? O por lo menos hace un mes lo era.
Xboxman escribió:Pero la r9 285 era dx12? O por lo menos hace un mes lo era.
eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea
cercata escribió:eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea
La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...
En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?
cercata escribió:eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea
La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...
En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?
ElOtroDespistao escribió:tanto UE4 como CryEngine tienen ya soporte a DX12, y el UE4 con DX12 ya está disponible para todos
cercata escribió:eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea
La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...
En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?
ElOtroDespistao escribió:
tanto UE4 como CryEngine tienen ya soporte a DX12, y el UE4 con DX12 ya está disponible para todos
Xboxman escribió:La batalla de motores gráficos va a pasar lo mismo, a día de hoy un engine con DX12 representa el futuro, y eso vende mucho. Empezaremos a ver en la descripción de los juegos "DX12" como señal de marketing.
cercata escribió:eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea
La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...
En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?
cercata escribió:Xboxman escribió:La batalla de motores gráficos va a pasar lo mismo, a día de hoy un engine con DX12 representa el futuro, y eso vende mucho. Empezaremos a ver en la descripción de los juegos "DX12" como señal de marketing.
A ver como de rápido progresa W10 ... ayer mirando en la estadisticas de Steam era ya el tercer sistema operativo mas usado, la cosa pinta bien.
Xboxman escribió:El tercero en apenas unos meses. Pinta muy bien la verdad.
Microsoft's engineers added support for DirectX 12 to UE4, and we have worked with them to integrate their changes into 4.9. The feature is still new and is considered experimental. DirectX 12 offers a much lower-level rendering API that is more efficient and allows for rendering commands to be submitted in parallel across many threads, a feature inspired by console rendering APIs
Nick Baker: There was lot of bitty stuff to do. We had to make sure that the whole system was capable of virtualisation, making sure everything had page tables, the IO had everything associated with them. Virtualised interrupts.... It's a case of making sure the IP we integrated into the chip played well within the system. Andrew?
Andrew Goossen: I'll jump in on that one. Like Nick said there's a bunch of engineering that had to be done around the hardware but the software has also been a key aspect in the virtualisation. We had a number of requirements on the software side which go back to the hardware. To answer your question Richard, from the very beginning the virtualisation concept drove an awful lot of our design. We knew from the very beginning that we did want to have this notion of this rich environment that could be running concurrently with the title. It was very important for us based on what we learned with the Xbox 360 that we go and construct this system that would disturb the title - the game - in the least bit possible and so to give as varnished an experience on the game side as possible but also to innovate on either side of that virtual machine boundary.
papatuelo escribió:Nick Baker: There was lot of bitty stuff to do. We had to make sure that the whole system was capable of virtualisation, making sure everything had page tables, the IO had everything associated with them. Virtualised interrupts.... It's a case of making sure the IP we integrated into the chip played well within the system. Andrew?
Andrew Goossen: I'll jump in on that one. Like Nick said there's a bunch of engineering that had to be done around the hardware but the software has also been a key aspect in the virtualisation. We had a number of requirements on the software side which go back to the hardware. To answer your question Richard, from the very beginning the virtualisation concept drove an awful lot of our design. We knew from the very beginning that we did want to have this notion of this rich environment that could be running concurrently with the title. It was very important for us based on what we learned with the Xbox 360 that we go and construct this system that would disturb the title - the game - in the least bit possible and so to give as varnished an experience on the game side as possible but also to innovate on either side of that virtual machine boundary.
AMD Unveils World's First Hardware-Based Virtualized GPU Solution at VMworld 2015
http://ir.amd.com/phoenix.zhtml?c=74093 ... id=2083146
Nosomi escribió:papatuelo escribió:Nick Baker: There was lot of bitty stuff to do. We had to make sure that the whole system was capable of virtualisation, making sure everything had page tables, the IO had everything associated with them. Virtualised interrupts.... It's a case of making sure the IP we integrated into the chip played well within the system. Andrew?
Andrew Goossen: I'll jump in on that one. Like Nick said there's a bunch of engineering that had to be done around the hardware but the software has also been a key aspect in the virtualisation. We had a number of requirements on the software side which go back to the hardware. To answer your question Richard, from the very beginning the virtualisation concept drove an awful lot of our design. We knew from the very beginning that we did want to have this notion of this rich environment that could be running concurrently with the title. It was very important for us based on what we learned with the Xbox 360 that we go and construct this system that would disturb the title - the game - in the least bit possible and so to give as varnished an experience on the game side as possible but also to innovate on either side of that virtual machine boundary.
AMD Unveils World's First Hardware-Based Virtualized GPU Solution at VMworld 2015
http://ir.amd.com/phoenix.zhtml?c=74093 ... id=2083146
De principio poca utilidad le veo o imagino para la virtualizacion de la GPU para usuarios distintos mas cuando tenemos los servers dedicados. (en el caso de la one), ya si la idea es utilizar la consola de host pues la cosa cambia pero de momento lo veo como contradictorio en ese sentido.
no se a ver que le pone micro
besos
cercata escribió:Cuando creéis que sería factible una ONE portatil ?
No creo que Microsoft la haga nunca, pero sería la caña, el catalogo de 360 y ONE en el bolsillo ...
Lo de la Virtualización yo le veo futuro para sistemas con Hypervisor, que es sin duda lo mejor de la ONE.
According to some documentation, there is 1TB of Virtual Memory Address Space and that a page can be in ESRAM,DRAM or unmapped. So if you tell the CPU to fetch something from a virtual address, it shouldn't matter if it's actually in the DRAM or ESRAM. You could actually pass pointers between CPU and GPU .
eloskuro escribió:Pero yo veo más lo de jugar a juegos multiplataforma en dispositivos moviles o tablets. (eso si, con continum o por lo menso con smartphones potentes)
darksch escribió:Eso es todo casualidad, como el Mantle. No tiene nada que ver con el contrato con M$.
Now, another report seems to condemn NVIDIA’s choices for Maxwell. Tech Report’s David Kanter said in a video podcastthat people who work at Oculus have mentioned how preemption context switching, a very important feature especially in VR scenarios, can be
really bad on NVIDIA cards.
The difference between Kaveri’s ‘HSA Ready’ and Carrizo’s ‘HSA Final’
nomenclature comes down to one main feature – context switching. Kaveri
can do everything Carrizo can do, apart from this.
papatuelo escribió:Now, another report seems to condemn NVIDIA’s choices for Maxwell. Tech Report’s David Kanter said in a video podcastthat people who work at Oculus have mentioned how preemption context switching, a very important feature especially in VR scenarios, can be
really bad on NVIDIA cards.
cercata escribió:papatuelo escribió:Now, another report seems to condemn NVIDIA’s choices for Maxwell. Tech Report’s David Kanter said in a video podcastthat people who work at Oculus have mentioned how preemption context switching, a very important feature especially in VR scenarios, can be
really bad on NVIDIA cards.
Lo mismo que decian los de Oxyde lo dicen ahora los de Oculus ... ufff que mal pinta para NVIDIA !!!!!!
Respecto a Hololens, lo mas importante es que angulo de visión va a tener la versión final ...
papatuelo escribió:No es lo mismo, oxyde hablaba del async shading estos hablan del context swtching.
cercata escribió:papatuelo escribió:No es lo mismo, oxyde hablaba del async shading estos hablan del context swtching.
Sí que es lo mismo, Oxyde decía que el Async Shading en NVIDIA era catastrofico, y luego el Molloc matizo que era pq el cambio de contexto de NVIDIA tenia una latencia/rendimiento muy malo, no pq no tuviese Async Shading.
"As we have already detailed in an in-depth editorial two days ago, Nvidia GTX 900 series GPUs do have the hardware capability to support asynchronous shading/computing. A question arises however if that can only be achieved through the heavy use of pre-emption and context switch, which in turn adds substantial latency and defeats the purpose of the feature which is to reduce latency / improve performance"
Read more: http://wccftech.com/nvidia-async-comput ... z3l3euCXpB"
Lo que pasa es que NVIDIA esta intentando tirar balones fuera contando milongas, que si el driver no esta acabado, que si hay un bug en el antialiasing, pero el problema es mucho mas gordo !!!!
cercata escribió:La colaboración de Microsoft con AMD sigue dando sus frutos, mas allá de las consolas:
http://wccftech.com/amds-robert-hallock-the-vast-majority-of-dx12-titles-in-20152016-are-partnering-with-amd/
A NVIDIA esta claro que le va a sentar fatal todo esto, me gustaría saber como va a afectar a la PS4, esta sinergia PC de AMD con ONE ...
papatuelo escribió:Lee unos cuantos mensajes a partir de ese:
http://www.elotrolado.net/hilo_hablemos-del-interior-de-xbox-one_1992540_s970#p1735628295