Hablemos del interior de Xbox One

eloskuro escribió:
Horizonte de sucesos escribió:De donde sacas lo del 80% y el 40%? O son números que te has inventado a modo de ejemplo?


Se basa en las palabras de carmack
Si el rendimiento de las consolas en un juego era el doble que en PC. Ejemplo. Tarjeta grafica de 1 TF en consola rindiendo como tarjeta grafica de 2 GFLOPS de PC

Si se supone que nunca se llega al rendimiento real podemos hacer ciencia ficcion y decir que un juego top podria llegar a 800GFLOPS en esa consola de 1TF y el mismo juego con los equivalentesen hard para compatibles sería de 400 GLOPS


Aclaro un poco, como dice @cercata los Flops (Operaciones en coma flotante por segundo) es un máximo TEÓRICO que tiene el chip.

Si un chip tiene 1TF nunca, bajo ningún concepto, podrá ejecutar más operaciones que esas. Lo normal es que nunca llegue a esa cifra porque entonces requeriría de una aplicación perfecta en cuanto a paralelización. Una paralelización sin cuellos de botella, cosa que no existe en aplicaciones reales.

Respecto a conslas vs PC, las consolas se acercan mucho más a ese máximo teórico que los PC puesto que los programadores saben a qué arquitectura específica se están enfrentando.
Nuevo pack Xbox One con disco duro SSD híbrido de 1TB y mando élite.

Una palabra: Bravo [oki]
DarKDoG escribió:las consolas se acercan mucho más a ese máximo teórico que los PC puesto que los programadores saben a qué arquitectura específica se están enfrentando.

Esa es la clave, que los programadores conozcan al dedillo la plataforma que tienen debajo, y que tengan el tiempo de hacer código pensando en ello, cada linea de código que escribes pensar como afecta a las caches, etc etc, que supongo que es lo que hacen los de Turn 10.
Acaba de salir la nueva version de UE. La 4.9

A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...

New: Asynchronous Real-time Audio Decompression

Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.
eloskuro escribió:Acaba de salir la nueva version de UE. La 4.9

A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...

New: Asynchronous Real-time Audio Decompression

Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.

¿Esto quiere decir que para cuando salga Gears Of War 4 el chip SHAPE estará en pleno funcionamiento?
Guillermo GT3 escribió:
eloskuro escribió:Acaba de salir la nueva version de UE. La 4.9

A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...

New: Asynchronous Real-time Audio Decompression

Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.

¿Esto quiere decir que para cuando salga Gears Of War 4 el chip SHAPE estará en pleno funcionamiento?


A saber, ahi no dice nada de eso. Lo que dice es que descomprime ogg-vorbis en otro thread para no bloquear la principal.

Shape mas que para eso es para la localizacion espacial, doppler y tal no?
curioso que solo nombren a la Xbox One como consola
Guillermo GT3 escribió:
eloskuro escribió:Acaba de salir la nueva version de UE. La 4.9

A parte de un monton de novedades para moviles, para VR y más amigabilidad para DX12...

New: Asynchronous Real-time Audio Decompression

Platforms that support real-time ogg-vorbis based audio decompression (PC, Xbox One, Mac, Android) now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.

¿Esto quiere decir que para cuando salga Gears Of War 4 el chip SHAPE estará en pleno funcionamiento?


Pues conforme sonaba de bien los efectos y la reverberación en la demo del E3 no espero menos.

https://www.youtube.com/watch?v=b43JfcIjO4c
Pero la descompresión...¡que menos!. Eso lo tiene hasta PS4, no me digan que ahora mismo se hace en plan burro con la CPU. El coste de motores genéricos es terrible entonces. Una cosa muy distinta es el procesamiento de audio.
darksch escribió:Pero la descompresión...¡que menos!. Eso lo tiene hasta PS4, no me digan que ahora mismo se hace en plan burro con la CPU. El coste de motores genéricos es terrible entonces. Una cosa muy distinta es el procesamiento de audio.


El quote de @eloskuro no dice en ningun lado que se use o se deje de usar la cpu para la descompresion ogg-vorbis (ni idea si lo hace o no xD)

now perform the decompression asynchronously when possible to avoid blocking operations on the main game thread.

Ahora ejecutan la descompresion de forma asincrona cuando sea posible para evitar operaciones bloqueantes en el hilo principal del juego.

No entra en si usa cpu, shape o un mono dentro de la consola para descomprimirlo xD
No sé si lo habréis puesto pero me parece interesante.

http://www.guru3d.com/news-story/amd-there-is-no-such-thing-as-full-support-for-dx12-today.html

There’s no such thing as “full support” for DX12 on the market today



PD: Me ha chocado el "ACEPTO" del hilo. :O
Mamaun escribió:No sé si lo habréis puesto pero me parece interesante.

http://www.guru3d.com/news-story/amd-there-is-no-such-thing-as-full-support-for-dx12-today.html

There’s no such thing as “full support” for DX12 on the market today



PD: Me ha chocado el "ACEPTO" del hilo. :O


Yeo, no hay ninguna gráfica full DX12. Lo dijo ayer uno de AMD que además confirmo que Nvidia no puede con el Computo asincrono.
Ademas hablan como si AMD no tuviese intención de sacar tarjetas Full DX12 en el futuro ...

PD: Está la moderación calentita cerrando hilos polemicos, el de APIs multiplataforma y el del futuro de la Vita han caido en las ultimas 24h, así que cuidado.


Interesante, pero lo que pone de manifiesto es el PULSO entre compañías y que en la actualidad no se tenga una gráfica 100% dx12 NO significa que no se tenga "planeado" o diseñada el sacarla (por parte de AMD) como apunta @cercata .

Desde la parte de Nvidia, si NO consigue "algunas" características o tiene problemas NO dudo que intentará solventar esto por otro camino con más o menos eficiencia.

Creo que lo que NO se dice pero es "interesante" es que ambas compañías le presten atención a la nueva api dx12 y sus necesidades en previsión de futuro. Futuro "compartido" en mayor o menor medida con ONE , que a todos los efectos se va a beneficiar de la expansión y el uso de dx12 y sus herramientas por parte de las compañías.

PD: Recordar que el hardware "obsoleto" que usa ONE de hace ya dos años, esta de total actualidad en lo que a prestaciones y diseño se refiere (curioso cuanto menos)
Me ha resultado muy interesante este articulo:

http://www.extremetech.com/gaming/213202-ashes-dev-dishes-on-dx12-amd-vs-nvidia-and-asynchronous-compute

Solo toca un poco de refilon a la ONE, pero creo que interesara a la mayoría de gente en este hilo.

Por mi parte ha aumentado la credibilidad de Oxyde Games, aunque el Brad Wardell me sigue pareciendo un vendemotos ... pero este Kollock no.

Me parece que a NVIDIA le va a salir caro haber pasado de las consolas ...
Pero la r9 285 era dx12? O por lo menos hace un mes lo era.
Xboxman escribió:Pero la r9 285 era dx12? O por lo menos hace un mes lo era.


Pero eso es un pitoste que se traen con el tema ese, que sea FL_12.0 no quiere decir que sea full DX12, de hecho hay FL 12.1 y tampoco son full DX12 ya que no hacen uso del calculo asíncrono, del que a su vez si hace uso la 285 aun siendo FL 12.0.

Es un pitote, yo la verdad es que no me aclaro, y tampoco hago por aclararme.
Xboxman escribió:Pero la r9 285 era dx12? O por lo menos hace un mes lo era.

A mi me suena que las GCN eran Feature Level 12_0 maximo, no? Precisamente pq les faltan las 2 Features del FL 12_1:

  • Raster Ordered Views
  • Conservative Raster

La cosa es que NVIDIA decía que las Maxwell 2 eran FL 12_1, y ahora resulta que parece que les falla el "asynchronous Shading".

Y remarco el "falla", pq parece que no es que no lo tengan, o que haya un problema en el driver, el problema parece ser que los cambios de contexto en las tarjetas NVIDIA tardan demasiado, y hacer uso del computo asincrono puede hasta ralentizar las cosas, "unmitigated disaster" creo que decía el Kollock ...

O sea, que dentro de poco, costara mas "portar" un juego de DX12 a PCs con NVIDIA que a la ONE. Una vez hecha la parte común del juego, en ONE lo deberían optimizar para que use la ESRAM, SHAPE, etc, pero en NVIDIA tendran que pegarse una currada de PM, ya que el computo asíncrono es parte de la nueva filosofía de Mantle, DX12, Vulcan, etc ...

A no ser que NVIDIA saque el talonario para que no se usen, y lastren a todos los demás ...
Viendo esto ya me aclaro un poco mejor.


Radeon HD 7000 series GCN 1.0 DX12, feature level 11_1
Radeon HD 7790 GCN 1.1 DX12, feature level 12_0
Radeon R7 260 (X) &360 GCN 1.1 DX12, feature level 12_0
Radeon R9 270 (X) & 370 GCN 1.0 DX12, feature level 11_1
Radeon R9 280 (X) GCN 1.0 DX12, feature level 11_1
Radeon R9 285 & 380 GCN 1.2 DX12, feature level 12_0
Radeon R9 290 & 390 (X) GCN 1.1 DX12, feature level 12_0
Radeon R9 Nano GCN 1.2 DX12, feature level 12_0
Radeon R9 Fury (X) GCN 1.2 DX12, feature level 12_0
un artículo interesante:

http://www.pcper.com/reviews/Editorial/Hot-Topic-Asynchronous-Shaders

Aparte de la información que ya sabíamos del foro de ocn, las palabras del de Oxide Games y las del trabajador de AMD, lo único novedoso, además, de la opinión del redactor es esta:

According to Kollock, he has heard of some console developers getting up to 30% increases in performance using Asynchronous Shaders. Again, this is on console hardware and so this amount may increase or decrease on the PC. In an informal chat with a developer at Epic Games, so massive grain of salt is required, his late night ballpark “totally speculative” guesstimate is that, on the Xbox One, the GPU could theoretically accept a maximum ~10-25% more work in Unreal Engine 4, depending on the scene. He also said that memory bandwidth gets in the way, which Asynchronous Shaders would be fighting against. It is something that they are interested in and investigating, though.


al parecer hay limitaciones en el ancho de banda de la memoria,
pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea
bueno, hay dos cosas ciertas, la consola SI es DX12 y la consola SI obtiene un mayor rendimiento con DX12 que sin el

y hasta un 30% de rendimiento es bastante bueno
eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea

La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...

En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?
cercata escribió:
eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea

La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...

En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?

No importa, quien no lo use es tan sencillo como comprarles el juego cuando se ponga a 4 chavos y todos contentos.
cercata escribió:
eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea

La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...

En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?


tanto UE4 como CryEngine tienen ya soporte a DX12, y el UE4 con DX12 ya está disponible para todos
ElOtroDespistao escribió:tanto UE4 como CryEngine tienen ya soporte a DX12, y el UE4 con DX12 ya está disponible para todos

Esa es la buena ... una vez que los motores lo soporten, ya muchisimos DEVs los usan. La pregunta es, ¿ tener soporte DX12 implica que usan alguna cosa de DX12, o que aprovechan todo si la gráfica lo soporta ?

Ahora NVIDIA a echado mierda encima de Oxide, pero si eso mismo empieza a pasar con CryEngine y UE, podría ser de traca.
cercata escribió:
eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea

La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...

En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?

no solo lo usaran, los de NVIDIA se van a poner las pilas echando ostias, en la guerra de graficas siempre hay pelea para ver quien la tiene mas larga y sobretodo NVIDIA. No se pueden permitir ver como tarjetas de casi 100 euros menos igualan rendimiento a las suyas gracias a DX12.

La batalla de motores gráficos va a pasar lo mismo, a día de hoy un engine con DX12 representa el futuro, y eso vende mucho. Empezaremos a ver en la descripción de los juegos "DX12" como señal de marketing.

Vienen años de guerra de gráficos y rendimiento como a finales de los 90, preparaos para ver gráficas nuevas cada 6 meses o menos.

Mientras tanto la gran beneficiada de esto sera Xbox One, gracias a estos fabricantes y desarrolladores se acelerara la incursión de dx12 mas rápido, ya veréis.
ElOtroDespistao escribió:
tanto UE4 como CryEngine tienen ya soporte a DX12, y el UE4 con DX12 ya está disponible para todos


Ojo, ayer mismo leí que Unreal engine 4.9 incorpora algunas características de DirectX12. No es lo mismo que dar soporte completo. En fine, veremos si hay que esperar a la versión 5 o no para ver resultados.
Xboxman escribió:La batalla de motores gráficos va a pasar lo mismo, a día de hoy un engine con DX12 representa el futuro, y eso vende mucho. Empezaremos a ver en la descripción de los juegos "DX12" como señal de marketing.

A ver como de rápido progresa W10 ... ayer mirando en la estadisticas de Steam era ya el tercer sistema operativo mas usado, la cosa pinta bien.
cercata escribió:
eloskuro escribió:pues si con dx12 y xbo consiguen ese 10- 25% solo por usar computo asincrono mas bienvenido sea

La cosa es que si no funciona en todas las plataformas, cuantos DEVs se molestaran en usarlo. El problema de siempre ...

En PS4 no tengo ni idea de si se puede portar, en PC con AMD y DX12 es igual que en ONE creo, y en PC con NVIDIA, parece que no va ... ¿ Lo usaran los DEVs multiplataforma ?


Si tu tienes una GPU o consola que puede mover un juego a 60fps y te lo sacan a 30fps, entonces hablamos de un cutreport.

Y sabiendo esto es cuando ya entra en escena si uno quiere comprar un cutreport, cuando hacerlo y a qué precio.
cercata escribió:
Xboxman escribió:La batalla de motores gráficos va a pasar lo mismo, a día de hoy un engine con DX12 representa el futuro, y eso vende mucho. Empezaremos a ver en la descripción de los juegos "DX12" como señal de marketing.

A ver como de rápido progresa W10 ... ayer mirando en la estadisticas de Steam era ya el tercer sistema operativo mas usado, la cosa pinta bien.

El tercero en apenas unos meses. Pinta muy bien la verdad.

Yo me atrevería incluso a decir que en poco tiempo vamos a ver muchos parches de juegos que ya están en el mercado a Dx12.......incluida la xbox.
Xboxman escribió:El tercero en apenas unos meses. Pinta muy bien la verdad.


meses? salió a finales de julio, lleva un mes y pocos días

@framed entendiste mal, Unreal Engine 4 soporta DX12 desde hace tiempo, pero solo estaba disponible para pocas desarrolladoras (mayormente first), UE4.9 es la versión para todo mundo con soporte para DX12, pero dfe forma experimental:

Microsoft's engineers added support for DirectX 12 to UE4, and we have worked with them to integrate their changes into 4.9. The feature is still new and is considered experimental. DirectX 12 offers a much lower-level rendering API that is more efficient and allows for rendering commands to be submitted in parallel across many threads, a feature inspired by console rendering APIs
Nick Baker: There was lot of bitty stuff to do. We had to make sure that the whole system was capable of virtualisation, making sure everything had page tables, the IO had everything associated with them. Virtualised interrupts.... It's a case of making sure the IP we integrated into the chip played well within the system. Andrew?

Andrew Goossen: I'll jump in on that one. Like Nick said there's a bunch of engineering that had to be done around the hardware but the software has also been a key aspect in the virtualisation. We had a number of requirements on the software side which go back to the hardware. To answer your question Richard, from the very beginning the virtualisation concept drove an awful lot of our design. We knew from the very beginning that we did want to have this notion of this rich environment that could be running concurrently with the title. It was very important for us based on what we learned with the Xbox 360 that we go and construct this system that would disturb the title - the game - in the least bit possible and so to give as varnished an experience on the game side as possible but also to innovate on either side of that virtual machine boundary.


AMD Unveils World's First Hardware-Based Virtualized GPU Solution at VMworld 2015

http://ir.amd.com/phoenix.zhtml?c=74093 ... id=2083146
papatuelo escribió:
Nick Baker: There was lot of bitty stuff to do. We had to make sure that the whole system was capable of virtualisation, making sure everything had page tables, the IO had everything associated with them. Virtualised interrupts.... It's a case of making sure the IP we integrated into the chip played well within the system. Andrew?

Andrew Goossen: I'll jump in on that one. Like Nick said there's a bunch of engineering that had to be done around the hardware but the software has also been a key aspect in the virtualisation. We had a number of requirements on the software side which go back to the hardware. To answer your question Richard, from the very beginning the virtualisation concept drove an awful lot of our design. We knew from the very beginning that we did want to have this notion of this rich environment that could be running concurrently with the title. It was very important for us based on what we learned with the Xbox 360 that we go and construct this system that would disturb the title - the game - in the least bit possible and so to give as varnished an experience on the game side as possible but also to innovate on either side of that virtual machine boundary.


AMD Unveils World's First Hardware-Based Virtualized GPU Solution at VMworld 2015

http://ir.amd.com/phoenix.zhtml?c=74093 ... id=2083146


De principio poca utilidad le veo o imagino para la virtualizacion de la GPU para usuarios distintos mas cuando tenemos los servers dedicados. (en el caso de la one), ya si la idea es utilizar la consola de host pues la cosa cambia pero de momento lo veo como contradictorio en ese sentido.

no se a ver que le pone micro

besos
Nosomi escribió:
papatuelo escribió:
Nick Baker: There was lot of bitty stuff to do. We had to make sure that the whole system was capable of virtualisation, making sure everything had page tables, the IO had everything associated with them. Virtualised interrupts.... It's a case of making sure the IP we integrated into the chip played well within the system. Andrew?

Andrew Goossen: I'll jump in on that one. Like Nick said there's a bunch of engineering that had to be done around the hardware but the software has also been a key aspect in the virtualisation. We had a number of requirements on the software side which go back to the hardware. To answer your question Richard, from the very beginning the virtualisation concept drove an awful lot of our design. We knew from the very beginning that we did want to have this notion of this rich environment that could be running concurrently with the title. It was very important for us based on what we learned with the Xbox 360 that we go and construct this system that would disturb the title - the game - in the least bit possible and so to give as varnished an experience on the game side as possible but also to innovate on either side of that virtual machine boundary.


AMD Unveils World's First Hardware-Based Virtualized GPU Solution at VMworld 2015

http://ir.amd.com/phoenix.zhtml?c=74093 ... id=2083146


De principio poca utilidad le veo o imagino para la virtualizacion de la GPU para usuarios distintos mas cuando tenemos los servers dedicados. (en el caso de la one), ya si la idea es utilizar la consola de host pues la cosa cambia pero de momento lo veo como contradictorio en ese sentido.

no se a ver que le pone micro

besos


Solo lo pongo xq se supone que AMD en pleno 2015 saca una GPU virtulizada por hardware diciendo que es la primera y... Vaya! Una vez más parece que en 2013 ya se estaba usando en XBOX.
Eso es todo casualidad, como el Mantle. No tiene nada que ver con el contrato con M$.
Cuando creéis que sería factible una ONE portatil ?

No creo que Microsoft la haga nunca, pero sería la caña, el catalogo de 360 y ONE en el bolsillo ...

Lo de la Virtualización yo le veo futuro para sistemas con Hypervisor, que es sin duda lo mejor de la ONE.
cercata escribió:Cuando creéis que sería factible una ONE portatil ?

No creo que Microsoft la haga nunca, pero sería la caña, el catalogo de 360 y ONE en el bolsillo ...

Lo de la Virtualización yo le veo futuro para sistemas con Hypervisor, que es sin duda lo mejor de la ONE.


La escalabilidad con DX12 tendrá mucho que decir en eso Cercata

Pero yo veo más lo de jugar a juegos multiplataforma en dispositivos moviles o tablets. (eso si, con continum o por lo menso con smartphones potentes)



por cierto..


Refloto lod el hUMA

Es curioso este detalle de un dev de XBOX.

1TB de espacio virtual en la tabla de paginacion de XBO

According to some documentation, there is 1TB of Virtual Memory Address Space and that a page can be in ESRAM,DRAM or unmapped. So if you tell the CPU to fetch something from a virtual address, it shouldn't matter if it's actually in the DRAM or ESRAM. You could actually pass pointers between CPU and GPU .


https://www.reddit.com/r/xboxone/comments/1kv1xd/xbox_one_has_its_own_coherency_solution_similar/cbswrn3
eloskuro escribió:Pero yo veo más lo de jugar a juegos multiplataforma en dispositivos moviles o tablets. (eso si, con continum o por lo menso con smartphones potentes)

Si es el catalogo de Steam ya firmaba, pero el de Android o iOS, como que no mola ...

¿ Que es eso de continum ?

Respecto a hUMA, la CPU puede acceder a la ESRAM con el mismo puntero que la GPU, pero creo que hay penalización de rendimiento, tarda mas que el acceso desde la GPU.
De todas formas eso es irrelevante, ya que la eSRAM está pensada para uso de la GPU, para algoritmos que requieren gran ancho de banda.
darksch escribió:Eso es todo casualidad, como el Mantle. No tiene nada que ver con el contrato con M$.


Mira, más casualidades:

Now, another report seems to condemn NVIDIA’s choices for Maxwell. Tech Report’s David Kanter said in a video podcastthat people who work at Oculus have mentioned how preemption context switching, a very important feature especially in VR scenarios, can be
really bad on NVIDIA cards.


http://wccftech.com/preemption-context-switching-allegedly-best-amd-pretty-good-intel-catastrophic-nvidia/

Paper de Mateo Valero (BSC-Microsoft Research Centre) presentado en el isca 2014 el día que se habría con el Keynote: Insight into the MICROSOFT XBOX ONE Technology

http://isaac.gelado.cat/sites/isaac.gelado.cat/files/publications/tanasic-isca2014.pdf

Imagen

Una tecnología que no ha incorporado AMD hasta 2015 y que resulta que es fundamental para VR

The difference between Kaveri’s ‘HSA Ready’ and Carrizo’s ‘HSA Final’
nomenclature comes down to one main feature – context switching. Kaveri
can do everything Carrizo can do, apart from this.


http://www.anandtech.com/show/9319/amd- ... -updates/7
Nada, casualidad.

El context switching puede verse de 2 maneras, para ello hay que combinarlo con la dualidad de la GPU de XOne:
- Para VR, cada mitad renderiza al mismo tiempo cada ojo de forma independiente. Así no hay retardos que en VR puede ser importante.
- Para render normal, dibujar 2 tiles al mismo tiempo.

Dualidad + context switching = 2 renderizados simultáneos. De esto ya se habló pero siempre viene bien recordarlo.

HoloLens release date news: Developers' version to be released in 2016
http://www.christianpost.com/news/hololens-release-date-developers-version-to-be-released-in-2016-143660/
papatuelo escribió:Now, another report seems to condemn NVIDIA’s choices for Maxwell. Tech Report’s David Kanter said in a video podcastthat people who work at Oculus have mentioned how preemption context switching, a very important feature especially in VR scenarios, can be
really bad on NVIDIA cards.

Lo mismo que decian los de Oxyde lo dicen ahora los de Oculus ... ufff que mal pinta para NVIDIA !!!!!!

Respecto a Hololens, lo mas importante es que angulo de visión va a tener la versión final ...
cercata escribió:
papatuelo escribió:Now, another report seems to condemn NVIDIA’s choices for Maxwell. Tech Report’s David Kanter said in a video podcastthat people who work at Oculus have mentioned how preemption context switching, a very important feature especially in VR scenarios, can be
really bad on NVIDIA cards.

Lo mismo que decian los de Oxyde lo dicen ahora los de Oculus ... ufff que mal pinta para NVIDIA !!!!!!

Respecto a Hololens, lo mas importante es que angulo de visión va a tener la versión final ...


No es lo mismo, oxyde hablaba del async shading estos hablan del context swtching.
papatuelo escribió:No es lo mismo, oxyde hablaba del async shading estos hablan del context swtching.

Sí que es lo mismo, Oxyde decía que el Async Shading en NVIDIA era catastrofico, y luego el Molloc matizo que era pq el cambio de contexto de NVIDIA tenia una latencia/rendimiento muy malo, no pq no tuviese Async Shading.


"As we have already detailed in an in-depth editorial two days ago, Nvidia GTX 900 series GPUs do have the hardware capability to support asynchronous shading/computing. A question arises however if that can only be achieved through the heavy use of pre-emption and context switch, which in turn adds substantial latency and defeats the purpose of the feature which is to reduce latency / improve performance"

Read more: http://wccftech.com/nvidia-async-comput ... z3l3euCXpB"

Lo que pasa es que NVIDIA esta intentando tirar balones fuera contando milongas, que si el driver no esta acabado, que si hay un bug en el antialiasing, pero el problema es mucho mas gordo !!!!
cercata escribió:
papatuelo escribió:No es lo mismo, oxyde hablaba del async shading estos hablan del context swtching.

Sí que es lo mismo, Oxyde decía que el Async Shading en NVIDIA era catastrofico, y luego el Molloc matizo que era pq el cambio de contexto de NVIDIA tenia una latencia/rendimiento muy malo, no pq no tuviese Async Shading.


"As we have already detailed in an in-depth editorial two days ago, Nvidia GTX 900 series GPUs do have the hardware capability to support asynchronous shading/computing. A question arises however if that can only be achieved through the heavy use of pre-emption and context switch, which in turn adds substantial latency and defeats the purpose of the feature which is to reduce latency / improve performance"

Read more: http://wccftech.com/nvidia-async-comput ... z3l3euCXpB"

Lo que pasa es que NVIDIA esta intentando tirar balones fuera contando milongas, que si el driver no esta acabado, que si hay un bug en el antialiasing, pero el problema es mucho mas gordo !!!!


Gracias por la aclaración.
La colaboración de Microsoft con AMD sigue dando sus frutos, mas allá de las consolas:

http://wccftech.com/amds-robert-hallock-the-vast-majority-of-dx12-titles-in-20152016-are-partnering-with-amd/

A NVIDIA esta claro que le va a sentar fatal todo esto, me gustaría saber como va a afectar a la PS4, esta sinergia PC de AMD con ONE ...
cercata escribió:La colaboración de Microsoft con AMD sigue dando sus frutos, mas allá de las consolas:

http://wccftech.com/amds-robert-hallock-the-vast-majority-of-dx12-titles-in-20152016-are-partnering-with-amd/

A NVIDIA esta claro que le va a sentar fatal todo esto, me gustaría saber como va a afectar a la PS4, esta sinergia PC de AMD con ONE ...


Lee unos cuantos mensajes a partir de ese:

http://www.elotrolado.net/hilo_hablemos-del-interior-de-xbox-one_1992540_s970#p1735628295
papatuelo escribió:Lee unos cuantos mensajes a partir de ese:

http://www.elotrolado.net/hilo_hablemos-del-interior-de-xbox-one_1992540_s970#p1735628295

Interesante ... yo creo que los 2 tenéis bastante razón.

Microsoft no creo que busque destruir a todos, ya que entonces tendría problemas por monopolio, yo creo que sólo quiere una posición dominante, por eso AMD puede licenciar APUs con GCN a otros.

Y lo de la tienda para Consola/PC/movil será una realidad enseguida, veremos como evoluciona, como reaccionan los clientes principalmente. De momento que Vulkan no haya salido aun juega a su favor.

PD: Lo de NVIDIA no ha sido culpa de AMD ni de Microsoft, AMD con Mantle abierto y con CGN dejo bien claro el camino que pensaba seguir, la culpa ha sido de NVIDIA por pensar que eso no era el futuro, y por pasar de las consolas.

PD2: Y lo bien o mal que le vaya a Sony creo que también depende de ellos principalmente, de si en su día cuando hicieron los APIs de PS4 tuvieron en cuenta GCN, Mantle, etc ...
17587 respuestas