jordi1986 escribió:Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.
El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.
Un saludo!
darksch escribió:jordi1986 escribió:Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.
El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.
Un saludo!
Ya si es que de eso va la cosa. Los multis son juegos de PC, luego los portan a consola usando nada y menos de sus especificaciones particulares y pasa lo que pasa. Ahora toca al revés, un juego hecho para la XOne que la usa bien, lo portan a PC, se ve que es exigente, y ahora todo son excusas que si pito que si flautas.
Lo que pasa es lo que se ha dicho desde hace mucho, que las consolas hay que usarlas bien porque son máquinas con muchas particularidades, y cuando esto se hace dan mucho más de sí. Eso de "el hardware es el que es" se aplica cuando un juego se programa con el PC tipo Intel + Nvidia en mente, el PC típico sin complicaciones vamos. Ni async computing, ni HSA, ni nada de nada, cosas que la consola implementa y que le meten un chutazo importante.
En esos juegos "multi", la consola está corriendo en modo PC Intel + Nvidia, y entonces sí que se tiene lo que se tiene, pero está ejecutando en clara desventaja al no usar lo que realmente lleva.
darksch escribió:Si ya, al igual que será en QB y Fable Legends lo más seguro. Por fin se está produciendo la migración y parece ser ya no tanto eso de "el hardware es el que es". Cuando se use DX12 nativo (desde 0) se liberará más CPU entre otras cosas aún.
papatuelo escribió:Y a la beta de the división tienes acceso?
Se rumorea que usa los mismos recursos que tomb raider, si tienes el cacharrete de medir en la consola cuando veas que la cosas se pone espectacular, mira a ver si el condumo se mantiene.
darksch escribió:papatuelo escribió:Y a la beta de the división tienes acceso?
Se rumorea que usa los mismos recursos que tomb raider, si tienes el cacharrete de medir en la consola cuando veas que la cosas se pone espectacular, mira a ver si el condumo se mantiene.
Tampoco, fíjate que ahora estoy con el Onigiri, ¡y ahora con el mando Elite que me acaba de llegar! xD
De todas formas, Ubisoft y usando los recursos del RoTR...emmm... No niego que se ve bien la verdad, pero llegar a usar los recursos de un 1st party (por eso de meterse la misma M$) no creo que llegue a tanto.
papatuelo escribió:Snowdrop si no me equivoco fue uno de los primeros motores de los que oimos hablar de adaptaciones a DX12.
Alguien de este foro que trabaja en UBI dijo que estaban tanteando DX12 y ese motor.
No diré quien xq parece que hace tiempo que no quiere saber de esas cosas, quizá tirón de orejas. Si tu quieres saber ya sabes donde encontrarme.
The results are spectacular. Not just in theory but in practice (full disclosure: I am involved with the Star Swarm demo which makes use of this kind of technology.) While each generation of video card struggles to gain substantial performance over the previous generation, here, the same hardware will suddenly see a doubling of performance.
XBox One is the biggest beneficiary; it effectively gives every Xbox One owner a new GPU that is twice as fast as the old one.
Fable Legends is using a number of features on Xbox One,” said Whyte, “including asynchronous compute and efficient multi-threaded rendering.” This has led to improvements in rendering efficiency, which means that the developer can “push the visual bar higher than would otherwise be possible.” This also means that the Xbox One now has better graphical and computing capabilities without actually increasing the hardware, all thanks to DirectX 12.
jordi1986 escribió:darksch escribió:jordi1986 escribió:Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.
El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.
Un saludo!
Ya si es que de eso va la cosa. Los multis son juegos de PC, luego los portan a consola usando nada y menos de sus especificaciones particulares y pasa lo que pasa. Ahora toca al revés, un juego hecho para la XOne que la usa bien, lo portan a PC, se ve que es exigente, y ahora todo son excusas que si pito que si flautas.
Lo que pasa es lo que se ha dicho desde hace mucho, que las consolas hay que usarlas bien porque son máquinas con muchas particularidades, y cuando esto se hace dan mucho más de sí. Eso de "el hardware es el que es" se aplica cuando un juego se programa con el PC tipo Intel + Nvidia en mente, el PC típico sin complicaciones vamos. Ni async computing, ni HSA, ni nada de nada, cosas que la consola implementa y que le meten un chutazo importante.
En esos juegos "multi", la consola está corriendo en modo PC Intel + Nvidia, y entonces sí que se tiene lo que se tiene, pero está ejecutando en clara desventaja al no usar lo que realmente lleva.
Estos casos, son cuando salen 1080vs900 entre la competencia y la One, eso no deja de ser un problema, porque Micro sabía que los desarrolladores si pueden ahorrarse un mes de programación se lo ahorran... Cada vez tengo más claro que esta consola tenía que salir más tarde, y que directx 12 tenía que salir más pronto, prácticamente a la vez, ya que sino la arquitectura de la consola no tiene mucho sentido, se podría haber sacado una consola más estandard, con gddr5, una gpu más potente y andando, menos gasto en i+d y juegos funcionando perfectos con directx 11 a 1080 y los de digitalfoundry en el paro.
Un saludo!
antoniokratos escribió:DirectX 12 impulsa Fable Legends hasta un 40% en su rendimiento.
Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.
PainKiller escribió:antoniokratos escribió:DirectX 12 impulsa Fable Legends hasta un 40% en su rendimiento.Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.
Vamos, que ese dato en concreto, es en referencia a Pc.
Xboxman escribió:PainKiller escribió:antoniokratos escribió:DirectX 12 impulsa Fable Legends hasta un 40% en su rendimiento.Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.
Vamos, que ese dato en concreto, es en referencia a Pc.
A mi me vale, pero os leeis las cosas cuando escribis?,no vas a encontrar otras referencias, en día que saquen el mismo juego de xbox one para dx11 y dx12 hablamos.
cch37 escribió:http://soloxboxone.com/el-interior-de-xbox-one-al-detalle/
Hay que estar refrescando la memoria cada cierto tiempo, por lo que parece.
No se trata de mejorar, se trata de usar una arquitectura con su api nativa y para lo que esta pensada, hay cosas en xbox one que solo podran funcionar junto a dx12. Pero vamos que de eso ya hemos hablado mil y una veces por aqui.
Hasta ahora solo hemos visto dx11.3 con algunas extensiones dx12, rise of the tomb raider o forza6.
PainKiller escribió:antoniokratos escribió:DirectX 12 impulsa Fable Legends hasta un 40% en su rendimiento.Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.
Vamos, que ese dato en concreto, es en referencia a Pc.
Pero gracias a DX12, Whyte asegura que se consiguen establecer un mayor número de elementos en la computación asíncrona y mejorar la eficiencia del renderizado multi-hilo, permitiendo “empujar las variables visuales más de lo que es posible de otra forma”.
papatuelo escribió:@PainKiller
Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.
PainKiller escribió:papatuelo escribió:@PainKiller
Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.
No es tan diferente.
Podrá ser más notorio, pero no dejan de ser técnicas para optimizar el uso de los recursos de la consola. Vamos, que va usar el hardware que ya se usa, de una manera más eficiente.
Y las contestaciones bordes de turno, os las podéis ahorrar, que aquí yo no he dicho nada de malas formas y ya de primeras habéis venido con el cuchillo entre los dientes.
PainKiller escribió:papatuelo escribió:@PainKiller
Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.
No es tan diferente.
Podrá ser más notorio, pero no dejan de ser técnicas para optimizar el uso de los recursos de la consola. Vamos, que va usar el hardware que ya se usa, de una manera más eficiente.
Y las contestaciones bordes de turno, os las podéis ahorrar, que aquí yo no he dicho nada de malas formas y ya de primeras habéis venido con el cuchillo entre los dientes.
PainKiller escribió:Se supone que la computación asíncrona ya ha sido usada en, por ejemplo, Rise of Tomb Raider.
Hasta donde yo se, en Xbox no hay partes que no hayan sido utilizadas, sino infrautilizadas. De ahí que hable de optimización.
PainKiller escribió:Se que no es algo común, pero sirve para ejemplificar que aún sin Dx12, es algo que se ha usado.
Probablemente, mediante extensiones, podrían usar otras características de DX12, aunque sería mucho más engorroso. A parte de que ya sería absurdo liarte a hacerlo cuando tienes DirectX 12 a la vuelta de la esquina.
We’re not experts on the Xbox One, but I can tell you what my understanding is. There are two benefits with DirectX 12 that are performance related. It’s a lot lower CPU overhead. That’s important because the CPUs on the consoles are not powerful. You have many of them but each one is not powerful. You’ll get a huge CPS benefit if you were having trouble with that by using DirectX 12. The other thing that DirectX 12 really does it offers more support for advanced GPU features. And there’s not a great way of doing that at all on DX11. By enabling that on Xbox One you can get pretty big (word sounds like per, or perf? Can’t understand) improvements on consoles. There should be tangible benefits. It will take people a few years to acclimatize to how to program and get those benefits.
Ravi: Like you said, it reduces CPU overhead. Can this, for Xbox One in the long run, can it result in games pushing out more pixels or a better resolution or better FPS?
Dev Team: Sure. If you use synchronous compute feature, if you optimize your research transition barriers that you have direct control over for DirectX, there are things you can do that you have no way to analog in DX11. There’s potential for substantial performance improvements which could manifest in increased resolution and frame rate
Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.
maz1nger escribió:Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.
Lo peligroso de una arquitectura adelantada a su tiempo es que las first (o third ayudadas por Microsoft como con el Rise of the Tomb Raider) creen juegos acorde al hardware customizado que es y que otras en cambio por vagancia o ahorro de costes lo hagan como si fuese un hardware convencional. Antecedentes de esto existen. Lo bueno es que los chapuceros quedaran en evidencia mas facilmente.
Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.
I think they are going to start letting Devs use second GCP now.I discussed this month's ago.That some time after next Xbox One OS is launched and dx12 was in the wild this would be next.
Multithreading the draw calls and use of the second GCP.Look at my post history to confirm.
Yes the second GCP is being used by OS and Snap functions.Microsoft is working towards opening up for low level priority instructions for games.It will not happen to the Xbox One Next OS is released.
That's why the whispers are 2016 and limited situations.
PS sorry I'm just now replying was waiting on my source at Redmond to get back in touch with me
If Shifty remembers there's a lot I leaked before launch.
GPU upclock Xbox One
CPU upclock Xbox One
I hinted at the flash in Xbox One
I also stated the PS4 had the same ram memory reserve with the flex of 512 mb.(But the post was deleted because it broke NDA)
Phellan_Wolf escribió:Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.
El problema principal de arriesgar con arquitecturas "no comunes" es que te salga el tiro por la culata al principio, que es lo que ha pasado en este caso.
Tambien, hay que señalar que por culpa de Kinect, no ha sido mas potente, y se decidió dejarla lo mas equilibrada podible. Una pena la verdad
papatuelo escribió:Esto es solo un rumor sin ningún tipo de credibilidad:
Un usuario de beyond3d ha publicaco lo siguiente:I think they are going to start letting Devs use second GCP now.I discussed this month's ago.That some time after next Xbox One OS is launched and dx12 was in the wild this would be next.
Multithreading the draw calls and use of the second GCP.Look at my post history to confirm.
Si miras su historial como pide y al que enlaza tiene lo siguiente:
En junio dijo esto:Yes the second GCP is being used by OS and Snap functions.Microsoft is working towards opening up for low level priority instructions for games.It will not happen to the Xbox One Next OS is released.
That's why the whispers are 2016 and limited situations.
PS sorry I'm just now replying was waiting on my source at Redmond to get back in touch with meIf Shifty remembers there's a lot I leaked before launch.
GPU upclock Xbox One
CPU upclock Xbox One
I hinted at the flash in Xbox One
I also stated the PS4 had the same ram memory reserve with the flex of 512 mb.(But the post was deleted because it broke NDA)
Como digo es un rumor sin nigún tipo de credbilidad, yo al menos no he comprobado quien es el usuario y si de verdad acerto anteriormente. Pero quería hacerme eco, así además si realmente ocurre podremos seguirle la pista como fuente contrastada. De momento y voy a parecer pesado, no hay ninguna razón para pensar que es una fuente de fiar.
David Ricardo escribió:papatuelo escribió:Esto es solo un rumor sin ningún tipo de credibilidad:
Un usuario de beyond3d ha publicaco lo siguiente:I think they are going to start letting Devs use second GCP now.I discussed this month's ago.That some time after next Xbox One OS is launched and dx12 was in the wild this would be next.
Multithreading the draw calls and use of the second GCP.Look at my post history to confirm.
Si miras su historial como pide y al que enlaza tiene lo siguiente:
En junio dijo esto:Yes the second GCP is being used by OS and Snap functions.Microsoft is working towards opening up for low level priority instructions for games.It will not happen to the Xbox One Next OS is released.
That's why the whispers are 2016 and limited situations.
PS sorry I'm just now replying was waiting on my source at Redmond to get back in touch with meIf Shifty remembers there's a lot I leaked before launch.
GPU upclock Xbox One
CPU upclock Xbox One
I hinted at the flash in Xbox One
I also stated the PS4 had the same ram memory reserve with the flex of 512 mb.(But the post was deleted because it broke NDA)
Como digo es un rumor sin nigún tipo de credbilidad, yo al menos no he comprobado quien es el usuario y si de verdad acerto anteriormente. Pero quería hacerme eco, así además si realmente ocurre podremos seguirle la pista como fuente contrastada. De momento y voy a parecer pesado, no hay ninguna razón para pensar que es una fuente de fiar.
La credibilidad se comprueba fácil. Mira su historial, y comprueba que dijo esas cosas que dice antes que nadie.
En cualquier caso, suena interesante. ¿GCP es graphics command processor? ¿Qué función tendría en juegos?
papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.
La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.
David Ricardo escribió:papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.
La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.
Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.
David Ricardo escribió:papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.
La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.
Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.
Szasz escribió:David Ricardo escribió:papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.
La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.
Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.
Puedes repasar lo q dijo @pspskulls sobre el tema (él es dev y algo entiende).
Habló de tener dos lienzos, dos pinceles. Si luego tengo tiempo busco el enlace.
pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.
Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.
Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".
Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.
A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G
¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:
> G > G
C > C
> G > G
Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.
Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).
A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.
¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...
Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.
Sorry por el tocho y espero haber dejado bastantes cosas claras.
papatuelo escribió:
Aquí tienes el enlace por si lo quieres comprobar tu:
https://forum.beyond3d.com/threads/dire ... 87/page-87
My source at Microsoft says they are playing with overclocking the GPU at 900 MHz,and ESRAM to 900 mhz.The is talk of upping the memory to 12 gigs of ddr3 leaving 7 gigs for gaming and 5 for OS.The memory upgrade is being discussed because the 3 OS are clunky and taking up a lot of memory to run as smooth as they want it too!
They are waiting for the higher ups to give the go on it.The hold up I was told was they we not getting an consistency percentage on yields?