Hablemos del interior de Xbox One

Cyborg_Ninja escribió:Pero si esta siendo generoso, la GPU de PS4 es sobre el papel un 40% mas potente, y contando con mas ROPs, mas Textures Units... los multis son la mejor manera de medir (que se han reducido las diferencias hacia una mas realista, nada de un 100% superior como COD: Ghost como a principios de generacion), los desarrolladores siempre comentan que "Es un poco mas potente" (refiriendose a la maquina de la competencia), etc etc.


Otra cosa es que creais las historias para no dormir de Misterxmedia, Flashbackman y compañia.


Es mejor creerse la chorrada que acabas de decir tú que también te la sacas de donde te da la gana. Dejala en un 400% más potente y así duermes mejor.

Hay que entender un poco para comprender que los mismos objetivos en ambas consolas no se pueden conseguir de la misma manera, pues las arquitecturas son distintas.
KinderRey escribió:@papatuelo PIM es una tecnología muy prometedora para analíticas de datos en tiempo real en entornos profesionales, gubernamentales y empresariales. Forma parte de la llamada "Exascale Computing" en la que el Departamento de Energía de EEUU ha invertido en forma de subvenciones más de 400 millones de dólares (subvenciones a AMD, Nvidia e Intel). Hay un gran interés estratégico en torno a esta tecnología, muy ligada al Big Data.
Es una idea que viene de finales de los ´80 pero inaplicable por sus costes. Mira este artículo de 1996: http://archive.wired.com/wired/archive/4.08/geek.html
Para datacenters no sólo ahorraría miles de millones en costes energéticos. Sería como construir una especie de dispositivo de cloud-computing súper eficiente. En un rack 52U con hojas estándar de 21" cabrían unos 18TB de memoria y alrededor de 1 millón de cores. Big Data es un gran negocio en el que tanto Microsoft como las demás grandes empresas tecnológicas quieren posicionarse para no perder tren.

Ahora, de ahí a verlo en una consola de videojuegos.... sería impresionante pero no lo veo.


Pero reconoce que se parece mucho, si miras el PDF la filosofía es la mism, y a fin de cuentas no está muy claro que pinta la flash en el die. Puede que no sea exactamente lo mismo, pero si parece que puede ser una aproximación.

Lo que está claro le pese a quien le pese es que XBOX ONE no tiene una arquitectura stardard y que viene una API en camino que permitirá sacarle todo el juego.

Es que hasta un niño pequeño le enseñas los CU's en la foto del Die y te dice que no son iguales, si tu le contestas que sí son iguales entonces el te preguntará que porque entonces la disposición es diferente. Es que es así de simple. A lo que puedes contestar porque sí o contestar quiza no lo sabemos todo, eso ya cada uno lo decidirá.

Desde el principio dije que el principal problema era que la gente trataba de explicar algo nuevo con discursos viejos y por eso le parecen magufadas. Pero bueno, que ha Galieleo le obligaron a decir que la tierra era el centro del universos xq sus teorías eran de magufo.
pspskulls escribió:
Cyborg_Ninja escribió:Pero si esta siendo generoso, la GPU de PS4 es sobre el papel un 40% mas potente, y contando con mas ROPs, mas Textures Units... los multis son la mejor manera de medir (que se han reducido las diferencias hacia una mas realista, nada de un 100% superior como COD: Ghost como a principios de generacion), los desarrolladores siempre comentan que "Es un poco mas potente" (refiriendose a la maquina de la competencia), etc etc.


Otra cosa es que creais las historias para no dormir de Misterxmedia, Flashbackman y compañia.


Es mejor creerse la chorrada que acabas de decir tú que también te la sacas de donde te da la gana. Dejala en un 400% más potente y así duermes mejor.

Hay que entender un poco para comprender que los mismos objetivos en ambas consolas no se pueden conseguir de la misma manera, pues las arquitecturas son distintas.


Mira, lee entrevistas de desarrolladores, tienes multitud de ellas. De CD Projekt, de A4 Games, de Rebellion, de Avalanche Studios... y todas van en la misma direccion. Xbox One tiene un buen hardware, es comparable a PS4, pero decir que son 1:1 en potencia no es cierto, y decir que Xbox One es mas potente es directamente una fantasia. Os creeis que todos somos Sonyers y conspiramos cuando estoy baneado indefinidamente del subforo Multiplataforma precisamente porque tuve gresca con un par de fanaticos de Sony ;)


Pero bueno, no se porque tienes que mentar a la PS4. Realmente deberiamos estar hablando de la doble GPU virtual de One (como no hubo fisica, ahora toca virtual) :-|
No seria mas logico pensar que si tuviera doble gpu como se comenta, esta destacaria notablemente en rendimiento respecto a la otra??? y no es asi, no? yo pienso que el movimiento se demuestra andando y tanto tecnicismo sin que haya un juego que destaque notablemente en la técnica demuestra que todo esto es una falacea y un vende motos hasta q se demuestre lo contrario con juegos con bastatante carga grafica a 1080/60P fluidos, q muy poquitos se han visto hasta ahora....vamos una maquina con 4 teraflops como se dice esto se lo ventilaria sin despeinarse y no es el caso.
Aqui quien ha mentado a ps4 es tu héroe isma. Y no me hace falta hablar con mis colegas developers, gracias.
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen


EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:

¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one


Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.
isma82 escribió:
f5inet escribió:
isma82 escribió:[...]Es justo lo que estais haciendo vosotros ahora.[...]


perdona, me acabo de perder... ¿quien es 'vosotros'?

Tu y todos los que estáis diciendo que xbox one tiene doble gpu. Sabes perfectamente a lo que me refiero.


Pero es queyo no estoy diciendo que XboxONE tiene doble GPU, ni una GPU de 4Tflops, por dios!!! yo tengo mi cabeza sobre mis hombros!!! Soy perfectamente consciente que XboxONE tiene UNA UNICA GPU, dividida en 12CUs y que dicha GPU es de 1,31Tflops. Lo unico que digo es que dicha GPU, que rinde a 1,31Tflops cuando se programa con DirectX11.x, rinde 'como si fuera' a 4Tflops cuando se programa con DirectX12, porque con DirectX12 se tiene acceso a los registros de 256bits y a los dos pipes.

Mas que nada, porque cuando se desarrollo en DirectX11, no existian GPUs con registros de 256bits ni con doble pipe. Por eso en los Multis no se ve 'apenas' diferencia, porque solo estan accediendo a registros de 128bits y a una unica cola de 16 wavefronts.
Cyborg_Ninja escribió:
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen


EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:

¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one


Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.

Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
Imagen
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.
isma82 escribió:
Cyborg_Ninja escribió:
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen


EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:

¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one


Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.

Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
Imagen
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.



has mirado por casualidad las especificaciones del pc q mueve eso???
Sgallego escribió:No seria mas logico pensar que si tuviera doble gpu como se comenta, esta destacaria notablemente en rendimiento respecto a la otra??? y no es asi, no? yo pienso que el movimiento se demuestra andando y tanto tecnicismo sin que haya un juego que destaque notablemente en la técnica demuestra que todo esto es una falacea y un vende motos hasta q se demuestre lo contrario con juegos con bastatante carga grafica a 1080/60P fluidos, q muy poquitos se han visto hasta ahora....vamos una maquina con 4 teraflops como se dice esto se lo ventilaria sin despeinarse y no es el caso.

El movimiento se demuestra andando y el camino es directx12. No te sorprende que un vhs mueva el Ryse?? pues ahí lo tienes XD
f5inet escribió:Lo unico que digo es que dicha GPU, que rinde a 1,31Tflops cuando se programa con DirectX11.x, rinde 'como si fuera' a 4Tflops cuando se programa con DirectX12, porque con DirectX12 se tiene acceso a los registros de 256bits y a los dos pipes.


A claro ahora esta todo más claro. Si correcto. Entendido. Una saludo y muchas gracias por la info.

@txusko claro en estas pruebas se pone una bestialidad de cpu para comparar el rendimiento en gráfica sólamente sin tener en cuenta el posible cuello de botella que la cpu haga o lo que tarde de por si. Por eso en este benchmark va mejor una gpu teoricamente inferior a la de xbox one. A lo que voy es que en tema de pintado 1,2 Tflops son suficientes para ejecutar Ryse y 1.31 son suficientes para ejecutar ryse a 900p y 30 fps oscilantes y que es el juego que mejor se ve en Xbox one, pero no quiere decir que por que se vea mejor demande más necesidades de computo que otro que se vea peor. Simplemente este jeugo esta bien hecho, utilizza bien el hardware, tiene tecnicas que dan vistosidad y no consumen tanto como otras, esta lo que se dice bien optimizado. Pero cuando laguien dice Ryse se come con patatas a cualquier otro eugo next gen yo digo, si pero no porque el hardware que lo ejecute se coma con patatas a cualquier otro juego, porque lo peude ejecutar un hardware equivalente al teorico de xbox one en un pc, si no más bien porque le jeugo está tecnicamente es cojonudo. Cryteck es dios en esto creo que es conocido. Es un simple ejemplo que comparar juegos diferentes no tiene ningun sentido porque a no ser que los hayas programado tu no sabes relamente si serian posibles o no en otro hardware. Son bridis al sol que se hacen constantemente en foros y por la interné que nada tiene que ver con la realidad, ojos bionicos que detectan los tflops solo con ver el resultado en pantalla... son pamplinas...
isma82 escribió:
Cyborg_Ninja escribió:
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen


EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:

¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one


Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.

Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
Imagen
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.



Ya te digo que el Benchmark puede poner lo que quieran, pero te puedo asegurar que no es correcto. A 900p y en calidad Alta, con las texturas en LOW (si las pones en High te cargas totalmente el rendimiento, teniendo caidas a 10 fps con girar la camara) y sin V-sync va mucho, muchisimo peor que en la One. No gano nada engañando, de hecho te estoy dando la razon y pienso que tu opinion es de las mas, o directamente la mas coherente del hilo. Y te lo digo porque lo he probado con una HD7770 y era totalmente insostenible jugarlo a 900p con calidad alta, y eso que las texturas se te ponen en Low obligatoriamente por la cantidad de VRAM, y si lo aumentas forzandolo el juego es injugable, el v-sync tienes que desactivarlo y tener un tearing brutal para que vaya medianamente fluido... creeme, con una 7770 no rinde como en la One ni por asomo.

De todas formas entiendo tu razonamiento, es cierto que Ryse corre igual o mejor en un PC similar a Xbox One (pongamos una 7790), y no pide TANTO PC para ser tecnologicamente mas avanzado que el 99% de los juegos del mercado.


Edito: Que quiere decir Microsoft aqui?

Andrew Goossen: The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing.We believe that the 16 queues afforded by our two ACEs are quite sufficient.


No entiendo mucho a donde quieren llegar.
isma82 escribió:
Imagen


Pero esa tabla con un I7, un SSD y DDR4, vamos, ni punto de comparación.
isma82 escribió:
Cyborg_Ninja escribió:
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen


EDIT: Aun asi, leyendo a isma82, hay cosas en las que esta totalmente equivocado:

¿En que? Ryse se folla a cualquier otro juego de xbox one y en pc funciona con una 7770 mejor que en xbox one


Eso es totalmente falso. El Ryse en PC con una HD7770 le tienes que quitar el V-sync, calidad Media (en One es High, incluidas las texturas) y las texturas en Low, a 900p o menos, y sigues teniendo unos bajones de framerate mucho mas serios. Vamos, que no, que una 7770 no rinde como la GPU de Xbox One en el Ryse.

Fijate en el benchmark a 1080p tiene menos rendimiento en frames pero está a 1080 con calidad alta la misma o superior a la de xbox one. Y fijate media 24, minimo 21. A 900p iria a 30 fps sin demasiadas caidas.
Imagen
El rendimiento en xbox one no es 30 frames estables ni mucho menos. Lo que quiero decir con esto es que el juego tiene un rendimiento sensacional en pc lo que demuestra que es un juego que tecnicamente puedes mover con 1.31 Tflops porque lo está moviendo una gpu con 1.2 Tflops y se ve mucho mejor que otros que requieren requisitos mas elevados.

Y con eso del Ryse que es lo que quieres decir?
Si quieres puedes mirar el Alien resurrection en PC y en base a eso me cuentas que gráficas tienen ambas consolas.
Cyborg_Ninja escribió:Ya te digo que el Benchmark puede poner lo que quieran, pero te puedo asegurar que no es correcto. A 900p y en calidad Alta, con las texturas en LOW (si las pones en High te cargas totalmente el rendimiento, teniendo caidas a 10 fps con girar la camara) y sin V-sync va mucho, muchisimo peor que en la One. No gano nada engañando, de hecho te estoy dando la razon y pienso que tu opinion es de las mas, o directamente la mas coherente del hilo. Y te lo digo porque lo he probado con una HD7770 y era totalmente insostenible jugarlo a 900p con calidad alta, y eso que las texturas se te ponen en Low obligatoriamente por la cantidad de VRAM, y si lo aumentas forzandolo el juego es injugable, el v-sync tienes que desactivarlo y tener un tearing brutal para que vaya medianamente fluido... creeme, con una 7770 no rinde como en la One ni por asomo.


No digo que no te crea yo vi ese benchmark y es lo que te puedo decir vamos que no me lo he inventado, si tu has puesto el juego en funcionamiento con esa gpu y no te va, pues no te voy a decir que no. Igual tu cpu estaba colapsando el juego o yo que se o el benchmark es erroneo. Ahi ya si que no te puedo decir, pero como dices se entiende la idea. Que el rendimiento de Ryse es complemtnamente entendible con el hardware que pone en ese paper. Vamos el oficial. Y ese benchmark con esa CPU tan bestia, entiendo que no mienten vamos todo puede ser...) pues parece que va mas o menos. Pero bueno igual está mal hecho. La descripción está en ruso a si que a saber xD. Y que evidentemente ese jeugo se come con patatas otros con requisitos mucho mas altas. En xbox one y en pc y es un ejemplo de porque no se pueden comparar churras con merinas.
Lo que estáis pasando continuamente por alto es que la GPU de One es una generación avanzada.
Pruebas hay. Diría que de sobra.

En documentación de Carrizo, como ya han comentado antes, hay pruebas al respecto:

Context switch
Imagen

HSA 1.0 y full Dx12

Imagen

Imagen

Y una prueba irrefutable es la GPU en sí, que dispone de una arquitectura diferente.
Imagen

Como entenderéis no es por tema de temperaturas, ni de consumo eléctrico ya que justamente Xbox One en esos apartados va bien servida.

Quien tenga una explicación convincente de esto que la diga, pero que no empiece con que es GCN 1.1 porque lo dijeron los arquitectos de Microsoft, porque eso es mentira. Esta basada en GCN 1.1, lo cual es diferente a "ES" GCN 1.1.

Tampoco me vale el tema de los juegos multis que han salido hasta ahora tirando de motores viejos y sin optimizar. Cualquiera que le gusta el hardware sabe la diferencia que puede haber de un bench a otro dependiendo de la arquitectura y el software utilizado. Una CPU puede mostrarse muy débil en un bench y muy fuerte en otro bench diferente. Es importante hacerle trabajar en el bench que le beneficia y no en el que le perjudica.

Y ya no entro en temas más delicados e interesantes que puede haber en la arquitectura de One. Solo la GPU ya nos dice que es "diferente".
One thing to keep in mind when looking at comparative game resolutions is that currently the Xbox One has a conservative 10 per cent time-sliced reservation on the GPU for system processing. This is used both for the GPGPU processing for Kinect and for the rendering of concurrent system content such as snap mode. The current reservation provides strong isolation between the title and the system and simplifies game development (strong isolation means that the system workloads, which are variable, won't perturb the performance of the game rendering). In the future, we plan to open up more options to developers to access this GPU reservation time while maintaining full system functionality.

To facilitate this, in addition to asynchronous compute queues, the Xbox One hardware supports two concurrent render pipes. The two render pipes can allow the hardware to render title content at high priority while concurrently rendering system content at low priority. The GPU hardware scheduler is designed to maximise throughput and automatically fills "holes" in the high-priority processing. This can allow the system rendering to make use of the ROPs for fill, for example, while the title is simultaneously doing synchronous compute operations on the Compute Units.


Polyteres.

Esto que has puesto no contradice lo que se anda diciendo por aqui. En especial f5net.

Es más. Habla de que el 10% extra de potencia que le han dado a la consola al quitatar esa rescricción de kinect, no es la unica cosa que harán para dar más potencia a los juegos, y que ese doble registro de tareas se aprovechara para dar mas potencia extra a los juegos.

Vamos que irán acotando los ciclos que consume el sistema para darselos a los juegos.

Eso da a entender que no usan o usaban ese segundo CP, y que lo harán, quizá con DX12.

Ademas de que segun parece hay más chica que soltar en la arquitectura de xbox one.
papatuelo escribió: Y con eso del Ryse que es lo que quieres decir?
Si quieres puedes mirar el Alien resurrection en PC y en base a eso me cuentas que gráficas tienen ambas consolas.

pues aqui lo tienes saca tus propias conclusiones sobre la potencia descocada de xbox one y su rendimiento a 4 tflops (cuando salga dx 12, que se me olvidaba)
Imagen

Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.
isma82 escribió:[...]
Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.


pero hombre, Isma82... se te ve olvidadizo...

http://blogs.msdn.com/b/directx/archive ... vings.aspx
http://www.extremetech.com/gaming/18797 ... -tech-demo

si precisamente DirectX12 (y directX11.3) tiene como principal 'feature' la reduccion del 'overhead' de la CPU al alimentar a la GPU... Eso si, no vayamos a hablar aqui de GNM y/o GNMX, que no es su lugar...
f5inet escribió:
isma82 escribió:[...]
Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.


pero hombre, Isma82... se te ve olvidadizo...

http://blogs.msdn.com/b/directx/archive ... vings.aspx
http://www.extremetech.com/gaming/18797 ... -tech-demo

si precisamente DirectX12 (y directX11.3) tiene como principal 'feature' la reduccion del 'overhead' de la CPU al alimentar a la GPU... Eso si, no vayamos a hablar aqui de GNM y/o GNMX, que no es su lugar...

Un 60% de cpu en PC va a alimentar un 250% de incremente de rendimiento en GPU... XD
Si hombre si...
[oki]
Mira Ryse en una 7770
https://www.youtube.com/watch?v=_AYi8sbwcA8
Ryse en una 7790
https://www.youtube.com/watch?v=iRk3NLOIM8o
Ryse en una R7 260x
https://www.youtube.com/watch?v=PWs_9aDI3i8

Ninguna de estas gpus tiene 2'6 Tflops y mueven ryse a 1080p. Explícamelo... a si no son DX 12. Vale. Cuando sean dx 12 si pasa lo mismo me gustará saber cual es la escusa. Esperaremos :)
Por cierto. Es curioso que en la demo de UE4 se dijese que en las consolas next gen no se iba a poder usar el Sparse Voxel Octree Global Illumination tech (SVOGI)

With all of this in mind, the fact that PS4 is within striking distance at all is a fairly substantial achievement. Only the omission of Sparse Voxel Octree Global Illumination tech (SVOGI) comes across as a disappointment - and from this, it's difficult to avoid the conclusion that at a base-line level, the next generation of console hardware isn't quite as powerful as Epic was hoping for this time last year.


Pero ahora sepamos que Fable Legends si que va a poder soportarlo ^^

https://www.youtube.com/watch?v=lawvf4jdEO4#t=48
isma82 escribió:
f5inet escribió:
isma82 escribió:[...]
Pues claramente la cpu les esta haciendo a ps4 y xbo tres cuellos de botella uno detras de otro. No es novedad o si? Lo interesante es ver como va a ahcer apra que esa cpu chunguera va a alimentar el rendimiento de 4 tflops. Eso si que es digno de estudio. Da para tres paper.


pero hombre, Isma82... se te ve olvidadizo...

http://blogs.msdn.com/b/directx/archive ... vings.aspx
http://www.extremetech.com/gaming/18797 ... -tech-demo

si precisamente DirectX12 (y directX11.3) tiene como principal 'feature' la reduccion del 'overhead' de la CPU al alimentar a la GPU... Eso si, no vayamos a hablar aqui de GNM y/o GNMX, que no es su lugar...

Un 60% de cpu en PC va a alimentar un 250% de incremente de rendimiento en GPU... XD
Si hombre si...
[oki]


Claro que si. si precisamente los ultimos juegos (Excepto Assasins Creed: Parity, que tiraba un monton de CPU para la IA) van a escribir shaders cada vez mas largos para conseguir mas efectos por pixel. cada vez se usa menos la CPU, y mas la GPU. ¡Si los programadores lo que quieren son shaders mas complejos y mas largos!

El problema de un Shader muy largo, es que genera faltas de pagina y el pipe se atasca completamente mientras la L1 de instrucciones se llena, ya que, aunque tengas los datos con los que operar, te falta el programa que se le aplica. si puedes tener un 'segundo pipe' esperando en caliente, para que mientras el primer pipe 'se llene', se vaya ejecutando el segundo pipe, no necesitas la CPU para nada en ese proceso, ya que el planificador de la GPU lo haria automaticamente.
Urian está baneado del subforo por "Troll"
eloskuro escribió:Por cierto. Es curioso que en la demo de UE4 se dijese que en las consolas next gen no se iba a poder usar el Sparse Voxel Octree Global Illumination tech (SVOGI)

With all of this in mind, the fact that PS4 is within striking distance at all is a fairly substantial achievement. Only the omission of Sparse Voxel Octree Global Illumination tech (SVOGI) comes across as a disappointment - and from this, it's difficult to avoid the conclusion that at a base-line level, the next generation of console hardware isn't quite as powerful as Epic was hoping for this time last year.


Pero ahora sepamos que Fable Legends si que va a poder soportarlo ^^

https://www.youtube.com/watch?v=lawvf4jdEO4#t=48


No sabía que la Xbox One tenía una Nvidia, ah no, que es una presentación de PC que queréis hacer pasar como algo de Xbox One.

Ejem, ejem, ejem...

http://www.lionhead.com/blog/2014/april ... e-legends/

Epic has previously researched a real-time GI method called SVOGI with promising results, but it was never quite fast enough. Of all the papers on the subject, Crytek's Light Propagation Volumes seemed like the best solution for our game. It was fast, scalable and could also support reflections and secondary occlusion. However, this method was a DirectX 9 implementation, and we felt we could do even better with modern DirectX 11-class hardware and the power of compute shaders.

We developed an implementation of Light Propagation Volumes, specifically targeted at modern GPUs (such as the one in Xbox One). Our method supports 2nd-Order Spherical Harmonics, which gives better directionality than the original method. We use compute shaders to generate a high quality voxel representation of the scene's geometry, which we use to provide secondary occlusion and multiple light bounces.


Lo del Fable Legends no es SVOGI, que por cierto del SVOGI lo más caro en computación es la generación del Octree, por eso se están buscando formas de hacer iluminación global sin estructuras de datos pesadas.
Gracias Urian. Pensaba que lo iba a implementar xbo. Pero es mas interesante que ese mismo tipo de efecto se consiga con menos potencia.
Cyborg_Ninja escribió:
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen

Digamos que algo sé sobre AC Unity al menos...

Adjuntos

pspskulls escribió:
Cyborg_Ninja escribió:
pspskulls escribió:. Y no me hace falta hablar con mis colegas developers, gracias.


Imagen

Digamos que algo sé sobre AC Unity al menos...


Asi que trabajas en UBI jodio.
Tendras unas conversaciones animadas con lherre :P
isma82 escribió:pues aqui lo tienes saca tus propias conclusiones sobre la potencia descocada de xbox one y su rendimiento a 4 tflops (cuando salga dx 12, que se me olvidaba)
Imagen

.


Sigo sin entender tus argumentos, lo siento. No sólo te inventas cosas, como que todas las gráficas GCN actuales pueden hacer "context switching" o que FULL HSA es un concepto difuso e inventado, sino que ahora sacas una gráfica donde comparas tarjetas de PC para intentar demostrar "queseyo" de la One.
Hay que reconocer que el gabinete de crisis ha respondido a las mil maravillas, no han dormido siquiera.

Algunos pedian fuentes primarias y ahora que se las dan ya no les valen.

Xbox One es tecnologicamente una consola de nueva generación, la de la competencia no lo es, desafortunadamente hay que seguir esperando a DX12 para callar bocas porque ni los documentos de fuentes primarias les valen ya, veo tanta gente quedando en ridiculo por unos "incentivos" que les dan, en fin.
Nuhar escribió:
isma82 escribió:
Imagen


Pero esa tabla con un I7, un SSD y DDR4, vamos, ni punto de comparación.


Lo más curioso de esa gráfica es que ese i7 es un 5960X de 1000€ oceado a 4.6Ghz que en Ryse rinde incluso peor que un sencillo i5 4590 de 170€ a velocidad stock:

Imagen

Una HD7790 te mueve Ryse a 1080p en calidad media con ciertos filtros entre 31 y 35fps. El gráfico siguiente es con un i7 4770k con una DDR3 normal y corriente, pero 'viejo' i5 2500k a velocidad stock lo mueve de manera muy similar, a unos 30fps bastante estables:

Imagen
KinderRey escribió:
Sigo sin entender tus argumentos, lo siento. No sólo te inventas cosas, como que todas las gráficas GCN actuales pueden hacer "context switching" o que FULL HSA es un concepto difuso e inventado, sino que ahora sacas una gráfica donde comparas tarjetas de PC para intentar demostrar "queseyo" de la One.

Es sano leer la documentación de AMD, YA no se cuantas veces lo he puesto, revisatelo no he dicho context switching (termino que tampoco aparece en el paper) si no Multiple Concurrent Contexts que lo unico que hay de diferenten entre lo que dice AMd y lo que pone en el paper es la palabra INDEPENDIENTE como señalo otro forero. Pero ahí no pone context switching como tal en ningun de los dos documentos ni en el paper ni el la presentación de AMD. Tu valoraro como te plazca.

En cauto a la gráfica del benchmark es muy facil de enteder. Una 7770 con una GPU que no la limite, puede mover Ryse incluso mejor que Xbox one. A no ser que ese benchmark esté mal como comenta un usuario. Yo solo me remito a un benchmark publicado en internet. A nivel de GPU Ryse peude funcionar en una GPU con 1.2 Tflops a 1080p con algo peor de framerate en media que en xbox one. Sin una cpu que la limite. Que a xbox one la está limitando el jaguar? Pues bueno que le vamos a hacer. Es parte de la consola.
Aqui peudes ver como el jeugo tira con esa gpu
https://www.youtube.com/watch?v=_AYi8sbwcA8
Y en una 7790
https://www.youtube.com/watch?v=VhzE7iM-VF4
Lo que quería decir es que Ryse aunque sea vea mejor que muchos otros juegos no está demandando un rendimiento inexplicable con la información de este paper. Es más incluso por gpu está rindiendo menos de lo que debería si no tuviera una cpu que la limitase. Básicamente lo que estoy diciendo y es muy facil de enteder que comparar dos juegos diferentes no tiene ningún sentido basandose en cual se ve mejor para asegurar que una máquina tiene mas potencia que la otra. Salvo que hubiese diferencias notorias y evidentes muy grandes, por ejemplo que una lo ejecuta a 30 fps y otra a 60 con similares caracteristicas... Así que comparar uncharted vs Gears of War o Ryse Vs Infamous SS es un brindis al sol. Que si os apetece hacer adelante pero que no demuestran el rendimiento real de dos máquinas. Que el rendimiento real se demuestra en jeugos hechos por el mismo estudio que comparten los mismos assets o parecidos, que implementan las mismas técnicas o parecidas, etc no comparar dos jeugos de dos estudios con entornos completamente diferentes, desarrolladores con diferentes habilidades, diferentes artistas e diferente tamaño del mapeao. Y de paso poner un ejemplo de que Ryse es un juego que en pc lo mueve cualquier pc con unas caracteristicas similares a xbox one y que no esta mostrando ninguna potencia desmedida.
A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.

Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.

Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.


PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.

Aqui te dejo un video:


http://www.youtube.com/watch?v=_AYi8sbwcA8

High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.

Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.


EDIT: Hemos puesto el mismo video y es lo que yo te decia eh...
@isma82
Estás diciendo que Ryse se ve muy bien y que lo que necesitarían las consolas para moverlo mejor no es más CPU si no más GPU. Hemos pasado entonces de un contexto en el que los juegos son menos dependientes de la GPU para serlo más de la CPU.

En ese caso si con lo que sería una HD7770 (suponiendo que lo sea) y gracias a esos nuevos motores, tipo Cryengine 3, podemos ver cosas brutisimas. ¿Dónde tiene entonces el problema la XBOX ONE? ¿Según tos propias deducciones tiene la configuración perfecta, tenemos una GPU que requiere de la CPU trabajando en multihilo (Directx 12) para no hacerle cuello de botella y mostrar gráficos que equivaldrían a configuraciones mucho más potentes de GPU.

Entonces para no hace cuello de botella a una HD7850 necesitaríamos aún más CPU para tener un sistema equilibrado, o como mínimo que alguien hiciera funcionar la CPU como Dios quiere y manda.

Según tus propios argumentos la GPU deXBOX ONE es suficiente, supongo que ves donde quiero llegar.

Recuerdas?
"Tenemos un sistema balanceado para 12 CU's"

Liberarón potencia de la GPU para dar respuesta al panorama actual, más GPU dependiente, pero sabés que todo eso va cambiar más pronto que tarde.

Está claro que la CPU con las nuevas API's y los nuevos motores no necesitaba más.
Cyborg_Ninja escribió:A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.

Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.

Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.


PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.

Aqui te dejo un video:


http://www.youtube.com/watch?v=_AYi8sbwcA8

High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.

Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.


EDIT: Hemos puesto el mismo video y es lo que yo te decia eh...


El tema de la memoria, es normal Xbox one puede manejar unos 3 GB de vRAM y una gpu de 1 GB se queda corta no por potencia de renderizado si no porque no tiene ram para almacenarla. Pero es que hay tropecientos ejemplos de que ryse lo mueve cualquier gpu de pc medio decente a 1080p. Por cierto creo recordar que en DF dijeron que xbox one no tenia todas las texturas en very high tampoco, a parte de menos sombras, un lod menor, etc.
Cyborg_Ninja escribió:A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.

Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.

Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.


PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.

Aqui te dejo un video:


http://www.youtube.com/watch?v=_AYi8sbwcA8

High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.

Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.


Todo eso esta muy bien, pero de One concretamente yo no digo nada.

Lo que discuto es que el usuario Nuhar ha dicho 'Pero esa tabla con un I7, un SSD y DDR4, vamos, ni punto de comparación.' como si esos componentes extraordinariamente caros fuera una gran ventaja para un PC, cuando en absoluto son una mejora sustancial que proporcionen mas frames en Ryse que un viejo i5 2500k con DDR3 y un vulgar disco mecánico.

En PC para juegos principalmente las diferencias las marcan sobre todo las tarjetas gráficas. En tema memoria, procesadores y discos duros poner algo mucho más caro no te proporciona un gran incremento de rendimiento.
isma82 escribió:
Cyborg_Ninja escribió:A ver, Mazinger, la clave esta en las texturas. Mover el juego en low-medium-high no hay una diferencia abismal ni en lo que demanda ni en lo visual, el problema son las texturas. Una HD7770 o una 7790 te ponen las texturas en Low o en el mejor de los casos en Medium, mas alla de eso pide mucha VRAM y se carga el rendimiento de estas dos GPU, sin embargo lo sorprendente es que tanto en Medio como en Bajo tiene peores texturas que la version de One, que sus texturas equivalen a Ultra.

Mover el juego a 1080p, medio-alto lo puedes hacer con una 7770 a un framerate estable y sin v-sync, pero con las texturas en LOW. Ponerlas en Medio es perder 10 fps facilmente, y ponerlas en High te hace el juego sencillamente injugable, con caidas a 10-15 fps en giros de camara bruscos, por no tener la VRAM requerida.

Es decir, la 7790 si puede rendir parecido a la version de One, pero la 7770 de ninguna de las maneras.


PD: isma82, te digo lo mismo, no sabemos cuales son las specs con las que estan ejecutando el juego.

Aqui te dejo un video:


http://www.youtube.com/watch?v=_AYi8sbwcA8

High/Medio custom, entre 25-36fps, SIN V-SYNC, con texturas en BAJO.

Si le pones las texturas en el equivalente a la version de Xbox One se te pone a 10 fps, es que lo tengo comprobado. Lo probe con un i5-2500k a 4 Ghz, dudo que estuviera limitando a una 7770.


EDIT: Hemos puesto el mismo video y es lo que yo te decia eh...


El tema de la memoria, es normal Xbox one puede manejar unos 3 GB de vRAM y una gpu de 1 GB se queda corta no por potencia de renderizado si no porque no tiene ram para almacenarla. Pero es que hay tropecientos ejemplos de que ryse lo mueve cualquier gpu de pc medio decente a 1080p. Por cierto creo recordar que en DF dijeron que xbox one no tenia todas las texturas en very high tampoco, a parte de menos sombras, un lod menor, etc.


No hay very high creo recordar, hay "low-medium-high" y DF dijo que las de Ryse en One estaban en High seguro. Y eso te lo confirmo yo, porque se notaba bastante la diferencia en la resolucion de las texturas de jugarlo en low a la version de One.

Si es cierto en cambio que mejoraron la gestion de LOD en PC y algun detallito mas, pero ya te digo que esos benchmarks no son para nada justos, con una 7770/7790 te pone las texturas en low por defecto, y no puedes cambiar la opcion manualmente, tienes que forzarla trasteando en los archivos del juego, y cuando "obligas" con Medium puede ser jugable, con high sencillamente te cargas el rendimiento.


Lo que discuto es que el usuario Nuhar ha dicho 'Pero esa tabla con un I7, un SSD y DDR4, vamos, ni punto de comparación.' como si esos componentes extraordinariamente caros fuera una gran ventaja para un PC, cuando en absoluto son una mejora sustancial que proporcionen mas frames en Ryse que un viejo i5 2500k con DDR3 y un vulgar disco mecánico.


Estoy deacuerdo, realmente no va a influir en nada porque ni la RAM ni la CPU estan haciendo cuello de botella con un simple i5. Yo no soy creyente de las teorias misterxmedienses, ya lo he reiterado varias veces (y me esta pareciendo vergonzoso lo que he leido en otros lares sobre este post), pero tampoco es cierto que con un i5-2500k a 4Ghz, 8 gb de RAM DDR3 y una HD7770 te rinda igual o mejor que en la One. No es cierto, te rinde peor.
papatuelo escribió:@isma82
Estás diciendo que Ryse se ve muy bien y que lo que necesitarían las consolas para moverlo mejor no es más CPU si no más GPU. Hemos pasado entonces de un contexto en el que los juegos son menos dependientes de la GPU para serlo más de la CPU.

En ese caso si con lo que sería una HD7770 (suponiendo que lo sea) y gracias a esos nuevos motores, tipo Cryengine 3, podemos ver cosas brutisimas. ¿Dónde tiene entonces el problema la XBOX ONE? ¿Según tos propias deducciones tiene la configuración perfecta, tenemos una GPU que requiere de la CPU trabajando en multihilo (Directx 12) para no hacerle cuello de botella y mostrar gráficos que equivaldrían a configuraciones mucho más potentes de GPU.

Entonces para no hace cuello de botella a una HD7850 necesitaríamos aún más CPU para tener un sistema equilibrado, o como mínimo que alguien hiciera funcionar la CPU como Dios quiere y manda.

Según tus propios argumentos la GPU deXBOX ONE es suficiente, supongo que ves donde quiero llegar.

Recuerdas?
"Tenemos un sistema balanceado para 12 CU's"

Liberarón potencia de la GPU para dar respuesta al panorama actual, más GPU dependiente, pero sabés que todo eso va cambiar más pronto que tarde.

Está claro que la CPU con las nuevas API's y los nuevos motores no necesitaba más.


La verdad es que la propia cpu de xbox one limita a la gpu, en menor medida que la cpu de ps4 limita a su gpu ya que la diferencia es mayor. DE ahí lo de que estaba balanceado para 12 cus. Meter más cus sin incrementar el rendimiento de cpu hubiera sido poco eficiente, es correcto. Aún asi la cpu de xbox one es bastante poca cosa y está limitando todos los juegos multiplataforma que están rindiendo por debajo de las capacidades que debería rendir, ejemplos han cienes, pero claro limita mucho menos que a la ps4. Por eso el rendimiento de ps4 no es como lo pinta únicamente su gpu. Si ps4 tuviera una cpu que no la limitará entonces si podría rendir cerca del 50% de rendimiento, pero no la tiene lo cual la limita. Meter en un jaguar que tiene capados dos cures para dios sabe que del sistema operativo, es decir que solo dispone de 6 cores una gpu que rinde a 4 tflops es como si le pones a un amd de 4 nucleos perrillero una amd R9 280X. Absurdo complemtamente.

@maz1nger Todo el mund osabe que los benchmarks en pc para gpu se hacen con cpus bestiales para que no sean limitantes a la hora de medir el rendimiento. Porque se está midiendo el rendimiento gráfico no de cpu. Para medir el rendimiento de cpu se hace justamente a la inversa. Parece ser que hay alguno que no lo sabía por lo que veo, hay tantas cosas que desconocen xD. Que el benchmark este mal como digo pues puede ser. Pero lo que está claro es que no se necesita una 7850 ni una 7870 ni una R9 270 ni ninguna grafica mas potente que el rendimiento teorico de la consola para mover el juego, con cualquier grafica que tenga vram suficiente puede moverlo como One o mejor. Ryse es un juego gráficamente potente pero por como está hecho no por la maquina que lo ejecutó inicialmente, que tiene la potencia que tiene.
isma82 escribió:
papatuelo escribió:@isma82
Estás diciendo que Ryse se ve muy bien y que lo que necesitarían las consolas para moverlo mejor no es más CPU si no más GPU. Hemos pasado entonces de un contexto en el que los juegos son menos dependientes de la GPU para serlo más de la CPU.

En ese caso si con lo que sería una HD7770 (suponiendo que lo sea) y gracias a esos nuevos motores, tipo Cryengine 3, podemos ver cosas brutisimas. ¿Dónde tiene entonces el problema la XBOX ONE? ¿Según tos propias deducciones tiene la configuración perfecta, tenemos una GPU que requiere de la CPU trabajando en multihilo (Directx 12) para no hacerle cuello de botella y mostrar gráficos que equivaldrían a configuraciones mucho más potentes de GPU.

Entonces para no hace cuello de botella a una HD7850 necesitaríamos aún más CPU para tener un sistema equilibrado, o como mínimo que alguien hiciera funcionar la CPU como Dios quiere y manda.

Según tus propios argumentos la GPU deXBOX ONE es suficiente, supongo que ves donde quiero llegar.

Recuerdas?
"Tenemos un sistema balanceado para 12 CU's"

Liberarón potencia de la GPU para dar respuesta al panorama actual, más GPU dependiente, pero sabés que todo eso va cambiar más pronto que tarde.

Está claro que la CPU con las nuevas API's y los nuevos motores no necesitaba más.


La verdad es que la propia cpu de xbox one limita a la gpu, en menor medida que la cpu de ps4 limita a su gpu ya que la diferencia es mayor. DE ahí lo de que estaba balanceado para 12 cus. Meter más cus sin incrementar el rendimiento de cpu hubiera sido poco eficiente, es correcto. Aún asi la cpu de xbox one es bastante poca cosa y está limitando todos los juegos multiplataforma que están rindiendo por debajo de las capacidades que debería rendir, ejemplos han cienes, pero claro limita mucho menos que a la ps4. Por eso el rendimiento de ps4 no es como lo pinta únicamente su gpu. Si ps4 tuviera una cpu que no la limitará entonces si podría rendir cerca del 50% de rendimiento, pero no la tiene lo cual la limita. Meter en un jaguar que tiene capados dos cures para dios sabe que del sistema operativo, es decir que solo dispone de 6 cores una gpu que rinde a 4 tflops es como si le pones a un amd de 4 nucleos perrillero una amd R9 280X. Absurdo complemtamente.



Realmente solo hablando de GPU, la de PS4 le podria sacar un maximo de un 40%, no se de donde ha salido ese 50%, para rendir un 50% deberian ser 2 TFlops, al ser 1,8 es alrededor de un 40%.

No digo nada del rendimiento en general (lo digo para los de los pantallazos del "otro foro" :D) si no simplemente que matematicamente hablando es mas correcto un 40%.


PD: Y si, si la GPU de One rindiera 4 TFlops, o incluso 2,5, el cuello de botella con la CPU seria bestial. Pero bueno, se inventan que es de doble rendimiento tambien la CPU y fuera. :-|
Cyborg_Ninja escribió:Realmente solo hablando de GPU, la de PS4 le podria sacar un maximo de un 40%, no se de donde ha salido ese 50%, para rendir un 50% deberian ser 2 TFlops, al ser 1,8 es alrededor de un 40%.

Correcto mas bien 40%.
Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:

Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.


Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.
KinderRey escribió:Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:

Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.


Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.


- Primero: esa cita no es mia.
- Segundo: Me encanta que digas que no se de lo que hablo, pero te parezca normal según que otras cosas bastante mas infumables, pero bueno. vuelvo a insistir en que te leas las diapositivas de AMD sobre los multiples contextos concurrentes. Si se ha equivocado AMD, pues ves y corrigele a ellos ;)
- Tercero Los aces (la propia transparecencia de amd lo dice) permiten realizar multiples contextos concurrentes. La transparencia explica justamente para que sirven los ACEs.
- No hay doble GPU, por lo tanto no puedo mezclaro con algo que no existe, según Microsoft ojo. Que no lo digo yo.
Vendría bien recordar el nombre del hilo "Hablemos del interior de Xbox One", ese gran desconocido.

Esta muy bien que habléis de PC y lo extrapoléis a Xbox One, pero ni es el hilo, ni es correcto.
Los PC son genéricos y los juegos tienen que correr en la mayor cantidad de hardwares posibles. Por lo que arquitecturas exóticas no tienen sentido ahí y el rendimiento es muy diferente a un sistema cerrado. No es lo mismo crear una aplicación solo para funcionar en una arquitectura determinada, que hacerlo funcionar en muchas arquitecturas. ¿Es mejor un i5 que un FX8300? Depende de la aplicación.

Estáis dejando fuera de la ecuación Dx12 o incluso mantle. Tengo la "ligera" impresión de que los grandes beneficiados serán los procesadores AMD, con bajo IPC y gran número de hilos.

Al final todo sale a la luz, si estáis en lo cierto y Xbox One no es más que un PC con forma de VHS, tranquilos, se verá.
isma82 escribió:
KinderRey escribió:Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:

Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.


Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.


- Primero: esa cita no es mia.
- Segundo: Me encanta que digas que no se de lo que hablo, pero te parezca normal según que otras cosas bastante mas infumables, pero bueno. vuelvo a insistir en que te leas las diapositivas de AMD sobre los multiples contextos concurrentes. Si se ha equivocado AMD, pues ves y corrigele a ellos ;)
- Tercero Lso aces (la propia transparecencia de amd lo dice) permiten realizar multiples contextos concurrentes. La transparencia explica justamente para que sirvem los ACEs.
- No hay doble GPU, por lo tanto no puedo mezclaro con algo que no existe, segun Microsoft ojo. Que no lo digo yo.


Cierto a lo primero. Mis disculpas.

Por otro lado, no se que cosas infumables dices que me parecen normales.

Y por último, te vuelvo a decir, el pdf que pones mil veces es una presentación de la arquitectura GCN sin un roadmap detallado.
@isma82

Me reconoces entonces que el que aumente el rendimiento de la CPU aumentará el rendimiento general. Entonces deberás reconoces que la API DX12 que mejora el overhead de la CPU ya por si misma producira una mejora significativa.

HD7770 en PC sin bottleneck en la CPU fps averega 50 y la XBOX 30. Eso supone una mejora del 66%. Y dando por hecho que la GPU sea una standar de PC y que la API de XBOX ONE no sea mejor que la de PC y que no hubiera ningún elemento extraño en la arquitectura de la consola.

Ya lo dijo Boyd Multerer: En esta ocasón las GPU son verdaderas bestias, ahora todo girara entorno al flujo de datos. (Cita de memoría no exacta)
O Brad Wardell: Cada poseedor de XBOX ONE recibirá con DX12 una GPU X2.

Esas no son fuentes primarias? Brad Wardell está trabajando en juegos XBOX ONE bajo DX12, por si no lo sabes. Y esas declaraciones son anteriores al NDA, tras la buoild de 2014.

Para mi está muy claro, no necesito saber como funciona el turbo de un coche para saber que un 1600 turbo tira más que un atmósférico a pesar de tener ambos la misma cilidranda.
isma82 escribió:
KinderRey escribió:Hombre @isma82 yo no es que lo valore como me de la gana, yo me ciño a lo que dices, que es:

Quien ha explicado ese gráfico no ha entendido nada ese diagrama
Lo que ves ahí son distribuidores de trabajo de la GPU, todas las GNC por diseño trabajan con dos contextos pero no signigfica que tenga una doble GPu si no que en los tiempos muertos de la gráfica puede hacer otro tipo de tareas sin la perdida de rendimiento de la arquitectura basada en VLIW.


Donde dices que todas las GCN trabajan con DOS contextos (falso) y lo mezclas con las colas de trabajo, ACE y la doble GPU porque, y esto sí es una valoración mía, no sabes muy bien de lo que hablas. El hábito no hace al monje, como se suele decir.


- Primero: esa cita no es mia.
- Segundo: Me encanta que digas que no se de lo que hablo, pero te parezca normal según que otras cosas bastante mas infumables, pero bueno. vuelvo a insistir en que te leas las diapositivas de AMD sobre los multiples contextos concurrentes. Si se ha equivocado AMD, pues ves y corrigele a ellos ;)
- Tercero Los aces (la propia transparecencia de amd lo dice) permiten realizar multiples contextos concurrentes. La transparencia explica justamente para que sirven los ACEs.
- No hay doble GPU, por lo tanto no puedo mezclaro con algo que no existe, según Microsoft ojo. Que no lo digo yo.


veo que te tienes el discurso bien aprendido.
No hay doble GPU, jamas ha habido doble GPU.

lo que hay son registros el doble de anchos y soporte de dos contextos independientes por hardware. Ya te he corregido una vez la historia de 'contextos concurrentes': TODAS LAS GPU DE LA FAMILA GCN TIENEN CONTEXTOS CONCURRENTES, al igual que todas las CPU x86 del Pentium en adelante tiene FPU integrada. esos contextos concurrentes se encolan en una 'pila' de hasta 16 wavefronts, y se dice que son 'concurrentes' porque si un wavefront esta a la espera de un dato de RAM o una dependencia de una wavefront anterior o posterior, puede delegar 'su turno' a otro wavefront que si tenga todos los datos disponible, mas que nada, para no dejar ociosa la GPU a la espera de la RAM. Sin embargo, ya he dicho antes que esa pila de 16 wavefronts es bastante habitual 'que se atasque' por una mala ordenacion de las instrucciones del shader o por la latencia/saturacion del bus de RAM, lo cual obliga a detener toda la pila hasta que los datos empiecen a llegar. Sin embargo, la GPU de XboxONE, al tener DOS CONTEXTOS/PILAS INDEPENDIENTES, si la pila de alta prioridad se llena, para no dejar la GPU ociosa, empezara a ejecutar la pila (o el contexto) de baja prioridad.

Ah, porque tambien tiene un sistema de QoS (calidad de servicio, Quality of Service) que da prioridad a una pila sobre otra, por ejemplo, el contexto grafico es mas importante que el contexto GPGPU de calculo de fisicas o de animacion (si asi lo decide el programador, mucho ojo, quizas el programador prefiera repetir un frame de una animacion, que perder un frame completo de pantalla porque no llega a tiempo)
KinderRey escribió:Cierto a lo primero. Mis disculpas.

Por otro lado, no se que cosas infumables dices que me parecen normales.

Y por último, te vuelvo a decir, el pdf que pones mil veces es una presentación de la arquitectura GCN sin un roadmap detallado.

PS4 y xbox one soportan multiples contextos concurrentes, herederos de su arquitectura de pc base y modificados y ampliados cada uno de una forma diferente.

De la filtración de VGALeaks:

- As we said Liverpool GPU is derived from R10XX family from AMD (Southern Islands). Front end blocks, back end blocks, and the basics of the shader cores remain largely unchanged. But they have added some major new additions (mostly aimed at improving the capabilities and efficiences of compute workloads).

- This pipelines can perform simulteneous asynchronous compute.

PS4 GPU has a total of 2 rings and 64 queues on 10 pipelines

– Graphics (GFX) ring and pipeline
– High Priority Graphics (HP3D) ring and pipeline
– 8 Compute-only pipelines (Each pipeline has 8 queues of a total of 64)

La gran diferencia es que las pipelines de xbox one y ps4 son diferentes y se gestionan de forma diferente. Los ACes son diferentes en numero y "prestaciones" y nos como dijo el propio ingeniero de AMD deterministas a la hora de gestionar la gpu.
A dia de hoy la tasa de utilización posible para ps4 de hecho es superior. Seguramente con el tiempo cambie, pero la gpu de ps4 no es el doble de potente que la de xbox one sin embargo mira lo que sucede
Imagen
Dobla el rendimiento con un 40% teórico. Eso es porque Xbox one a dia de hoy no está siendo utilizada al máximo en gpgpu, por el api o por lo que sea. Par eso sirven entre otras cosas los múltiples contextos concurrentes para aprovechar al máximo el rendimiento.

Podemos seguir dándole todas las vueltas que queráis. PS4 tiene una forma de hacer las cosas y xbox one otra y no necesariamente tiene que ser una mucho mejor que la otra. LA solución de xbox one manteniendo dos cumpute commands y dos graphic commands que pueda operar sobre toda la gpu o parte de ella me parece muy buena. Que tenga coherencia de caches y ciertas caracteristicas HSA a pesar de lo que muchos decían que no tambien me parece genial y ya lo dijo AMD hace tiempo y en los documentos de Ms ya mencionaba la coherencia de cache. Todo eso está muy bien, pero por favor seamos serios y dejemos de fantasear con el hardware.

Ese paper es de Marzo de este año, tiene 7 y 8 meses. No es ninguna "bomba" de ultima hora, lo que aparece ahi de una y otra forma aparece en multitud de sitios.

Lo que no tiene ningun sentido es multiplicar tflops como si fuesen panes yu peces en la biblia. Imagino que sabras lo que cuesta que un hardware consiga incrementar el throutput un 20 o 30%, como para que de repente se libere un 250% por arte de magia potagia o que una consola de 330 euros de coste de fabricación pueda rendir como un pc de 1000 euros.

@f5inet
[Ah, porque tambien tiene un sistema de QoS (calidad de servicio, Quality of Service) que da prioridad a una pila sobre otra, por ejemplo, el contexto grafico es mas importante que el contexto GPGPU de calculo de fisicas o de animacion (si asi lo decide el programador, mucho ojo, quizas el programador prefiera repetir un frame de una animacion, que perder un frame completo de pantalla porque no llega a tiempo)]

Ya si ya se que tu por decir peudes decir lo que te salga del bolo. Eso si sin ningun document oficial sobre xbox one que lo acredite. No voy a vovler a lo mismo. Si nos quieres contar milongas, pon la documentacion que así lo acredita. En le paper no pone nada de QoE, las dos colas de prioridad están en ps4, vea documento adjunto arriba, y esto vuelve a ser un bucle infinito. Que si que ya sabemos que las consolas han modificado las gpus y las cpus de pc de la que parten. Que ya lo sabemos que para poder ejecutar dos contextos gráficos simultaneos hay que crear dos colas de comandos y tener dos caminos para ejecutar, pero los dos caminos sobre (El mismo puñetero hardware) sin fantasias demenciales de rendimientos en double precisión de las alus en los paper porque ¿Para que va a poner microsoft 2,6 tflops en si puede poner 1,31 tflops que luce mucho más? y oyes para que va a especificar que son 1,31 en doble precisión, lo dejamos ahí para que los chavales se dediquen inventarse trolas, así los tenemos entretenidos.

En fin que si, que muy bien que perfecto. Xbox one es la hostia en moto y dx 12 vendrá a sacarnos de los juegos a 30 fps rascaos y los muchos juegos a 900p y los que quedaran cuando los multis empiecen a pedir candela tanto a ps4 como a xbox one... y todo será maravilloso y feliz y los pobres compradores de otras consolas diran ¡¡¡Que inveciles fuimos pudiendo tener skynet por 350 euros!!! Pero ya cuando eso suceda, nos avisas majo que ya igual vale para entonces la consola 200 euros y hay catalogo decente para disfrutar de la putensiaaa...

Ale ya me la has pre-vendido, pasa por caja a cobrar tu comisión.
@isma82

Muy bonito ese gráfico de UBI, muy muy bonito.

¿Pero que pasó en realidad? Porque no te hace falta gráfico ya tienes el juego en la calle, ¿Tu que juegas a gráficos? Creía que se jugaba a videojuegos.
Si una 7700 mueve perfectamente el ryse, q chusta de gpu lleva la ps4 q no ha podido mover algo q se le parezca?
Isma82, sabemos que PS4 tiene 8 ACEs y 64 lineas de registro, pero la GPU de One cuenta con 2 y 16 lineas. ¿Tiene algo la GPU de Xbox One? ¿Como piensa MS "luchar" contra una mayor capacidad GPGPU? leyendo a los ingenieros de Microsoft creo que dan a entender que si tienen algo, pero no entiendo la explicacion, ni con el ultimo paper tampoco.
papatuelo escribió:@isma82

Muy bonito ese gráfico de UBI, muy muy bonito.

¿Pero que pasó en realidad? Porque no te hace falta gráfico ya tienes el juego en la calle, ¿Tu que juegas a gráficos? Creía que se jugaba a videojuegos.


La realidad de ese gráfico es que cuando se hicieron las pruebas no se tenia acceso al potencial total de One. Y hasta aquí puedo leer. La realidad es bien distinta.

Por cierto, esto no era el hilo del interior de One? Veo que se habla más hoy aquí de ps4 y de comparaciones gratuitas que de lo que va el hilo.
17587 respuestas