Hablemos del interior de Xbox One

Esta visto que alguno lleva muy mal eso de que no le hagan caso,que le pillen las cagadas...y como salida el insulto fácil a encima usuarios que tienen unos modales intachables aquí.Ayer se te aviso desde moderacion ya pero me parece que el próximo aviso sera con premio.Luego podrás también acusar a eol de sectarios en tu blog y tal...
hablemos de la arquitectura, muchachous
Me ha precido iinteresante este simulador de tecnologia heterogenea y de doble pipeline de AMD
Multi2Sim
http://developer.amd.com/partners/tools-partners/profilers/multi2sim-heterogeneous-system-simulator/

superscalar pipelines
Multi2Sim supports a cycle-based simulation of superscalar pipelines, modeling instruction fetch, decode, issue, write-back, and commit stages. The model features hardware structures such as the reorder buffer, load/store queues, register file, or trace cache. The pipeline front-end supports different types of branch prediction and micro-instruction decoding, while the back-end implements out-of-order and speculative execution.


Multithreading
A multithreaded pipeline model supports execution of multiple programs or one parallel application spawning child threads. The multithreaded processor shares a common pool of functional units among hardware threads. The rest of the pipeline resources can be configured as private or shared among hardware threads. Multi2Sim supports models for coarse-grain, fine-grain, and simultaneous multithreading.
Hookun escribió:Esta visto que alguno lleva muy mal eso de que no le hagan caso,que le pillen las cagadas...y como salida el insulto fácil a encima usuarios que tienen unos modales intachables aquí.Ayer se te aviso desde moderacion ya pero me parece que el próximo aviso sera con premio.Luego podrás también acusar a eol de sectarios en tu blog y tal...


No es la primera vez que pierde las formas (a sabiendas) para que le baneen en cuanto se queda sin argumentos o no es capaz de rebatir a otros. En su propio blog admitió que entraba a este hilo a trolear.
Full HSA con protocolo MOESI y L2 cache en Xbox One

¿cuantos sistemas actuales tienen Full HSA? ¿Solo Xbox One?

“MOESI hsc uses a MOESI protocol for all of the CPU caches included in the system. For the GPU caches, we add an L2 cache controller that provides coherence between the GPU and CPU L2 caches.”





Imagen
pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.

Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.

Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".

Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.

A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G

¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:

> G > G
C > C
> G > G

Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.

Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).

A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.

¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...

Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.

Sorry por el tocho y espero haber dejado bastantes cosas claras.




Rescato la excepcional explicación de pspskulls para que no se pierda tapada por salidas de pata de banco y demás. Tanto éste post como el posterior de pspskulls son tan claros que deberíamos ponerlos como explicación en la wiki o en la primera página del hilo para gente que, como yo, no entendemos del tema. Por mi parte enhorabuena.

Salvo excepciones, excelente debate. Así da gusto.
eloskuro escribió:Full HSA con protocolo MOESI y L2 cache en Xbox One

¿cuantos sistemas actuales tienen Full HSA? ¿Solo Xbox One?

“MOESI hsc uses a MOESI protocol for all of the CPU caches included in the system. For the GPU caches, we add an L2 cache controller that provides coherence between the GPU and CPU L2 caches.”





Imagen

Aa de hoy solo existe en One el FULL HSA.Que es una gran ayuda para los sistemas unificados de memoria.
Hookun escribió:
eloskuro escribió:Full HSA con protocolo MOESI y L2 cache en Xbox One

¿cuantos sistemas actuales tienen Full HSA? ¿Solo Xbox One?

“MOESI hsc uses a MOESI protocol for all of the CPU caches included in the system. For the GPU caches, we add an L2 cache controller that provides coherence between the GPU and CPU L2 caches.”





Imagen

Aa de hoy solo existe en One el FULL HSA.Que es una gran ayuda para los sistemas unificados de memoria.


Eso es imposible que sea full HSA por la propia arquitectura de la consola, es sencillo, el HSA es que la CPU y GPU vean en todo momento lo que tienen la otra guardada en memoria, pero en ONE no sucede por la esram a la que accede solo la GPU(en realidad puede acceder tambien la CPU, pero tiene que hacer un rodeo muy ineficiente a traves de la GPU vamos que no tiene mucho sentido). MS siempre hablo de que tienen algo ``parecido´´ pero ni mucho menos que sea una solucion como la que publicita AMD (hUMA), la unica consola actualmente con posibilidad de ``full hsa´´es ps4 por tener la memoria unificada ya que ese es el requisito para tenerlo(y no no vengo a hacer publicidad de ps4 ni la tengo ni me interesa por ahora, solo la pongo de ejemplo). Si tiene la ddr3, pero por la esram ya no puede ser ``full hsa´´.

Sobre los compute command processor y graphics command processor, es una discucion muy vieja y que a estas alturas se haya redescubierto para darle potencias ocultas a la one es un tanto ridiculo, y no se porque obviais que ps4 tambien tiene 2 de cada, vamos que la cosa sigue igual que siempre.
[+risas] [+risas] [+risas]

Se van unos y vienen otros .....

Imagen
@shaderyt:

Pues que sea Full HSA lo explica perfectamente pspskulls, te lo cito: "Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas."

O sea que, SÍ es FULL HSA.

Saludos
@shaderyt en XOne la CPU tiene un acceso de coherencia de datos de 30 GB/s. Así que ni vueltas ni nada raro. Respecto a GPU, ya acaban de responder. Así que podría decirse que sí que es Full HSA, con un ancho de 30 GB/s desde la CPU.
shaderyt escribió:Eso es imposible que sea full HSA por la propia arquitectura de la consola, es sencillo, el HSA es que la CPU y GPU vean en todo momento lo que tienen la otra guardada en memoria, pero en ONE no sucede por la esram a la que accede solo la GPU(en realidad puede acceder tambien la CPU, pero tiene que hacer un rodeo muy ineficiente a traves de la GPU vamos que no tiene mucho sentido). MS siempre hablo de que tienen algo ``parecido´´ pero ni mucho menos que sea una solucion como la que publicita AMD (hUMA), la unica consola actualmente con posibilidad de ``full hsa´´es ps4 por tener la memoria unificada ya que ese es el requisito para tenerlo(y no no vengo a hacer publicidad de ps4 ni la tengo ni me interesa por ahora, solo la pongo de ejemplo). Si tiene la ddr3, pero por la esram ya no puede ser ``full hsa´´.

Sobre los compute command processor y graphics command processor, es una discucion muy vieja y que a estas alturas se haya redescubierto para darle potencias ocultas a la one es un tanto ridiculo, y no se porque obviais que ps4 tambien tiene 2 de cada, vamos que la cosa sigue igual que siempre.


citas celebres: shaderyt, 4 de diciembre de 2014

"eso es imposible en xbox one"

"solo es posible en ps4"

"todo lo que tiene xbox one tambien lo tiene ps4"

"no vengo a publicitar a ps4...no me interesa"

magnific!!
enaguas escribió:
shaderyt escribió:Eso es imposible que sea full HSA por la propia arquitectura de la consola, es sencillo, el HSA es que la CPU y GPU vean en todo momento lo que tienen la otra guardada en memoria, pero en ONE no sucede por la esram a la que accede solo la GPU(en realidad puede acceder tambien la CPU, pero tiene que hacer un rodeo muy ineficiente a traves de la GPU vamos que no tiene mucho sentido). MS siempre hablo de que tienen algo ``parecido´´ pero ni mucho menos que sea una solucion como la que publicita AMD (hUMA), la unica consola actualmente con posibilidad de ``full hsa´´es ps4 por tener la memoria unificada ya que ese es el requisito para tenerlo(y no no vengo a hacer publicidad de ps4 ni la tengo ni me interesa por ahora, solo la pongo de ejemplo). Si tiene la ddr3, pero por la esram ya no puede ser ``full hsa´´.

Sobre los compute command processor y graphics command processor, es una discucion muy vieja y que a estas alturas se haya redescubierto para darle potencias ocultas a la one es un tanto ridiculo, y no se porque obviais que ps4 tambien tiene 2 de cada, vamos que la cosa sigue igual que siempre.


citas celebres: shaderyt, 4 de diciembre de 2014

"eso es imposible en xbox one"

"solo es posible en ps4"

"todo lo que tiene xbox one tambien lo tiene ps4"

"no vengo a publicitar a ps4...no me interesa"

magnific!!


[plas] [plas] [plas] [plas] [qmparto] [qmparto]
Si al final es cierto, porqué no se ha publicado ya la noticia?
Por cierto muy esperanzadora la explicación de pspskulls
Hay gente que entra a éste hilo a cubrirse de gloria...
http://www.extremetech.com/gaming/164934-xbox-one-bus-bandwidths-graphics-capabilities-and-odd-soc-architecture-confirmed-by-microsoft

Imagen

Here’s the important points, for comparison’s sake. The CPU cache block attaches to the GPU MMU, which drives the entire graphics core and video engine. Of particular interest for our purposes is this bit: “CPU, GPU, special processors, and I/O share memory via host-guest MMUs and synchronized page tables.” If Microsoft is using synchronized page tables, this strongly suggests that the Xbox One supports HSA/hUMA and that we were mistaken in our assertion to the contrary. Mea culpa.

You can see the Onion and Garlic buses represented in both AMD’s diagram and the Microsoft image above. The GPU has a non-cache-coherent bus connection to the DDR3 memory pool and a cache-coherent bus attached to the CPU. Bandwidth to main memory is 68GB/s using 4×64 DDR3 links or 36GB/s if passed through the cache coherent interface. Cache coherency is always slower than non-coherent access, so the discrepancy makes sense.


Extremetech se autoedito para no llevarse zascas en este sentido
shaderyt escribió:Sobre los compute command processor y graphics command processor, es una discucion muy vieja y que a estas alturas se haya redescubierto para darle potencias ocultas a la one es un tanto ridiculo, y no se porque obviais que ps4 tambien tiene 2 de cada, vamos que la cosa sigue igual que siempre.


Podrías mostrarme donde figura que ps4 tenga dos GCPs y dos CCP?
Por pura curiosidad... me perdí esa vieja discusión y no la encuentro.

Saludos
eloskuro escribió:http://www.extremetech.com/gaming/164934-xbox-one-bus-bandwidths-graphics-capabilities-and-odd-soc-architecture-confirmed-by-microsoft

Imagen

Here’s the important points, for comparison’s sake. The CPU cache block attaches to the GPU MMU, which drives the entire graphics core and video engine. Of particular interest for our purposes is this bit: “CPU, GPU, special processors, and I/O share memory via host-guest MMUs and synchronized page tables.” If Microsoft is using synchronized page tables, this strongly suggests that the Xbox One supports HSA/hUMA and that we were mistaken in our assertion to the contrary. Mea culpa.

You can see the Onion and Garlic buses represented in both AMD’s diagram and the Microsoft image above. The GPU has a non-cache-coherent bus connection to the DDR3 memory pool and a cache-coherent bus attached to the CPU. Bandwidth to main memory is 68GB/s using 4×64 DDR3 links or 36GB/s if passed through the cache coherent interface. Cache coherency is always slower than non-coherent access, so the discrepancy makes sense.


Extremetech se autoedito para no llevarse zascas en este sentido


No dicen nada que yo no dijera, ahi hablan de la ddr3, no dudo(como ya dije)que microsoft tenga alguna solucion parecida, pero eso de hUMA o HSA totalmente compatible con xbox one como hablais de eso nada por la esram por el simple hecho de que la CPU no lee de ella(por estar conectada a la gpu directamente mas que otra cosa), y no lo digo yo que el hUMA funcione asi lo dice AMD

Imagen

Sobre la otra pregunta de los GCPs y CCP

Imagen

Arriba a la izquierda tienes la respuesta, cada circulo son los ``graphis´´ y cada recuadro son los ``compute´´. Blanco y en botella.

Ya veo por donde tirais, en cuanto alguien dice algo a favor de la one es una fuente fiable de informacion, en cuanto alguien lo duda es que debe de ser un troll, madre mia no he puesto ni un post y ya me vienen a cuchillo. Ya se me habia olvidado porque no me gustaban estos debates en consolas, pero tranquilos ya os dejo tranquilos con vuestras targiversaciones de informacion.
siguiendo con las frases del compañero @enaguas, y a tenor del ultimo comentario del sujeto en cuestion, solo decir que al compañero le ha faltado decir que DX12 es imposible en Xbox One y que también lo tiene PS4 [chulito] [sonrisa]
Estoy seguro que M$ apoquinó 3000 kilos a AMD para tener exactamente la misma arquitectura de PS4 que no desembolsó esa cantidad, es que es de lógica, M$ es una ONG.
Agarraros a los famosos 3000 millones es agarraros a un clavo ardiendo, eso no es un argumento es entrar en pura especulacion.

Pd: y ya me voy que lo dije antes y aqui sigo.
Xbox One tiene un canal troncal, al q acceden tanto la DDR3, como la SRAM.

Mira los diagramas de la hotchips y analízalos detalladamente. Fijate en las flechas y hacía donde van.

Si sigues sin verlo, luego enlazo un paper de AMD.
Aqui mucha gente diciendo que si no sabeis no hableis y creo que son ellos los que menos idea tienen
Grinch escribió:Aqui mucha gente diciendo que si no sabeis no hableis y creo que son ellos los que menos idea tienen

Ya se sabe que todos los gurús están en el hilo "Hablemos del interior de PS4". Aquí los zopencos.
darksch escribió:
Grinch escribió:Aqui mucha gente diciendo que si no sabeis no hableis y creo que son ellos los que menos idea tienen

Ya se sabe que todos los gurús están en el hilo "Hablemos del interior de PS4". Aquí los zopencos.



Lo verdaderamente extraño es que todo el ejército de astroturfers y tecnolistos que llevan un par de días posteando sin descanso para desacreditar lo expuesto por gente como pspskulls con educación y aportando pruebas, datos y contrastando, son gente (o bots, no lo se) con muy muy pocos mensajes, es como si se hubiesen alineado los planetas en su contra opinión y han sentido la necesidad de dejarse en este hilo 20 de las 24 horas del día.

Gracias a todos los que, en pro o en contra de la xbox, intentáis generar un debate sano eintentáis explicar a quienes no tenemos ni idea de muchas de estas cosas, a mi me encanta este mundillo y estoy aprendiendo mucho con vosotros.

[plas] [plas]
cjdiez escribió:
darksch escribió:
Grinch escribió:Aqui mucha gente diciendo que si no sabeis no hableis y creo que son ellos los que menos idea tienen

Ya se sabe que todos los gurús están en el hilo "Hablemos del interior de PS4". Aquí los zopencos.



Lo verdaderamente extraño es que todo el ejército de astroturfers y tecnolistos que llevan un par de días posteando sin descanso para desacreditar lo expuesto por gente como pspskulls con educación y aportando pruebas, datos y contrastando, son gente (o bots, no lo se) con muy muy pocos mensajes, es como si se hubiesen alineado los planetas en su contra opinión y han sentido la necesidad de dejarse en este hilo 20 de las 24 horas del día.


[plas] [plas]


Algunos incluso se dejan la piel en varios foros, no solo en este hilo eh? [360º]
Fandro está baneado por "Troll"
shaderyt escribió:Agarraros a los famosos 3000 millones es agarraros a un clavo ardiendo, eso no es un argumento es entrar en pura especulacion.

Pd: y ya me voy que lo dije antes y aqui sigo.


Los 3000 millones se los gastó Microsoft, pero lo que se ahorró Sony al construir su consola le servió para pagar a gente como tú. Déjalo ya URIAN

P.D. Muchas gracias a todos los foreros que de verdad tratan de descubrir realmente que es y como funciona lo que hay dentro de la máquina.
Grinch escribió:Aqui mucha gente diciendo que si no sabeis no hableis y creo que son ellos los que menos idea tienen


Lo que no entiendo es como gente como Urian, Herebus y demás no están trabajando en empresas de alto nivel cuando son capaces de despreciar el trabajo y reirse de los ingenieros de empresas que generan miles de millones de dolares de beneficios cada año.

Bueno, si lo entiendo, lo que no entiendo es como algunos les dan bola.
a ver es q no saveis q el deporte nacional de españa ahora no es el futbol, si no venir aqui a temer mierda contra la one sea de lo q sea, aunque sea algo q dicen los propios creadores de la consola, asi va el pais
marjalone está baneado por "Saltarse el ban con un clon"

Eso es imposible que sea full HSA por la propia arquitectura de la consola, es sencillo, el HSA es que la CPU y GPU vean en todo momento lo que tienen la otra guardada en memoria, pero en ONE no sucede por la esram a la que accede solo la GPU(en realidad puede acceder tambien la CPU, pero tiene que hacer un rodeo muy ineficiente a traves de la GPU vamos que no tiene mucho sentido). MS siempre hablo de que tienen algo ``parecido´´ pero ni mucho menos que sea una solucion como la que publicita AMD (hUMA), la unica consola actualmente con posibilidad de ``full hsa´´es ps4 por tener la memoria unificada ya que ese es el requisito para tenerlo(y no no vengo a hacer publicidad de ps4 ni la tengo ni me interesa por ahora, solo la pongo de ejemplo). Si tiene la ddr3, pero por la esram ya no puede ser ``full hsa´´.

Sobre los compute command processor y graphics command processor, es una discucion muy vieja y que a estas alturas se haya redescubierto para darle potencias ocultas a la one es un tanto ridiculo, y no se porque obviais que ps4 tambien tiene 2 de cada, vamos que la cosa sigue igual que siempre.


aun no te as enteredado que la ESRAM lee y escribe al mismo tiempo en gpu y cpu y y la ram ? ala vete a tu casa a marear a los del lado oscuro , la fuerza esta con nosotros y estais cagaos jajajaja
Fandro escribió:
shaderyt escribió:Agarraros a los famosos 3000 millones es agarraros a un clavo ardiendo, eso no es un argumento es entrar en pura especulacion.

Pd: y ya me voy que lo dije antes y aqui sigo.


Los 3000 millones se los gastó Microsoft, pero lo que se ahorró Sony al construir su consola le servió para pagar a gente como tú. Déjalo ya URIAN

P.D. Muchas gracias a todos los foreros que de verdad tratan de descubrir realmente que es y como funciona lo que hay dentro de la máquina.


shaderyt es Urian????

Bueno yo la verdad es que de este hilo aprendo bastante de todos los que aportan información de forma neutra...pero desgraciadamente hay otros que parecen que solo exponen sus conocimientos para confrontar o solo para deleitarse con sus propias palabras... a base de intentar frustrar todas las posibles hipótesis que aquí se plantean...

por ejemplo el "buenas gente" que no me acuerdo como se escribe su nombre...sus exposiciones son harto cultivadas y hacen que no se dude de sus conocimientos (que los tiene)....pero ese tono pedagógico casí paternalista como en plan..".hey chicos atender que voy a dar una charla."....chirria bastante.... y esa pertinaz idea que intenta trasmitir que todo está ya dicho...que no hay más que buscar... que todo está claro.....me hace preguntarme....que si toda la innovación planteada en el diseño interior de xbox one es solo para poder ejecutar multitarea...(aplicaciones abiertas con juego funcianando) algo que la consola hace desde que salio al mercado....porque dicen los propios dev´s que hasta que no aparezca DX12 no se va a poder aprovechar el diseño innovador presentado en esta consola? Para que va servir dx12 en one entonces?
enaguas escribió:[...]
Para que va servir dx12 en one entonces?


Para cerrar bocas, principalmente.

Y dar coba a los lloros de maletines y paridad
No iba a contestar pero ¿Como habeis llegado a la conclusion de que soy urian? Sigo su blog pero de ahi a ser el xD...

A mi me gustaria saber quien es ``questo´´ que se a puesto a criticarme en el blog de urian, si quieres decirme algo me lo dices a la cara, no hace falta que me sigas por donde ando mas alla de EOL que es donde estabamos hablando.
shaderyt escribió:No iba a contestar pero ¿Como habeis llegado a la conclusion de que soy urian? Sigo su blog pero de ahi a ser el xD...

A mi me gustaria saber quien es ``questo´´ que se a puesto a criticarme en el blog de urian, si quieres decirme algo me lo dices a la cara, no hace falta que me sigas por donde ando mas alla de EOL que es donde estabamos hablando.



mira tu mucho: "me voy"... pero no te vas...mucho no iba a contestar...pero contestas.....

di la verdad: di que has venido a flamear y que estás flameando
Agradeceria que no hubiese disputas personales ni de un lado y otro.

Ya te he puesto el por qué extremetech dice que hay indicios suficientes para creer que xbox one tiene full hsa.
Y creo mas a una web seria como esa.
enaguas escribió:
shaderyt escribió:No iba a contestar pero ¿Como habeis llegado a la conclusion de que soy urian? Sigo su blog pero de ahi a ser el xD...

A mi me gustaria saber quien es ``questo´´ que se a puesto a criticarme en el blog de urian, si quieres decirme algo me lo dices a la cara, no hace falta que me sigas por donde ando mas alla de EOL que es donde estabamos hablando.



mira tu mucho: "me voy"... pero no te vas...mucho no iba a contestar...pero contestas.....

di la verdad: di que has venido a flamear y que estás flameando


Es lo que tiene que me querais tanto.

Al menos he argumentado algo desde mi primer comentario, la primera contestación ya fue a intentar ridiculizar lo que dije, asi que no se que esperabais(y tu has sido uno de ellos, que ni has argumentado solo has flameado, eso que estas criticando).
shaderyt escribió:
BiG Porras escribió:siguiendo con las frases del compañero @enaguas, y a tenor del ultimo comentario del sujeto en cuestion, solo decir que al compañero le ha faltado decir que DX12 es imposible en Xbox One y que también lo tiene PS4 [chulito] [sonrisa]


Si no entiendes nada de lo que digo mejor no digas nada(tu y los demas que solo venis a intentar ridiculizar todo lo que diga), ONE ya tiene sus propias APIs basadas en DX, y por usar ps4 DX12 podria usarla, si no lo hace es por MS, las dos consolas tienen CPU jaguar y graficas GCN, asi que es perfectamente capaz de usarlo igual que lo usara la one, pero obviamente MS no iba a darle su DX a la competencia directa en consolas.


Pero si lo que estas diciendo no lo entiendes ni tu, estas copiando las frases de Herebus de Meristation practicamente tal cual. No pongo fuente del hilo porque no se si esta permitido, pero estas copiando todo lo que dice el tal cual, hasta su "aparicion" en Meristation no tenias n.p.i de que decir con el nuevo paper de MS. Vas "a la deriva" de lo que dicen otros porque realmente no entiendes de lo que estas hablando.

Y ojo, no me parece mal, pero como minimo no vayas en plan "no entendeis lo que digo" cuando has estado esperando a que viniera un fanboy de Sony como Herebus a Meri/Hypebeyond para hacer copy paste de sus comentarios.
Cyborg_Ninja escribió:Pero si lo que estas diciendo no lo entiendes ni tu, estas copiando las frases de Herebus de Meristation practicamente tal cual. No pongo fuente del hilo porque no se si esta permitido, pero estas copiando todo lo que dice el tal cual, hasta su "aparicion" en Meristation no tenias n.p.i de que decir con el nuevo paper de MS.


Tambien estoy registrado en meristation ya ves(y en mediavida, y en forocoches...), y si claro, eso sera, es que antes de herebus existia la nada. Comente aqui justo hoy porque vi un link que traia aqui, en un foro que hicieron un copy/paste de los que escribio herebus, ya ves que casualidad. Y no no soy un fanboy de sony por mucho que lo repitais, no tengo ninguna consola ni sony me paga por defenderlos.
shaderyt escribió:
Cyborg_Ninja escribió:Pero si lo que estas diciendo no lo entiendes ni tu, estas copiando las frases de Herebus de Meristation practicamente tal cual. No pongo fuente del hilo porque no se si esta permitido, pero estas copiando todo lo que dice el tal cual, hasta su "aparicion" en Meristation no tenias n.p.i de que decir con el nuevo paper de MS.


Tambien estoy registrado en meristation ya ves, y si claro, eso sera, es que antes de herebus existia la nada.

Vosotros si que teneis idea citando a soloxbox.com y falconsp.


Yo citando a quien? pero chaval, tu has visto mis comentarios en este hilo? si he dicho por activa y por pasiva que se dejen de fumadas, que la GPU de One rinde lo que pone que rinde, que no hay doble GPU ni nada por el estilo.

Si quieres negar que estas plagiando los comentarios de Herebus porque tu de por si no tenias ni idea de como interpretar el paper de Microsoft pues tu mismo, pero no hay mas que leer su comentario y luego el tuyo para darse cuenta de que has dicho lo mismo casi con las mismas palabras, cambiandolas un poco para que no se note tanto.

Si vas a la deriva de otros foreros me parece bien, pero encima no tengas la cara de decir "es que no entendeis lo que digo", porque desde que salio el tema llevas usando los argumentos de otros, Polysteres, isma82, Urian y ahora Herebus, al menos se humilde y lo que no entiendas reconocelo y di que te parece mas coherente lo que dice X persona, no te atribuyas el "merito".
shaderyt escribió:
enaguas escribió:
shaderyt escribió:No iba a contestar pero ¿Como habeis llegado a la conclusion de que soy urian? Sigo su blog pero de ahi a ser el xD...

A mi me gustaria saber quien es ``questo´´ que se a puesto a criticarme en el blog de urian, si quieres decirme algo me lo dices a la cara, no hace falta que me sigas por donde ando mas alla de EOL que es donde estabamos hablando.



mira tu mucho: "me voy"... pero no te vas...mucho no iba a contestar...pero contestas.....

di la verdad: di que has venido a flamear y que estás flameando


Es lo que tiene que me querais tanto.

Al menos he argumentado algo desde mi primer comentario, la primera contestación ya fue a intentar ridiculizar lo que dije, asi que no se que esperabais(y tu has sido uno de ellos, que ni has argumentado solo has flameado, eso que estas criticando).


yo no he flameado nada, y la primera mención que te he dedicado iba porque has entrado en este hilo hoy comparando todo con PS4....algo por lo que se reporta y banea....ya que este hilo es para hablar sobre xbox y su interior.

En lo que si he pecado y pido disculpas al resto de usuarios,,, es en darte coba...

ya lo dejo. Adiós.
Cyborg_Ninja escribió:
shaderyt escribió:
Cyborg_Ninja escribió:Pero si lo que estas diciendo no lo entiendes ni tu, estas copiando las frases de Herebus de Meristation practicamente tal cual. No pongo fuente del hilo porque no se si esta permitido, pero estas copiando todo lo que dice el tal cual, hasta su "aparicion" en Meristation no tenias n.p.i de que decir con el nuevo paper de MS.


Tambien estoy registrado en meristation ya ves, y si claro, eso sera, es que antes de herebus existia la nada.

Vosotros si que teneis idea citando a soloxbox.com y falconsp.


Yo citando a quien? pero chaval, tu has visto mis comentarios en este hilo? si he dicho por activa y por pasiva que se dejen de fumadas, que la GPU de One rinde lo que pone que rinde, que no hay doble GPU ni nada por el estilo.

Si quieres negar que estas plagiando los comentarios de Herebus porque tu de por si no tenias ni idea de como interpretar el paper de Microsoft pues tu mismo, pero no hay mas que leer su comentario y luego el tuyo para darse cuenta de que has dicho lo mismo casi con las mismas palabras, cambiandolas un poco para que no se note tanto.

Si vas a la deriva de otros foreros me parece bien, pero encima no tengas la cara de decir "es que no entendeis lo que digo", porque desde que salio el tema llevas usando los argumentos de otros, Polysteres, isma82, Urian y ahora Herebus, al menos se humilde y lo que no entiendas reconocelo y di que te parece mas coherente lo que dice X persona, no te atribuyas el "merito".


Sobre lo segundo lo edite porque podia ser una falta de respeto.

Y claro que me puedo equivocar, y leo los pdf, veo los diagramas, leo como funcionan las cpus y gpus, la ram, para que sirven los coprocesadores ect, leo lo que dicen los ingenieros, y isma, urian etc son buenas fuentes para comprender todo. El problema esta en cuando no entiendes nada(no lo digo por ti en concreto) y citas un articulo como una verdad absoluta sin saber ni la velocidad de reloj de una CPU, que es lo que veo mucho por aqui. No se, bastante claro esta y siempre estoy leyendo para aprender mas, pero resulta que isma, urian y demas si coincido con lo que dicen, ¿si ellos dicen que X tiene 8 de ram DDR3 y yo digo lo mismo estoy plagiando? Pero vamos respeto tu opinion y no quiero malos rollos.

Enaguas@ Puse PS4 como ejemplo no por flamear ni nada, y lo deje claro en el mensaje, porque era la arquitectura que mas se acerca a la ONE.
No se, bastante claro esta y siempre estoy leyendo para aprender mas, pero resulta que isma, urian y demas si coincido con lo que dicen, ¿si ellos dicen que X tiene 8 de ram DDR3 y yo digo lo mismo estoy plagiando? Pero vamos respeto tu opinion y no quiero malos rollos.


En serio, quieres que ponga lo que ha puesto Herebus y lo que has dicho tu, para que se vea que es practicamente 1:1 y casualmente no habias dicho nada parecido en ningun otro foro que te haya leido hasta que ha aparecido Herebus?

Vamos hombre, no me tomes el pelo, has cogido su opinion y la has amoldado un poco y santas pascuas, que es que te expresas igual y usas exactamente las mismas palabras, el mensaje es practicamente identico. Una cosa es decir lo mismo de otra forma y otra coger el comentario tal cual. Primero te basabas practicamente en lo que decia isma82, luego en Polysteres y finalmente en Herebus.

Aqui o en otros lares hay gente que saben mas que yo, pero yo no me voy a a atribuir lo que dicen ellos como si fueran parte de mis conocimientos como estas haciendo tu.
Para retomar el orden del hilo y dejar las disputas y seguir con el debate:


pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.

Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.

Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".

Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.

A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G

¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:

> G > G
C > C
> G > G

Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.

Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).

A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.

¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...

Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.

Sorry por el tocho y espero haber dejado bastantes cosas claras.
pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.

Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.

Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".

Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.

A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G

¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:

> G > G
C > C
> G > G

Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.

Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).

A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.

¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...

Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.

Sorry por el tocho y espero haber dejado bastantes cosas claras.

Todo lo que contradiga esto no son mas que falacias....
En cuanto a herebus de meristation no lo soporto....me parece un personaje de lo mas pedante y estoy seguro que no postea solo en meri.

Están haciendo todo lo posible estos semi-comerciales para enturbiar todo lo posible la realidad.

Que no es otra que microsoft se ha gastado con amd 3.000 millones para llevar algo que ps4 no lleva dentro.
Y punto.
enaguas escribió:Para retomar el orden del hilo y dejar las disputas y seguir con el debate:


pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.

Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.

Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".

Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.

A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G

¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:

> G > G
C > C
> G > G

Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.

Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).

A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.

¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...

Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.

Sorry por el tocho y espero haber dejado bastantes cosas claras.



Me gustaría que polyteres, shaderyt, isma, etc etc cogieran la gran explicación de pspskulls y la rebatieran punto por punto, si pueden claro, no he visto todavía a nadie hacerlo.
darksch escribió:@shaderyt en XOne la CPU tiene un acceso de coherencia de datos de 30 GB/s. Así que ni vueltas ni nada raro. Respecto a GPU, ya acaban de responder. Así que podría decirse que sí que es Full HSA, con un ancho de 30 GB/s desde la CPU.



32 GB/s en realidad, que viene a ser un 60% mayor que su competidora directa. Así que tenemos mayor ancho de banda eficiente y no coherente; y mucho mayor ancho de banda coherente. Ya que tantos les gusta comparar a algunos
shaderyt escribió:Sobre la otra pregunta de los GCPs y CCP
Imagen

Arriba a la izquierda tienes la respuesta, cada circulo son los ``graphis´´ y cada recuadro son los ``compute´´. Blanco y en botella.

Ya veo por donde tirais, en cuanto alguien dice algo a favor de la one es una fuente fiable de informacion, en cuanto alguien lo duda es que debe de ser un troll, madre mia no he puesto ni un post y ya me vienen a cuchillo. Ya se me habia olvidado porque no me gustaban estos debates en consolas, pero tranquilos ya os dejo tranquilos con vuestras targiversaciones de informacion.


Los circulos que marcas en la imagen son dos ring command buffer que están en memoria (podrías haberte molestado un poco más en mirar la imagen tú mismo adjuntas), y NO los Command Processors. De hecho en ese gráfico solo hay un CP, que es el recuadro verde que contiene los dos bloques rosas justo debajo de los "círculos". Si te molestas en echar un vistazo a la fuente de la imagen, lo entenderás al ver la comparativa que se hace con la serie R10XX.

SBuscando más información de todo esto, he encontrado este articulo de Semiaccurate tras la HotChips, que seguramente ya comentasteis aquí en su momento) en la que ya mencionaban lo curioso del doble GCP sin haber recibido ninguna explicación por parte de MS durante la conferencia y resaltando que es la única GPU que monta esto en el mercado:

"There are two GPU graphics instruction issue blocks and two compute issue blocks on the GOU core proper, something that would not stand out in a similar generation AMD device. It was strongly implied that they have been modified from the basic AMD units but the specifics are not public."

Saludos
Ave_fenix Pr 77 escribió:
pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.

Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.

Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".

Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.

A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G

¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:

> G > G
C > C
> G > G

Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.

Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).

A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.

¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...

Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.

Sorry por el tocho y espero haber dejado bastantes cosas claras.

Todo lo que contradiga esto no son mas que falacias....
En cuanto a herebus de meristation no lo soporto....me parece un personaje de lo mas pedante y estoy seguro que no postea solo en meri.

Están haciendo todo lo posible estos semi-comerciales para enturbiar todo lo posible la realidad.

Que no es otra que microsoft se ha gastado con amd 3.000 millones para llevar algo que ps4 no lleva dentro.
Y punto.


Este hilo ha perdido el norte...

Y no digo que pspskulls tenga o no la razon, pero ya que lo conozco tan poco como a otros usuarios, su opinion me me merece el mismo respeto (ni mas ni menos).

Aqui solo vale lo que cada uno quiere oir, y si no es lo que uno quiere oir pues se tira la info por los suelos.

En general, se aprende mas del hecho de debatir por tener opiniones diferentes que del pensamiento unico. Muchos han reconocido que la arquitectura de One es muy buena, y que se estan logrando (y probablemente se lograran) unos resultados muy buenos dadas las limitaciones (en cuanto a costes) que tenian impuestos los ingenieros. Pero claro, si ademas de eso no se dice que la One va a liderar la generacion en el apartado tecnico (ademas bien sobrada) entonces se es un proSony, un astroturfer (que cojones significa ese palabro?), etc.

Eso es lo que menos me gusta del hilo. Si alguien dice algo incorrecto pues se le rebate con argumentos, tanto el que tira por un lado como el que tira para el otro. Pero yo aqui he visto a gente bastante imparcial que parece que incomoda y hay que "empujarlo" para el otro lado (o conmigo o contra mi). Y eso no es asi.

Un saludo!
.
Editado por ahona. Razón: Eso aquí sobra
17587 respuestas