Hablemos del interior de Xbox One

Zokormazo escribió:
Nuhar escribió:Estais comparando una preview del windows 10 que es poco mas que una actuqlizacion del windows 8.1 con la version final?, pero si falta un año!!! Anda que no quedan cosas por meter... Tiempo al tiempo


A eso voy.

En este hilo un poco mas arriba se ha preguntado si creemos que el desarrollo de win10 ha empezado despues de one o que.

Yo sinceramente creo que el desarrollo del software como tal si que ha empezado hace "poco". Otra cosa es el planteamiento del mismo. Pero el desarrollo en si no tiene pinta de llevar dos años de vida.


Los informaticos no se contratan ni se despiden a rachas.

Llevan diseñando el windows, dx, consola, etc, desde antes de lanzarse su versión anterior, asi que imaginate hace cuantos años llevan pensando en lo que iban a hacer...

Hay que comer todos los dias ;)
indigo_rs escribió:Imagen


La CPU de la PS3 era una auténtica bestia parece [boing]
Buenas gente. @papatuelo pues no se yo que decirte XD . Teniendo en cuenta que tanto dicha característica (XDMA) junto con otras como True Audio están disponibles a partir de Bonaire (GCN 1.1) y que curiosamente la 7790 es Bonaire... no se de q te extrañas de que haya un hardware counter con dicha característica XD incluso hay otro para TrueAudio.

Mira que interesante:

http://www.pcper.com/reviews/Graphics-C ... Bonaire-wa

Maybe the most interesting product, at least released today, is the AMD Radeon R7 260X (replacing the Radeon HD 7790). Once again, the ASIC between these two cards is identical. Specifications and performance should be nearly indistinguishable when compared. I was intrigued to learn that the HD 7790 GPU was the test subject for two new technologies: an updated CrossFire integration and AMD TrueAudio. These hidden features have a chance to be enabled with future drivers.


Incluso hay gente q ha flasheado la ROM de una 7790 poniendole la de una R260x y mágicamente han aparecido nuevas características:

http://www.techpowerup.com/forums/threa ... ms.199113/

Mira como tu el otro día me diste un consejo, yo me voy a permitir darte a ti otro. Creo q a veces te dejas llevar muy fácilmente por tus pasiones, y tus mensajes acaban siendo una suma de recados mas o menos encubiertos. Si realmente quieres saber que lleva XboxOne céntrate en eso y deja esos recados, pataletas y "zascas" que no van a llevar a ningún lado. Por cierto en uno de tus mensajes anteriores decias "el ETSIIT", no es "el" es "la", es una escuela.

Un saludo.
Nuhar escribió:
Zokormazo escribió:
Nuhar escribió:Estais comparando una preview del windows 10 que es poco mas que una actuqlizacion del windows 8.1 con la version final?, pero si falta un año!!! Anda que no quedan cosas por meter... Tiempo al tiempo


A eso voy.

En este hilo un poco mas arriba se ha preguntado si creemos que el desarrollo de win10 ha empezado despues de one o que.

Yo sinceramente creo que el desarrollo del software como tal si que ha empezado hace "poco". Otra cosa es el planteamiento del mismo. Pero el desarrollo en si no tiene pinta de llevar dos años de vida.


Los informaticos no se contratan ni se despiden a rachas.

Llevan diseñando el windows, dx, consola, etc, desde antes de lanzarse su versión anterior, asi que imaginate hace cuantos años llevan pensando en lo que iban a hacer...

Hay que comer todos los dias ;)

Claro es eso mismo. Que no traiga lo que va a tener al final ahora pues es normal, no van a poner algo con lo que ni arrancaría el sistema, si aún no está funcional. No se diseñó la consola y cuando la sacaron tuvieron la brillante idea de hacer un nuevo Windows. Está claro que es al revés ya que de rebote no creo que se llegara a tal fin, se empezaría con el diseño de Win10 y luego es cosa de adaptar el resto a su política.
Han calculado lo siguiente a partir de las especificaciones de la GPU que aparecen en el SDK, yo no sé si esta bien. Pero opinad.

Imagen


VSP --------- Vector Scalar Unit ------------ Four per SIMD, each operations on four threads per block

Imagen

Standard GCN.
A GCN CU can work on 4 instructions at once.
1 ops per SIMD on 4 threads each.
4 threads = 16threads per each CU.

XBOX ONE
1. CU = 4 SIMDs
2. 4 SIMD = 16 VSPs
2. 1 SIMD = 4 VSPs
3. 4 VSPs = 4 ops
4. 4 ops = 16 threads per SIMD
5. 4 SIMD = 64 threads per CU.

Without the VSP
12CU x 4 SIMDs x 16threads/clock = 768 ops/clock
800MHz x 2 MADD =1.2TF (without up-clock)

With VSP. (DX12?)
12CU x 4 SIMDs x 64threads/clock = 3072 ops/clock (not ALU)
853MHz x 2 MADD = 5.2TF

Pues lleva razón polyteres en lo que el X D M A, ya está en las bonaire al menos en la 260X. Pues nada, un error, no tengo el mínimo problema en aceptarlo. Eso no quiere decir que todo lo que digamos aquí sea un error.

La GPU sigue teniendo todo doblado, sigue siendo la primera en incorporar switch context, sigue teniendo diferencias físicas en su litografía, etc.
#102507# está baneado del subforo por "acumulación de infracciones"
Mola porque los cálculos multiplican mágicamente por 4 la capcidad de los SIMD cuando arriba deja bien claro que cada SIMD son 16 threads/clock, no 64 XD . Ni multiplicar saben ya los que se inventan estas paridas.
Si me he enterado bien el X.DMA se utiliza para el crossfire en las tarjetas de AMD. Si no me equivoco y esto es así es normal que una 7790 lo incorpore, ¿pero una consola?. No se yo veo que el río sigue sonando...
josemurcia escribió:Mola porque los cálculos multiplican mágicamente por 4 la capcidad de los SIMD cuando arriba deja bien claro que cada SIMD son 16 threads/clock, no 64 XD . Ni multiplicar saben ya los que se inventan estas paridas.


Se supone que eso lo hacen por la definición de VSP, pero de eso yo ni puñetera idea. Para que te voy a decir otra cosa.

VSP --------- Vector Scalar Unit ------------ Four per SIMD, each operations on four threads per block
josemurcia escribió:Mola porque los cálculos multiplican mágicamente por 4 la capcidad de los SIMD cuando arriba deja bien claro que cada SIMD son 16 threads/clock, no 64 XD . Ni multiplicar saben ya los que se inventan estas paridas.


Creo q no lo has entendido bien. Habla de VSPs, One tiene 4 por cada SIMD.
Lo interesante de esto es que One tiene 4 vectores por SIMD cuando no es lo normal en GCN. Al igual que tiene la L1 modificada, no en tamaño sino en accesos. Y más cositas que no se suelen tener en cuenta. Pequeñas customizaciones muy interesantes.

Edito: GCN tiene 4 vectores por CU. "Each CU has four Vector Units (VUs), each with 16 ALUs, for a total of 64 ALUs per CU. Thus, the number of ALUs per SIMD/CU is the same. The main difference is that, unlike the shader processors in a SIMD engine, each of the four VUs can be scheduled independently. The CU has its own hardware scheduler that's able to assign wavefronts to available VUs with limited out-of-order capability to avoid dependency bottlenecks."

http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-2.html

7970 GCN 1.0= 4 VUs por CU.
Xbox One GPU= 4 VSPs por SIMD. 4 VSPs x 4 SIMD= 16 VSPs por CU

Sí es verdad que en One se llama VSPs y no VUs, al igual que nombran SC en vez de CUs. Usan nuevas nomenclaturas. Quizá por que es una arquitectura diferente......?
Yo solo espero que por lo menos me mueva el alex kid jajajajajaj
Entre este hilo y el de portada hay un ambientillo navideño que pa que jajaja.

Yo las teorias esas de los VSP y demás... pues me las tendran que demostrar, mis conocimientos no llegan para discernir si eso es verdad o mentira. Ojala sea verdad y tengamos grandes juegos !

Lo único que se es que con Dx12 se haran cosas más fáciles y que supondrá un aumento de recursos del sistema para aquellos desarrolladores vagos, vamos, el 99% XD
#102507# está baneado del subforo por "acumulación de infracciones"
papatuelo escribió:
josemurcia escribió:Mola porque los cálculos multiplican mágicamente por 4 la capcidad de los SIMD cuando arriba deja bien claro que cada SIMD son 16 threads/clock, no 64 XD . Ni multiplicar saben ya los que se inventan estas paridas.


Se supone que eso lo hacen por la definición de VSP, pero de eso yo ni puñetera idea. Para que te voy a decir otra cosa.

VSP --------- Vector Scalar Unit ------------ Four per SIMD, each operations on four threads per block

Es lo que digo, que la gente que hace estas gilipolleces no tiene ni puta idea de lo que está diciendo.

Vector: A group of 64 threads that execute in lockstep.
VSP: Four per SIMD, each operating on four threads per clock.


Lo que quiere decir que cada pulso de reloj se ejecutan 4 hilos en paralelo. Por ejemplo:
Ciclo 1: los hilos 1 2 3 4
Ciclo 2: los hilos 5 6 7 8
Ciclo 3: los hilos 9 10 11 12
.
.
.
Ciclo 16: los hilos 61 62 63 64

Ciclo 17: los hilos 1 2 3 4

Eso es lo que significa trabajar en lockstep.

Cada VSP opera a 4 hilos por ciclo, no hay más.
Ok, gracias por la aclaración.
Igual estoy diciendo una tontería porque no lo he comprobado con otros juegos, pero creo que la beta del halo 5 ya usa el séptimo core.

Me he fijado que cuando empieza la partida, la luz roja del kinect se apaga. Pasa eso con otros juegos?
josemurcia escribió:
papatuelo escribió:
josemurcia escribió:Mola porque los cálculos multiplican mágicamente por 4 la capcidad de los SIMD cuando arriba deja bien claro que cada SIMD son 16 threads/clock, no 64 XD . Ni multiplicar saben ya los que se inventan estas paridas.


Se supone que eso lo hacen por la definición de VSP, pero de eso yo ni puñetera idea. Para que te voy a decir otra cosa.

VSP --------- Vector Scalar Unit ------------ Four per SIMD, each operations on four threads per block

Es lo que digo, que la gente que hace estas gilipolleces no tiene ni puta idea de lo que está diciendo.

Vector: A group of 64 threads that execute in lockstep.
VSP: Four per SIMD, each operating on four threads per clock.


Lo que quiere decir que cada pulso de reloj se ejecutan 4 hilos en paralelo. Por ejemplo:
Ciclo 1: los hilos 1 2 3 4
Ciclo 2: los hilos 5 6 7 8
Ciclo 3: los hilos 9 10 11 12
.
.
.
Ciclo 16: los hilos 61 62 63 64

Ciclo 17: los hilos 1 2 3 4

Eso es lo que significa trabajar en lockstep.

Cada VSP opera a 4 hilos por ciclo, no hay más.


Cada VSP opera a 4 hilos por ciclo x 4 VSPs que hay en 1 SIMDs= 16threads
4SIMDs x CU= 16threads x 4= 64 threads por CU, que es lo mismo que se esta diciendo.

16 threads para GCN. 64 threads para One

"This is the key to better compute performance because it gives each VU the ability to work on different wavefronts if a dependency exists in the queue"
#102507# está baneado del subforo por "acumulación de infracciones"
Si eso ya lo dice el paper. Lo que yo comentaba es la tontería de multiplicar por 4 by the face los hilos en paralelo que ejecuta cada VSP.
josemurcia escribió:Si eso ya lo dice el paper. Lo que yo comentaba es la tontería de multiplicar por 4 by the face los hilos en paralelo que ejecuta cada VSP.


Yo hay no entro, no se si multiplica x4 "by the face" la potencia de One. Solo digo que VSP es una nueva nomenclatura y que podemos decir que One tiene multiplicado por 4 la cantidad de vectores sobre GCN. Y sino me equivoco esto es muy importante para el paralelismo.

"Each CU has four Vector Units (VUs), each with 16 ALUs, for a total of 64 ALUs per CU. Thus, the number of ALUs per SIMD/CU is the same. The main difference is that, unlike the shader processors in a SIMD engine, each of the four VUs can be scheduled independently. The CU has its own hardware scheduler that's able to assign wavefronts to available VUs with limited out-of-order capability to avoid dependency bottlenecks.


This is the key to better compute performance because it gives each VU the ability to work on different wavefronts if a dependency exists in the queue"

http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-2.html
papatuelo escribió:Imagen

X D M A en el SDK filtrado???

Wait!!!!!

Que es X D M A?


Bueno, vayamos por partes please!

¿XQ en la XONE hay X D M A y su X D K tiene constancia de él?
sabueXo escribió:Igual estoy diciendo una tontería porque no lo he comprobado con otros juegos, pero creo que la beta del halo 5 ya usa el séptimo core.

Me he fijado que cuando empieza la partida, la luz roja del kinect se apaga. Pasa eso con otros juegos?


En Forza Horizon 2 también se apagan, aunque no se el por qué, desde luego las ordenes de voz siguen funcionando ya que en el juego puedes decirle cosas al GPS.
sabueXo escribió:Igual estoy diciendo una tontería porque no lo he comprobado con otros juegos, pero creo que la beta del halo 5 ya usa el séptimo core.

Me he fijado que cuando empieza la partida, la luz roja del kinect se apaga. Pasa eso con otros juegos?


Si usa el séptimo core, lo usa mal... La beta corre a 720p/60fps y pega rascadas.....
Si, se que es un beta y siempre esta la "esperanza" de que primero, estabilicen los fps a 60 como una roca y segundo, subirlo a 1080p.

A ver si sacan el dichoso Dx12 de una vez, pasa una temporada, y empezamos a ver si nos estamos comiendo la cabeza demasiado en esperar que se arregle este desaguisado que tiene montado Microsoft con su consola.
Chifrinillo escribió:
papatuelo escribió:Imagen

X D M A en el SDK filtrado???

Wait!!!!!

Que es X D M A?


Bueno, vayamos por partes please!

¿XQ en la XONE hay X D M A y su X D K tiene constancia de él?


No tengo ni idea. Se supone que solo debería aparecer las cosas que se vayan a usar en One, no?
También aparece el TrueAudio en los papers?
Sino aparece, blanco y en botella.
La verdad es que no aparece en el SDK si no en el PIX (Performance Investigator for Xbox) que es todavía más cantoso, según esto puede lanzar un valor que indica que el "Bloque Multi-GPU DMA (X.D.M.A)" esta ocupado.

Como va a estar ocupado si no hay multi-GPU????

Para que integran esa cadena en un sistema de análisis de rendimiento exclusivo para XBOX ONE???

Al final va a estar todo relacionado con esa disposición de los CU es dos bloques de seis con unidades dobladas y el switch context. Al final va a resultar que si ha D-GPU, no a lo bruto pero si dos GPU modestas.
De TrueAudio por lo que he mirado en la documentacion no viene ninguna referencia, solo info del SHAPE.
Szasz escribió:No tengo ni idea. Se supone que solo debería aparecer las cosas que se vayan a usar en One, no?
También aparece el TrueAudio en los papers?
Sino aparece, blanco y en botella.


Con el buscador al menos, no sale nada del TrueAudio.. aunque es "normal" ya que entraría en conflicto con el SHAPE, así que lo han tenido que eliminar al 100%...

El PIX es algo así como una herramienta de monitorización para la GPU/CPU. Quizás se les haya colado... pero claro, viendo que los X D K se actualizan todos los meses... no creo que no se hayan dado cuenta hasta ahora de ese pedazo de error cuando hay tantísima gente con la mosca detrás de la oreja.
Yo creo que es bastante evidente que hay algún tipo de dualidad en la GPU, por todas las declaraciones de los ultimos meses, las pistas y la filtración del SDK. Pero una cosa es eso y otra es que ahora resulte que es una máquina de 4 o 5TF como cacarean algunos, a esas personas les pediría que no se flipen mucho porque después llegan los chascos también, y creo que ya se está viendo lo suficiente como para repartir algunos zascas pero tampoco creo que sea muy necesario hacer sangre o como digo "fliparse" mucho porque después llegan los zascas en la otra dirección xD.... porque he visto alguna "corriente" cuasi-religiosa en EOF que no es nada sana tampoco.
Pada escribió:Yo creo que es bastante evidente que hay algún tipo de dualidad en la GPU, por todas las declaraciones de los ultimos meses, las pistas y la filtración del SDK. Pero una cosa es eso y otra es que ahora resulte que es una máquina de 4 o 5TF como cacarean algunos, a esas personas les pediría que no se flipen mucho porque después llegan los chascos también, y creo que ya se está viendo lo suficiente como para repartir algunos zascas pero tampoco creo que sea muy necesario hacer sangre o como digo "fliparse" mucho porque después llegan los zascas en la otra dirección xD.... porque he visto alguna "corriente" cuasi-religiosa en EOF que no es nada sana tampoco.


Hay una diferencia entre ser y equivaler. Los teraflops son los que hay, lo mismo que los megaherzios, las instrucciones por ciclo, etc. Pero cada x tiempo los ingenieros de hardware deben inventar cosas para intentar superar los límites con los que se encuentran. Sucedió con los procesadores de 64 bits, con los procesadores de dos o más núcleos, etc. Puedes tener una máquina de x TF y otra que rinda igual o de forma equivalente a esa utilizando otra forma de trabajar que no se había puesto en práctica hasta ahora. Donde más se nota esto es en temas de rendimiento (frames por segundo, por ejemplo).
El tema gráficos es algo que la gente no es muy consciente de ello. Los gráficos son cuestión de diseño artístico, no de resolución. Cierto es que si pones un juego a 320x240 no es lo mismo que verlo a 1080p, pero lo que más importa es lo que se muestra en pantalla. La gente espera ver mejor gráficos cada vez, pero es que el diseño y la creación de niveles tiene un límite. Llegamos a un punto donde no vas a meter más edificios en una ciudad sólo porqué la consola lo permita. Al final no tendrías una ciudad, sino un cubo de rubik o un montaje de lego. El tema gráficos, a estas alturas de hardware, es más un factor humano que de potencia (cierto que tenemos partículas, luces, etc.), pero si hay problemas para mostrarlo a 1080p/60fps no tienes más que bajar un poco algo de esas dos cifras y la consola ya te lo ejecuta. Lo que permitirá One es no tener que elegir entre esas dos cifras, no meter más cosas en pantalla que no vas a ver porqué el resto de gráficos las tapan.
Hmmm, si el PIX es una herramienta de debug, ¿no podría servir lo mismo para PC que para Xbox one? Quiero decir que es una herramienta que lanzas en el PC en el que estás desarrollando y no en la consola. Sería un complemento al Visual Studio, más que algo que vaya a correr en una XBox.

Szasz escribió:
josemurcia escribió:Si eso ya lo dice el paper. Lo que yo comentaba es la tontería de multiplicar por 4 by the face los hilos en paralelo que ejecuta cada VSP.


Yo hay no entro, no se si multiplica x4 "by the face" la potencia de One. Solo digo que VSP es una nueva nomenclatura y que podemos decir que One tiene multiplicado por 4 la cantidad de vectores sobre GCN. Y sino me equivoco esto es muy importante para el paralelismo.

"Each CU has four Vector Units (VUs), each with 16 ALUs, for a total of 64 ALUs per CU. Thus, the number of ALUs per SIMD/CU is the same. The main difference is that, unlike the shader processors in a SIMD engine, each of the four VUs can be scheduled independently. The CU has its own hardware scheduler that's able to assign wavefronts to available VUs with limited out-of-order capability to avoid dependency bottlenecks.


This is the key to better compute performance because it gives each VU the ability to work on different wavefronts if a dependency exists in the queue"

http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-2.html


Ahí va otra teoría loca: creo que es una diferencia de nomenclatura, lo que dice Tom's Hardware, es que un Compute Unit a diferencia de un SIMD, etc, etc, etc.
Según AMD: tienes X Compute Units (CU), que cada uno tiene 4 unidades vectoriales (VU) y cada VU tiene 16 unidades aritmético-lógicas (ALUs). Bueno, hay más componentes, pero a grandes rasgos, eso.
Vamos que o tienes SIMDs o tienes CUs, no las dos cosas. Pero en las cuentas de antes, vienen a decir que cada Compute Unit de la consola tiene 4 SIMDs que a su vez tienen 4 unidades vectoriales (lo que daría un total de 16 unidades vectoriales en cada Compute Unit), y de ahí me sale el X4 y el 64 en vez del 16 habitual y lógico.
Según Tom's Hardware, la diferencia entre un Compute Unit y un SIMD, es que en el hardware de AMD puedes asignar tareas en concreto a cada unidad vectorial, para que no haya tiempos muertos. Aunque claro, ahí están hablando de una gráfica de PC y no de consola.
Buenas gente. Aunq parezca mentira muchas veces eliminar un elemento puede ser más caro (rediseñar la comunicación y la funcionalidad asociada) q dejarlo todo como está, y más si esta es relativamente simple como un DMA y su circuitería asociada (ocupando tan poco espacio). Por otra parte si lo pensáis bien y haciendo un ejercicio de imaginación si tuvieras dos GPUs (me da igual q sean virtuales o reales como queráis) que comparten físicamente memoria y espacio de direcciones y además tienes la posibilidad de usar 2 display planes...para que quieres un DMA extra que copie el buffer a la GPU q compone el buffer?.

La referencia a True Audio está 1 línea más abajo en los Hardwares Counter, la referencia ACP (Audio CoProccesor) la cual es la nomenclatura interna para el TrueAudio en las tarjetas q lo poseen:

http://www.overclock.net/t/1485897/amd- ... ownload/70

https://forum.beyond3d.com/threads/play ... 2/page-228

7) It's for our TrueAudio Technology (TrueAudio is codenamed "ACP" and it runs a background service that helps manage audio tasks in games.


EDITO: con respecto al cambio de nomenclatura de las unidades es algo común en los diseños de Microsoft, les gusta cambiar los nombres...no es la primera vez q lo hacen ni será la última... Las cuentas...seguir con lo mismo cuando lo pone expresamente...

Un saludo.
"This is the key to better compute performance because it gives each VU the ability to work on different wavefronts if a dependency exists in the queue"


Eso está claro, si un hilo entra en espera por dependencia (esperando un dato por ejemplo) puede saltar a otro hilo de otra tarea. La cifra de 64 vs 16 viene a ser el máximo teórico, es decir que si se diera el caso ideal un mismo hilo podría cambiar 4 veces de tarea.

Todo va siempre encaminado a perder menos ciclos en NOP. De cara a la eficiencia y gasto energético como claramente ya se va moviendo la cosa. La verdad que se está mostrando funcionar a las mil maravillas. Lo que está consiguiendo con lo que monta da buena fe de la eficacia de su arquitectura. Y yo no me aventuraría a decir nada al respecto sobre que tan cerca del tope estamos, ¿estamos ya casi al máximo de su capacidad o aún se le puede sacar más provecho?. Basta echar un vistazo atrás para ver el cambio de un port directo de PC de la API en los 1os juegos (ese CoD y BF a 720p) y como está ahora. Para esto no sólo dependen desbloquear las features (aún faltan el multi-contexto para computación y alguna de DX12), si no también los drivers y que tal manejan a bajo nivel cada componente.
Szasz escribió:
Chifrinillo escribió:
papatuelo escribió:Imagen

X D M A en el SDK filtrado???

Wait!!!!!

Que es X D M A?


Bueno, vayamos por partes please!

¿XQ en la XONE hay X D M A y su X D K tiene constancia de él?


No tengo ni idea. Se supone que solo debería aparecer las cosas que se vayan a usar en One, no?
También aparece el TrueAudio en los papers?
Sino aparece, blanco y en botella.


Imagen
Pada escribió:Yo creo que es bastante evidente que hay algún tipo de dualidad en la GPU, por todas las declaraciones de los ultimos meses, las pistas y la filtración del SDK. Pero una cosa es eso y otra es que ahora resulte que es una máquina de 4 o 5TF como cacarean algunos, a esas personas les pediría que no se flipen mucho porque después llegan los chascos también, y creo que ya se está viendo lo suficiente como para repartir algunos zascas pero tampoco creo que sea muy necesario hacer sangre o como digo "fliparse" mucho porque después llegan los zascas en la otra dirección xD.... porque he visto alguna "corriente" cuasi-religiosa en EOF que no es nada sana tampoco.

Pero es que lo que ha habido con Xbox One es muy fuerte, algo que yo nunca habia visto desde luego (tuve una atari 2600), quiza con la Xbox 1, que aquello era poco menos que el advenimiento del demonio, pero claro las circunstancias son incomparables, creo que proporcionalmente es mas grave lo que se ha hecho con One.

Ahora mismo en portada sigue habiendo gente diciendo que es una gpu de una generacion anterior y cosas asi, pero lo peor es que troleos aposta aparte, hay gente que lees sus mensajes y te das cuenta de que estan totalmente convencidos de lo que dicen, que no es troleo como hacen muchos otros. Y eso viene de todo aquello.

A mi la verdad que que algunos se pasen con lo de zascas y demas, pues aunque no lo comparto, lo puedo entender dado lo que hay.
NeCLaRT escribió:
Pada escribió:Yo creo que es bastante evidente que hay algún tipo de dualidad en la GPU, por todas las declaraciones de los ultimos meses, las pistas y la filtración del SDK. Pero una cosa es eso y otra es que ahora resulte que es una máquina de 4 o 5TF como cacarean algunos, a esas personas les pediría que no se flipen mucho porque después llegan los chascos también, y creo que ya se está viendo lo suficiente como para repartir algunos zascas pero tampoco creo que sea muy necesario hacer sangre o como digo "fliparse" mucho porque después llegan los zascas en la otra dirección xD.... porque he visto alguna "corriente" cuasi-religiosa en EOF que no es nada sana tampoco.

Pero es que lo que ha habido con Xbox One es muy fuerte, algo que yo nunca habia visto desde luego (tuve una atari 2600), quiza con la Xbox 1, que aquello era poco menos que el advenimiento del demonio, pero claro las circunstancias son incomparables, creo que proporcionalmente es mas grave lo que se ha hecho con One.

Ahora mismo en portada sigue habiendo gente diciendo que es una gpu de una generacion anterior y cosas asi, pero lo peor es que troleos aposta aparte, hay gente que lees sus mensajes y te das cuenta de que estan totalmente convencidos de lo que dicen, que no es troleo como hacen muchos otros. Y eso viene de todo aquello.

A mi la verdad que que algunos se pasen con lo de zascas y demas, pues aunque no lo comparto, lo puedo entender dado lo que hay.


No hablemos de corrientes religiosas, y menos en este hilo, que no puede haber nada mas ironico ni mas cinico, viendo los mensajes de los habituales por aqui (aparte que yo puedo creer en lo que quiera sin que tengan que menospreciarme ni desprecierme por ello, faltaria mas)

----

Sobre la persecucion de acoso y derribo contra Xbox, bueno, pan nuestro de cada dia, aunque no paren de banearse a usuarios por "conspiranoides" (como si eso en si fuera motivo de ban ¬_¬ si quiera)
Entonces... ando un poco perdido... Que es lo que tiene flipando a los entendidos? ... Se confirmó el doble contexto gráfico? ... Un pequeño resumen para todos los no entendidos, vendría perfecto :(
0mag escribió:Entonces... ando un poco perdido... Que es lo que tiene flipando a los entendidos? ... Se confirmó el doble contexto gráfico? ... Un pequeño resumen para todos los no entendidos, vendría perfecto :(


Para unos si (entre otras cosas), para otros no, cada uno te contestara lo que le interesa hacer creer, este hilo no es el mas indicado para encontrar una respuesta ciertamente objetiva...

lo que YO CREO, es que se confirman muchas de las cosas que en este hilo se tacharon de imposibles y aberrantes, y esos que lo pesaban, unos siguen en sus trece, negando la mayor y otros lo asumen pero quitan hierro al asunto...
BiG Porras escribió:
0mag escribió:Entonces... ando un poco perdido... Que es lo que tiene flipando a los entendidos? ... Se confirmó el doble contexto gráfico? ... Un pequeño resumen para todos los no entendidos, vendría perfecto :(


Para unos si (entre otras cosas), para otros no, cada uno te contestara lo que le interesa hacer creer, este hilo no es el mas indicado para encontrar una respuesta ciertamente objetiva...

lo que YO CREO, es que se confirman muchas de las cosas que en este hilo se tacharon de imposibles y aberrantes, y esos que lo pesaban, unos siguen en sus trece, negando la mayor y otros lo asumen pero quitan hierro al asunto...


El doble contexto gráfico está más que confirmado por la propia Microsoft en todos los papers que han publicado.
Yo creo que no va a haber un tremendo salto, seguramente se iguale rendimiento con "la otra" y la pelea ya no pase a contar píxeles con ojos bionicos si no a exclusivos y funcionalidades del sistema operativo que al final es lo que nos interesa a los usuarios.

El hardware sin el software no es nada, un trozo de metal, que nadie lo olvide. Pero el software milagros no hace.
djfran28 escribió:Yo creo que no va a haber un tremendo salto, seguramente se iguale rendimiento con "la otra" y la pelea ya no pase a contar píxeles con ojos bionicos si no a exclusivos y funcionalidades del sistema operativo que al final es lo que nos interesa a los usuarios.

El hardware sin el software no es nada, un trozo de metal, que nadie lo olvide. Pero el software milagros no hace.


El rendimiento que puede dar esta arquitectura es un misterio, pues es la primera de todas. No tenemos nada en el mercado para comparar y hacernos una idea aproximada, NADA. Y esto en parte tiene su magia, verdad?
Horizonte de sucesos escribió:
djfran28 escribió:Yo creo que no va a haber un tremendo salto, seguramente se iguale rendimiento con "la otra" y la pelea ya no pase a contar píxeles con ojos bionicos si no a exclusivos y funcionalidades del sistema operativo que al final es lo que nos interesa a los usuarios.

El hardware sin el software no es nada, un trozo de metal, que nadie lo olvide. Pero el software milagros no hace.


El rendimiento que puede dar esta arquitectura es un misterio, pues es la primera de todas. No tenemos nada en el mercado para comparar y hacernos una idea aproximada, NADA. Y esto en parte tiene su magia, verdad?

Hombre tanto como misterios... Hacen arquitecturas adrede calculando rendimientos, que luego optimizan y tal pero quien los diseña lo hace sabiendo no juntando piezas y que iker las explique jejeje falta que den herramientas a los programadores para aprovechar la arquitectura y hacer el juego en los tiempos que dan ahora de desarrollo.
Fandro está baneado por "Troll"
djfran28 escribió:
Horizonte de sucesos escribió:
djfran28 escribió:Yo creo que no va a haber un tremendo salto, seguramente se iguale rendimiento con "la otra" y la pelea ya no pase a contar píxeles con ojos bionicos si no a exclusivos y funcionalidades del sistema operativo que al final es lo que nos interesa a los usuarios.

El hardware sin el software no es nada, un trozo de metal, que nadie lo olvide. Pero el software milagros no hace.


El rendimiento que puede dar esta arquitectura es un misterio, pues es la primera de todas. No tenemos nada en el mercado para comparar y hacernos una idea aproximada, NADA. Y esto en parte tiene su magia, verdad?

Hombre tanto como misterios... Hacen arquitecturas adrede calculando rendimientos, que luego optimizan y tal pero quien los diseña lo hace sabiendo no juntando piezas y que iker las explique jejeje falta que den herramientas a los programadores para aprovechar la arquitectura y hacer el juego en los tiempos que dan ahora de desarrollo.


Efectivamente, los que, como tu dices, diseñan lo hacen con conocimiento de causa. De hecho lo hacen con más conocimiento del que aquí tenemos cualquiera de nosotros, así que echar sistemáticamente por tierra cualquier avance que se "descubra" sobre esta arquitectura, porque yo lo valgo, me parece una tontería.
Dices que el software no hace milagros, pero es que no hay ningún milagro que hacer. El software hará lo que tenga que hacer con ese hardware porque éste está diseñado para ello. Y esto no lo digo yo, lo dice por ejemplo Brad Wardell.
Por cierto, ese rendimiento que dices ya está más que igualado. Si hay diferencias en algunos juegos es por el estado de desarrollo en el que se encontraban usando los SDK antiguos.
Por milagro me refiero a mensajes que he leído con 4k y tal, eso sería un milagro. Y el sw lo que hace ya no es solo mejorar rendimiento si no ahorrar trabajo y permitir menos costes y tiempo de desarrollo, parte de funcionalidades nuevas claro.
Estáis todos "locos" con el x4 [360º]

Ayer dije que multiplicaba x4 el número de vectores sobre GCN y esto no es cierto (no estaba bien explicado en el enlace q postee).

Xbox One:

16 VSP por SC

Imagen

GCN:

16 Vectores por CU

Imagen

¿Dónde esta la diferencia? En que One son vectores/escalares. Las dos cosas. Es un diseño superescalar.

¿Cómo define el X.D.K filtrado del VSP? Vector-scalar processor

Los procesadores más simples son los procesadores escalares. Cada instrucción ejecutada por un procesador escalar manipula típicamente uno o dos elementos de datos a la vez. Por el contrario, cada instrucción ejecutada por un procesador vectorial opera simultáneamente en muchos elementos de datos. Una analogía es la diferencia entre escalar y cálculo vectorial. Un procesador superescalar es una mezcla de los dos. Cada instrucción procesa un elemento de datos, pero hay múltiples unidades funcionales redundantes dentro de cada CPU por lo tanto, múltiples instrucciones pueden ser procesando los elementos de datos diferentes de forma simultánea.

Diseño de la CPU superescalar hace hincapié en la mejora de la exactitud despachador de instrucción, y lo que le permite mantener las múltiples unidades funcionales en uso en todo momento. Esto se ha convertido cada vez más importante cuando el número de unidades aumentó. Mientras CPU superescalar temprano tendría dos ALU y una FPU, un diseño moderno, como el PowerPC 970 incluye cuatro ALU, dos FPU, y dos unidades SIMD. Si el despachador no es eficaz en el mantenimiento de todas estas unidades alimentadas con las instrucciones, el rendimiento del sistema se verá afectada.

Un procesador superescalar generalmente sufre una tasa de ejecución de más de una instrucción por ciclo de máquina. Pero simplemente procesar múltiples instrucciones al mismo tiempo no hace una arquitectura superescalar, desde arquitecturas pipeline, multiprocesador o multinúcleo también logran, pero con diferentes métodos.

En un CPU superescalar el despachador lee instrucciones de la memoria y decide cuáles se pueden ejecutar en paralelo, enviarlos a las unidades funcionales redundantes contenidas dentro de un solo CPU. Por lo tanto un procesador superescalar puede ser previsto con varios gasoductos paralelos, cada uno de los cuales es el procesamiento de instrucciones simultáneamente desde un solo hilo de instrucciones.

Dataflow..........
Paralelismo.....

Project echelon

Imagen

Tenemos una GPU que puede ser una CPU. Programable. Quizá ahora entendamos porque tiene las unidades duplicadas. [fumando]
Esta claro que lo que hay aqui dentro no es normal.

Evidencias hay de sobra sin tener que recurrir aun a especular para saber que esa GPU no es normal.

1) Tenemos elementos en la litografía que no son normales le pese a quien le pese, empezando por las unidades extrañas que hay en cada nucleo jaguar y continuando por las unidades duplicadas en los CU. De esto último la gente se rie mucho, pero es que ahí están y por más que se rían no va a juntarse. Parece que le hicieran bully a las ALU extrañas para que así deseen dejar ser alus diferentes y se conviertan magicamente en ALUS GCN del montón. No me digas que es una GCN normal cuando no hace falta ser informático para ver que no son iguales ni a nivel fisico.

2) Microsoft ya ha hablado del switch context y que pu... casualidad que según Mateo Valero en el Primer día del Isca 2014 (Un vistazo al interior de XBOX ONE) la eficiencia de las nuevas gráficas va a depender del switch context. Casualidad seguro. Igual que aparece el swtich context para 2015 en los roadmaps de las gráficas AMD, Casualidad también.

3) Todo duplicado y los CU agrupados en dos cluster de 6, pero es todo normal, es una GCN normal y corriente.

4) Es que ni siquiera sería la primera vez que Microsoft hace los mismo, joder!!! Que la primera vez la gente no lo viera venir bueno, pero que te lo hagan otra vez y vuelvas a decir que es imposible ya no sé como calificarlo.

Venga ya!!!

Quien puede seguir pensando que ahí dentro no hay nada que rascar y que somos unos magufos de mierda, fanboy extremistas que han fundado una iglesia. Hay evidencias de sobra, el dogma lo siguen otros que pasan sobre ellas tapandose los ojos para que no se colapse su palacio de cristal.

Lo siento pero preveo doloooor, mucho dolor.
Hombre, es que seguir diciendo que es GCN 1.1 cuando tiene VSPs y por lo tanto arquitectura superescalar y no vectorial es de locos. Ahora ya hay confirmación OFICIAL de que no es la misma arquitectura.

CU en GCN= Vector unit + Scalar co processor
SC en Xbox One= Scalar processors + vector co processors

*Las unidades vectoriales son menos programables.
Lo veo Venir "Buenas Gente" están quivocados. [fiu]
Por supuesto que nos podemos equivocar, pero no menos que los demás.
Los que dicen que ahí hay una GCN normal y corriente están equivocados y requeteequivocados y con todo lo que hay ya fuera creerlos es más un acto de fe que otra cosa.

Que las cosas no son como las contamos, bueno, que las cosas no son como las cuentan, seguro. Ahí tenéis una arquitectura que hasta ahora no existía, ya se explicará debidamente con el tiempo.

Por cierto cachondearse de las ideas de los demás no es nuevo
Imagen

Así trataban a Darwin cuando publico el origen de las especies. Evidentemente no nos comparo con Darwin, que habrá quien solo repare en eso para seguir con el cachondeo, solo digo que ese comportamiento y esa actitud es muy muy antigua y normalmente típica de mediocres.
djfran28 escribió:Por milagro me refiero a mensajes que he leído con 4k y tal, eso sería un milagro.

Eso no es un milagro, eso son tonterias sin sentido.
Lo del 4K se alimenta sobre todo por unas cap de Halo 5 que se supone que son directfeed y no recuerdo si eran 2K o 4K.

La explicación más normal es que no sean directfeed.
papatuelo escribió:Lo del 4K se alimenta sobre todo por unas cap de Halo 5 que se supone que son directfeed y no recuerdo si eran 2K o 4K.

La explicación más normal es que no sean directfeed.


Lo del 4k no se explica de ninguna manera. Xbox One no sacará ningún juego 4k.. quizás algún indie o algo así.. ¿Quién tiene una tele 4k en casa? un 2% de los consumidores???? y para que desperdiciar tantísima potencia en detrimento de los gráficos?

Y como reproductor pues.. nose.. cuanto ocupa un video a 4k? porque las pelis en BD que vienen a 1080 ocupan unos 40GB con los idiomas, menús y demás.. supongo que hasta que no salga el sucesor del BD y salgan películas a 1TB o algo así.

Osea que dejemos el tema de los estúpidos 4K que no valen para nada.

Las HD si han supuesto un salto importante, practicamente cualquiera nota la diferencia entre un BD y un DVD, o entre un juego SD y un juego HD..

Está científicamente demostrado que a partir de 720p, el ojo no distingue las diferencias en relación al tamaño de la pantalla y la distancia de la misma.. vamos que distinguir 4k todos necesitaríamos proyectores de 120" y colocarnos a menos de 3 metros del mismo [sonrisa] [sonrisa] [sonrisa]

Y esa era llegará? seguuuuuuuuuro, pero dar por hecho que no será un estandar hasta dentro de muuuuuuucho tiempo.
A ver, por partes.

Del documento de Nvidia que ha puesto @Szasz , sabemos que los procesadores corren mucho más que las memorias RAM, por cada acceso a RAM éstos pueden realizar X ejecuciones hasta que la RAM pueda volver a ser accedida (el famoso multiplicador). Un procesador sólo puede trabajar directamente 1:1 con su caché. La idea es que entre acceso y acceso se ejecuten la mayor cantidad de operaciones posibles.

Por poner un ejemplo de desperdicio de ciclos:
leemos a y b
x1 = a + b
... (NOP)
leemos c y d
x2 = c + d
...(delay del cálculo de x2)
r = x1 + x2
Resulta que para llegar a r tenemos muchos NOP por el camino. Si lo cambiamos a:
leemos a, b, c y d
x1 = a + b
x2 = c + d
...(delay del cálculo de x2, aquí podríamos hacer otras cosas de tener los datos en caché)
r = x1 + x2
Ahora resulta que x1 y x2 se calculan al mismo tiempo en un procesador superescalar, o con una diferencia mínima aunque no lo sea aprovechando el pipeline y sin pausas hasta el próximo acceso a RAM.
Para poder leer todos los datos de una vez, pues se busca la forma de hacerlo mediante, la más simple, vectorizar los datos (array) y al leer una línea de caché (que es lo que se carga realmente en una lectura) todos se cargan, DDRs, múltiples canales, etc.

Por lo tanto ese "movimiento de datos" que menciona Nvidia, y aprovechar en cada uno para minimizar los NOP, cobra importancia respecto a conseguir FLOPS teóricos, que son ni más ni menos que suponiendo que nunca habrá NOPs, cosa más bien bastante falsa en la realidad.

Respecto al 4K, aquí se ha mencionado como compatibilidad con la señal de salida, para temas de televisión UHD y nuevos formatos de video (ya disponibles en algunos servicios de video). Nunca para hacer juegos.

Edit: veo que @Guillermo GT3 ha puesto algo nuevo, de donde se puede sacar.
The Xbox One allocates seven of such graphics contexts to games.
Read more at http://gamingbolt.com/xbox-one-gpu-has- ... LpRYIgT.99

¿Qué no eran mitad y mitad para juego y SO?, entonces serían 4 para juegos y 4 para SO. Si es que estaba más claro que el agua.
17587 respuestas