Hablemos del interior de Xbox One

@Ssasz: tienes razon no dijiste que fuera exclusivo, perdon.

En otras tecnologias puede, pero eso del turbo boost en jaguar no es tecnologia que vaya a salir en 2015 eh, los A6-1450 estan a la venta desde finales del 2013.

Hay modelos de Acer por ejemplo de aquella epoca que llevan esa cpu A6-1450 que tachan, lleva turbo boost de 400mhz extra
Chifrinillo escribió:Entonces deberíamos de postear benchmarks comparando CPU's con Hyperthreading y sin él, y extrapolarlo a XboxOne, así quizas nos hagamos una idea real de la diferencia de rendimiento.

edito:
http://www.extremetech.com/computing/13 ... re-updates

edito 2:
Un 20% / 25% de diferencia a favor del HT... ¿podrá extrapolarse eso a la GPU de XboxOne?

edito 3:
Eso cuadraría con lo de "DirectX12 no supondrá un cambio masivo" pero no cuadraría tanto con lo del "digamos que el doble de rendimiento"

Si extrapolamos eso a la GPU de One tenemos que es un HT un poco bestia porque hay 4 hilos lógicos para un solo núcleo no 2 hilos por núcleo.Pero eso es divagar mucho ya.
No es equivalente a un HT, que se basa en duplicar algunos aspectos para aprovechar más las unidades de computación (ALU, etc.) que lleva. Puede que la idea sea la misma pero la forma de llevarse a cabo es distinta. De hecho se parecería más a una solución multi-núcleo que a HT, ya que toda la unidad de computación estaría duplicada. A eso añadimos una caché L3 de 32MB (eSRAM), L3 porque sería compartida como en las CPU por los núcleos. Los Move Engine serían el PREFETCH, y el uso de tiled resources minimiza el tamaño de éstos. El objetivo es maximizar cosas olvidadas como el caché hit, de ahí que salga el coletas con su famosa frase de "el dato correcto en el lugar correcto en el momento correcto..." o algo así.

A ver si nos aclaramos, la idea de los múltiples contextos es la de si tengo 800 stream processors, evitar que de media estén 200-300 parados sin hacer nada porque no tienen con que alimentarse. Otra idea es no tener que cambiar de modo toda la GPU, entre render <-> GPGPU, bastaría con cambiar un contexto. Esto evita tener que dedicar unos recursos fijos (por ej. 2 o 4 CU a GPGPU) que en ocasiones puede que no necesitemos tantos para GPGPU y se estén desperdiciando.

Por decirlo de una forma resumida, es hacer trabajar a los CU y stream processors al máximo posible en aquello para lo que sean necesarios.
darksch escribió:No es equivalente a un HT, que se basa en duplicar algunos aspectos para aprovechar más las unidades de computación (ALU, etc.) que lleva. Puede que la idea sea la misma pero la forma de llevarse a cabo es distinta. De hecho se parecería más a una solución multi-núcleo que a HT, ya que toda la unidad de computación estaría duplicada. A eso añadimos una caché L3 de 32MB (eSRAM), L3 porque sería compartida como en las CPU por los núcleos. Los Move Engine serían el PREFETCH, y el uso de tiled resources minimiza el tamaño de éstos. El objetivo es maximizar cosas olvidadas como el caché hit, de ahí que salga el coletas con su famosa frase de "el dato correcto en el lugar correcto en el momento correcto..." o algo así.

A ver si nos aclaramos, la idea de los múltiples contextos es la de si tengo 800 stream processors, evitar que de media estén 200-300 parados sin hacer nada porque no tienen con que alimentarse. Otra idea es no tener que cambiar de modo toda la GPU, entre render <-> GPGPU, bastaría con cambiar un contexto. Esto evita tener que dedicar unos recursos fijos (por ej. 2 o 4 CU a GPGPU) que en ocasiones puede que no necesitemos tantos para GPGPU y se estén desperdiciando.

Por decirlo de una forma resumida, es hacer trabajar a los CU y stream processors al máximo posible en aquello para lo que sean necesarios.

Claro que no es un HT pero es la forma mas "fácil" de que entienda la gente.Yo ya he dicho que abogaba por un trabajo simultaneo y paralelo de la GPU pudiendo renderizar 2 cosas diferentes y mientras poder computar.No olvidemos que hay el doble de ALUS reales en esas fotos así que es posible y real por hardware.
@isma82@urian

Podríais poner el diagrama de alguna GPU moderna que tenga dos gfx command processors?
Gracias y saludos a todos
Esto podría extrapolarse a como es posible que rinda mejor un iPhone 5s en comparación a note 3 a pesar de ser menos potente? ( hay un 35-40% a favor del note 3 en gflops) pero no se aprecian diferencias significativas. No?
como veis esta noticia?

http://soloxboxone.com/2014/12/02/se-de ... -detalles/

Dicho por los creadores:

El resultado es espectacular. No solo en teoría si no también en la práctica (como dato adicional: estoy envuelto en la demo Star Swarm la cual hace uso de una tecnología similar). Mientras que en cada generación las tarjetas gráficas se estrujan para ganar un aumento sustancial de rendimiento con respecto a anteriores generaciones, aquí, de repente con el mismo hardware se verá doblar el rendimiento.

Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.
Al tema de las ALUs...llevo pensando y ¿no se supone ue se basa en Sea Island, entonces cómo algo así puede ser tan distinto?.

Me ha venido a la mente la idea de que ¿y si estamos viendo en realidad 2 unidades?, me explico.

Dada la dualidad en la arquitectura, a lo mejor es que la GPU está montada apilada, sus 2 partes, siendo cada una un contexto, con su unidad de geometría, sus 6 CUs, etc.
Entonces la vista de rayos-X nos mostraría en el mismo espacio las 2, una encima de la otra. Y al estar apilado (fabricación en capas) pues los pines o patillas o como queramos llamarlas no pueden coincidir, de cara a conectarlas al bus.
Szasz escribió:@Chifrinillo

Sí, se sabía. Yo al menos sí. De Ps4 no hablo, pero hay unos "chips" en la CPU de One que en Ps4 no están. Ps4 tiene ARM fuera del SoC si es a lo que te refieres.

Este ARM se encarga de la seguridad y del "boost" de la CPU (además de otras cosillas que no impactan en el rendimiento). Por eso One puede manejar los clocks de sus clusters y núcleos de forma independiente. Tenemos jaguar+ en One, que es lo mismo que jaguar pero pudiendo subir dinámicamente a 2,4ghz por ejemplo, la frecuencia. Si Dx12 libera consumo y calor es probable que se pueda subir el máximo al que llegan estos núcleos en determinadas tareas. Aunque esto es pura especulación.


Subir a 2,4 el rendimiento? Eso donde lo dice ms o nos lo sacamos nuevamente de la axila?
Hay un procesador ARM en placa en el paper que hablan de chip no nombran arm. Volvemos a lo de siempre. Por inventar te puedes inventar lo que quieras. Pero sin un doc oficial o un análisis claro del chip donde se diga que aquí hay un arm ( evidentemente misterxmedia and friends no me valen) es nuevamente hablar por hablar.
Xboxman escribió:como veis esta noticia?

http://soloxboxone.com/2014/12/02/se-de ... -detalles/

Dicho por los creadores:

El resultado es espectacular. No solo en teoría si no también en la práctica (como dato adicional: estoy envuelto en la demo Star Swarm la cual hace uso de una tecnología similar). Mientras que en cada generación las tarjetas gráficas se estrujan para ganar un aumento sustancial de rendimiento con respecto a anteriores generaciones, aquí, de repente con el mismo hardware se verá doblar el rendimiento.

Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.



Pues la veo como noticia de portada EOL, seguro que a mas de uno le salen ronchas en la piel.
Claro hombre, ahora la consola tiene como 2 gpus.
No lo habíamos dicho para dar un poco de ventaja a la competencia, pobretes.

Y con la nube, 3 gpus.
jose1024 escribió:Que pueda aprovechar mejor la gpu en sus tiempos ociosos no significa que tenga doble gpu, ademas esto seria para GPGPU, osea postprocesos, que esta muy bien, fisicas y calculos de npc y poco mas, lo digo para que algunos dejen de fliparse, de doble gpu nada de nada.


Puede ser gpgpu y dos contextos de render para hacer pich tener dos viewports o imagen stereografica. Aunque las alus y la potencia siguen siendo la misma la tasa de uso se incrementa. Esa es la clave del asunto.

@aelio un par de paginas atrás hay una diagrama de ps4 con dos pipes de renderizado de diferente prioridad. La solución de xbo parece mas flexible y el añadido del procesador de comandos adicional es la parte que han customizado de la versión de pc. Es una solución ac hoc para consola. La idea de múltiples contextos de gpu esta en pc pero no suele que yo sepa disponer de dos procesadores de comandos salvo que tengas dos gpus una por ejemplo integrada en la cpu y otra en el pci expresa.
xhectorx escribió:
Xboxman escribió:como veis esta noticia?

http://soloxboxone.com/2014/12/02/se-de ... -detalles/

Dicho por los creadores:

El resultado es espectacular. No solo en teoría si no también en la práctica (como dato adicional: estoy envuelto en la demo Star Swarm la cual hace uso de una tecnología similar). Mientras que en cada generación las tarjetas gráficas se estrujan para ganar un aumento sustancial de rendimiento con respecto a anteriores generaciones, aquí, de repente con el mismo hardware se verá doblar el rendimiento.

Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.



Pues la veo como noticia de portada EOL, seguro que a mas de uno le salen ronchas en la piel.


Sin ninguna duda es noticia de portada para cualquier publicación seria del mundo de los videojuegos. Repito, para cualquier publicación seria.
Una empresa hace 3 barcos en 2 semanas
Otra empresa tiene dos lineas de produccion de pintura.con 2 capataces, y con los suministros que le llegan de subcontratas. Tiene menos trabajadores. pero consigue aúnar las especialidades de cada uno, para que casi nadie se quede mirando a las musarañas. Por lo que, cuando uno termina de cortar las piezas, hay otro que ya la está pintando, el otro barniza, y el que las monta primero estaba ayudando al que cortaba, y ahora que esta libre se pone a montar el armazon con las piezas que ya le han suministrado.
¿Que ocurre? Que la segunda empresa, al tener dos lineas de trabajo, 2 capataces y una fabrica acorde para que nadie holgazanee, se monta 4 barcos en esas mismas dos semanas con menos trabajadores.
marjalone está baneado por "Saltarse el ban con un clon"
un poco mas aclarado de la verdad del hardware de la xone , muchos tendran que rectificar o esconderse

http://www.tmag.it/2014/07/05/inside-xb ... dual-lane/

http://www.tmag.it/wp-content/uploads/2014/07/4.jpg
ForzaThor escribió:
xhectorx escribió:
Xboxman escribió:como veis esta noticia?

http://soloxboxone.com/2014/12/02/se-de ... -detalles/

Dicho por los creadores:

El resultado es espectacular. No solo en teoría si no también en la práctica (como dato adicional: estoy envuelto en la demo Star Swarm la cual hace uso de una tecnología similar). Mientras que en cada generación las tarjetas gráficas se estrujan para ganar un aumento sustancial de rendimiento con respecto a anteriores generaciones, aquí, de repente con el mismo hardware se verá doblar el rendimiento.

Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.



Pues la veo como noticia de portada EOL, seguro que a mas de uno le salen ronchas en la piel.


Sin ninguna duda es noticia de portada para cualquier publicación seria del mundo de los videojuegos. Repito, para cualquier publicación seria.


A Brad Wardell lo sigo asiduamente, esas declaraciones son antiquisimas. Fue tras la build de micro de 2014, pero por aquel entonces se le tacho de bocachancla que no sabía ni lo que decía.
Tras eso dejo de contestar todo lo relacionacionado con XBOX, contestaba con un escueto NDA.
Pasado un tiempo dijo "Yo antes era una fuente fiable de información acerca de Microsoft, pero me lo dieron todo a cambio de un NDA. Ahora apesto"

Y yo personalmente le pregunte si tenías juegos en desarrollo bajo DX 12, contesto que sí y al preguntarle si alguno era de XBOX ONE contesto lo siguiente: NDA ;)
xhectorx escribió:
Xboxman escribió:como veis esta noticia?

http://soloxboxone.com/2014/12/02/se-de ... -detalles/

Dicho por los creadores:

El resultado es espectacular. No solo en teoría si no también en la práctica (como dato adicional: estoy envuelto en la demo Star Swarm la cual hace uso de una tecnología similar). Mientras que en cada generación las tarjetas gráficas se estrujan para ganar un aumento sustancial de rendimiento con respecto a anteriores generaciones, aquí, de repente con el mismo hardware se verá doblar el rendimiento.

Xbox One será la mayor beneficiaria; esto le dará básicamente a cada poseedor de una Xbox One una nueva GPU con el doble de rendimiento que la antigua.



Pues la veo como noticia de portada EOL, seguro que a mas de uno le salen ronchas en la piel.



Para mi notición..

ahora portada seguramente no ya que da igual que sean los creadores los que den esa información,, ahora eso ya da igual hay que creerse antes a los 2 de por aquí que saben mas que los propios creadores..de locos.

Algunos no entienden que la tecnología va evolucionando y la mayorías de cosas las inventan personas que saben muchísimo, pero claro no es posible según algunos...
Ricardo si nos lees. Noticia a la portada. Si va a ser un filón, comentarios a mansalva, que es la finalidad de la web, :)
hadock0 escribió:Ricardo si nos lees. Noticia a la portada. Si va a ser un filón, comentarios a mansalva, que es la finalidad de la web, :)


La finalidad de la web es que se te abra por arte de magia uno de los banners al que no le has dado ¬¬* xD
isma82 escribió:
jose1024 escribió:Que pueda aprovechar mejor la gpu en sus tiempos ociosos no significa que tenga doble gpu, ademas esto seria para GPGPU, osea postprocesos, que esta muy bien, fisicas y calculos de npc y poco mas, lo digo para que algunos dejen de fliparse, de doble gpu nada de nada.


Puede ser gpgpu y dos contextos de render para hacer pich tener dos viewports o imagen stereografica. Aunque las alus y la potencia siguen siendo la misma la tasa de uso se incrementa. Esa es la clave del asunto.

@aelio un par de paginas atrás hay una diagrama de ps4 con dos pipes de renderizado de diferente prioridad. La solución de xbo parece mas flexible y el añadido del procesador de comandos adicional es la parte que han customizado de la versión de pc. Es una solución ac hoc para consola. La idea de múltiples contextos de gpu esta en pc pero no suele que yo sepa disponer de dos procesadores de comandos salvo que tengas dos gpus una por ejemplo integrada en la cpu y otra en el pci expresa.


No soy un entendido, pero dos pipelines gráfico no son dos gfx command processors. No te parece curioso que sea la primera gpu que utiliza esta solución? Además, aunque es cierto que en las transparencias de AMD que mencionabas páginas atrás se habla de múltiples contextos de cómputo, en este caso el paper menciona explícitamente contextos gráficos. Si esto fuera algo que ya incorpora de serie GCN, que sentido tiene mencinarlo en un artículo de corte científico?
Como tú mismo reconoces "...no suele que yo sepa disponer de dos procesadores de comandos salvo que tengas dos gpus...". Por qué te parece tan descabellado que la gente piense que MS ha invertido mucho dinero en diseñar junto con AMD una GPU de nueva generación, a la vista de estas peculiaridades?

Saludos
Papatuelo!!! Creo que tu espacio reservado a ZASCAS ya tiene dueño!!!
Jajaja por fin se va sabiendo la verdad y algunos van a sufrir muuuchooo!!! Bueno Alguno ya lo hace, ni duerme con tal de escribir aquí e intentar de revatir lo que ya es evidente. Lo de que esto acabe siendo noticia de portada.....LO DUDO.... aunque espero equibocarme.
Desde luego, una información muy interesante que merece, por lo menos, mención en EOL (como que Huaweii deja de utilizar sistema windows, ni más ni menos importante, supongo...).

Por otra parte, "sorprende" la avalancha de mensajes de 4 foreros en concreto, con tochazos para aburrir, tapando la verdadera noticia, incluso sin dormir casi 48hrs, como demuestran las horas de publicación de mensajes, algo para mi (padre de familia con un trabajo y obligaciones) absolutamente inviable, no lo haría ni por algo que me importara de verdad, imagina por videojuegos y consolas... Me parto.

Encantado de leer, tanto aquí como en EOF o 3DJ, a pspskulls (que sabe un huevo), Kinder, Papatuelo, Hadok0, Hookun y demás, no voy a citaros a todos, pero se os lee y se agradece.

Solo espero que la lluvia de mensajes no soterre la info oficial y por tanto indiscutible de MS.

Un saludo a tod@s y feliz debate.
.
Editado por ahona. Razón: Faltas de respeto
A mi lo que me interesa es saber como van a remontar el que su competidora haya vendido mas que ellos y por ende, conseguir que las companyias desarrolladoras prefieran ahora crear juegos de primeras para Xbox ONE. A mas decir, si en todo este tiempo, sea como haya sido, se ha redicho que PS4 es ligeramente superior y por ello se consiguen disfrutar mejores resoluciones y FPS (demasiado tiempo, tanto como para dejar a XO muy por debajo), como van a demostrar que XO es mejor que cuando fue, teniendo ya por bastante tiempo, peor reputacion de la esperada?

Es interesantisimo todo el articulo/noticia/revelacion, pero en lo que a propuesta de "upear" lo comercial se refiere, ha llegado muy tarde.
Yo tras una ingeniería en informática me sigo perdiendo entre estos papers, por lo que el debate entre negacionistas y evolucionistas me está encantando (a medias, a los que vienen solo a marear les tengo bloqueados, consejo para vivir mejor)

Ahora, que de pronto la consola tuviese X tecnologías revolucionarias que la permitan exprimir a tope, realmente no me importa. Lo que quiero es que los desarrolladores lo demuestren. Y que en un multi de mierda se vean a lo lejos 3 arbolitos mas y tenga *menos* caídas no es lo que me va a consolar.

Quiero títulos exclusivos que vayan dejando al FH2 atrás. Estos papers nunca van a callar bocas; lo que hagan con Halo5, Gears, Quantum... lo hará.
dany_wan escribió:Papatuelo!!! Creo que tu espacio reservado a ZASCAS ya tiene dueño!!!
Jajaja por fin se va sabiendo la verdad y algunos van a sufrir muuuchooo!!! Bueno Alguno ya lo hace, ni duerme con tal de escribir aquí e intentar de revatir lo que ya es evidente. Lo de que esto acabe siendo noticia de portada.....LO DUDO.... aunque espero equibocarme.



Yo lo que siempre he defendido es que debía dejarse un espacio a la especulación, que la gente no debía ser tan absoluta en sus afirmaciones. Siempre lo he dicho, no sé más que nadie, de hecho se menos que la mayoría. Pero sí sé que desconocer algo o ser incapaz de explicarlo no quiere decir que no exista. Eso es fundamentalmente lo que he defendido y lo que me ha levantado ampollas no ha sido que tal o cual consola sea mejor o pero si no la actitud de muchas personas.

¿Tu te imaginas que ahora todo es cierto? No digo lo de la doble gpu, si no que realmente la la arquitectura es diferente. Qué hacemos con toda esa gente que consideraba que no debíamos participar en el foro xq desinformabamos, que desvirtuabamos multiplataformas con nuestras magufadas, que no falataban al respeto si no que solo llamaban a los troles xboxers por su nombre: Troles, magufos.

¿Qué tendríamos que hacer? ¿O mejor dicho que tendrían que hacer ellos?

¿Quieres que te diga lo que pasará? Hemos dado tantas aproximaciones que aunque la consola sea la repanocha dirán: Seguis siendo magufos porque hablabais de dobles GPU's, hablabais de enjambres de ARM... Lo que no entenderán es que solo se daban aproximaciones para tratar de dar respuesta a algo que parecía lógico, solo estabamos seguros de que algo no cuadraba. Así funciona cualquier rama del sbaer, cualquier avance surge de esa forma. Quien no recuerda cuantos modelos atómicos se postularon antes de llegar al cuántico, ¿Bohr y compañía eran magufos?

Pero bueno, cada uno permanecerá en su zona de seguridad cueste lo que cueste.
papatuelo escribió:
dany_wan escribió:Papatuelo!!! Creo que tu espacio reservado a ZASCAS ya tiene dueño!!!
Jajaja por fin se va sabiendo la verdad y algunos van a sufrir muuuchooo!!! Bueno Alguno ya lo hace, ni duerme con tal de escribir aquí e intentar de revatir lo que ya es evidente. Lo de que esto acabe siendo noticia de portada.....LO DUDO.... aunque espero equibocarme.



Yo lo que siempre he defendido es que debía dejarse un espacio a la especulación, que la gente no debía ser tan absoluta en sus afirmaciones. Siempre lo he dicho, no sé más que nadie, de hecho se menos que la mayoría. Pero sí sé que desconocer algo o ser incapaz de explicarlo no quiere decir que no exista. Eso es fundamentalmente lo que he defendido y lo que me ha levantado ampollas no ha sido que tal o cual consola sea mejor o pero si no la actitud de muchas personas.

¿Tu te imaginas que ahora todo es cierto? No digo lo de la doble gpu, si no que realmente la la arquitectura es diferente. Qué hacemos con toda esa gente que consideraba que no debíamos participar en el foro xq desinformabamos, que desvirtuabamos multiplataformas con nuestras magufadas, que no falataban al respeto si no que solo llamaban a los troles xboxers por su nombre: Troles, magufos.

¿Qué tendríamos que hacer? ¿O mejor dicho que tendrían que hacer ellos?

¿Quieres que te diga lo que pasará? Hemos dado tantas aproximaciones que aunque la consola sea la repanocha dirán: Seguis siendo magufos porque hablabais de dobles GPU's, hablabais de enjambres de ARM... Lo que no entenderán es que solo se daban aproximaciones para tratar de dar respuesta a algo que parecía lógico, solo estabamos seguros de que algo no cuadraba. Así funciona cualquier rama del sbaer, cualquier avance surge de esa forma. Quien no recuerda cuantos modelos atómicos se postularon antes de llegar al cuántico, ¿Bohr y compañía eran magufos?

Pero bueno, cada uno permanecerá en su zona de seguridad cueste lo que cueste.


Subscribo todo lo dicho.
Lo que hace vender a una consola son los juegos.

Si empiezan a aparecer juegos "espectaculares" , como dicen y se suma a una rebaja en el hardware....

Puede que la situación remonte, aunque desde luego lo tienen dificil.

El tiempo lo dirá...


Aún así, mira que me extraña que microsoft no te ga guardada una carta en la manga, algo desde luego debe de haber.
esto es algo exlusivo de xbox one:


Uno de ellos es la estructura de la GPU que se encuentra dentro de la consola, la cual, al contrario que cualquier GPU conocida hasta el momento, está dividida en dos “contextos gráficos independientes” o hilos de procesamiento o doble pipeline:

El núcleo gráfico contiene dos graphics command y dos compute command processors. Cada command processor soporta 16 work streams. Los dos geometry primitive engines, doce compute units y cuatro render backend depth and color engines del núcleo gráfico soportan dos contextos gráficos independientes.

Esto no podrá usarse hasta el lanzamiento del DirectX 12, ya que la versión 11 no soporta instrucciones de trabajos en paralelo por hardware,

Actualmente no existe ninguna GPU en el mercado que incorpore dos contextos gráficos independientes, aunque se espera que las próximas APUs de AMD, llamadas Carrizo, y que tienen previsto su lanzamiento para 2015, también incorporen algo igual o similar, según AMD estas nuevas APU tendrán una alta compatibilidad con DirectX 12.

Merece recordar un rumor que apareció en Abril de 2012 en el medio VG247, en el cual se decía que la Xbox One, conocida como Xbox 720 en aquel momento, llevaría dos GPU pero de una forma no antes vista.

En una configuración típica de PC, los dos chips se turnan para dibujar las líneas del mismo objeto, pero en la nueva consola de Microsoft, las unidades gráficas trabajarán independientemente para dibujar objetos separados simultáneamente.

Esto coincide perfectamente con lo explicado en el documento publicado en IEEE.

Otras de las cosas que podemos ver en el documento es que el ancho de banda total sostenible en Xbox One es de 200 GB por segundo, debido a que la DDR3 y la ESRAM son utilizables al mismo tiempo.


Suicidios en la comunida sonyers, XD
yo lo que estoy viendo a qui es,pulsar botón y traspasar juegos pc en ultra a xone en cuestión de m [flipa] [flipa] minutos
unificación de wuidosws ,en la quincena sere un nuevo mimbreo de XONE
Como ya se ha comentado muchas veces Microsoft con la Xbox original y la 360 trajo tecnologia adelantada para la época en 2 años, y ahora vuelve a suceder.
Con la XboxOne y Dx12 la diferencia gráfica de los exclusivos puede ser sustancial con la competencia. Y los Multis que tengan de base la programación en PC con DX12 será también superiores. Otra cosa es que esto les de ventas y terminen también superando a la competencia al final de la generación. Pero a mi eso me da igual, yo lo que quiero son buenos juegos, y ya los tengo AHORA, sin DX 12 aun..... así que supercontento..... y además muy entretenido de ver los ZASCAS en la boca a más de uno aquí y en otros lares que se lo tienen bien merecido.
¿Alguien recuerda de donde salió el tema de la doble GPU?

Creo recordar que los primeros devkit se rumoreo que montaban un crossfire de HD7970, ¿Lo recordáis alguno?
Os leo a todos los que controláis todas esas cuestiones informáticas técnicas y la verdad alucino, no me entero de nada y me encantaría saber más [+risas]

Como todo esto se confirme y realmente explote el tema con directx12 sería un notición. Tengo muchas ganas de ver esos juegos puramente next gen progamados a partir de las nuevas soluciones gráficas.
Yo os digo una cosa ...lo del embargo de informacion de amd sobre la tecnologia que se utilizaria en las carrizos....un forero de aqui lo acerto ....pero de pleno....no se quien pero dio en el clavo....y se le ninguneo por completo.
Yo no llevo mucho tiempo por aqui...pues estaba mas por meristation....pero el ambiente era irrespirable ya.

Sinceramente ne alegro de que las sospechas de algunos se hayan cumplido....y de una forma u otra pese a tener conocimientos en la materia sabia que xbox one era una buena maquina.

Y a lo sonier ....me compadezco porque se la han vuelto a meter doblada una vez mas.

Ahora solo hay que esperar que lis juegos se hagan en base a direct x12 en pc y one....y despues porteen a ps4.
como pase esto voy a pasar un buen rato en meri...con los bocachanclas.


Ya dice el dicho quien rie ultimo rie el mejor
Lo que me alucina es que todavía hay gente que despues de las declaraciones de dos personas que han estado metidas de lleno en el desarrollo y que han confirmado que ya hay desarrollo y alfas de juegos funcionando diciendo, que es como tener otra grafica y todavía lo discuten desde su sofa de casa sin tener ni idea de lo que hablan entre otras cosas por que no han tenido acceso al hardware ni a nada oficial. Sinceramente hay que saber callar chavales.

Y esto va para los moderadores. Me parece increíble que el eol todavía no tenga esta noticia en portada. Meteis noticias como la del gordo del megaupload (noticia de relleno) y todavía no se vea nada de esta noticia.
el mercado inmobiliario de las cuevas esta subiendo como la espuma
No sabia nada del DX12 , perfecto entonces con ganas de ver verdaderamente la next gen.
Habeis visto,ya sabemos MS para que se gasto 3000 millones,para poner algo que a dia de hoy nadie tiene,pero da igual que la propia ms lo diga,ya hay alguno que dice que todo humo,que eso no vale para nada y demas chorradas
Una cosa, este articulo no es de hace 8 meses? o ando yo perdido?
He salido hace poco del coma. Alguien me puede resumir, para un no entendido en la materia, cual es esa noticia de la que todos habláis y que se debería poner en portada de EOL?

Gracias.
aelio escribió:
isma82 escribió:
jose1024 escribió:Que pueda aprovechar mejor la gpu en sus tiempos ociosos no significa que tenga doble gpu, ademas esto seria para GPGPU, osea postprocesos, que esta muy bien, fisicas y calculos de npc y poco mas, lo digo para que algunos dejen de fliparse, de doble gpu nada de nada.


Puede ser gpgpu y dos contextos de render para hacer pich tener dos viewports o imagen stereografica. Aunque las alus y la potencia siguen siendo la misma la tasa de uso se incrementa. Esa es la clave del asunto.

@aelio un par de paginas atrás hay una diagrama de ps4 con dos pipes de renderizado de diferente prioridad. La solución de xbo parece mas flexible y el añadido del procesador de comandos adicional es la parte que han customizado de la versión de pc. Es una solución ac hoc para consola. La idea de múltiples contextos de gpu esta en pc pero no suele que yo sepa disponer de dos procesadores de comandos salvo que tengas dos gpus una por ejemplo integrada en la cpu y otra en el pci expresa.


No soy un entendido, pero dos pipelines gráfico no son dos gfx command processors. No te parece curioso que sea la primera gpu que utiliza esta solución? Además, aunque es cierto que en las transparencias de AMD que mencionabas páginas atrás se habla de múltiples contextos de cómputo, en este caso el paper menciona explícitamente contextos gráficos. Si esto fuera algo que ya incorpora de serie GCN, que sentido tiene mencinarlo en un artículo de corte científico?
Como tú mismo reconoces "...no suele que yo sepa disponer de dos procesadores de comandos salvo que tengas dos gpus...". Por qué te parece tan descabellado que la gente piense que MS ha invertido mucho dinero en diseñar junto con AMD una GPU de nueva generación, a la vista de estas peculiaridades?

Saludos

Yo nunca he dicho que la gpu de xbox one fuera un mal diseño, el problema de la gpu de xbox one es que es poco potente con respecto a lo que cabria esperar de una consola next gen. Las soluciones implementadas en el chip para suplir la falta de ancho de banda de la ddr3 o para dotarle de el mayor uso posible a sus 12 cus están muy bien y son muy interesantes a nivel académico, de ahí el articulo. ÇDes un punto de vista de eficiencia tanto energética como de costes el chip de xbox one es interesante. Pero no es una máquina de alta capacidad computacional. En el paper dicen claramente en varias partes del msimo que ciertas decisiónes han sido tomadas para conseguir reducir costes de fabricación. Desde el momento que las consoals eligieron procesadores AMD Fusion con gpu integrada ya muchos nos hechamos las manos a la cabeza, porque en un mismo chip no puedes meter una cpu potente y una gpu potente y el problema de las consolas es que han tenido que sacrificar por ambos lados para poder hacer chips baratos que hagan consolas baratas. Básicamente.

Una cosa es que la gpu de xbox one tenga modificaciones interesantes que la permitan estar muy bien utilizada, que su arquitectura este mucho mejor balanceada que otras y otra muy distinta que ahora de repente multipliquemos tflops... Si es muy simple. En el paper cuand ophablan del ancho de banda de la máquina suman ddr3 y esram para decirte que, tienen un ancho de banda superior al de otras soluciones (200 GB/s en media) y te hacen esa suma explicita porque lo quieren resaltar. Y porque es correcta al menos de forma teórica. Sin embargo la cifra de potencia en coma flotante que proporciona el artículo es de 1.31 Tflops.
Los pipes son caminos concurrentes que pueden ejecutarse dentro de la gpu. Es decir multiplex contextos concurrentes como todas las gpus que tienen más de un ace.

LA gente confunde multiples contextos concurrentes con el context switching este que aparece en Carrizo. PEro es que no están hablando en el articulo que tengan context switching, es decir que peudan parar un contexto, ejecutar donde esta ese contexto otro y parar este y reanucar el anterior. Eso es Context switching que es distinto de simplemente poder mantener multiples contextos simultaneos, que es lo que pone en el artículo.

Como dice el propio ingeniero de microsoft en el articulo de eurogamer refiriendose al mayor numero de aces de ps4....

DF: The GPU compute comparison seems to be about Xbox One's high coherent read bandwidth vs. raw ALU on PS4. But don't the additional ACEs added to PS4 aim to address that issue?

Andrew Goossen: The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU.

El numero de procesadores de comandos, sean para gpgpu sea para pintado no incrementan ni el ancho de banda ni el numero efectivo de flops de rendimiento de ninguna gpu. Solo permiten mejorar su utilización.

The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing. We believe that the 16 queues afforded by our two ACEs are quite sufficient.

Al contrario, dictan el número de "contextos" de hardware simultaneos que un programador de hardware de la GPU puede operar en cualquier momento. Puedes pensar de estos contextos como una analogía a los threads de software en una cpu CPU, son hilos lógicos de ejecución que comparten el hardware de GPU. Tener más de ellos no necesariamente mejora el rendimiento real del sistema - de hecho, al igual que un programa que se ejecuta en la CPU, demasiados hilos concurrentes pueden empeorar la performance total efectiva debido trasiego de información ( e interdependencias entre los datos, que en gpu son menores pero en gpgpu son mas altas sin llegar a ser tan altas como en cpu). Creemos que las 16 colas ofrecidas por cada uno de nuestros ACEs son más que suficiente.
---------------------------------------------------------------
Tener dos procesadores de comandos gráficos o procesadores de comandos de gpgpu tiene ciertas ventajas de utilización (hasta cierto punto como comentan la propia microsoft) pero todos esos comandos y contextos se ejecutan sobre el mismo hardware que es el que en ultima instancia por propia física la limita. Se peude utilizar una consola hasta el ultimo bit. Hasta el ultimo flop. Pero jamás se podrá llevar a la gpu de xbox one mas allá de su limite de potencia que determinan sus cus, que es, segun microsoft de 1.31 Tflops. Como ya he dicho en el hilo reiteradamente, este articulo ya se conocía. Yo lo conocía desde abril o mayo y se publico en marzo. Este articulo no es nuevo, las declaraciones de eurogamer creo incluso son posteriores, esto ya se sabía desde hace tiempo, solo que hay gente que lo ha descubierto ahora y otros que no lo conocía o se negaban a conocerlo cuando minimizaban ciertos aspectos de xbo como que no tinia coherencia de caches o que la coputación asincrona era una birria. Dicho lo cual he de reconocer que yo cuando lo leí se me pasó por alto el tema de que tengan más stream works por ace de lo normal. Releido y con la charla de estos días he caido en eso que se me había pasado por alto y que me parece muy interesante por otra parte. Estoy completamente de acuerdo con el ingeniero que para la gpu que tiene xbox one 16 pipes por ace con 2 aces es mas que suficiente, sobre todo si peude operar en diferentex contextos simultaneos y adapat la gpu a las necesidades de forma tan flexible como parece indicar el paper.

Un saludo.
@Isma82.
Por lo que cuentas es una maquina muy bien calculada a todos los niveles, costos, rendimiento, kinect, multiples escenarios de desempeño, consumo, gran trabajo el de los ingenieros de microsoft, fueron muchas circustancias a tener en cuenta y por lo que cuentas han equilibrado muy bien la maquina, el uso de una eSRAM ya es una apuesta arriesgada por lo que hubo que sacrificar, gran trabajo el de los ingenieros de Microsoft y gran trabajo el tuyo divulgando con los pies en el suelo.
The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing. We believe that the 16 queues afforded by our two ACEs are quite sufficient.

Al contrario, dictan el número de "contextos" de hardware simultaneos que un programador de hardware de la GPU puede operar en cualquier momento. Puedes pensar de estos contextos como una analogía a los threads de software en una cpu CPU, son hilos lógicos de ejecución que comparten el hardware de GPU. Tener más de ellos no necesariamente mejora el rendimiento real del sistema - de hecho, al igual que un programa que se ejecuta en la CPU, demasiados hilos concurrentes pueden empeorar la performance total efectiva debido trasiego de información ( e interdependencias entre los datos, que en gpu son menores pero en gpgpu son mas altas sin llegar a ser tan altas como en cpu). Creemos que las 16 colas ofrecidas por cada uno de nuestros ACEs son más que suficiente.


Ahi no dicen que cada ACE tenga 16 colas, si no que los dos tienen 16 colas, o asi lo interpreto yo. Pero vamos, se pueden referir perfectamente a lo primero.
jose juan escribió:Habeis visto,ya sabemos MS para que se gasto 3000 millones,para poner algo que a dia de hoy nadie tiene,pero da igual que la propia ms lo diga,ya hay alguno que dice que todo humo,que eso no vale para nada y demas chorradas



Por eso no todo el mundo, puede trabajar en empresas como Microsoft, si fuera tan fácil todos seríamos informáticos, futbolistas,ect...

Aquí uno puedo decir que esto es imposible, pero lo dice porque no esta capacitado para trabajar con los mejores, es como en el futbol o en cualquier ámbito de la vida, unos llegan hasta arriba porque son los mejores en su oficio y otros nos conformamos con trabajar donde sabemos...

antes d e que existiera internet, supongo que alguien lo invento y nadie mas en el mundo fue capaz de inventar lo,,,,

Pues esto es lo mismo, al final va a resultar que la Xbox tiene software que hasta el año que viene no lo vamos a ver en pc..nada nuevo ya paso con la 360...

No todo es hardware ,el software es igual de importante...tengo muchas ganas de ver un juego en Xbox que este utilizando la Xbox al 100%..
jose juan escribió:Habeis visto,ya sabemos MS para que se gasto 3000 millones,para poner algo que a dia de hoy nadie tiene,pero da igual que la propia ms lo diga,ya hay alguno que dice que todo humo,que eso no vale para nada y demas chorradas

Que Microsoft pagara 3000 millones a AMD no refleja nada, mas allá de que tienen una importante capacidad para gastar dinero. También han comprado Mojang, la desarrolladora de Minecraft por 2500 millones de dólares, una cantidad de dinero similar, en una cuestión a priori menos importante que el desarrollo de un hardware que tiene que ser competitivo durante un buen numero de años.
Cyborg_Ninja escribió:
The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing. We believe that the 16 queues afforded by our two ACEs are quite sufficient.

Al contrario, dictan el número de "contextos" de hardware simultaneos que un programador de hardware de la GPU puede operar en cualquier momento. Puedes pensar de estos contextos como una analogía a los threads de software en una cpu CPU, son hilos lógicos de ejecución que comparten el hardware de GPU. Tener más de ellos no necesariamente mejora el rendimiento real del sistema - de hecho, al igual que un programa que se ejecuta en la CPU, demasiados hilos concurrentes pueden empeorar la performance total efectiva debido trasiego de información ( e interdependencias entre los datos, que en gpu son menores pero en gpgpu son mas altas sin llegar a ser tan altas como en cpu). Creemos que las 16 colas ofrecidas por cada uno de nuestros ACEs son más que suficiente.


Ahi no dicen que cada ACE tenga 16 colas, si no que los dos tienen 16 colas, o asi lo interpreto yo. Pero vamos, se pueden referir perfectamente a lo primero.


ciertamente ahi da la sensacion que dice 16 en los dos. Pero en el paper si parece que lo dejan claro. . Each command processor supports 16 work streams. Cada uno. En este caso me fio mas del paper que de una declaracion que ha pod7do ser o mal transcrita o incluso un lapsus del ingeniero o una mala traduccion nuestra.
Al final resultara que no era tan fantasma mrxmedia [+risas] Grande Xbox one
No os resulta un poco de ciencia ficción que DirectX 12 vaya a doblar el rendimiento? Un 10 o un 20% vale, lo compro, pero más me resulta increíble por mucho que tenga coherencia de dos GPUs y Compute Units de sobras, suena tan milagroso como la baba de caracol de la teletienda a mis incrédulos ojos forjados con miles de promesas incumplidas por parte de TODAS LAS COMPAÑÍAS DEL SECTOR, yo hace mucho que dejé de creer en promesas y no hechos, ahora mismo One está recibiendo títulos más cercanos a ps4, en algunos casos muy cercanos, pero siguen habiendo diferencias, de salida era descarada la diferencia, eso son mis únicas fuentes, ni primarias ni secundarias, mis ojos son mis fuentes.

A ver si se aclara la cosa de una vez que cansa ya el tema, para un bando y para otro, agotáis la paciencia incluso de alguien que solo se suele limitar a leer y muy rara vez opina.
ForzaThor escribió:Una cosa, este articulo no es de hace 8 meses? o ando yo perdido?

Si es de marzo.
17587 respuestas