Hablemos del interior de Xbox One

El forza 4x 1080p no prueba nada
Es un exclusivo y nunca se sabrá si en la otra podría haber tenido un poco más de público o sombras o vacas pastAndo y eso es lo único que importa. Recuerdo que el virtual tenis4! Iba a 1080p en x360, y qué?
Xq estan desapareciendo mensajes del hilo? Ayer con el baneado y hoy otro de mosotron.

Edito: He entradi 3 o 4 veces pinchando en el icono de ultimo mensaje y no aparecia el de mosotron. Ahora si lo veo, no se cual habra sido el problema.
Por que el hilo no es de discusion y esta monoplolizado, los tuyos podrian desaparecer basicamente por falta de rigor, pero tamben por chuleo, este ultimo y el de ayer de "i have the power"
No era chuleo, era una broma xq en teoria no puedo contestar dos veces seguidas.
Y a mis mensajes no les falta rigor puesto q siempre aclaro q son suposiciones desde el escaso conocimiento q poseo.
Pero oye tu mismo, seguro q los tuyos son tecnicos y ciertos como no hay otros en todo el hilo.
Dusfruta el fin de semana.
mosotron escribió:El forza 4x 1080p no prueba nada
Es un exclusivo y nunca se sabrá si en la otra podría haber tenido un poco más de público o sombras o vacas pastAndo y eso es lo único que importa. Recuerdo que el virtual tenis4! Iba a 1080p en x360, y qué?


Hombre si esos assets en mundo abierto con renderizado físico avanzado (nada de prebakeados como la otra) y msaa4x a 1080p no demuestra nada...en fin las cosas que hay que leer en este foro.

Papatuelo, normal que te borren mensajes, es que la realidad escuece xd, y si no mira horizonte de sucesos otro "troll"
No no, a mi no me han borrado nada.
mosotron escribió:El forza 4x 1080p no prueba nada
Es un exclusivo y nunca se sabrá si en la otra podría haber tenido un poco más de público o sombras o vacas pastAndo y eso es lo único que importa. Recuerdo que el virtual tenis4! Iba a 1080p en x360, y qué?

Ahí te has lucido. Claro como FH2 es como un juego de tenis...cuando resulta que es un juego de carreras que junta TODO lo costoso en éstos: climatología, iluminación real y dinámica, cambios del entorno (ciclos dia/noche), y como no tenían bastante pues venga lo hacemos abierto, a ver en cuantos juegos de coches puedes irte por donde te de la gana saliéndote de la carretera. Un facepalm en toda regla.
Buenas gente. Luego os quejáis de q yo soy categórico pero lo de algunos... [carcajad] [carcajad] [carcajad]

@salocin21 necesito q me expliques un par de cosas para poder entender tus mensajes (no estoy de coña, es totalmente en serio):

- A qué te refieres con un reffender++?.
- Como es eso de usar la eSRAM como "register file"?
- No entiendo esta parte: "apilado 3d sobre vía de silicona", via de silicona? a q te refieres?.
- Me interesaría que me explicases este párrafo: "Pero no es un FB, en resumen se utiliza para mover carga de trabajo de cálculo general sin necesidad de utilizar ROPS o rasterixaciones, y todo ello trabajando en serie o paralelo."
- Qué es una máquina "lineal"?.
- A q te refieres con "renderizado físico avanzado (nada de prebakeados como la otra)"?.

Una aclaración: la serie GCN tiene hasta 12 MB de memoria distribuidas por el chip para asegurar la consistencia de los datos y su corrección.

Un saludo.
@Polyteres yo te lo digo, aunque casi seguro que más o menos lo sabes. Son conceptos relacionados con la tecnología, pero son de ensayos experimentales y de conceptos en ocasiones lejanos de lo que serían para videojuegos. Es mucho laboratorio, experimentación y por lo general con aplicaciones científicas, más que de entretenimiento.

Por eso digo que la cosa se está liando demasiado. De cara a la consola, el PIM es para obtener una mayor eficiencia en procesamiento (que para eso es el PIM), y en este caso, de cara a la GPU es principalmente render y en 2º lugar GPGPU. De cara a la CPU pues coherencia con la GPU para computación.

Yo por lo menos lo veo así.
Hay cosas q es obvio q sabe, lo del TSV es fijo, pero remarca lo de la silicona para q a nadie se le pase el fallo.
Una pregunta tonta y rapida que no se si va en este hilo la verdad... como descarga mas rápido la consola? Encendida o apagada? Gracias de antemano!
...
Editado por Darkcaptain. Razón: Offtopic / Flame
Polyteres escribió:Buenas gente. Luego os quejáis de q yo soy categórico pero lo de algunos... [carcajad] [carcajad] [carcajad]

@salocin21 necesito q me expliques un par de cosas para poder entender tus mensajes (no estoy de coña, es totalmente en serio):

- A qué te refieres con un reffender++?.
- Como es eso de usar la eSRAM como "register file"?
- No entiendo esta parte: "apilado 3d sobre vía de silicona", via de silicona? a q te refieres?.
- Me interesaría que me explicases este párrafo: "Pero no es un FB, en resumen se utiliza para mover carga de trabajo de cálculo general sin necesidad de utilizar ROPS o rasterixaciones, y todo ello trabajando en serie o paralelo."
- Qué es una máquina "lineal"?.
- A q te refieres con "renderizado físico avanzado (nada de prebakeados como la otra)"?.

Una aclaración: la serie GCN tiene hasta 12 MB de memoria distribuidas por el chip para asegurar la consistencia de los datos y su corrección.

Un saludo.


" reffender" es deferred que el diccionario de mi movil lo cambia y a veces se me escapa Xp con ++ me refiero a esta basado en física, y no con las técnicas antiguas basadas en RBE Y BW y poca física debida a limitaciones del hardware, estas técnicas son las que llamo prebakeadas, ya que habitualmente se calculan sobre una maquina superior y de esta manera no requieren tanto calculo en la maquina final. Ejemplo ps360 en infinidad de juegos.

Lo de la SRAM pues intentaba explicar el concepto de PIM y como debe utilizarse la SRAM como un memoria para "optimizar procesos sobre todo para PBS" y no para frames, ya que la máquina tiene otra forma de hacer esto (axi y tield)

Apilado 3d, hablo sobre el apilado 2.5D-IC que se supone monta One, la definion es literalmente TSV y significa a través de silicio, literalmente es un silicon wafer; es una forma de explicar el conexionado de los módulos. De esto subí fotos mostrando los interposer.

Con maquina lineal, es una mala forma de explicar la forma de explicar como funciona una maquina actual, es decir amplio pool de memoria y un bus rapido lo llamo lineal por que la forma de mover los datos es completamente diferente a lo que viene en sistemas mas "distribuidos" como One.

Un saludo.
Silicon != silicona

O acaso silicon valley esta lleno de pechugonas de plastico?

silicio
Zokormazo escribió:Silicon != silicona

O acaso silicon valley esta lleno de pechugonas de plastico?

silicio


Coño es verdad XD, se me "fue la pinza" pero bien
Zokormazo escribió:Silicon != silicona

O acaso silicon valley esta lleno de pechugonas de plastico?

silicio


Mierda tio, pensaba que en el spoiler ibas a poner una foto mas ehmmm interesante, de acorde al contexto :P
darksch escribió:Usa la API exclusiva close to the metal, que es lo mismo que se consigue con DX12. Con esa API exclusiva se tiene acceso a todo lo de la máquina, no queda nada oculto.

Por otra parte, usar la eSRAM como framebuffer es la única forma de que sea eficiente y conseguir 1080p además de ROPs sin pausas, mejora del rendimiento del alfa blending, etc. Es decir usar la DDR3 como FB no es lo normal o estarás muy capado en cuanto a lo que puedes hacer y se estaría tirando por la borda la arquitectura en cuanto a render se refiere. Lo que se hace es tilear el render para que esos 32MB no se queden escasos, pero la eSRAM es la que debe usarse como FB, aparte de darle otros usos.
Además tileando (por ej. con Forward+) junto con transferencias en paralelo y ajenas (Move Engines) es la forma natural de hacerlo.

Totalmente de acuerdo con este post,directx12 es directx12 y one usa su propia version directx totalmente optimizada para su hardware concreto
Buenas gente.

@papatuelo sinceramente me pareces un buen tío, buscas cosas, te preocupas por aprender, tienes curiosidades, te interesas... pero a veces me da la sensación de q tienes algún tipo de problema conmigo, no soy tu enemigo ni tengo ninguna cruzada personal contra XboxOne. Mi mensaje era totalmente blanco y transparente no iba con segundas. Aunq no te lo creas no soy ningún ogro ni me como a niños.

@laleshe luego os quejaréis de baneos...

@salocin21 no existe el concepto de deferred++ o deferred basado en física, se están mezclando conceptos. Una cosa es la forma en la q renderizas una imagen (forward, forward+, deferred, light prepass...) y otra cosa es el modelo de iluminación/materiales/BRDF que uses para representar los distintos objetos. Son cosas diferentes y totalmente compatibles, puedes tener un deferred rendering con un modelo de iluminación físicamente correcto, o no, o puedes tener un forward clásico con un modelo físicamente correcto tb, no tiene nada q ver como digo, es como comparar peras y manzanas.

Hasta hace poco no se tenían modelos de iluminación demasiado complejos debido a la potencia requerida para modelar la luz y los materiales de forma fisicamente correcta. La potencia de las nuevas máquinas te permite usar una represantación de la luz mucho mas precisa, pero esto no tiene que ver con los RBE o con el ancho de banda tiene q ver con la potencia de cálculo.

XboxOne no tiene PIM ni stacked RAM, no lo digo yo, lo dicen los arquitectos de XboxOne, y aprovecho para decir que HBM no es lo mismo que eSRAM + DDR3, se parecen como un huevo a una castaña.

Máquinas con memoria embebida han existido desde hace muchos años, no es un concepto novedoso, sin ir mas lejos Ps2 tenia 4MB de memoria embebida.

Por otra parte he leido unas cuantas veces por aquí ya que las copias entre eSRAM y DDR3 son "gratis" por usar los DMEs, no son gratis lo q son es desatendidas pero primero tienes q iniciar la transferencia y segundo están ocupando dos buses (el de la DDR3 y el de escritura o lectura de la eSRAM, o ambos de la eSRAM) por lo q como no tengas los datos q vayas a usar en las cachés la máquina se te va a parar la unidad funcional de turno hasta q la transferencia termine y se libere el bus (dependiendo del tipo de solución q hayan escogido el bus puede estar más o menos tiempo bloqueado, robo de ciclo o ráfagas).

Un saludo.
Polyteres escribió:Buenas gente.

@papatuelo sinceramente me pareces un buen tío, buscas cosas, te preocupas por aprender, tienes curiosidades, te interesas... pero a veces me da la sensación de q tienes algún tipo de problema conmigo, no soy tu enemigo ni tengo ninguna cruzada personal contra XboxOne. Mi mensaje era totalmente blanco y transparente no iba con segundas. Aunq no te lo creas no soy ningún ogro ni me como a niños.

@laleshe luego os quejaréis de baneos...

@salocin21 no existe el concepto de deferred++ o deferred basado en física, se están mezclando conceptos. Una cosa es la forma en la q renderizas una imagen (forward, forward+, deferred, light prepass...) y otra cosa es el modelo de iluminación/materiales/BRDF que uses para representar los distintos objetos. Son cosas diferentes y totalmente compatibles, puedes tener un deferred rendering con un modelo de iluminación físicamente correcto, o no, o puedes tener un forward clásico con un modelo físicamente correcto tb, no tiene nada q ver como digo, es como comparar peras y manzanas.

Hasta hace poco no se tenían modelos de iluminación demasiado complejos debido a la potencia requerida para modelar la luz y los materiales de forma fisicamente correcta. La potencia de las nuevas máquinas te permite usar una represantación de la luz mucho mas precisa, pero esto no tiene que ver con los RBE o con el ancho de banda tiene q ver con la potencia de cálculo.

XboxOne no tiene PIM ni stacked RAM, no lo digo yo, lo dicen los arquitectos de XboxOne, y aprovecho para decir que HBM no es lo mismo que eSRAM + DDR3, se parecen como un huevo a una castaña.

Máquinas con memoria embebida han existido desde hace muchos años, no es un concepto novedoso, sin ir mas lejos Ps2 tenia 4MB de memoria embebida.

Por otra parte he leido unas cuantas veces por aquí ya que las copias entre eSRAM y DDR3 son "gratis" por usar los DMEs, no son gratis lo q son es desatendidas pero primero tienes q iniciar la transferencia y segundo están ocupando dos buses (el de la DDR3 y el de escritura o lectura de la eSRAM, o ambos de la eSRAM) por lo q como no tengas los datos q vayas a usar en las cachés la máquina se te va a parar la unidad funcional de turno hasta q la transferencia termine y se libere el bus (dependiendo del tipo de solución q hayan escogido el bus puede estar más o menos tiempo bloqueado, robo de ciclo o ráfagas).

Un saludo.


Si no hay stacked por que hay fotos de los interposer que demuestran el apilado 2.5D? Y por que las fotos de osciloscopio que demuestran la salida coherente con stacked? En su dia subí fotos de ambos así que tu dirás, si nos fiamos de lo que ha dicho microsoft no tendríamos nada, por que estrategicamente no le interesa enseñar sus cartas todavía.

El bus de la ddr3, el bus de la SRAM son buses independientes, echale un ojo a la información sobre axi brigue que subí ayer que es bastante interesante, pero se resume en alto rendimiento y que los data move son invisibles para la labor de la CPU/GPU ya que tienen un bus propio creó recordar a 25g/s, la CPU/GPU lanza el proceso pero se apoyan en tecnología ARM así que no lastra el resto del sistema.

Con lo de las técnicas de renderizado/iluminado , si estoy de acuerdo en gran medida contigo, con lo necesidad de calculo no tanto, pero no quiero desvirtuar el post así que lo dejo así. (no tiene que ver con One realmente)

En concepto de memoria embebida no es nuevo, la forma de usarla tampoco, pero la capacidad que tiene en One con stacked silicon + Data move si.
Xbox One tiene al menos, la parte de la sram en stacked 2.5D. No hay apilamiento vertical, pero si están interconectados los distintos módulos de 8MB por conexiones TSV. ¿Como consigues sino, semejante interfaz de memoria con bajo consumo?

Microsoft no dice todo lo q lleva la Xbox One. Hay elementos importantes en su arquitectura q no han sido desvelados en ningún diagrama.

https://twitter.com/rickbmerritt/status ... 1568857089
Hace meses que engadget visitó el "Silicon Lab" en el que microsoft estaba desarrollando XBOX ONE, en aquel momento hicieron una foto que ya se posteo por aquí.

http://i.imgur.com/8ICAJYf.jpg

http://www.engadget.com/2013/05/21/building-xbox-one-an-inside-look/

Mistercteam en aquel momento dijo esto:
Imagen

Por otro lado, cuando se publico lo del proyecto catapulta de Doug Burger, anduve guarreando y al ver que los FPGA que se usaban eran de altera quise ver si esta compañía tenía alguna relación con XBOX ONE, el aquel momento encontramos esto:

papatuelo escribió:Altera la que proporciona los FPGA a microsoft para Catapult hablando de XBOX ONE.

http://www.altera.com/technology/system-design/articles/2013/memory-bandwidth-hot-chips-conference.html

Edito:

Somewhere between these two SoCs lies the multi-die module for Microsoft’s XBOX One

Que es un multidie para Altera:


Imagen

Altera's heterogeneous multi-die devices provide the benefit of traditional 2.5 and 3D approaches with more favorable economic metrics. The devices will address the performance, memory bandwidth and thermal challenges impacting high-end applications in the communications, high-performance computing, broadcast and military segments.

http://newsroom.intel.com/community/intel_newsroom/blog/2014/03/26/altera-and-intel-extend-manufacturing-partnership-to-include-development-of-multi-die-devices

¿Cuando ha empezado altera a hablar del multi-die? En Marzo de 2014
¿De cuando es el articulo de XBOX escrito pot Altera? De 2013.


No es completamente correcto puesto que altera ya hablaba de multi-die en 2012, pero bueno, podéis haceros una idea.

Sumad todo eso y echarle un ojo a este PDF:
http://www.fpt2013.org/Day1_keynote.pdf
Szasz escribió:Xbox One tiene al menos, la parte de la sram en stacked 2.5D. No hay apilamiento vertical, pero si están interconectados los distintos módulos de 8MB por conexiones TSV. ¿Como consigues sino, semejante interfaz de memoria con bajo consumo?

Microsoft no dice todo lo q lleva la Xbox One. Hay elementos importantes en su arquitectura q no han sido desvelados en ningún diagrama.

https://twitter.com/rickbmerritt/status ... 1568857089


Efectivamente hay NDA por todos lados.. Les interesa tanto estratégica como legalmente dejar esto tapado algún tiempo.

Es una estrategia monopolística, de aquí a dos años liberas toda la información y dejas a la competencia sin margen de maniobra, a la ve que metes barreras de entrada a competencia potencial.

Imaginar que de aquí a 2 años microsoft cuenta la realidad y que One es 3x mas potente que la competencia, en que lugar queda Sony? Con 15 millones de consolas en la calle y sin el potencial económico de desarrollar un hardware similar.. O tiran el resto de la gen con un hardware muy inferior o saltan a gaikai como ya están insinuando, además MS podría tener consecuencias legales por falsear datos de la maquina.

Este offtopic es para explicar por que el argumento de "MS no lo ha dicho" no es demasiado valida en estos casos.

Con lo la SRAM 100% de acuerdo.
salocin21 escribió:Si no hay stacked por que hay fotos de los interposer que demuestran el apilado 2.5D? Y por que las fotos de osciloscopio que demuestran la salida coherente con stacked? En su dia subí fotos de ambos así que tu dirás, si nos fiamos de lo que ha dicho microsoft no tendríamos nada, por que estrategicamente no le interesa enseñar sus cartas todavía.

El bus de la ddr3, el bus de la SRAM son buses independientes, echale un ojo a la información sobre axi brigue que subí ayer que es bastante interesante, pero se resume en alto rendimiento y que los data move son invisibles para la labor de la CPU/GPU ya que tienen un bus propio creó recordar a 25g/s, la CPU/GPU lanza el proceso pero se apoyan en tecnología ARM así que no lastra el resto del sistema.

Con lo de las técnicas de renderizado/iluminado , si estoy de acuerdo en gran medida contigo, con lo necesidad de calculo no tanto, pero no quiero desvirtuar el post así que lo dejo así. (no tiene que ver con One realmente)

En concepto de memoria embebida no es nuevo, la forma de usarla tampoco, pero la capacidad que tiene en One con stacked silicon + Data move si.


La foto del osciloscopio que mencionas es la que ha adjuntado papatuelo?

Esta?
Imagen

Si es asi. Que se supone que demuestra dicha foto??? Aparte de ser un diagrama de ojos normal y corriente de una senyal digital...

Un saludo!
A ver esas transferencias sí que son "gratis". En el sentido estricto no existe nada gratis, pero en la práctica al no ocupar a los implicados viene a serlo. Lo mismo pasa con las tasas de transferencia, y cuando se dice que la DGGR5 da no se cuantos gigas y todo eso, pero lo que no se dice es que para conseguirlo hay que tener ocupados los CS de la GPU, pero es algo que se da por sentado.

Veamos, los implicados tampoco tienen porque estar parados, para eso existe el paralelismo. @Polyteres está poniendo el peor de los casos que sería siempre hacerlo todo en serie, es decir, uso toda la eSRAM, me quedo sin espacio, la transfiero y sigo con los siguientes 32MB. Pero esto no es así, se puede trabajar y seguro que se hace en bloques por poner un ejemplo de 8MB, trabajo (renderizo) sobre un bloque de 8MB, cuando termino me paso a otro y voy transfiriendo el 1º, al terminar con el 2º se vuelve al 1º y el 2º se transfiere, así sucesivamente.
Eso por no mencionar que incluso podría ir transfiriéndose según se va completando el render, línea a línea, ya que para renderizar se necesita mucho ancho porque implica multitud de operaciones de E/S, pero una ver se obtiene el resultado, éste no es más que un bloque simple, de 4 bytes por pixel, ni más ni menos, así que hablamos de simples transferencias de 8 o 16MB seguramente, sin que nadie tenga que esperar.

Paralelismo, que para eso se ha diseñado, no se han metido buses y DMA para hacer las cosas en serie precisamente, y que los componentes se queden ahí sin hacer nada. El único coste real es la merma del ancho usado en dichas transferencias, es decir si transfiero los 32MB 2 veces por fotograma (FB de 1080p, datos de computación, etc.) en un juego a 60 fps, eso son 4GB/s, pues eso se le resta a los 68 y a los 204 de la eSRAM. Que uso 8GB/s, pues se le restan a ambos.
El tope de los Move Engine es 25GB/s, imagino que está pensado para que se usen al máximo, la CPU se desentienda totalmente, y la GPU coma de eso, que hay para transferir los 32MB al completo unas 13 veces (teóricas, como todos estos datos) por fotograma en un juego a 60 fps. Y en caso de faltarle, pues que la propia GPU usando CS (que también puede claro) pues se transfiera más si es necesario. La CPU usaría el resto del ancho que le quede, que normalmente no se necesita tanto.

Respecto a los recursos, pues imagino que en DX12 y sus tiled resources eso ya estará más que estudiado e implementado, por lo que no me meteré mucho. Probablemente se base en algoritmos de predicción y otras cosas para transferir lo que vaya a necesitar, eso sin contar que dado su comportamiento como caché, entre frame y frame gran parte de los recursos se repiten, con lo cual tampoco hay que predecir mucho y se tendrá un gran % de acierto.
salocin21 escribió:además MS podría tener consecuencias legales por falsear datos de la maquina.


No había pensado en ello. Si es cierto, me temo que nos podríamos quedar sin conocer todo el pastel.
salocin21 escribió:Imaginar que de aquí a 2 años microsoft cuenta la realidad y que One es 3x mas potente que la competencia, en que lugar queda Sony? Con 15 millones de consolas en la calle y sin el potencial económico de desarrollar un hardware similar.. O tiran el resto de la gen con un hardware muy inferior o saltan a gaikai como ya están insinuando, además MS podría tener consecuencias legales por falsear datos de la maquina.



¿En que lugar queda MS dejando que 15 millones de personas compren la consola de la competencia aun siendo la suya todo lo potente que pretendeis que pudiera ser? Menudos estrategas comerciales y de marketing tendria MS, mas teniendo de precedente que PS2 fue la consola de su generacion sin ser la mas potente...

Yo ya se lo comente a papatuelo por privado, este hilo es un quiero y no puedo. A mi me la refanflinfa que One pueda ser menos potente que PS4, la considero mejor maquina basandome en lo que tiene (no en lo que "podria" tener o no), simplemente porque no solo de potencia vive el gamer.
Tambien puede ser que la maquina no sea tan "potente" sin algunos añadidos de software como es el direct 12. o el asentamiento de la nube. Y por ello no han alardeado de algo que hoy en dia aun no tienen. QUe seria lo mas normal
Grinch escribió:Tambien puede ser que la maquina no sea tan "potente" sin algunos añadidos de software como es el direct 12. o el asentamiento de la nube. Y por ello no han alardeado de algo que hoy en dia aun no tienen. QUe seria lo mas normal


Por supuesto, una de las cosas que valoro mucho de la One es precisamente como evoluciona con cada actualizacion. Pero yo hablo de presente, del aqui y ahora, no de lo que puede ser o no ser. Y lo de que no alardean de lo que no tienen, me acuerdo del bombo de la nube y mirala, aun en pañales como aquel que dice.
mondillo escribió:
Grinch escribió:Tambien puede ser que la maquina no sea tan "potente" sin algunos añadidos de software como es el direct 12. o el asentamiento de la nube. Y por ello no han alardeado de algo que hoy en dia aun no tienen. QUe seria lo mas normal


Por supuesto, una de las cosas que valoro mucho de la One es precisamente como evoluciona con cada actualizacion. Pero yo hablo de presente, del aqui y ahora, no de lo que puede ser o no ser. Y lo de que no alardean de lo que no tienen, me acuerdo del bombo de la nube y mirala, aun en pañales como aquel que dice.



Por eso digo.. que por ahora no pueden presentar lo que no tiene aun. EL bombo de la nube realmente prometieron lo que estamos viendo. Hay demostraciones etc. Tambien hay que tener en cuenta que la nube que presentaron estaba atada a una consola siempre online. Al cambiar esto tuvieron que cambiar otras cosas.

Pero que por eso digo . Que por ahora no pueden presentar algo que hatsa que llegue el software necesario no tienen. .
De todas formas yo hablo de teoria mias xD Que pueden estar lejos de la realidad xD

Sobre como evoluciona la consola la verdad es que es un gustazo. El como salio y como esta ahora ... ha dado un gran paso y solo en un año
Si Ms desarrolla una tecnología conjuntamente con AMD y esa tecnología no va estar hasta mediados de 2015, evidentemente no pueden hablar sobre ella, hay otros intereses no solo el de MS por vender consolas.
Xbox One salio antes de tiempo, porque Sony se adelanto, el hardware que monta se lo permitió.
Hasta ahora se están dedicando a dar conferencias a ingenieros, desarrolladores.. de manera mas interna y dejando mensajitos. No estamos hablando de una tecnología alienígena pero seguramente si que va a suponer un cambio en la forma de trabajar con las nuevas GPUs, por tanto, no van a tirar a la basura todo lo que hay ahora, por lo menos hasta que convierta en un estándar( W10?).
Que Sony venda ahora mas consolas que mas da, Sony no es rival de MS, a MS le interesa que siga Sony antes que una de las grandes Samsung, Google, Apple..
Sony seguirá sacando muy buenos juegos como hasta ahora, pero Ms esta en otra liga. No porque sea mejor sino porque Micro abarca otras cosas.
Paranoias Mías jaja
oO CaSTaN Oo escribió:Si Ms desarrolla una tecnología conjuntamente con AMD y esa tecnología no va estar hasta mediados de 2015, evidentemente no pueden hablar sobre ella, hay otros intereses no solo el de MS por vender consolas.
Xbox One salio antes de tiempo, porque Sony se adelanto, el hardware que monta se lo permitió.
Hasta ahora se están dedicando a dar conferencias a ingenieros, desarrolladores.. de manera mas interna y dejando mensajitos. No estamos hablando de una tecnología alienígena pero seguramente si que va a suponer un cambio en la forma de trabajar con las nuevas GPUs, por tanto, no van a tirar a la basura todo lo que hay ahora, por lo menos hasta que convierta en un estándar( W10?).
Que Sony venda ahora mas consolas que mas da, Sony no es rival de MS, a MS le interesa que siga Sony antes que una de las grandes Samsung, Google, Apple..
Sony seguirá sacando muy buenos juegos como hasta ahora, pero Ms esta en otra liga. No porque sea mejor sino porque Micro abarca otras cosas.
Paranoias Mías jaja



Pues no se si seran paranoias tuyas, pero opino lo mismo [fumando]
LifelikeRocket escribió:
oO CaSTaN Oo escribió:Si Ms desarrolla una tecnología conjuntamente con AMD y esa tecnología no va estar hasta mediados de 2015, evidentemente no pueden hablar sobre ella, hay otros intereses no solo el de MS por vender consolas.
Xbox One salio antes de tiempo, porque Sony se adelanto, el hardware que monta se lo permitió.
Hasta ahora se están dedicando a dar conferencias a ingenieros, desarrolladores.. de manera mas interna y dejando mensajitos. No estamos hablando de una tecnología alienígena pero seguramente si que va a suponer un cambio en la forma de trabajar con las nuevas GPUs, por tanto, no van a tirar a la basura todo lo que hay ahora, por lo menos hasta que convierta en un estándar( W10?).
Que Sony venda ahora mas consolas que mas da, Sony no es rival de MS, a MS le interesa que siga Sony antes que una de las grandes Samsung, Google, Apple..
Sony seguirá sacando muy buenos juegos como hasta ahora, pero Ms esta en otra liga. No porque sea mejor sino porque Micro abarca otras cosas.
Paranoias Mías jaja



Pues no se si seran paranoias tuyas, pero opino lo mismo [fumando]


¿Y quién dice que en 2015 vayan a levantar el NDA?

Creo que no nos vamos a enterar nunca qué lleva exactamente por dentro, sino que poco a poco MS irá dando mejores SDK's que harán más transparente el uso de ese hardware. A mi como programador me importa bastante poco cómo funcione a nivel de hard, lo que quiero es una API en condiciones que me facilite la vida y me deje tiempo a programar el juego en sí, en lugar de estar close to the metal optimizando el conteo de píxeles. Como entusiasta, está claro que me interesa el hardware, pero creo que nunca llegaremos a saber que esconde la One.
Recordar la xbox 360. ms nunca hablo de lo que tenia denteo su grafica hasta que salió la tarjeta en cuestión. Todo el mundo decia ke la de ps3 era mwjor porque tenia mas megaherzios. Ahora se ha cambiado el asunto... Ahora todos hablan de los teraflops... Cua do no es lo mas importante.
Buenas gente.

@salocin21 con respecto a la foto del osciloscopio ya te ha respondido @argam. Con respecto a las fotos de las conexiones TSV, q fotos?.

@darksch no hablo de ancho de banda, hablo de ocupación del bus. Si mueves datos para copiar entre modulos de memoria estarás ocupando el bus/buses correspondiente/s. Si haces una copia de uno de los módulos de 8MB de eSRAM a DDR3 estás ocupando ambos buses, el del módulo de eSRAM (aunq tenga otros libres se ocupa al menos el del módulo que estás usando) y el de la DDR3 (solo hay uno). En ese caso no podrías acceder a DDR3 durante el tiempo que dure la transmisión de datos (si es en ráfaga hasta q termine por completo) por lo q por ejemplo la GPU o la CPU no podrían acceder a memoria principal, asiq o tienes los datos en las cachés correspondientes o te tocará parar y esperar. El acceso a un bus por parte de varios elementos trae problemas de contención por lo q su aprovechamiento se reduce. Los patrones de accesos a memoria van a ser muy delicados en esta arquitectura, como ya lo están siendo.

@eloskuro q quieres mostrar con esa imagen?. Pq ahí no hay más q la descripción de la arquitectura GCN. 4 SIMD-16 (una misma instrucción sobre un gran conjunto de datos) mas una unidad scalar por cada CU. No hay nada fuera de lo normal.

Imagen

Un saludo.
¿Los move engines no tienen un bus para acceder a la ddr3 de forma independiente?
@Polyteres ya sé pero en principio son transferencias muy pequeñas y/o se pueden hacer en momentos de proceso. Es decir normalmente no se hace una operación de E/S todo el rato, hay procesamiento y en esos momentos aprovechas. Es como todo, del teórico perfecto a la práctica nunca es igual, pero eso es aplicable a todo incluidos los anchos teóricos que se dan en todo tipo de memorias, etc.

La supresión total de ciclos sin operación no es posible, pero el objetivo es reducirlos al máximo.
"ese aprovechas en ese momento" es la parte critica a estudiar.

Vamos, que hay que hacerlo bien, y es gratis (obviando el inicio de la transferencia) siempre y que te organices correctamente y tienes procesado compatible con esa organizacion.

Lo que ya hace que no sea tan gratis.

Creo que es a lo que se refiere Polyteres.
Marcuspenis está baneado por "clon de usuario baneado"
oO CaSTaN Oo escribió:Que Sony venda ahora mas consolas que mas da, Sony no es rival de MS, a MS le interesa que siga Sony antes que una de las grandes Samsung, Google, Apple..
Sony seguirá sacando muy buenos juegos como hasta ahora, pero Ms esta en otra liga. No porque sea mejor sino porque Micro abarca otras cosas.
Paranoias Mías jaja


Joder vaya conjunto de chorradas

Que Sony venda mas consolas claro da igual,por eso Microsoft lleva unas cuantas bajadas de pantalones seguidas,como la de joder a quien pago por el Kinect para luego quitarlo,la rebaja de precio en algunos paises,sacar la consola prematuramente sin kits avanzados por no dejar la PS4 sola

Que Microsoft este en otra liga o abarque mas cosas a muchos de los que tenemos la One se la suda,mas que nada por que resto de cosas de Microsoft yo no consumo,a mi lo que hagan contra Apple o Samsung me trae sin cuidado

Como comprador de One quiero que empiezen ya a remontar y acortar diferencias con PS4,para que luego no pase factura en que ciertos programadores prefieran sacar su juego en la consola con mas ventas antes que en la mia o que ciertos programadores vagos se curren mas la version multi de su juego por que en la competencia hay mas compradores

Si a Microsoft le da igual Sony para que coño entonces se metio en el mundo consolero con la Xbox?
Zokormazo escribió:"ese aprovechas en ese momento" es la parte critica a estudiar.

Vamos, que hay que hacerlo bien, y es gratis (obviando el inicio de la transferencia) siempre y que te organices correctamente y tienes procesado compatible con esa organizacion.

Lo que ya hace que no sea tan gratis.

Creo que es a lo que se refiere Polyteres.

Se refiere a que si mientras transmites la APU necesita un dato se tiene que esperar. Pero una compañía que se dedica a hacer SSOO y herramientas las cuales trabajan con colas de prioridad en procesos día sí día también, pues es probable que sepan manejar este tipo de situaciones. Lo puedes ver con otro tipo de solución, tú te pones a transferir, y si la APU necesita hacer una operación de E/S pues manda una señal y ésta detiene a los Move Engines, al finalizar se pone un registro de estado de turno y a partir de ahí siguen los Move Engine. Eso de las señales (interrupciones) y registros de estado está incluso en máquinas de 8-bit, no es muy complicado.
Si la máquina la diseñaron así, seguro que tiene recursos para manejar esto.
Marcuspenis escribió:
oO CaSTaN Oo escribió:Que Sony venda ahora mas consolas que mas da, Sony no es rival de MS, a MS le interesa que siga Sony antes que una de las grandes Samsung, Google, Apple..
Sony seguirá sacando muy buenos juegos como hasta ahora, pero Ms esta en otra liga. No porque sea mejor sino porque Micro abarca otras cosas.
Paranoias Mías jaja


Joder vaya conjunto de chorradas

Que Sony venda mas consolas claro da igual,por eso Microsoft lleva unas cuantas bajadas de pantalones seguidas,como la de joder a quien pago por el Kinect para luego quitarlo,la rebaja de precio en algunos paises,sacar la consola prematuramente sin kits avanzados por no dejar la PS4 sola

Que Microsoft este en otra liga o abarque mas cosas a muchos de los que tenemos la One se la suda,mas que nada por que resto de cosas de Microsoft yo no consumo,a mi lo que hagan contra Apple o Samsung me trae sin cuidado

Como comprador de One quiero que empiezen ya a remontar y acortar diferencias con PS4,para que luego no pase factura en que ciertos programadores prefieran sacar su juego en la consola con mas ventas antes que en la mia o que ciertos programadores vagos se curren mas la version multi de su juego por que en la competencia hay mas compradores

Si a Microsoft le da igual Sony para que coño entonces se metio en el mundo consolero con la Xbox?


¿Alguien más detecta cierto olor a clon?
darksch escribió:
Zokormazo escribió:"ese aprovechas en ese momento" es la parte critica a estudiar.

Vamos, que hay que hacerlo bien, y es gratis (obviando el inicio de la transferencia) siempre y que te organices correctamente y tienes procesado compatible con esa organizacion.

Lo que ya hace que no sea tan gratis.

Creo que es a lo que se refiere Polyteres.

Se refiere a que si mientras transmites la APU necesita un dato se tiene que esperar. Pero una compañía que se dedica a hacer SSOO y herramientas las cuales trabajan con colas de prioridad en procesos día sí día también, pues es probable que sepan manejar este tipo de situaciones. Lo puedes ver con otro tipo de solución, tú te pones a transferir, y si la APU necesita hacer una operación de E/S pues manda una señal y ésta detiene a los Move Engines, al finalizar se pone un registro de estado de turno y a partir de ahí siguen los Move Engine. Eso de las señales (interrupciones) y registros de estado está incluso en máquinas de 8-bit, no es muy complicado.
Si la máquina la diseñaron así, seguro que tiene recursos para manejar esto.


El problema entonces vendra cuando otros tengan que diseñar para esa maquina que no han construido.

Si usamos apis close to metal, o el dev final sabe como se organiza bien para hacer bien las cosas o gl
Zokormazo escribió:El problema entonces vendra cuando otros tengan que diseñar para esa maquina que no han construido.

Si usamos apis close to metal, o el dev final sabe como se organiza bien para hacer bien las cosas o gl

No hombre, probecitos tampoco hay que flagelarlos. Eso lo hará el driver de forma interna y transparente al desarrollador. Es decir ya no es ni a nivel de API, será de driver que es invisible para todos.
Yo también creo que la api sabra manejar los tiempos de entrada y salidas para los move engines, por cierto, ¿No son los tiled untiled a la ddr3 una forma de pim?
De otra manera si un coprocesador pide unos datos a memoria los procesa al vuelo y los devuelve a memoria ¿no es eso muy parecido a procesar directamente en memoria?

Si fuera pim que no digo que lo sea no ocuparía ancho de banda, lo cual seria mucho mejor.
darksch escribió:
Zokormazo escribió:El problema entonces vendra cuando otros tengan que diseñar para esa maquina que no han construido.

Si usamos apis close to metal, o el dev final sabe como se organiza bien para hacer bien las cosas o gl

No hombre, probecitos tampoco hay que flagelarlos. Eso lo hará el driver de forma interna y transparente al desarrollador. Es decir ya no es ni a nivel de API, será de driver que es invisible para todos.


El driver de manera transparente al desarrollador reordena las ejecuciones que le des para que los procesadores siempre tengan datos cuando vaya a proceder a hacer una transferencia y los buses esten ocupados?

Que tiene eso de close to metal o espiritu diy para bajar el overhead? o.O

EDIT: Ya no hablamos de un reorder dentro de un procesador, sino de un reorder de comandos que van a distintos lugares (cpu, gpu, move engines) para conseguir que todos esten todo el rato en trabajo mientras que se usan las buses. Esto de close to metal y tal no tiene nada xD
...
Editado por Darkcaptain. Razón: Faltas de respeto
Perdona. Yo hablo porque estaba aqui en EOL en aquella epoca. Y tengo buena memoria para eso. Pues lo viví.

Te refresco la memoria

Decir Xenos es decir shaders unificados.

La gpu de xbox 360 data de 2005, y aprovechaba una arquitectura de shaders unificados.

Arquitectura, que no llegó a las teindas hasta la Serie HD 2000 (R600)

La primera GPU HD series fue la HD 2900 XT (R600), Lanzada en mayo del 2007

Estamos habalndo de que MS sacó una GPU con una arquitectura 2 años por delante de su salida en el mercado.
------------

Tú venias aqui y hablabas de shadders unificados y era como si les hablases en chino. La gente te decia MHZ, MHZ, MHZ!!! ande vas si tenbemos 50 más! y ya está.

Es perfectamente probable que esta vez haya hecho lo mismo o parecido. Y no. NO hablo de que tenga todos los teraflops de una tarjeta como la r9 380X o algo así. Hablo de arquitecturas similares(auqnue no sea la misma)
Editado por Darkcaptain. Razón: Quote
No puede ser!!! jajajaja

¿No paso lo mismo con la XBOX original?

Un pajarito me ha dicho que fue la primera en montar un canal doble de acceso a la Ram.
En dosmilcinco microsoft dijo que su gpu era mejor que la de ps3, lo demás son pajas mentales vuestras.

/ 20 MAY 2005
E3 2005: MICROSOFT'S XBOX 360 VS. SONY'S PLAYSTATION 3
PAGE 3 OF 3
CONTINUED FROM PAGE 2
GPU
Even ignoring the bandwidth limitations the PS3's GPU is not as powerful as the Xbox 360's GPU.

Below are the specs from Sony's press release regarding the PS3's GPU.

RSX GPU

550 MHz
Independent vertex/pixel shaders
51 billion dot products per second (total system performance)
300M transistors
136 "shader operations" per clock
The interesting ALU performance numbers are 51 billion dot products per second (total system performance), 300M transistors, and more than twice as powerful as the 6800 Ultra.

The 51 billions dot products per cycle were listed on a summary slide of total graphics system performance and are assumed to include the Cell processor. Sony's calculations seem to assume that the Cell can do a dot product per cycle per DSP, despite not having a dot product instruction.

However, using Sony's claim, 7 dot products per cycle * 3.2 GHz = 22.4 billion dot products per second for the CPU. That leaves 51 - 22.4 = 28.6 billion dot products per second that are left over for the GPU. That leaves 28.6 billion dot products per second / 550 MHz = 52 GPU ALU ops per clock.

It is important to note that if the RSX ALUs are similar to the GeForce 6800 ALUs then they work on vector4s, while the Xbox 360 GPU ALUs work on vector5s. The total programmable GPU floating point performance for the PS3 would be 52 ALU ops * 4 floats per op *2 (madd) * 550 MHz = 228.8 GFLOPS which is less than the Xbox 360's 48 ALU ops * 5 floats per op * 2 (madd) * 500 MHz= 240 GFLOPS.

With the number of transistors being slightly larger on the Xbox 360 GPU (330M) it's not surprising that the total programmable GFLOPs number is very close.


The PS3 does have the additional 7 DSPs on the Cell to add more floating point ops for graphics rendering, but the Xbox 360's three general purpose cores with custom D3D and dot product instructions are more customized for true graphics related calculations.

The 6800 Ultra has 16 pixel pipes, 6 vertex pipes, and runs at 400 MHz. Given the RSX's 2x better than a 6800 Ultra number and the higher frequency of the RSX, one can roughly estimate that it will have 24 pixel shading pipes and 4 vertex shading pipes (fewer vertex shading pipes since the Cell DSPs will do some vertex shading). If the PS3 GPU keeps the 6800 pixel shader pipe co-issue architecture which is hinted at in Sony's press release, this again gives it 24 pixel pipes* 2 issued per pipe + 4 vertex pipes = 52 dot products per clock in the GPU.

If the RSX follows the 6800 Ultra route, it will have 24 texture samplers, but when in use they take up an ALU slot, making the PS3 GPU in practice even less impressive. Even if it does manage to decouple texture fetching from ALU co-issue, it won't have enough bandwidth to fetch the textures anyways.

For shader operations per clock, Sony is most likely counting each pixel pipe as four ALU operations (co-issued vector+scalar) and a texture operation per pixel pipe and 4 scalar operations for each vector pipe, for a total of 24 * (4 + 1) + (4*4) = 136 operations per cycle or 136 * 550 = 74.8 GOps per second.

Given the Xbox 360 GPU's multithreading and balanced design, you really can't compare the two systems in terms of shading operations per clock. However, the Xbox 360's GPU can do 48 ALU operations (each can do a vector4 and scalar op per clock), 16 texture fetches, 32 control flow operations, and 16 programmable vertex fetch operations with tessellation per clock for a total of 48*2 + 16 + 32 + 16 = 160 operations per cycle or 160 * 500 = 80 GOps per second.


Overall, the automatic shader load balancing, memory export features, programmable vertex fetching, programmable triangle tesselator, full rate texture fetching in the vertex shader, and other "well beyond shader model 3.0" features of the Xbox 360 GPU should also contribute to overall rendering performance.

Bandwidth
The PS3 has 22.4 GB/s of GDDR3 bandwidth and 25.6 GB/s of RDRAM bandwidth for a total system bandwidth of 48 GB/s.

The Xbox 360 has 22.4 GB/s of GDDR3 bandwidth and a 256 GB/s of EDRAM bandwidth for a total of 278.4 GB/s total system bandwidth.


Why does the Xbox 360 have such an extreme amount of bandwidth? Even the simplest calculations show that a large amount of bandwidth is consumed by the frame buffer. For example, with simple color rendering and Z testing at 550 MHz the frame buffer alone requires 52.8 GB/s at 8 pixels per clock. The PS3's memory bandwidth is insufficient to maintain its GPU's peak rendering speed, even without texture and vertex fetches.

The PS3 uses Z and color compression to try to compensate for the lack of memory bandwidth. The problem with Z and color compression is that the compression breaks down quickly when rendering complex next-generation 3D scenes.

HDR, alpha-blending, and anti-aliasing require even more memory bandwidth. This is why Xbox 360 has 256 GB/s bandwidth reserved just for the frame buffer. This allows the Xbox 360 GPU to do Z testing, HDR, and alpha blended color rendering with 4X MSAA at full rate and still have the entire main bus bandwidth of 22.4 GB/s left over for textures and vertices.

CONCLUSION
When you break down the numbers, Xbox 360 has provably more performance than PS3. Keep in mind that Sony has a track record of over promising and under delivering on technical performance. The truth is that both systems pack a lot of power for high definition games and entertainment. IGN Logo

However, hardware performance, while important, is only a third of the puzzle. Xbox 360 is a fusion of hardware, software and services. Without the software and services to power it, even the most powerful hardware becomes inconsequential. Xbox 360 games—by leveraging cutting-edge hardware, software, and services—will outperform the PlayStation 3.
Lastly, we were sent updated spec numbers on the Xbox's numbers, and we spoke with Microsoft's Vice President of hardware, Todd Holmdahl, about the Xbox 360's final transistor count.

Another bit of information sent our way is the final transistor count for Xbox 360's graphics subset. The GPU totals 332 million transistors, which is spit between the two separate dies that make up the part. The parent die is the "main" piece of the GPU, handling the large bulk of the graphics rendering, and is comprised of 232 million transistors. The daughter die contains the system's 10MB of embedded DRAM and its logic chip, which is capable of some additional 3D math. The daughter die totals an even 100 million transistors, bringing the total transistor count for the GPU to 232 million.

So, that's Microsoft's analysis. What do you make of it? Tell us what you think on the boards.

« Previous123

http://www.ign.com/articles/2005/05/20/ ... n-3?page=3
17587 respuestas