Hablemos del interior de Xbox One

Polyteres escribió:
f5inet escribió:o sea, que la discusion que traemos es por tu crees que XboxONE no posee la potencia necesaria para implementar un rasterizador por 'software' en la GPU via GPGPU y yo creo que si.

Tu defiendes el uso de los ROPs porque con la potencia actual no se podria desarrollar un shader programable que realize el mismo todo el proceso de rasterizacion, y es mejor seguir usando la tecnologia y el know-how actual.

Yo defiendo que no se deben usar los ROPs porque la tecnologia y la arquitectura ha llegado un nivel suficiente para implementar dicho rasterizador por software y obtener aun mas rendimiento que con el pipeline fijo.

basicamente es eso, ¿no? bueno, pues ya veremos quien tiene razon al final... y todo dependera de si la GPU de la XboxONE esta basada al 100% en SeaIslands o 'coge prestada' algunas de las nuevas caracteristicas de PirateIslands...


Buenas gente. Para seguir manteniendo la calidad que poseemos actualmente no, ni aunque coja prestadas características de PirateIsland. Podrás hacer ciertas cosas un Compute Shaders?. Si sin duda, lo he dicho antes, hay cosas son perfectas para este tipo de cosas, pero todo el pipeline gráfico en esta generación?. Lo dudo mucho.

Ya hay implementado un pipeline gráfico completamente en una GPU pero los resultados...

http://highperformancegraphics.org/prev ... _Laine.pdf

Un saludo.


ese paper, aunque totalmente valido, es de 2011. no estaba la arquitectura GCN en el mercadom que salio en 2012. yo coincido con tu analisis. no se PODIA hacer un rasterizador por software mediante GPGPU por que las latencias mataban el shader (al usar el shader para acceder a la VRAM pasas por encima del ROP, esa pieza dedicada a 'disimilar' la latencia de la VRAM) y porque la potencia de computo todavia no habia llegado al punto de ruptura. yo defiendo que HOY si tenemos esa potencia y esa baja latencia, y que por lo tanto, es posible hacer un rasterizador por software via GPGPU con rendimiento aceptable.
No es por nada pero la XO se diseñó con 16ROP porque es lo justo para 1080p@60. Ponerle 32 significaría que muchas estarían rascándose porque salvo que hagas un juego en flat los shaders nunca van a ser tan simples, y con shaders simples la XO va bien a 1080p@60 porque tampoco hay problema con las 16ROP evidentemente. Ejemplos Strider o Forza 5 a distintos niveles de complejidad.

Así que digo yo que los ROP no cuentan tanto y lo que habrá que potenciar son los cuellos reales.

Obcecarse en los ROP no me parece lo acertado.
f5inet escribió:
Polyteres escribió:
f5inet escribió:o sea, que la discusion que traemos es por tu crees que XboxONE no posee la potencia necesaria para implementar un rasterizador por 'software' en la GPU via GPGPU y yo creo que si.

Tu defiendes el uso de los ROPs porque con la potencia actual no se podria desarrollar un shader programable que realize el mismo todo el proceso de rasterizacion, y es mejor seguir usando la tecnologia y el know-how actual.

Yo defiendo que no se deben usar los ROPs porque la tecnologia y la arquitectura ha llegado un nivel suficiente para implementar dicho rasterizador por software y obtener aun mas rendimiento que con el pipeline fijo.

basicamente es eso, ¿no? bueno, pues ya veremos quien tiene razon al final... y todo dependera de si la GPU de la XboxONE esta basada al 100% en SeaIslands o 'coge prestada' algunas de las nuevas caracteristicas de PirateIslands...


Buenas gente. Para seguir manteniendo la calidad que poseemos actualmente no, ni aunque coja prestadas características de PirateIsland. Podrás hacer ciertas cosas un Compute Shaders?. Si sin duda, lo he dicho antes, hay cosas son perfectas para este tipo de cosas, pero todo el pipeline gráfico en esta generación?. Lo dudo mucho.

Ya hay implementado un pipeline gráfico completamente en una GPU pero los resultados...

http://highperformancegraphics.org/prev ... _Laine.pdf

Un saludo.


ese paper, aunque totalmente valido, es de 2011. no estaba la arquitectura GCN en el mercadom que salio en 2012. yo coincido con tu analisis. no se PODIA hacer un rasterizador por software mediante GPGPU por que las latencias mataban el shader (al usar el shader para acceder a la VRAM pasas por encima del ROP, esa pieza dedicada a 'disimilar' la latencia de la VRAM) y porque la potencia de computo todavia no habia llegado al punto de ruptura. yo defiendo que HOY si tenemos esa potencia y esa baja latencia, y que por lo tanto, es posible hacer un rasterizador por software via GPGPU con rendimiento aceptable.

Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?
David Ricardo escribió: Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?

Primero le haces una pregunta y terminas con una mofa.
Si señor la educacion en estado puro [facepalm]


Luego con razon dejan de postear o intentar debatir las cosas
David Ricardo el debate entre Polyteres y f5jnet está siendo muy interesante para que vendas con bufonadas de castillos y hadas...lo.de algunos es para hacérselo mirar.
Grinch escribió:
David Ricardo escribió: Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?

Primero le haces una pregunta y terminas con una mofa.
Si señor la educacion en estado puro [facepalm]


Luego con razon dejan de postear o intentar debatir las cosas


Yo le emplazo a ver el Just Cause 3 cuando salga :P Avalanch studios. O en el E3, que siga atentamente el Fable nuevo ;)
David Ricardo escribió:[...] Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?


oh, si... son cuentos de hadas y castillos en el aire...

https://www.youtube.com/watch?v=oLte5f34ya8
https://www.research.ibm.com/cell/white ... ummary.pdf

3 PS3, usando solo la potencia de sus CELL (18SPEs en total), renderizando por raytracing a 1080p. eso es una muestra de lo que puede hacer 'el software' cuando hay potencia en las ALUs y ancho de banda local con poca latencia...

para que luego digan que renderizar usando software, ALUs vectorizadas y memoria local rapida y de baja latencia no es posible...
Lo primero, gracias por la INFO y las aclaraciones a todos [oki]

Dejando las puntualizaciones técnicas heredadas (a mi pesar) por las consolas de los PC, ya que seguro casí ninguno de vosotros "conoce" el procesador de vuestra TV o si utiliza xd-E o filtros faroudja [reojillo] y esto mismo es aplicables a otros productos.

Si observo la evolución de una compañia, que ha realizado (estupendos diseños) muy adelantados a su tiempo y con la vista puesta en el futuro en cuanto a características (vease: Xbox original, 360)...... ¿Por qué con el diseño de Xbox-One su actitud tiene que ser diferente? ¿Por que como muchos apuntan y trás invertir un PASTIZAL, su solución iba a ser pinchar una gráfica genérica y un software simplón? sin tener presente los desarrollos internos de la casa ein? curioso ......

Si se han presentado (imágenes) de cosas que son diferentes (NO entro en si mejores o peores) DIFERENTES, porqué negar esa realidad. Por que darle el tratamiento de algo genérico, si la realidad es que NADIE menos los diseñadores conocen lo que han realizado y para que finalidad.
f5inet escribió:ese paper, aunque totalmente valido, es de 2011. no estaba la arquitectura GCN en el mercadom que salio en 2012. yo coincido con tu analisis. no se PODIA hacer un rasterizador por software mediante GPGPU por que las latencias mataban el shader (al usar el shader para acceder a la VRAM pasas por encima del ROP, esa pieza dedicada a 'disimilar' la latencia de la VRAM) y porque la potencia de computo todavia no habia llegado al punto de ruptura. yo defiendo que HOY si tenemos esa potencia y esa baja latencia, y que por lo tanto, es posible hacer un rasterizador por software via GPGPU con rendimiento aceptable.


Buenas gente. Actualmente y con la potencia que se tiene, ya sea en arquitecturas GCN (versión que sea) o en Kepler de Nvidia no puedes implementar un pipeline gráfico completo obteniendo a misma calidad similar o mejor rendimiento que el q conseguirías usando el pipeline gráfico. Pierdes demasiados ciclos haciendo cosas que ya están hechas en hardware, q funcionan bien y que son muy eficientes. En un futuro, las cosas cambiarán?. Eso parece, las GPUs están encaminadas a ser cada vez mas procesadores de propósito general masivamente paralelos pero...esto es una historia que se escucha desde hace muchos años y q aún no ha llegado...algo similar al raytracing, los voxeles... En este sentido prefiero ser cauto y ver hacia donde tiran los fabricantes...

En el papers que pongo ahí las diferencias están entre 3 y 6 veces peor de media. La arquitectura no solo mejora para GPGPU tb lo hace para procesar gráficos exclusivamente por lo que el gap sería muy similar. Aunq eso no quita q hay ciertas operaciones que se benefician de ello.

darksch escribió:No es por nada pero la XO se diseñó con 16ROP porque es lo justo para 1080p@60. Ponerle 32 significaría que muchas estarían rascándose porque salvo que hagas un juego en flat los shaders nunca van a ser tan simples, y con shaders simples la XO va bien a 1080p@60 porque tampoco hay problema con las 16ROP evidentemente. Ejemplos Strider o Forza 5 a distintos niveles de complejidad.

Así que digo yo que los ROP no cuentan tanto y lo que habrá que potenciar son los cuellos reales.

Obcecarse en los ROP no me parece lo acertado.


16 ROPs para 1080p es corto. 32 puede q sobre, pero siempre es preferible estar limitado por el ancho de banda que por las ROPs. Muchos efectos de postprocesado o muchas transparencias pueden hacer que satures las ROPs y tengas q parar las CUs, no solo hablamos de resolución. Un sistema de partículas por ejemplo tiene shaders relativamente simples que podrían saturar tus ROPs.

f5inet escribió:oh, si... son cuentos de hadas y castillos en el aire...

https://www.youtube.com/watch?v=oLte5f34ya8
https://www.research.ibm.com/cell/white ... ummary.pdf

3 PS3, usando solo la potencia de sus CELL (18SPEs en total), renderizando por raytracing a 1080p. eso es una muestra de lo que puede hacer 'el software' cuando hay potencia en las ALUs y ancho de banda local con poca latencia...

para que luego digan que renderizar usando software, ALUs vectorizadas y memoria local rapida y de baja latencia no es posible...


Son cosas muy distintas. Ahí se habla de RayTracing, no de un pipeline gráfico y de procesadores (SPUs) mas flexibles y con menos limitaciones que los que montan una GPU, son arquitecturas distintas y softwares muy distinto. Como dije en otro mensaje, lo más "comercial" que se ha implementado hasta ahora en rasterización por software ha sido un Zbuffer de muy baja resolución en el motor Frostbite Engine, al menos que yo recuerde.

Un saludo.
Alguien se acuerda de penello diciendo que 18 unidades de control frente a las 12 de Xbox One, no hacen a la PS4 más potente?. Que el uso del multiprocesamiento con tantos núcleos reduce la eficiencia, y más no es mejor?. Es más, comenta que cada CU de la Xbox One funciona un 6% más rápido que las de PS4.
18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.

We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.

Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.

I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.

Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.

Thanks again for letting my participate. Hope this gives people more background on my claims.
Intel Larrabee
IBM Interactive RayTracing
nVidia OptiX
AMD developer Summit nov13 - Tzachi Cohen http://www.slideshare.net/DevCentralAMD ... achi-cohen

si, en realidad es posible que todos ellos esten equivocados y que Polyteres tenga razon... no hay potencia ni tecnologia ahora mismo para hacer rasterizado Software via GPGPU en tiempo real...
Yo creo que las explicaciones que ha dado f5inet (que sabe un rato del tema de One, porque me consta que maneja datos reales e insisto, estamos tratando a One) son sobradamente suficientes y convincentes. Otra cosa es que volvamos al "pues yo no lo veo" o al "no me lo creo". Al igual que unos hablan de cuentos de hadas, pareciera que los que vivieren en un cuento de hadas fuesen ellos por no querer ver las cosas. No contemplan, no admiten, no conciben que One pueda ni mucho menos vaya a hacer lo que f5inet muy bien ha explicado (sí, porque f5inet está explicando funciones que están en One, y a Polyteres solo lo veo argumentar su propia visión de por qué cree que no, pero siempre según su teoría de lo que "cree" que lleva One y cómo funciona, pero no de lo que lleva y cómo funciona realmente, ya que si alguien aquí pudiese decirse que los conoce realmente o puede indagar sobre la cuestión con datos oficiales facilitados por los responsables, soy yo, y hasta la fecha solo puedo decir (sin permitírseme entrar en detalles ni divulgar información a este respecto), que nada de lo que ha expuesto f5 es ficticio ni alejado de la realidad en relación a la existencia de esas posibilidades/capacidades en One).

Y todo esto viene porque me extraña, y lo repito, me extraña muchísimo y pongo absolutamente en duda (no me cansaré de repetirlo hasta la saciedad), que alguien, por muy ingeniero que sea, sin haber trabajado un hard del que ningún ingeniero que no sea de MS sabría decir qué lleva y cómo funciona sin riesgo a equivocarse, ni saber specs oficiales de ninguna manera, vaya a conocerlo de alguna forma. Y mucho menos "afirmar" con tanta rotundidad y anticipación que DX12 va a correr con problemas en One (al principio directamente era que "no podía"), o que One hace un uso dependiente de los ROPS, siempre claro está, según teorías.

Exactamente como si un médico, por el hecho de serlo, le hiciese teorías a otro sobre lo que cree que tiene un paciente "aparentemente sano" para él desde lo que ve por fuera, pero que en realidad el otro doctor sabe que tiene 4 prótesis, un marcapasos, un tumor y un solo riñón.
f5inet escribió:Intel Larrabee
IBM Interactive RayTracing
nVidia OptiX
AMD developer Summit nov13 - Tzachi Cohen http://www.slideshare.net/DevCentralAMD ... achi-cohen

si, en realidad es posible que todos ellos esten equivocados y que Polyteres tenga razon... no hay potencia ni tecnologia ahora mismo para hacer rasterizado Software via GPGPU en tiempo real...


Buenas gente.

Me traes a Intel Larrabe?. Un diseño que se descartó por los pobres resultados que ofrecía? No es el mejor ejemplo que traer pq justamente me da la razón XD . Tb me traes Interactive RayTracing de IBM, NVidia OptiX y AMD haciendo RayTracing sobre GCN. Te lo vuelvo a decir, RayTracing es una cosa y un rasterizador por software otra, son cosas totalmente diferentes.

No obstante ponte a hacer RayTracing con la GPU mas potente que tengas a 1080p con GPGPU, a lo mejor te sorprenden los resultados...a peor.

@Forzimbras quién ha dicho que yo no haya tocado una XboxOne? [360º] . Y otra cosa, yo en ningún momento he dicho que "DX12 va a correr con problemas en One".

Un saludo.
Polyteres escribió:[...]Te lo vuelvo a decir, RayTracing es una cosa y un rasterizador por software otra, son cosas totalmente diferentes.[...]


Te lo has ganado... eso va para mi firma... XD XD XD XD XD XD
¿No podias haber dicho otra mas gorda? telita, hijo mio, telita...

Raytracing ES rasterizacion por software. No todos los rasterizadores por software son raytracing, pero si que todos los raytracing son rasterizadores por software...
f5inet escribió:
Polyteres escribió:[...]Te lo vuelvo a decir, RayTracing es una cosa y un rasterizador por software otra, son cosas totalmente diferentes.[...]/quote]

Te lo has ganado... eso va para mi firma... XD XD XD XD XD XD
¿No podias haber dicho otra mas gorda? telita, hijo mio, telita...


Buenas gente. ¬_¬ ¬_¬ ¬_¬ ¬_¬ f5inet, sabes realmente que es un RayTracing y que es un rasterizador por software basado en un pipeline gráfico?. Pq despues de lo q acabas de decir tengo mis dudas. Pq decir rasterización y raytracing es como decir peras y manzanas.

EDITO: NO, y te sigues colando. Ya la cagaste con los shaders programables y la volviste a cagar con los shaders por defecto. No sigas intentando dejarme en ridículo pq te estás haciendo un flaco favor, q el que te va a poner en la firma soy yo.

No hace falta correr mucho. Vete a la wikipedia y no me hagas explicarte lo q es y como se hace cada cosa:

http://en.wikipedia.org/wiki/Ray_tracing_(graphics)
http://en.wikipedia.org/wiki/Rasterisation

Un saludo.
Lo siento Polyteres, no puedo seguir discutiendo contigo.

Puedo discutir amigablemente con una persona que me argumenta que 2+2=5, pero no con una que me argumenta que 2+2=una constelacion cercana a orion. Sencillamente no es posible. Pero no te preocupes, puedo vivir con ello, no me queda ningun trauma...
Polyteres escribió:
@Forzimbras quién ha dicho que yo no haya tocado una XboxOne? [360º] . Y otra cosa, yo en ningún momento he dicho que "DX12 va a correr con problemas en One".


Polyteres escribió:
Forzimbras escribió:Yo creo que aquí la verdad es que tampoco veo a nadie seguro de lo que dice. Más que nada porque, tal y como me han recordado, en este mismo hilo se saltó en un comienzo del "Xbox One no será compatible con DX12", pasando por el (una vez se confirmó que si lo era) "Xbox seguro que solo es compatible con DX12 por emulación", al (una vez confirmado que la compatibilidad iba por hard) "ya veremos".

El caso es que siempre tiene que haber algún "pero" para no admitir completamente nada.


Buenas gente. Yo no he cambiado mi discurso. De hecho un año antes de que saliera XboxOne, donde todo eran especulaciones, y se empezaba a saber lo q iba a montar, ya intuí y así lo deje escrito, los problemas que podría tener XboxOne con esa arquitectura


Ay, la intuición falla a veces...
f5inet escribió:Lo siento Polyteres, no puedo seguir discutiendo contigo.

Puedo discutir amigablemente con una persona que me argumenta que 2+2=5, pero no con una que me argumenta que 2+2=una constelacion cercana a orion. Sencillamente no es posible. Pero no te preocupes, puedo vivir con ello, no me queda ningun trauma...


Buenas gente. Te tenía por una persona inteligente, se podía debatir contigo, pero hoy me has demostrado q te tenía en demasiada alta estima. Como veo q insistes te lo explico así rápidamente:

- RayTracing: tienes una cámara con una posición y una serie de caracteristicas (distancia focal, apertura...). Desde el observador y teniendo en cuenta estos parámetros lanzas rayos. Si un rayo impacta sobre un objeto calculas lo que tengas q calcular y escribes en el buffer.

- Rasterización: coges un triángulo definido por tres vértices, cada uno con los atributos que sea. Una vez q has hecho todas las transformaciones pasas de 3D a 2D (scan conversion), lo que te da una serie de pixeles. Compruebas con tu Zbuffer si debes escribir dicho pixel o no y ale a escribir si toca.

Un RayTracing es un RayTracing y un rasterizador es un rasterizador, son dos algoritmos totalmente diferentes, independientemente de que el raster lo hagas por software o por hardware o el raytracing lo hagas por software o por hardware (PowerVR te saluda).

Dos formas de hacer un rendering totalmente distinto. Lo dicho peras y manzanas. Si no entiendes esto q es básico... Sigue sigue poniendome en la firma que cualquiera q sepa un poquito se va a reir. El día q te des cuenta del patinazo que acabas de tener, ten por lo menos la decencia de mandarme un mensaje privado disculpándote.

@Forzimbras y quién te ha dicho a ti, que no he tenido acceso a ella desde entonces?. XD

Un saludo.
Polyteres escribió:
@Forzimbras y quién te ha dicho a ti, que no he tenido acceso a ella desde entonces?. XD


A no ser que seas uno de los hackers que robó la información de la base de datos que contenía los detalles del devkit primigenio, lo dudo.
Forzimbras escribió:
Polyteres escribió:
@Forzimbras y quién te ha dicho a ti, que no he tenido acceso a ella desde entonces?. XD


A no ser que seas uno de los hackers que robó la información de la base de datos que contenía los detalles del devkit primigéneo, lo dudo.


Buenas gente. No hablo de esa información [+risas], puedes obtener información si tienes acceso a la documentación de los SDKs.

Un saludo.
Polyteres escribió:
f5inet escribió:Lo siento Polyteres, no puedo seguir discutiendo contigo.
[...]


Buenas gente. Te tenía por una persona inteligente, se podía debatir contigo, pero hoy me has demostrado q te tenía en demasiada alta estima. Como veo q insistes[...]


no he insistido.
f5inet escribió:
Polyteres escribió:
f5inet escribió:Lo siento Polyteres, no puedo seguir discutiendo contigo.
[...]


Buenas gente. Te tenía por una persona inteligente, se podía debatir contigo, pero hoy me has demostrado q te tenía en demasiada alta estima. Como veo q insistes[...]


no he insistido.


Buenas gente. Te tenía por un tío sensato. Sabes que la has cagado y bien además xD, infórmate, lee, pregunta y después rectifica que es de sabios. Desde q empezamos esta conversación la has cagado 3 veces, siento esta última la mas gorda.

Lo digo por última vez: RayTracing y rasterización son dos ALGORITMOS diferentes para RENDERIZAR. Que estén o no acelerados por hardware es indiferente pq son dos cosas distintas para hacer lo mismo, renderizar. Puedes tener rasterización por software y raytracing por software o bien tener rasterización por hardware o raytracing por hardware (las nuevas PowerVR te saludan).


Un saludo.
Polyteres escribió:[...]
Buenas gente. Te tenía por un tío sensato. Sabes que la has cagado y bien además xD, infórmate, lee, pregunta y después rectifica que es de sabios. Desde q empezamos esta conversación la has cagado 3 veces, siento esta última la mas gorda.

Lo digo por última vez: RayTracing y rasterización son dos ALGORITMOS diferentes para RENDERIZAR. Que estén o no acelerados por hardware es indiferente pq son dos cosas distintas para hacer lo mismo, renderizar. Puedes tener rasterización por software y raytracing por software o bien tener rasterización por hardware o raytracing por hardware (las nuevas PowerVR te saludan).

Un saludo.


De acuerdo, leere, me informare, y si me doy cuenta que estaba en un error, lo asumire publicamente y te enviare un MP disculpandome, que para eso soy todo un caballero.

No obstante, si no hago ninguna cosa de las anteriores, espero que comprendas que habre entendido que estaba en lo correcto, ergo, el equivocado eras tu. No te preocupes, te libero de la carga de tener que disculparte y asumirlo publicamente. Puedes lamer tus heridas en la privacidad de tu hogar. No habra drama ni resquemor por mi parte.

Un saludo.
Yo he encontrado esto ya por curiosidad

http://josepjroca.wordpress.com/2014/04 ... izacion-i/


Segun entiendo yo ( yo con mi conocimientos limitados) Es que son lo mismo pero diferente forma de hacerlo

no ?
O estoy equivocado.
Grinch escribió:Yo he encontrado esto ya por curiosidad

http://josepjroca.wordpress.com/2014/04 ... izacion-i/


Segun entiendo yo ( yo con mi conocimientos limitados) Es que son lo mismo pero diferente forma de hacerlo

no ?
O estoy equivocado.

Buen aporte. Me sonaba de haberlo visto pero no me acordaba.
Gracias :)
Ya si por eso he puesto que con 16ROP va "justo" para el 1080p@60. Pero lo prefiero, es decir es mejor (o mejor dicho yo prefiero) ir justo en cada aspecto y gastar el dinero en repartir que pasarse en algo que no se va a usar nunca por completo. Más en hardware cerrados que deben meterlo todo bajo un coste estipulado (no como en PC que puedes "ajustar" por componentes en cada momento). Es decir si yo tengo que hacer un cacharro que lo incluya todo y cueste 500€ pues a ver que meto.

Entonces, si te fijas hay casos particulares para eso de las ROP, y prefiero que llegado el caso en esos momentos puntuales se tire un poco de resolución dinámica o alguna solución similarmente elegante (que probablemente ni la notaras), y a cambio pues que metan un procesador de audio completo (sin delegar efectos a CPU/GPU), añadir canales de memoria, más buses, etc.

Porque eso entre otras cosas permite que el software de sistema de XO sea una realidad, en ningún otro sistema, usando la clásica arquitectura, creo que se pudiera implementar el sistema de 3 SSOO funcionando sin que por ejemplo el de juegos se resienta de nada en ningún momento. Vamos que tu pones una App, la quitas, la App puede hacer más o menos tareas...da igual el juego ni se entera. Y yo pienso que es por una arquitectura que entre otras cosas evita las colisiones.
Su software de sistema es uno de los aspectos (casi el más decisivo) que hace que XO sea como es, y llegados a estos niveles de hardware somos muchos a los que nos atrae mucho más un sistema de estas características que usar tanto hardware simplemente para ponerle más polígonos a los coches o poner alguna verruga más como dicen algunos.

Luego a partir de ahí, pues a ver hasta donde se llega investigando, porque en XO hay bastantes cosas que probar.

Respecto al sistema de render por GPGPU, bueno podríamos mirar raytracing o voxels (como el Outcast que se hizo completamente así). Que aunque hoy en día no parezca un método recomendado para usarse en el 100% del render, para ciertas cosas como líquidos da resultados impresionantes sobre el rasterizado con polígonos, tal y como hemos visto en demos de Nvidia. Entonces quizás sea ya hora de empezar a mezclar sistemas de renderizado para obtener mejores resultados en ciertos aspectos. Y yo creo sinceramente que a través de la ESRAM (y todo su montante alrededor se sobrentiende) es posible.
Ya he comentado alguna vez que me decepcionaría mucho, por parte de los desarrolladores, que la ESRAM sólo se usara como framebuffer para el 1080p, porque sinceramente yo prefiero cosas que mejoren el impacto visual de forma más tangible, es decir que dediquen 2CU a GPGPU junto a la ESRAM, y juegos 720p@60 con las posibilidades añadidas me parece mucho mejor que lo que se estira ahora de intentar rascar el 1080p como sea, y esto ambas porque con rascar me refiero a hacer los juegos a 30fps porque la no puedan estirar más.
Pero en PS4 hay poco más, porque con sus 32ROP o intentan alcanzar el 1080p o que te queda, en XO pues como ya he dicho espero, y mucho, que se centren más en sacarle partido a ese GPGPU + ESRAM. Más que nada porque eso, ver más de lo mismo con más polígonos o con más píxeles pero lo mismo de siempre al fin y al cabo, pues no me ilusiona tanto que digamos. Pero cuando vi esa demo de Nvidia con líquidos en raytracing me quedé Oooh y unas ganas locas de ver algo así en un juego.
Imagen

Chris76 mirando he encontrado lo de los anchos de banda que suma FlashBackMan360, el dice que es un sistema troncal que aun no se ha visto, es similar a la stacked memory que también suma ancho de banda, lo que me despista es que en las stacked memory creo que la transferencia se realizadirectamente atraves del silico para reducir latencias.

Quedamos en que Flash sumaba hasta 228 gb/s y da la casualidad que que multerer en la presentación que hicieron sobre la architectura da tambien 200 gb/s. Así que el sistema troncal debe estar ahí:

We have embedded esRam on die on our chip. We really like that because it gives us high bandwidth to the gpu to keep the gpu fed with data. Sometimes when you go off chip with memory, it is harder to keep that gpu fed with data. We added lot's of memory both system memory and flash cache in order to have that simultaneous and instantaneous action. And then, for the ready part of it, we really architected the box at the beginning to have multiple power states so that you could use just enough power for the experiences that you're in and not anymore. And if you were transitioning to another state, you could do that easily and quickly, and the best example of that of course is wake on voice. We have just a little bit of power with kinect and a little bit of power on the console to process the voice that's coming in. When you say "xbox on" we can immediately power on quickly and get you to your experiences.

Again on the ram, we really wanted to get 8gb and make that power friendly as well which is a challenge to get both power friendly for acoustics and get high capacity and high bandwidth. So for our memory architecture we're actually achieving all of that and we're getting over 200gb/s across the memory sub-sytem.
"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.
Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.


El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.

http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3
¿Acaso he dicho algo sobre que sea mejor o peor?

Simplemente estoy comentando que los over 200gb/s de los que habla Multerer y los 220 que concretamente dice haber detectado FlasBackMan360, apuntan hacia un aspecto coincidente y no casual.

Pero hablo solo de cuantías. Eso de que sea mejor o peor lo estás diciendo tú.
Grinch escribió:Yo he encontrado esto ya por curiosidad

http://josepjroca.wordpress.com/2014/04 ... izacion-i/


Segun entiendo yo ( yo con mi conocimientos limitados) Es que son lo mismo pero diferente forma de hacerlo

no ?
O estoy equivocado.


Buenas gente. Pues eso... Con conocimientos limitados como tu mismo indicas, casi casi has dado con la tecla leyendo ese artículo. Citándome:

Lo digo por última vez: RayTracing y rasterización son dos ALGORITMOS diferentes para RENDERIZAR. Que estén o no acelerados por hardware es indiferente pq son dos cosas distintas para hacer lo mismo, renderizar. Puedes tener rasterización por software y raytracing por software o bien tener rasterización por hardware o raytracing por hardware (las nuevas PowerVR te saludan).


RayTracing y rasterización son dos algoritmos/técnicas diferentes para renderizar una imagen. Ambos renderizan una imagen (convierten un conjunto de datos...vectores, texturas, luces...en una imagen 2D) pero lo hacen de forma diametralmente opuesta (uno traza rayos y el otro hace un scan conversion)... Estos algortimos pueden ser puramente software (los haces "a mano" y pueden correr dnd sea, por ejemplo en una CPU o en una GPU usando GPGPU) o bien estar acelerados por hardware (tienen unidades específicas para ello, por ejemplo en el caso de los rasterizadores tienen rasters unit entre otras cosas y en el caso de RayTracing es mas complicado y ahora se está empezando a implementar en hardware con las nuevas tarjetas Imageon Technologies, las PowerVR).

Siguiendo con los ejemplos: una espada y una pistola. Con las dos puedes matar xD (las dos pueden producir una imagen renderizada) pero no puedes decir que una espada es lo mismo que una pistola xD. Una espada es una espada y una pistola es una pistola, se parecen como un huevo a una castaña. Por tanto cuando se dice que raytracing y rasterización son lo mismo...pues como q no XD .

Si alguno sigue teniendo dudas al respecto, no tiene nada mas que ir a Google y teclear rasterizacion vs ray tracing, o directamente, nos vamos a la fuente mas tonta del mundo:

http://es.wikipedia.org/wiki/Rasterizaci%C3%B3n

Sacado de ahí:
Comparado con otras técnicas de renderizado 3D como Ray tracing, la rasterización es extremadamente rápida. Sin embargo, esta es simplemente el proceso de computar el mapeado desde la geometría de la escena hasta los píxeles...


f5inet sigo esperando mi disculpa [sonrisa] [sonrisa] [sonrisa] [sonrisa] .

Un saludo.
Bah no me entero . xD cuand se pase f5inet veremos y ya esta.
Grinch se ha dormido en clase [poraki] [poraki] [poraki]
Nuhar escribió:Grinch se ha dormido en clase [poraki] [poraki] [poraki]


Lo que tengo es unas ganas de que sea sabado a las 15:00 para salir de currar y dormir
Grinch escribió:
Nuhar escribió:Grinch se ha dormido en clase [poraki] [poraki] [poraki]


Lo que tengo es unas ganas de que sea sabado a las 15:00 para salir de currar y dormir


Yo tambien, y que llegue el domingo para meterte una paliza XD
Nuhar escribió:Yo tambien, y que llegue el domingo pa meterte un XD


No se. me das miedo ya eee :P

Bueno dejo el offtopic que me van a regañar :P
David Ricardo escribió:
Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.


El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.

http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3


Sigue siendo "over" 200 GB/s aún sin agregar... y si se pueden acceder simultáneamente por la GPU, sí dice mucho... por mucho que a algunos evangelizadores os duela que se os desmonte el mito de la GDDR5
KinderRey escribió:
David Ricardo escribió:
Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.


El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.

http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3


Sigue siendo "over" 200 GB/s aún sin agregar... y si se pueden acceder simultáneamente por la GPU, sí dice mucho... por mucho que a algunos evangelizadores os duela que se os desmonte el mito de la GDDR5


Solo por curiosidad, cual es ese mito?

Un saludo!
SangReal está baneado del subforo por "Flamer anti Xbox One"
Que es mas rapida
La gddr5 si no me equivoco tiene sus dos caras,tiene muy buen ancho de banda pero también tiene mucha latencia,la teoría de one como teoría yo la veo perfecta,pones ddr3 que tiene muy poca latencia y pones esram para ayudar con el ancho de banda,el tema seria...estan bien implementadas las dos memorias con el resto del apu y en su cantidad correcta??
provocadordebilis está baneado por "Troll"
No puedo mas,me mina la moral haber pagado lo mismo que un usuario de ps4 por un juego y que el suyo se vea mejor

Estoy harto de las risas de mi vecino cuando ve el tomb raider en mi xbox one a 30fps y con bajadas de resolucion en las cinematicas mientras que el suyo de ps4 valiendo lo mismo se ve mejor

Ya estoy harto Microsoft de promesas e historias de ESRAM,la nube y que cuando llegue direct 12 la consola se vera mejor que la ps4,la excusa de que la tuvisteis que sacar antes de lo planeado sin pulir los kits de desarrollo no me vale

quiero resultados ya no puedo vivir viendo como los sonyers me devuleven las bromas que yo hacia en la epoca ps3-xbox 360

necesito volver como xbosero a disfrutar de los juegos multi mejor que la competencia,no quiero estar en el otro lado

MICROSOFT REACCIONAAAAAAAAA [buuuaaaa]



[imghttp://i1.ytimg.com/vi/6UCR4FU6c_M/0.jpg][/img]
http://www.fudzilla.com/home/item/34591-amd-teases-beema-soc-or-something-rather

AMD va desvelar nueva arquitectura, lo he leido por encima pero, 250% de rendimiento grafico???
KinderRey escribió:
David Ricardo escribió:
Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.


El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.

http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3


Sigue siendo "over" 200 GB/s aún sin agregar... y si se pueden acceder simultáneamente por la GPU, sí dice mucho... por mucho que a algunos evangelizadores os duela que se os desmonte el mito de la GDDR5

A mí no me duele nada. Si tienes información que demuestre que la config de ddr3+esram es mejor que tener los 8 gigas de memoria gddr5, me encantará que me lo expliques. Dadas las informaciones que han salido de desarrolladores diciendo que es difícil trabajar con la esram lo veo complicado pero, insisto, si tienes alguna información que compartir soy todo ojos.

No me dolerá en absoluto, me encanta la tecnología.
papatuelo escribió:http://www.fudzilla.com/home/item/34591-amd-teases-beema-soc-or-something-rather

AMD va desvelar nueva arquitectura, lo he leido por encima pero, 250% de rendimiento grafico???



yo creo q esto se ha convertido en haber quien la dice mas gorda....


todo desde el mas profundo desconocimiento ehh XD XD XD
papatuelo escribió:La verdad es q no


no hablo del post ehh... hablo de la industria del juego en general....


edito: creo q no iba por mi comentario.... así q ni caso......
La industria del videojuego se dirige hacia donde va Microsoft. No es que ella la dirija, pero son pocas empresas y la mayoría reman juntas. Se nota que diseñaron la consola con eso en mente. No es cuestión de que unos compitan con otros, sino que van dando poca información mientras no tengan los productos en la calle (no hay más que ver lo que se ha tardado en hablar de directx 12).
David Ricardo escribió: A mí no me duele nada. Si tienes información que demuestre que la config de ddr3+esram es mejor que tener los 8 gigas de memoria gddr5, me encantará que me lo expliques. Dadas las informaciones que han salido de desarrolladores diciendo que es difícil trabajar con la esram lo veo complicado pero, insisto, si tienes alguna información que compartir soy todo ojos.

No me dolerá en absoluto, me encanta la tecnología.


A ti te duele todo lo q favorezca a xbox. A quien pretendes engañar?
Ignorar. A mas protagonismo le deis mas vendrá.
17587 respuestas