Polyteres escribió:f5inet escribió:o sea, que la discusion que traemos es por tu crees que XboxONE no posee la potencia necesaria para implementar un rasterizador por 'software' en la GPU via GPGPU y yo creo que si.
Tu defiendes el uso de los ROPs porque con la potencia actual no se podria desarrollar un shader programable que realize el mismo todo el proceso de rasterizacion, y es mejor seguir usando la tecnologia y el know-how actual.
Yo defiendo que no se deben usar los ROPs porque la tecnologia y la arquitectura ha llegado un nivel suficiente para implementar dicho rasterizador por software y obtener aun mas rendimiento que con el pipeline fijo.
basicamente es eso, ¿no? bueno, pues ya veremos quien tiene razon al final... y todo dependera de si la GPU de la XboxONE esta basada al 100% en SeaIslands o 'coge prestada' algunas de las nuevas caracteristicas de PirateIslands...
Buenas gente. Para seguir manteniendo la calidad que poseemos actualmente no, ni aunque coja prestadas características de PirateIsland. Podrás hacer ciertas cosas un Compute Shaders?. Si sin duda, lo he dicho antes, hay cosas son perfectas para este tipo de cosas, pero todo el pipeline gráfico en esta generación?. Lo dudo mucho.
Ya hay implementado un pipeline gráfico completamente en una GPU pero los resultados...
http://highperformancegraphics.org/prev ... _Laine.pdf
Un saludo.
f5inet escribió:Polyteres escribió:f5inet escribió:o sea, que la discusion que traemos es por tu crees que XboxONE no posee la potencia necesaria para implementar un rasterizador por 'software' en la GPU via GPGPU y yo creo que si.
Tu defiendes el uso de los ROPs porque con la potencia actual no se podria desarrollar un shader programable que realize el mismo todo el proceso de rasterizacion, y es mejor seguir usando la tecnologia y el know-how actual.
Yo defiendo que no se deben usar los ROPs porque la tecnologia y la arquitectura ha llegado un nivel suficiente para implementar dicho rasterizador por software y obtener aun mas rendimiento que con el pipeline fijo.
basicamente es eso, ¿no? bueno, pues ya veremos quien tiene razon al final... y todo dependera de si la GPU de la XboxONE esta basada al 100% en SeaIslands o 'coge prestada' algunas de las nuevas caracteristicas de PirateIslands...
Buenas gente. Para seguir manteniendo la calidad que poseemos actualmente no, ni aunque coja prestadas características de PirateIsland. Podrás hacer ciertas cosas un Compute Shaders?. Si sin duda, lo he dicho antes, hay cosas son perfectas para este tipo de cosas, pero todo el pipeline gráfico en esta generación?. Lo dudo mucho.
Ya hay implementado un pipeline gráfico completamente en una GPU pero los resultados...
http://highperformancegraphics.org/prev ... _Laine.pdf
Un saludo.
ese paper, aunque totalmente valido, es de 2011. no estaba la arquitectura GCN en el mercadom que salio en 2012. yo coincido con tu analisis. no se PODIA hacer un rasterizador por software mediante GPGPU por que las latencias mataban el shader (al usar el shader para acceder a la VRAM pasas por encima del ROP, esa pieza dedicada a 'disimilar' la latencia de la VRAM) y porque la potencia de computo todavia no habia llegado al punto de ruptura. yo defiendo que HOY si tenemos esa potencia y esa baja latencia, y que por lo tanto, es posible hacer un rasterizador por software via GPGPU con rendimiento aceptable.
David Ricardo escribió: Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?
Grinch escribió:David Ricardo escribió: Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?
Primero le haces una pregunta y terminas con una mofa.
Si señor la educacion en estado puro
Luego con razon dejan de postear o intentar debatir las cosas
David Ricardo escribió:[...] Me podrías poner algún ejemplo en que se haya usado el sistema del que hablas con sorprendentes resultados de mejora de eficiencia? O son todo cuentos de hadas y castillos en el aire?
f5inet escribió:ese paper, aunque totalmente valido, es de 2011. no estaba la arquitectura GCN en el mercadom que salio en 2012. yo coincido con tu analisis. no se PODIA hacer un rasterizador por software mediante GPGPU por que las latencias mataban el shader (al usar el shader para acceder a la VRAM pasas por encima del ROP, esa pieza dedicada a 'disimilar' la latencia de la VRAM) y porque la potencia de computo todavia no habia llegado al punto de ruptura. yo defiendo que HOY si tenemos esa potencia y esa baja latencia, y que por lo tanto, es posible hacer un rasterizador por software via GPGPU con rendimiento aceptable.
darksch escribió:No es por nada pero la XO se diseñó con 16ROP porque es lo justo para 1080p@60. Ponerle 32 significaría que muchas estarían rascándose porque salvo que hagas un juego en flat los shaders nunca van a ser tan simples, y con shaders simples la XO va bien a 1080p@60 porque tampoco hay problema con las 16ROP evidentemente. Ejemplos Strider o Forza 5 a distintos niveles de complejidad.
Así que digo yo que los ROP no cuentan tanto y lo que habrá que potenciar son los cuellos reales.
Obcecarse en los ROP no me parece lo acertado.
f5inet escribió:oh, si... son cuentos de hadas y castillos en el aire...
https://www.youtube.com/watch?v=oLte5f34ya8
https://www.research.ibm.com/cell/white ... ummary.pdf
3 PS3, usando solo la potencia de sus CELL (18SPEs en total), renderizando por raytracing a 1080p. eso es una muestra de lo que puede hacer 'el software' cuando hay potencia en las ALUs y ancho de banda local con poca latencia...
para que luego digan que renderizar usando software, ALUs vectorizadas y memoria local rapida y de baja latencia no es posible...
18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.
Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.
I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.
Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.
Thanks again for letting my participate. Hope this gives people more background on my claims.
f5inet escribió:Intel Larrabee
IBM Interactive RayTracing
nVidia OptiX
AMD developer Summit nov13 - Tzachi Cohen http://www.slideshare.net/DevCentralAMD ... achi-cohen
si, en realidad es posible que todos ellos esten equivocados y que Polyteres tenga razon... no hay potencia ni tecnologia ahora mismo para hacer rasterizado Software via GPGPU en tiempo real...
Polyteres escribió:[...]Te lo vuelvo a decir, RayTracing es una cosa y un rasterizador por software otra, son cosas totalmente diferentes.[...]
¿No podias haber dicho otra mas gorda? telita, hijo mio, telita...
Raytracing ES rasterizacion por software. No todos los rasterizadores por software son raytracing, pero si que todos los raytracing son rasterizadores por software...
f5inet escribió:Polyteres escribió:[...]Te lo vuelvo a decir, RayTracing es una cosa y un rasterizador por software otra, son cosas totalmente diferentes.[...]/quote]
Te lo has ganado... eso va para mi firma...¿No podias haber dicho otra mas gorda? telita, hijo mio, telita...
Polyteres escribió:
@Forzimbras quién ha dicho que yo no haya tocado una XboxOne? . Y otra cosa, yo en ningún momento he dicho que "DX12 va a correr con problemas en One".
Polyteres escribió:Forzimbras escribió:Yo creo que aquí la verdad es que tampoco veo a nadie seguro de lo que dice. Más que nada porque, tal y como me han recordado, en este mismo hilo se saltó en un comienzo del "Xbox One no será compatible con DX12", pasando por el (una vez se confirmó que si lo era) "Xbox seguro que solo es compatible con DX12 por emulación", al (una vez confirmado que la compatibilidad iba por hard) "ya veremos".
El caso es que siempre tiene que haber algún "pero" para no admitir completamente nada.
Buenas gente. Yo no he cambiado mi discurso. De hecho un año antes de que saliera XboxOne, donde todo eran especulaciones, y se empezaba a saber lo q iba a montar, ya intuí y así lo deje escrito, los problemas que podría tener XboxOne con esa arquitectura
f5inet escribió:Lo siento Polyteres, no puedo seguir discutiendo contigo.
Puedo discutir amigablemente con una persona que me argumenta que 2+2=5, pero no con una que me argumenta que 2+2=una constelacion cercana a orion. Sencillamente no es posible. Pero no te preocupes, puedo vivir con ello, no me queda ningun trauma...
Polyteres escribió:
@Forzimbras y quién te ha dicho a ti, que no he tenido acceso a ella desde entonces?.
Forzimbras escribió:Polyteres escribió:
@Forzimbras y quién te ha dicho a ti, que no he tenido acceso a ella desde entonces?.
A no ser que seas uno de los hackers que robó la información de la base de datos que contenía los detalles del devkit primigéneo, lo dudo.
Polyteres escribió:f5inet escribió:Lo siento Polyteres, no puedo seguir discutiendo contigo.
[...]
Buenas gente. Te tenía por una persona inteligente, se podía debatir contigo, pero hoy me has demostrado q te tenía en demasiada alta estima. Como veo q insistes[...]
f5inet escribió:Polyteres escribió:f5inet escribió:Lo siento Polyteres, no puedo seguir discutiendo contigo.
[...]
Buenas gente. Te tenía por una persona inteligente, se podía debatir contigo, pero hoy me has demostrado q te tenía en demasiada alta estima. Como veo q insistes[...]
no he insistido.
Polyteres escribió:[...]
Buenas gente. Te tenía por un tío sensato. Sabes que la has cagado y bien además xD, infórmate, lee, pregunta y después rectifica que es de sabios. Desde q empezamos esta conversación la has cagado 3 veces, siento esta última la mas gorda.
Lo digo por última vez: RayTracing y rasterización son dos ALGORITMOS diferentes para RENDERIZAR. Que estén o no acelerados por hardware es indiferente pq son dos cosas distintas para hacer lo mismo, renderizar. Puedes tener rasterización por software y raytracing por software o bien tener rasterización por hardware o raytracing por hardware (las nuevas PowerVR te saludan).
Un saludo.
Grinch escribió:Yo he encontrado esto ya por curiosidad
http://josepjroca.wordpress.com/2014/04 ... izacion-i/
Segun entiendo yo ( yo con mi conocimientos limitados) Es que son lo mismo pero diferente forma de hacerlo
no ?
O estoy equivocado.
We have embedded esRam on die on our chip. We really like that because it gives us high bandwidth to the gpu to keep the gpu fed with data. Sometimes when you go off chip with memory, it is harder to keep that gpu fed with data. We added lot's of memory both system memory and flash cache in order to have that simultaneous and instantaneous action. And then, for the ready part of it, we really architected the box at the beginning to have multiple power states so that you could use just enough power for the experiences that you're in and not anymore. And if you were transitioning to another state, you could do that easily and quickly, and the best example of that of course is wake on voice. We have just a little bit of power with kinect and a little bit of power on the console to process the voice that's coming in. When you say "xbox on" we can immediately power on quickly and get you to your experiences.
Again on the ram, we really wanted to get 8gb and make that power friendly as well which is a challenge to get both power friendly for acoustics and get high capacity and high bandwidth. So for our memory architecture we're actually achieving all of that and we're getting over 200gb/s across the memory sub-sytem.
Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.
Grinch escribió:Yo he encontrado esto ya por curiosidad
http://josepjroca.wordpress.com/2014/04 ... izacion-i/
Segun entiendo yo ( yo con mi conocimientos limitados) Es que son lo mismo pero diferente forma de hacerlo
no ?
O estoy equivocado.
Lo digo por última vez: RayTracing y rasterización son dos ALGORITMOS diferentes para RENDERIZAR. Que estén o no acelerados por hardware es indiferente pq son dos cosas distintas para hacer lo mismo, renderizar. Puedes tener rasterización por software y raytracing por software o bien tener rasterización por hardware o raytracing por hardware (las nuevas PowerVR te saludan).
Comparado con otras técnicas de renderizado 3D como Ray tracing, la rasterización es extremadamente rápida. Sin embargo, esta es simplemente el proceso de computar el mapeado desde la geometría de la escena hasta los píxeles...
Nuhar escribió:Grinch se ha dormido en clase
Grinch escribió:Nuhar escribió:Grinch se ha dormido en clase
Lo que tengo es unas ganas de que sea sabado a las 15:00 para salir de currar y dormir
Nuhar escribió:Yo tambien, y que llegue el domingo pa meterte un
David Ricardo escribió:Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.
El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.
http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3
KinderRey escribió:David Ricardo escribió:Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.
El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.
http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3
Sigue siendo "over" 200 GB/s aún sin agregar... y si se pueden acceder simultáneamente por la GPU, sí dice mucho... por mucho que a algunos evangelizadores os duela que se os desmonte el mito de la GDDR5
KinderRey escribió:David Ricardo escribió:Forzimbras escribió:"Over" 200gb, no "about". Ese "over" da suficientes pistas para atar cabos.
El número agregado de gigabytes de anchos de banda de distintas memorias no te dice mucho. Por ejemplo, Xbox 360 tenía un ancho de banda agregado de 278GB/s. Quiere eso decir que la memoria de 360 es mejor que la de One? Por supuesto que no.
http://www.ign.com/articles/2005/05/20/e3-2005-microsofts-xbox-360-vs-sonys-playstation-3?page=3
Sigue siendo "over" 200 GB/s aún sin agregar... y si se pueden acceder simultáneamente por la GPU, sí dice mucho... por mucho que a algunos evangelizadores os duela que se os desmonte el mito de la GDDR5
papatuelo escribió:http://www.fudzilla.com/home/item/34591-amd-teases-beema-soc-or-something-rather
AMD va desvelar nueva arquitectura, lo he leido por encima pero, 250% de rendimiento grafico???
papatuelo escribió:La verdad es q no
David Ricardo escribió: A mí no me duele nada. Si tienes información que demuestre que la config de ddr3+esram es mejor que tener los 8 gigas de memoria gddr5, me encantará que me lo expliques. Dadas las informaciones que han salido de desarrolladores diciendo que es difícil trabajar con la esram lo veo complicado pero, insisto, si tienes alguna información que compartir soy todo ojos.
No me dolerá en absoluto, me encanta la tecnología.