¬_¬ es q no se quiere decir . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón. Por cierto alguna de las preguntas que haces creo que te la puedo contestar yo.
Por ejemplo la primera:¬_¬ es q no se quiere decir . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.
Polyteres escribió:papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón. Por cierto alguna de las preguntas que haces creo que te la puedo contestar yo.
Por ejemplo la primera:¬_¬ es q no se quiere decir . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.
Buenas gente. Cuando en mi mensaje anterior digo "esto no se que quiere decir" o "esto no tiene ni pies ni cabeza" es pq lo q dice sería algo así como si sois pescadores y leéis lo siguiente: ayer me fui a pescar ratones a alta mar con mi bicicleta por el aire y tuve mucho existo pq conseguí pescar 3 mariposas.
No es cuestión de mirar nada desde una perspectiva clásica, aquí no hay perspectivas clásicas, es cuestión de intentar "predicar" sin tener mucha idea de lo q se habla.
Lo q pones en la foto, es exactamente lo mismo que digo yo, se refiere a arquitectura GCN.
@Hookun no hay distintas versiones de PRT.
Un saludo.
papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón.
Polyteres escribió:papatuelo escribió:El foro está para eso, si no dice nada coherente explica por qué, eres libre de hacerlo. De hecho te lo agradeceríamos.
Buenas gente. @Horizonte de sucesos y @Forzimbras claro q tenía pensado comentar las cosillas que se dicen en ese mensaje pero a mi tb me gusta el fútbol ...
MEGATOCHO inside:Con respecto al tema en sí. Pq no dice nada coherente?. Para empezar pq muchas de las cosas no tienen sentido ni siquiera a nivel léxico. En algunas ocasiones he tenido que leer varias veces alguna frase pq no tenía ni idea a lo que se estaba refiriendo, por la mezcla de conceptos... es como si leyeras una traducción de Google. Me da la sensación que se limita a traducir lo que dice mixstermedia. Y ya entrando en materia hay cosas mezcladas, cosas sacadas de la manga, otras que son un disparate...
Por ejemplo:No sirve de nada extrapolar arquitectura actual con la de nuevo paradigma, evidentemente por un lado se requiere una optimización de ops/c pero eso es parte del actual GCN 1.0, son técnicas que se usan en C++ desde hace años y la optimización de microcódigo en GCN y a través de DX11.2 viene de ahí.
es q no se quiere decir . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.No deja de ser una mejora de la drawcall que aprovecha la optimización del CU dedicado a GPGPU en base a conceptos FPU.
En todo caso sería: no deja de ser una mejora en los drawcall que aprovechan la optimización de las CUs dedicadas a GPGPU en base a conceptos FPU. Pero es q esto...FPU (flotating point unit), en base a conceptos de FPU??? CUs dedicadas a GPGPU exclusivamente?.12CU simples no son capaces de paralelizar nada sólo con optimización de ops.
. Solo con esa frase te das cuenta de que lo que dice no tiene ni pies ni cabeza. Que tiene que ver la optimización a nivel de operaciones con la paralelización de diferente granularidad???.16 rops modificados = 64 rops antiguos
Las ROPs son ROPs, no han cambiado mucho a lo largo de los años pq no hay mucho que cambiar. Es funcionalidad fija dentro de una GPU y tienen un trabajo muy específico que no varía de una generación a otra. Esto está ya muy trillado y no hay practicamente ningún margen de mejora. Les llegan fragmentos de los fragment/pixels shaders, Z Cull, resuelven las transparencias, resuelven el AA y escriben el pixel resultante en su caché o lo envían a traves de su controlador de memoria a donde corresponda. La cantidad de pixeles que son capaces de escribir por segundo es siempre el mismo: numero de ROPs x frecuencia, eso no cambia nunca. No hay cambios revolucionarios entre saltos generacionales pq todo está mas o menos inventado.
Las ROPs suelen ser un factor limitante y se están buscando formas de no usarlas (por ejemplo usando un compute shaders que escribe directamente en memoria y no usa las ROPs), siempre es preferible que te sobren y estés limitado por el ancho de banda que te falten y estés limitado por ROPs (tendrías que bajar la resolución del buffer por ejemplo).1 F32 ACE = 32 ACE antiguo
Esto se lo saca directamente de la manga pq el lo vale.tratamiento por bloque del GPU
no se q quiere decir con esto.X1 son 4 bloques: 2 Gfx + 2 COmpute (en esquema. 2azul 2morado)
PS4 es 1 bloque (1 Gfx + 8 ACE)
No. Otra cosa sin sentido. Bloques, que bloques?. XboxOne no es la única q tiene 2 Command Graphics, Ps4 tb tiene 2 (no solo 1 como dice, uno de ellos es capaz de despachar solo gráficos, y el otro tanto gráficos como GPGPU), de distinta prioridad, pero como dije en su momento hace ya tiempo, uno de ellos se usa para el juego en si y el otro para el SO.Los ACE de XBox One no están en ACE's, es por eso que se le llaman "Compute CP" Haríais bien de mirar las diapositivas de Mike Mantor o la diapositiva "negra" que colgue yo de Bryan, para entender el concepto.
La nueva ACE está seleccionada en base al tratamiento del mapa HSA, hay que ver como el tratamiento del CU está dispuesto ahí puesto que la comunicación está dispuesta a través del thread, y no como parte grande del pool del CU, lo cual encaja con la visión e interpretación del hardware nativo DX12 a partir de las r9 300 y su encapsulado de datos.
Cada paquete de datos encapsulado son controlados por 1 hilo del CPU y el hilo de computo de XBox One para el CPU tal y como hemos dicho en otros post alcanza los 6 ops per core y puesto que son 8 Cores "modificados" AMD Jaguar x86-64, en 2 clusters de 4 cores con modificaciones en/y/hacia la memoria compartida y el ancho de banda, alcanzan 48 ops/c en total, 24 por hilo, 24 por cluster.
Entonces es sencillísimo extrapolar y estimar que el numero de CU eficiente es de al menos 24CU por cada unidad de Compute CP del CPU, 24 threads per Compute.
Todo esto es q directamente no es posible. Está mezclando cosas de hardware y software, no sabe como funciona a nivel interno una GPU, ni una API de alto nivel, ni un driver. Las cosas no funcionan así. La CPU escribe comandos en un command buffer, estos se le pasan a la GPU y los ejecuta como una niña/o bueno. Que uno o varios núcleos puedan escribir sus propios command buffer y enviarselos a la GPU como pretende DirectX12 por ejemplo (o hacen actualmente otras APIs ya) es una cosa y otra es q tu manejes las CUs con cada hebra de tu CPU, esto es un disparate y no es ni posible ni viable ni lógico. La GPU es un procesador altamente pararelo y necesita de mecanismos específicos para manejar dicho paralelismo, no te los puedes saltar pq es hardware y son necesarios para funcionar.
Por otra parte los núcleos Jaguar de la CPU son capaces de retirar como máximo 2 instrucciones por ciclo, si tienes 8 núcleos tienes 16 instrucciones como máximo por ciclo. Cambiar el número de instrucciones que retiras por ciclo o IPC es jodidamente difícil y viene determinado por la arquitectura en sí de la CPU. Si es Jaguar, q lo es, retira 2 por ciclo no hay más.No es solo optimizar las colas, no es solo optimizar el entendimiento per CU, no es tan sencillo y simple, XBox One tiene duplicados los CU, pero no toda la piscina, sólo dobla las áreas referentes al GPGPU y dejan la forma de calcular actualmente los cálculos de propósito general de lado y los ACE en XBox One ya no son ACE's propiamente dichos. Y es por eso por lo cual se necesitan 768 ALU's*2 y es por eso que MS sólo menciona 768 ALU's
XboxOne no tiene duplicadas las CU ni tiene el doble de ALUs divididas en gráficos y GPGPU primero pq la familia es Sea Island (dicho por ellos) y segundo pq no es una solución correcta. La tendencia es dar cada vez mas flexibilidad a las CUs y para ello tienes q hacerlas cada vez mas generales. Que pasa si mi juego, o yo como desarrollador no quiero usar GPGPU?. O quiero usar toda la potencia de la GPU para procesar gráficos?. Desperdiciar espacio en unas ALUs que no tengan acceso al pipeline gráfico o q no se puedan usar para procesar gráficos es una tontería. Dame una ALU/CU q yo decida para q la quiero usar. Es mejor tener 12 CUs q yo decida balancear y usar como me plazca q estar limitado por una división 6+6 pq de esa forma solo podré usar 6 CUs para hacer gráficos. Es similar a lo q vimos con los shader unificados o los específicos q tenian Xbox360 y Ps3 respectivamente.El GPGPU en XBox One es nativo DX12, paraleliza todos los CU
El GPGPU en PS4 es a través de solo 4CU dedicados fortalecidos por ACE's extra
X1 12GFX 12GPGPU se beneficia de la optimización por microcódigo sensible a nivel de hardware
PS4 14GFX 4GPGPU se beneficiará de cierta optimización por microcódigo sensible a nivel de software
Los CUs se "parelelizan" solitos. Pocos kernels en CUDA, compute shaders o kernels en OpenCL ha escrito este hombre. El resto no tiene sentido.
Un saludo.
Polyteres escribió:papatuelo escribió:El foro está para eso, si no dice nada coherente explica por qué, eres libre de hacerlo. De hecho te lo agradeceríamos.
Buenas gente. @Horizonte de sucesos y @Forzimbras claro q tenía pensado comentar las cosillas que se dicen en ese mensaje pero a mi tb me gusta el fútbol ...
MEGATOCHO inside:Con respecto al tema en sí. Pq no dice nada coherente?. Para empezar pq muchas de las cosas no tienen sentido ni siquiera a nivel léxico. En algunas ocasiones he tenido que leer varias veces alguna frase pq no tenía ni idea a lo que se estaba refiriendo, por la mezcla de conceptos... es como si leyeras una traducción de Google. Me da la sensación que se limita a traducir lo que dice mixstermedia. Y ya entrando en materia hay cosas mezcladas, cosas sacadas de la manga, otras que son un disparate...
Por ejemplo:No sirve de nada extrapolar arquitectura actual con la de nuevo paradigma, evidentemente por un lado se requiere una optimización de ops/c pero eso es parte del actual GCN 1.0, son técnicas que se usan en C++ desde hace años y la optimización de microcódigo en GCN y a través de DX11.2 viene de ahí.
es q no se quiere decir . Habla de compiladores?. De operaciones por ciclo?. Pq mete C++?. Las GPUs de la generación de Xbox360/Ps3 eran muy sensibles al como se ejecutaban las distintas tareas, como empaquetaras ciertos datos, como usaras el paso de varibles entre los shaders, cuando leer una textura para ocultar latencias... Pero todo eso ha quedado atrás, en la arquitectura GCN no es necesario ser tan "tiquismiquis" con las instrucciones debido a como están diseñadas (con arquitecturas anteriores de AMD por ejemplo basadas en VLIW el como y donde poner las instrucciones era VITAL). No obstante todo esto se hace a nivel de hardware y driver.No deja de ser una mejora de la drawcall que aprovecha la optimización del CU dedicado a GPGPU en base a conceptos FPU.
En todo caso sería: no deja de ser una mejora en los drawcall que aprovechan la optimización de las CUs dedicadas a GPGPU en base a conceptos FPU. Pero es q esto...FPU (flotating point unit), en base a conceptos de FPU??? CUs dedicadas a GPGPU exclusivamente?.12CU simples no son capaces de paralelizar nada sólo con optimización de ops.
. Solo con esa frase te das cuenta de que lo que dice no tiene ni pies ni cabeza. Que tiene que ver la optimización a nivel de operaciones con la paralelización de diferente granularidad???.16 rops modificados = 64 rops antiguos
Las ROPs son ROPs, no han cambiado mucho a lo largo de los años pq no hay mucho que cambiar. Es funcionalidad fija dentro de una GPU y tienen un trabajo muy específico que no varía de una generación a otra. Esto está ya muy trillado y no hay practicamente ningún margen de mejora. Les llegan fragmentos de los fragment/pixels shaders, Z Cull, resuelven las transparencias, resuelven el AA y escriben el pixel resultante en su caché o lo envían a traves de su controlador de memoria a donde corresponda. La cantidad de pixeles que son capaces de escribir por segundo es siempre el mismo: numero de ROPs x frecuencia, eso no cambia nunca. No hay cambios revolucionarios entre saltos generacionales pq todo está mas o menos inventado.
Las ROPs suelen ser un factor limitante y se están buscando formas de no usarlas (por ejemplo usando un compute shaders que escribe directamente en memoria y no usa las ROPs), siempre es preferible que te sobren y estés limitado por el ancho de banda que te falten y estés limitado por ROPs (tendrías que bajar la resolución del buffer por ejemplo).1 F32 ACE = 32 ACE antiguo
Esto se lo saca directamente de la manga pq el lo vale.tratamiento por bloque del GPU
no se q quiere decir con esto.X1 son 4 bloques: 2 Gfx + 2 COmpute (en esquema. 2azul 2morado)
PS4 es 1 bloque (1 Gfx + 8 ACE)
No. Otra cosa sin sentido. Bloques, que bloques?. XboxOne no es la única q tiene 2 Command Graphics, Ps4 tb tiene 2 (no solo 1 como dice, uno de ellos es capaz de despachar solo gráficos, y el otro tanto gráficos como GPGPU), de distinta prioridad, pero como dije en su momento hace ya tiempo, uno de ellos se usa para el juego en si y el otro para el SO.Los ACE de XBox One no están en ACE's, es por eso que se le llaman "Compute CP" Haríais bien de mirar las diapositivas de Mike Mantor o la diapositiva "negra" que colgue yo de Bryan, para entender el concepto.
La nueva ACE está seleccionada en base al tratamiento del mapa HSA, hay que ver como el tratamiento del CU está dispuesto ahí puesto que la comunicación está dispuesta a través del thread, y no como parte grande del pool del CU, lo cual encaja con la visión e interpretación del hardware nativo DX12 a partir de las r9 300 y su encapsulado de datos.
Cada paquete de datos encapsulado son controlados por 1 hilo del CPU y el hilo de computo de XBox One para el CPU tal y como hemos dicho en otros post alcanza los 6 ops per core y puesto que son 8 Cores "modificados" AMD Jaguar x86-64, en 2 clusters de 4 cores con modificaciones en/y/hacia la memoria compartida y el ancho de banda, alcanzan 48 ops/c en total, 24 por hilo, 24 por cluster.
Entonces es sencillísimo extrapolar y estimar que el numero de CU eficiente es de al menos 24CU por cada unidad de Compute CP del CPU, 24 threads per Compute.
Todo esto es q directamente no es posible. Está mezclando cosas de hardware y software, no sabe como funciona a nivel interno una GPU, ni una API de alto nivel, ni un driver. Las cosas no funcionan así. La CPU escribe comandos en un command buffer, estos se le pasan a la GPU y los ejecuta como una niña/o bueno. Que uno o varios núcleos puedan escribir sus propios command buffer y enviarselos a la GPU como pretende DirectX12 por ejemplo (o hacen actualmente otras APIs ya) es una cosa y otra es q tu manejes las CUs con cada hebra de tu CPU, esto es un disparate y no es ni posible ni viable ni lógico. La GPU es un procesador altamente pararelo y necesita de mecanismos específicos para manejar dicho paralelismo, no te los puedes saltar pq es hardware y son necesarios para funcionar.
Por otra parte los núcleos Jaguar de la CPU son capaces de retirar como máximo 2 instrucciones por ciclo, si tienes 8 núcleos tienes 16 instrucciones como máximo por ciclo. Cambiar el número de instrucciones que retiras por ciclo o IPC es jodidamente difícil y viene determinado por la arquitectura en sí de la CPU. Si es Jaguar, q lo es, retira 2 por ciclo no hay más.No es solo optimizar las colas, no es solo optimizar el entendimiento per CU, no es tan sencillo y simple, XBox One tiene duplicados los CU, pero no toda la piscina, sólo dobla las áreas referentes al GPGPU y dejan la forma de calcular actualmente los cálculos de propósito general de lado y los ACE en XBox One ya no son ACE's propiamente dichos. Y es por eso por lo cual se necesitan 768 ALU's*2 y es por eso que MS sólo menciona 768 ALU's
XboxOne no tiene duplicadas las CU ni tiene el doble de ALUs divididas en gráficos y GPGPU primero pq la familia es Sea Island (dicho por ellos) y segundo pq no es una solución correcta. La tendencia es dar cada vez mas flexibilidad a las CUs y para ello tienes q hacerlas cada vez mas generales. Que pasa si mi juego, o yo como desarrollador no quiero usar GPGPU?. O quiero usar toda la potencia de la GPU para procesar gráficos?. Desperdiciar espacio en unas ALUs que no tengan acceso al pipeline gráfico o q no se puedan usar para procesar gráficos es una tontería. Dame una ALU/CU q yo decida para q la quiero usar. Es mejor tener 12 CUs q yo decida balancear y usar como me plazca q estar limitado por una división 6+6 pq de esa forma solo podré usar 6 CUs para hacer gráficos. Es similar a lo q vimos con los shader unificados o los específicos q tenian Xbox360 y Ps3 respectivamente.El GPGPU en XBox One es nativo DX12, paraleliza todos los CU
El GPGPU en PS4 es a través de solo 4CU dedicados fortalecidos por ACE's extra
X1 12GFX 12GPGPU se beneficia de la optimización por microcódigo sensible a nivel de hardware
PS4 14GFX 4GPGPU se beneficiará de cierta optimización por microcódigo sensible a nivel de software
Los CUs se "parelelizan" solitos. Pocos kernels en CUDA, compute shaders o kernels en OpenCL ha escrito este hombre. El resto no tiene sentido.
Un saludo.
David Ricardo escribió:papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón.
No, sólo quiere decir que no tienes conocimientos de programación y cuando habla un programador no te enteras de lo que dice. La diferencia es que polyteres sí sabe de programación. Y si él piensa que lo que dice el otro tío no tiene sentido (muy distinto de que no lo entienda), eso para mí le resta credibilidad.
Otras cosas que restan credibilidad a las teorías del tío de 3djuegos:
Nunca se vio que una compañía saque a la venta un producto y diga oficialmente que sus especificaciones son peores de las que son para dar una sorpresa a los compradores 3 años después del lanzamiento.
Tampoco se vio nunca sacar un hardware que necesite un software que tardará 2 años después del lanzamiento en estar listo para funcionar correctamente.
Si la Xbox One es el doble (o +) de potente de lo que parece, Microsoft debería estar publicándolo por ahí. El hecho de que ocultase esta información tendría implicaciones inasumibles para la compañía:
Una percepción de que el producto es peor de lo que es. Estas percepciones se asientan en la cabeza de la gente aunque luego sean desmentidas.
No cuadra esa explicación de que lo ocultan para que Sony no les copie, porque en el momento en que se pone a la venta la primera PS4 ya no hay posibilidad de revisar el hardware, y de eso hace 5 meses.
Menores ventas por pensar que el hardware es peor de lo que es: esto implica que comprar exclusividades es cada vez más caro porque la base de usuarios de one es proporcionalmente menor, y se pierde más dinero en caso de no vender en la competencia. También implica un menor incentivo para las desarrolladoras de programar versiones de One de los juegos, porque la base de usuarios es menor.
Etc, etc...
Es decir, no tiene sentido desde ningún punto de vista las teorías del amigo de 3djuegos. Si a eso le sumas que un programador te dice que lo que está diciendo no tiene sentido, a mí me parece que todos los indicios apuntan en la misma dirección.
Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..
David Ricardo escribió:papatuelo escribió:El problema de la explicación que has dado polyteres es que en muchas ocasiones te limitas a eso no se lo que quiere decir, o eso no lo entiendo asi que no tiene ni pies ni cabeza. En mi opinión todo va a cambiar tanto que no es sencillo abarcarlo para los que lo miráis desde una perspectiva clásica.Yo tampoco te entiendo a ti y no quiere decir que no tengas razón.
No, sólo quiere decir que no tienes conocimientos de programación y cuando habla un programador no te enteras de lo que dice. La diferencia es que polyteres sí sabe de programación. Y si él piensa que lo que dice el otro tío no tiene sentido (muy distinto de que no lo entienda), eso para mí le resta credibilidad.
Otras cosas que restan credibilidad a las teorías del tío de 3djuegos:
Nunca se vio que una compañía saque a la venta un producto y diga oficialmente que sus especificaciones son peores de las que son para dar una sorpresa a los compradores 3 años después del lanzamiento.
Tampoco se vio nunca sacar un hardware que necesite un software que tardará 2 años después del lanzamiento en estar listo para funcionar correctamente.
Si la Xbox One es el doble (o +) de potente de lo que parece, Microsoft debería estar publicándolo por ahí. El hecho de que ocultase esta información tendría implicaciones inasumibles para la compañía:
Una percepción de que el producto es peor de lo que es. Estas percepciones se asientan en la cabeza de la gente aunque luego sean desmentidas.
No cuadra esa explicación de que lo ocultan para que Sony no les copie, porque en el momento en que se pone a la venta la primera PS4 ya no hay posibilidad de revisar el hardware, y de eso hace 5 meses.
Menores ventas por pensar que el hardware es peor de lo que es: esto implica que comprar exclusividades es cada vez más caro porque la base de usuarios de one es proporcionalmente menor, y se pierde más dinero en caso de no vender en la competencia. También implica un menor incentivo para las desarrolladoras de programar versiones de One de los juegos, porque la base de usuarios es menor.
Etc, etc...
Es decir, no tiene sentido desde ningún punto de vista las teorías del amigo de 3djuegos. Si a eso le sumas que un programador te dice que lo que está diciendo no tiene sentido, a mí me parece que todos los indicios apuntan en la misma dirección.
Roberts stated that, “It’s incredibly powerful and visually as good as any engine out there. If you look at the next gen games, in my opinion, the best looking next-gen game is Ryse.”
Crytek’s Ryse: Son of Rome released for the Xbox One at launch, and was also built using CryEngine. The team took advantage of customized anti-aliasing and an overall film-based post processing treatment to deliver on the visual front. “Ryse is a fairly simplistic God of War mash-em up but just in terms of visuals and looks, it’s by far the best looking…its better looking than Killzone [Shadow Fall]. I’m a big Killzone fan but just technically if I look at Ryse and I look at Killzone, Ryse is superior.
“So I think that gives you a big leg up to design in a way that allows for the content creator like artists and designers to do content fairly quickly. It’s a big, really full featured engine that comes with everything. It comes with physics, everything you would normally add, we just build on top of that.”
Read more at http://gamingbolt.com/cryengine-4-incre ... vzMOSJk.99
David Ricardo escribió:Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..
Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.
Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.
Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.
framed escribió:Veo que seguimos como hace un año. Si alguien intenta explicar algo que beneficia a la One es todo mentira. Esto ya parece la religión. Todo lo que beneficie a esta hay que exterminarlo.
Es curioso como la gente queda explicaciones, los supuestos blasfemos, se pegan una currada de narices con ejemplos, links, esquemas, imágenes, etc. El inquisidor no, este viene, te dice que es mentira y se queda tan ancho (vamos, que parece un directivo de sony ).
dicanio1 escribió:Ser programador no significa nada de nada... ya que uno puede ser programador experto y otro un novato..
Vamos es como todo en esta vida, acaso un jugador de primera se puede comparar con uno de tercera regional?
lo siento pero por muy programador que sea ,se le ve el plumero sonyer de muy lejos,ademas de que puede ser programador,PERO DE QUE..
yo me creo mucho antes a un programador profesional de Microsoft,o a desarrolladores que ya aj comentado también los beneficios del dirext,ect,ect que a alguien que trabaja en una mini empresa..vamos el mismo entendimiento seguro que no tienen..
Así que, leyendo a profesionales del sector esta claro que la xbox va a sorprender..
Y por no entender algo, no significa que no sea posible... cada uno tiene una limitación en su trabajo... hay gente que son unos crack como los dueños de google,ect y otros que con el mismo trabajo en vez de crear google trabajan en una empresa...
ahora va a resultar que porque uno no entiende o no ve posible lo que le de expertos de el mas alto nivel pues es mentira..gracias a dios siempre hay gente que va mejorando la tecnología y por eso trabajan en las mayores empresas del mundo..
Pero nada tiempo al tiempo...
David Ricardo escribió:Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..
Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.
Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.
Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.
Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"
Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.
futuro mad max escribió:papatuelo escribió:El foro está para eso, si no dice nada coherente explica por qué, eres libre de hacerlo. De hecho te lo agradeceríamos.
la fuente de todo lo que publicas, otros lo copian de misterxmedia, hay queda eso
Nuhar escribió:Pues yo creo que el problema lo tiene la gente que intenta rebuscar dentro de la consola.
Cuando hagan un comunicado oficial sobre la arquitectura se podrá hablar sobre ella, mientras tanto me esta pareciendo que hay gente buscando tres pies al gato.
laleshe escribió:Bueno, son inquietudes que tiene la gente. Yo no lo veo mal, todo lo contrario, si yo entendiera sobre estos temas, sería el primero en buscar lo "escondido" antes de que me lo dieran mascado.
Nuhar escribió:Y por eso mismo lo importante son los juegoslaleshe escribió:Bueno, son inquietudes que tiene la gente. Yo no lo veo mal, todo lo contrario, si yo entendiera sobre estos temas, sería el primero en buscar lo "escondido" antes de que me lo dieran mascado.
Yo entiendo las inquietudes, me paso todos los dias por este foro, pero me da que se intenta forzar y al final lo unico que se hace es perder la credibilidad
f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...
Chifrinillo escribió:David Ricardo escribió:Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..
Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.
Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.
Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.
Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?
No hace falta entender de algo para con lógica deducir obviedades.
- Y si ninguna gráfica actual soporta 100% DirectX12 y la propia MS ha confirmado que XBOX ONE si, se puede dar por hecho que no lleva una gráfica actual.
- Y si se filtran los diagramas de las primeras gráficas en soportar DirectX12 a full que saldrán en 2015 y lo primero que ves es que abandonal la GDDR5 por 16 Memorias DDR3 pues sin ser muy listo y sin ser un entendido ves un gran parecido, no? (vamos yo no creo que sea casualidad.
- Y si te enteras que AMD y MS tienen un acuerdo de 3000 millones pues como que no parece raro que sea un diseño CONJUNTO.
- Y cuando te confirman que los 32mb del chip de ONE son realmente 8 + 8 + 8 + 8 que pueden leer y escribir al mismo tiempo de los 8 GB RAM entonces descubres que se han esforzado en hacer un 16 channel.
- Y si le hechan una foto al procesador por dentro y ves esto:
Vamos.. a ver quien es el listo que dice que la XboxOne tiene una HD7000 como la PS4......................... (ya sin entrar en que puede tener el doble de Alus)
================================================================================
Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"
Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.
================================================================================
¿Tuvo sentido que MS callara con 360 mientras Sony la machacaba sin descanso?
¿Tuvo sentido cuando despues de semanas y semanas de críticas hacia 360 lo único que dijo MS es: "no creemos que PS3 sea mas potente que 360"?
Chifrinillo escribió:Chifrinillo yo estoy totalmente de acuerdo con todo lo que has dicho,eso esta hay y es real,pero lo que ves en la pagina de analdtech es una nueva apu de amd,no la nueva r300,"casualmente" one lleva una apu tambien...
f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...
Forzimbras escribió:Yo creo que lo que correctamente ha apuntado chifrinillo de que ninguna GPU actual soporta DX12 nativamente por hard y el hecho de que la de One sí lo haga, encierra mucho en tan pocas palabras sobre si es un modelo desfasado, actual o "adelantado". Que cada cual saque conclusiones.
Chifrinillo escribió:
Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?
No hace falta entender de algo para con lógica deducir obviedades.
- Y si ninguna gráfica actual soporta 100% DirectX12 y la propia MS ha confirmado que XBOX ONE si, se puede dar por hecho que no lleva una gráfica actual.
- Y si se filtran los diagramas de las primeras gráficas en soportar DirectX12 a full que saldrán en 2015 y lo primero que ves es que abandonal la GDDR5 por 16 Memorias DDR3 pues sin ser muy listo y sin ser un entendido ves un gran parecido, no? (vamos yo no creo que sea casualidad.
- Y si te enteras que AMD y MS tienen un acuerdo de 3000 millones pues como que no parece raro que sea un diseño CONJUNTO.
- Y cuando te confirman que los 32mb del chip de ONE son realmente 8 + 8 + 8 + 8 que pueden leer y escribir al mismo tiempo de los 8 GB RAM entonces descubres que se han esforzado en hacer un 16 channel.
- Y si le hechan una foto al procesador por dentro y ves esto:
Vamos.. a ver quien es el listo que dice que la XboxOne tiene una HD7000 como la PS4......................... (ya sin entrar en que puede tener el doble de Alus)
================================================================================
Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"
Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.
================================================================================
¿Tuvo sentido que MS callara con 360 mientras Sony la machacaba sin descanso?
¿Tuvo sentido cuando despues de semanas y semanas de críticas hacia 360 lo único que dijo MS es: "no creemos que PS3 sea mas potente que 360"?
Forzimbras escribió:Donde si estoy completamente deacuerdo es cuando la gente dice: "Entonces por qué Microsoft no dice nada, no tiene sentido bla bla bla bla"
Pues es verdad.. no tendría sentido en ninguna compañía del mundo menos en esa.
Aquí si puedo aportar mi criterio, ya que junto a otros, trabajo ese tema a diario, al pasar por mis manos la documentación del registro de patentes y demás documentación de protección de la marca.
Si MS no hace públicos detalles de specs en profundidad es simplemente porque no quiere para evitar injerencias corporativas a nivel de lo que venimos llamando "copia". A otras compañías les da igual y hacen público todo porque son las primeras en copiar en cuanto les gusta algo, precisamente por eso, Microsoft cuida de no hacer públicos detalles de especificaciones, módulos, arquitecturas, ni acuerdos a los que haya llegado al respecto a nivel interno con AMD, en este caso. Está en su derecho y es libre de hacerlo, ya que nadie le impone el que deba de hacer lo contrario.
Para que se me entienda: es como si tienes un modelo de negocio de pizzería y te mueves en ese mundo, hasta que un día llegas a un acuerdo con un maestro en masas y un chef para hacer una receta de pizza única con un sabor inigualable, y no quieres que tus competidores te copien, por lo que proteges la fórmula blindándola con toda clase de recursos, legales y de todo tipo. Nadie te puede obligar ni exigir que compartas esa información al público en plan caritativo. MS solo publica los requisitos informativos que la ley obliga a dar al consumidor, ni más ni menos. Todos los detalles trascendentales del hard sujetos a desarrollos internos, componentes únicos y su arquitectura y distribución, están más que protegidos, porque si es algo que tú, o un socio junto contigo habéis hecho, nadie más tiene por qué aprovecharse de ese esfuerzo y ese trabajo que tú has hecho.
Y no hay más misterio. Quien espere un anuncio de Microsoft con un "unveil" de las entrañas de la consola, que espere sentado, porque eso no se ha hecho ni a día de hoy con 360, y mucho menos se va a hacer con One, que cuenta con más elementos custom que ninguna de sus predecesoras y funciones únicas en el mercado, que por cuestiones corporativas, no interesa que lleguen jamás a manos de la competencia.
Por algo, cuando cualquier ingeniero ajeno a MS observa simples capturas de las entrañas de One, lo primero que dice es que "tiene reminiscencias de algo, pero no se parece a nada". Porque ni ellos mismos sabrían exactamente decir ni catalogar con exactitud qué están viendo, más que nada porque están viendo algo que solo saben quienes lo han hecho y/o trabajan con ello a diario.
papatuelo escribió:f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...
Eso es humo, y lo siguiente qué? La nube?
Chifrinillo escribió:David Ricardo escribió:Chifrinillo escribió:Vamos que yo de Hardware no tengo ni idea..
Eres el público objetivo de Misterxmedia y el tío de 3djuegos. No tienes ni idea de hardware y las especificaciones de One te parecen menores de lo que deberían ser. Te tragarás cualquier cosa.
Eso sí, si viene alguien que entiende de la materia y te dice que las afirmaciones de esta gente no tienen sentido, discutes con él con argumentos como el tamaño de la placa o el número de chips de memoria, que no tienes ni idea de lo que significan. Llegarás lejos.
Por cierto, PS4 también tiene 16 chips de 512 MB. Que no quiere decir nada, pero para que lo sepas.
Joer tíooo yo no se de Hardware pero algo más que tú si jeje. 16 módulos... ¿donde?
No hace falta entender de algo para con lógica deducir obviedades....
f5inet escribió:papatuelo escribió:f5inet escribió:y ahora es cuando llega f5inet y suelta que bajo el nuevo paradigma DX12 usar ROPs no es necesario ya que se saturan en nada, y que han descubierto que es mas rapido meter el rasterizador en el SHADER que se ejecuta en los CU...
Eso es humo, y lo siguiente qué? La nube?
pagina 5: http://www.humus.name/Articles/Persson_GraphicsGemsForGames.pdf
Antiguamente se dejaba a los ROPs escribir los resultados del shader en la VRAM para que el codigo a ejecutar por el shader fuese mas corto. Hoy dia, con la posibilidad que dan las arquitecturas GCN de shaders larguisimos, pueden meter la escritura a la VRAM dentro del mismo shader.
antiguamente, con el ROP, el shader (o el CU, si asi lo preferiis) quedaba 'congelado' hasta que los resultados se hubiesen escrito en la VRAM. Esto se hacia asi porque la VRAM que se solia montar solia tener MUCHA LATENCIA. si se pueden meter las escrituras dentro del shader, porque hay espacio dentro del shader, y el acceso a la VRAM no esta penalizado por latencia (fijese usted que casualidad, que tenemos unos fastuosos 32MB de rapidisima memoria eSRAM), los ROPs son INNECESARIOS.
pero vamos, algunos seguiran diciendo que 32ROPs es mejor que 16ROPs, que 64 son mejores que 32, y que la memoria RAM-BUS es mejor que la actual DDR3...
Forzimbras escribió:Yo creo que lo que correctamente ha apuntado chifrinillo de que ninguna GPU actual soporta DX12 nativamente por hard y el hecho de que la de One sí lo haga, encierra mucho en tan pocas palabras sobre si es un modelo desfasado, actual o "adelantado". Que cada cual saque conclusiones.
SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!
SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!
Notis escribió:Intervengo solo para aclarar que David Ricardo tiene razón.
Al igual que Xone, Ps4 monta los 8GB en 16 módulos (distribuidos por ambos lados de la placa, 8 por un lado y 8 por otro). En concreto monta lo siguiente:
Samsung K4G41325FC-HC03 512 MB GDDR5 RAM (total of 16 x 512 MB = 8 GB)
Este tipo de configuraciones se suele utilizar por que se disipa mejor el calor que al montar los 8GB en 8 módulos.
Un saludo,
Notis
djber escribió:SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!
Por que x1 es de Microsoft y dx12 también, si a los de Microsoft les sale de los huevos es compatible.
SangReal escribió:djber escribió:SangReal escribió:Como es posible que x1 sea full compqtible con dx12 si aun no existe?
Pajas mentales para todos!!!!!!!
Por que x1 es de Microsoft y dx12 también, si a los de Microsoft les sale de los huevos es compatible.
No chikitin, el hard de x1 ya lleva tiempo hecho y dx12 es un criatura que aun esta por llegar. Primero se hace dx12 y despues los fabricantes hacen los componentes compatibles 100*100.
Cuando haces algo tan complejo y grande hadta que no lo terminas no puedes ver el resultado final. Haber si os pensais que ms hace el dx12 solo para la consola..... Que hay unos sistemas llamados pcs que tmb lo usan