Hablemos del interior de Xbox One

KinderRey escribió:
mosotron escribió:Este hilo es exactamente igual al de "[Debate] Futuro Vita "


Y aquí tenemos a otro iluminado que acaba de descubrir que el propósito del hilo es especular sobre arquitecturas de computación relacionadas con la One. Los caramelitos los entregamos al final del día, pásate más tarde.


Hombre, el chico tiene toda la razón [+risas] [+risas] [+risas]

Me hizo gracia la respuesta, porque además hoy es el día internacional del "descubridor" en el foro de eol. Estoy en noticias y me estoy despollando, sinceramente. Me encanta la pluraridad de opiniones, pero joder, una cosa es pluralidad, y otra bien distinta lo que se ve por allí.
Salocin21, he estado buscando información de lo de la memoria, q comentaste q podía la DDR3 leer y escribir al mismo tiempo.

Lo único q he encontrado ha sido esto:

"Nick Baker: First of all, there's been some question about whether we can use ESRAM and main RAM at the same time for GPU and to point out that really you can think of the ESRAM and the DDR3 as making up eight total memory controllers, so there are four external memory controllers (which are 64-bit) which go to the DDR3 and then there are four internal memory controllers that are 256-bit that go to the ESRAM. These are all connected via a crossbar and so in fact it will be true that you can go directly, simultaneously to DRAM and ESRAM.

Digital Foundry: Simultaneously? Because there's been a lot of controversy that you're adding your bandwidth together and that you can't do this in a real-life scenario.

Nick Baker: Over that interface, each lane - to ESRAM is 256-bit making up a total of 1024 bits and that's in each direction. 1024 bits for write will give you a max of 109GB/s and then there's separate read paths again running at peak would give you 109GB/s. What is the equivalent bandwidth of the ESRAM if you were doing the same kind of accounting that you do for external memory... With DDR3 you pretty much take the number of bits on the interface, multiply by the speed and that's how you get 68GB/s. That equivalent on ESRAM would be 218GB/s. However, just like main memory, it's rare to be able to achieve that over long periods of time so typically an external memory interface you run at 70-80 per cent efficiency.

The same discussion with ESRAM as well - the 204GB/s number that was presented at Hot Chips is taking known limitations of the logic around the ESRAM into account. You can't sustain writes for absolutely every single cycle. The writes is known to insert a bubble [a dead cycle] occasionally... One out of every eight cycles is a bubble, so that's how you get the combined 204GB/s as the raw peak that we can really achieve over the ESRAM. And then if you say what can you achieve out of an application - we've measured about 140-150GB/s for ESRAM. That's real code running. That's not some diagnostic or some simulation case or something like that. That is real code that is running at that bandwidth. You can add that to the external memory and say that that probably achieves in similar conditions 50-55GB/s and add those two together you're getting in the order of 200GB/s across the main memory and internally.

One thing I should point out is that there are four 8MB lanes. But it's not a contiguous 8MB chunk of memory within each of those lanes. Each lane, that 8MB is broken down into eight modules. This should address whether you can really have read and write bandwidth in memory simultaneously. Yes you can there are actually a lot more individual blocks that comprise the whole ESRAM so you can talk to those in parallel and of course if you're hitting the same area over and over and over again, you don't get to spread out your bandwidth and so that's why one of the reasons why in real testing you get 140-150GB/s rather than the peak 204GB/s is that it's not just four chunks of 8MB memory. It's a lot more complicated than that and depending on how the pattern you get to use those simultaneously. That's what lets you do read and writes simultaneously. You do get to add the read and write bandwidth as well adding the read and write bandwidth on to the main memory. That's just one of the misconceptions we wanted to clean up."

Si mi ingles no m falla, dice q la DDR3 y la Sram pueden trabajar al mismo tiempo. Y cuando lo hacen tienes 200gb\s en el sistema de memoria e internamente.

Pero es la Sram la q esta dividida cada bloque de 8MB en 8 lineas y lo q permite leer y escribir al mismo tiempo.
Este tipo de memoria es la que se supone monta One.

http://www.tachyonsemi.com/memory/TSC_Leo_II.htm

En cada ciclo de reloj puede realizar los ciclos de diferentes dispositivos, lo que duplica el ancho de banda.
Encontrado en Dota 2 Workshop supuesto software para source 2:

(Only used when hosting xbox games). Send clients updates at the same time. This saves CPU because the server will encode and calc deltas on less frames


"Esto ahorra CPU ya que el servidor puede decodificar y calcular deltas en menos frames"

¿Qué son los deltas?

http://gamingbolt.com/valve-games-coming-to-xbox-one-may-use-dedicated-servers
Rescato este articulo del hilo de Xbox One, me ha parecido interesante.

We are building our new game strongly with Azure in mind for physic calculations (currently for vegetation, grass, water being manipulated by wind and objects, which would not be easy [impossible] to do with local power only). We are so happy with it that we are currently thinking about going all-in and make the game kind of addicted to Azure.


You can not boost your games resolution with Azure. And no. You can not create better lighting effects with Azure. But, if you focus on it, you can still boost the overall graphical look of your game by a mile. We are currently creating a game. But in fact, we are kind of creating two-in-one. One with Azure available, and one for offline only. Everything you code, you need to code for two scenarios. This is a ton of work. if online = dynamic grass; if offline=static grass.


Imagen

http://gearnuke.com/unannounced-xbox-on ... imulation/
Eso está muy bien pero a ver si se van a olvidar con tanta nube que la arquitectura de XO está pensada para la computación local igualmente. O qué pasa que tanto eSRAM como los command processor a la basura?. Repito que para mí que usaran la eSRAM únicamente como framebuffer sería muy decepcionante.
Nuhar escribió:...


Buenas gente. Esta información deberíais cogerla con pinzas. La info ha salido de un usuario junior de NeoGaf cuya cuenta está sin verificar. Los administradores ya le han pedido que les facilite por mensaje privado la información necesaria para dar credibilidad a lo que dice, y aún está en el aire la cosa...veremos. Personalmente el gif que muestra como prueba me parece un render. Si en un estudio se hace una prueba tecnológica sobre algún aspecto (q según el no tendrá un uso real, solo es una prueba) digamos q no se afina tanto en la representación/renderizacion, y eso más q una prueba para desechar parece algo final. A parte...ese movimiento de cámara, mucha molestia para la hierba pero la física de la esfera es muy cantosa...no se no se..me suena más a un render hecho con 3dsmax...

Un saludo.
Polyteres escribió:
Nuhar escribió:...


Buenas gente. Esta información deberíais cogerla con pinzas. La info ha salido de un usuario junior de NeoGaf cuya cuenta está sin verificar. Los administradores ya le han pedido que les facilite por mensaje privado la información necesaria para dar credibilidad a lo que dice, y aún está en el aire la cosa...veremos. Personalmente el gif que muestra como prueba me parece un render. Si en un estudio se hace una prueba tecnológica sobre algún aspecto (q según el no tendrá un uso real, solo es una prueba) digamos q no se afina tanto en la representación/renderizacion, y eso más q una prueba para desechar parece algo final. A parte...ese movimiento de cámara, mucha molestia para la hierba pero la física de la esfera es muy cantosa...no se no se..me suena más a un render hecho con 3dsmax...

Un saludo.


Yo creo que el render lo puso a modo de ejemplo, porque canta a 3dmax o algo del estilo que tira para atras. Se tarda como 5 minutos en hacerlo.

A mi lo que me interesa es lo que dice.
Nuhar escribió:
Polyteres escribió:
Nuhar escribió:...


Buenas gente. Esta información deberíais cogerla con pinzas. La info ha salido de un usuario junior de NeoGaf cuya cuenta está sin verificar. Los administradores ya le han pedido que les facilite por mensaje privado la información necesaria para dar credibilidad a lo que dice, y aún está en el aire la cosa...veremos. Personalmente el gif que muestra como prueba me parece un render. Si en un estudio se hace una prueba tecnológica sobre algún aspecto (q según el no tendrá un uso real, solo es una prueba) digamos q no se afina tanto en la representación/renderizacion, y eso más q una prueba para desechar parece algo final. A parte...ese movimiento de cámara, mucha molestia para la hierba pero la física de la esfera es muy cantosa...no se no se..me suena más a un render hecho con 3dsmax...

Un saludo.


Yo creo que el render lo puso a modo de ejemplo, porque canta a 3dmax o algo del estilo que tira para atras. Se tarda como 5 minutos en hacerlo.

A mi lo que me interesa es lo que dice.


Buenas gente. Ese gif es lo q ha aportado como prueba del desarrollo, no como ejemplo, sino como prueba de una demo técnica que está actualmente corriendo en XboxOne...o demuestra q es quien dice ser y q es cierto lo q dice o lo van a banear.

Un saludo.
Ademas de lo que dice Poly sobre la credibilidad de la informacion, en caso de que sea cierto...

Nuhar escribió:A mi lo que me interesa es lo que dice.


You can not boost your games resolution with Azure. And no. You can not create better lighting effects with Azure. But, if you focus on it, you can still boost the overall graphical look of your game by a mile. We are currently creating a game. But in fact, we are kind of creating two-in-one. One with Azure available, and one for offline only. Everything you code, you need to code for two scenarios. This is a ton of work. if online = dynamic grass; if offline=static grass.


Lo de la negrita se puede traducir como nula aplicacion en multis. Lo que les faltaba, tener que programar dos veces el juego para la misma consola.
Es que dice muchas cosas, y no son que digamos buenas para Xbox one, me refiero a comparandolo a las especulaciones.

Viendo lo del cloudgine me creo perfectamente lo que dice, sea o no sea desarrollador, no creo que ande muy desencaminado.
Zokormazo escribió:Ademas de lo que dice Poly sobre la credibilidad de la informacion, en caso de que sea cierto...

Nuhar escribió:A mi lo que me interesa es lo que dice.


You can not boost your games resolution with Azure. And no. You can not create better lighting effects with Azure. But, if you focus on it, you can still boost the overall graphical look of your game by a mile. We are currently creating a game. But in fact, we are kind of creating two-in-one. One with Azure available, and one for offline only. Everything you code, you need to code for two scenarios. This is a ton of work. if online = dynamic grass; if offline=static grass.


Lo de la negrita se puede traducir como nula aplicacion en multis. Lo que les faltaba, tener que programar dos veces el juego para la misma consola.


Pues todo depende de las herramientas que tengan.

Si actualmente se las están haciendo ellos mismos (que es lo que parece) será costoso, pero si MS se dedica a facilitarlas con los SDK el curro duro ya estará hecho.

Actualmente no creo que las estén facilitando, cuando hace dos días tenían unas herramientas de desarrollo muy decepcionantes. Ahora mismo estarán mejorando todo lo que pueden esas herramientas y mientras que el cloudengine no esté terminado, no va a estar implementado en los SDk. Lo que no quita que las desarrolladoras tengan acceso a la nube y si quieren y pueden, pues usarla.

Cuando el cloudengine esté implementado en los SDK vamos a ver una explosión en el uso de la nube por un montón de desarrolladoras.
Zokormazo escribió:Ademas de lo que dice Poly sobre la credibilidad de la informacion, en caso de que sea cierto...

Nuhar escribió:A mi lo que me interesa es lo que dice.


You can not boost your games resolution with Azure. And no. You can not create better lighting effects with Azure. But, if you focus on it, you can still boost the overall graphical look of your game by a mile. We are currently creating a game. But in fact, we are kind of creating two-in-one. One with Azure available, and one for offline only. Everything you code, you need to code for two scenarios. This is a ton of work. if online = dynamic grass; if offline=static grass.


Lo de la negrita se puede traducir como nula aplicacion en multis. Lo que les faltaba, tener que programar dos veces el juego para la misma consola.


Hombre eso no tendría porque ser así y si no mira los juegos de PC. Dependiendo de lo que tengas así lo ves senillamente se activan o desactivan opciones y teniendo es cuenta que con Directx 12 y windows 9 las aplicaciones y juegos van a necesitar poquito porteo no se me hace tan dificil. No me parece que sea hacer el juego dos veces y si no mira el tressfx de amd o physc de Nvidia, acaso hay que hacer el juego dos veces?
Que tengan dos juegos de assets diferentes bueno, pero que tengan que hacer el juego dos veces no lo veo.
Ya pueden poner todas las herramientas con todas las facilidades que quieran, que como suponga un trabajo extra minimamente considerable para el desarrollador/distribuidor el porting a la consola que menos esta vendiendo ya veras todo lo que entra en los juegos...

Haran un fast-port modo offline de la base que tengan de ps4/pc y tirando millas.

Ya es costoso que aparte de los 4 AAAs anuales que den dinero el resto de desarrollos no den numeros rojos como para que el desarrollar para una unica consola suponga el doble de trabajo.

@papatuelo: yo me baso en lo que dice el tio ese. Es el quien esta diciendo que supone muchisimo trabajo. Eso siempre y cuando sea cierto lo que dice, que esta por ver.
Ahora que hay más movimiento por aquí, ¿nadie sabe de que hablaban los de valve cuando decían que se podía ahorrar CPU al calcula las deltas en el servidor?
Ni idea de que son las Deltas, si tras tanto tiempo no has encontrado tu la info ... será algo raro de cojones jajaja.

Por otro lado esta claro que si no les dan buenas Apis a los desarrolladores, la nube y todo lo que conlleva se quedará en los exclusivos.

Alguien sabe porque no se usan los servidores dedicados? He leido algo sobre el netcode y cosas así, pero no me queda muy claro porque si supuestamente Microsoft los deja gratis las compañias no los usen.
8GB de NAND=PIM (Procesing-In-Memory)
http://ieee-hpec.org/2013/index_htm_fil ... 873673.pdf

Delta: diferencia entre un estado inicial y un estado final.
Zokormazo escribió:Ya pueden poner todas las herramientas con todas las facilidades que quieran, que como suponga un trabajo extra minimamente considerable para el desarrollador/distribuidor el porting a la consola que menos esta vendiendo ya veras todo lo que entra en los juegos...

Haran un fast-port modo offline de la base que tengan de ps4/pc y tirando millas.

Ya es costoso que aparte de los 4 AAAs anuales que den dinero el resto de desarrollos no den numeros rojos como para que el desarrollar para una unica consola suponga el doble de trabajo.

@papatuelo: yo me baso en lo que dice el tio ese. Es el quien esta diciendo que supone muchisimo trabajo. Eso siempre y cuando sea cierto lo que dice, que esta por ver.


Si implementan buenas herramientas, no supone el doble de trabajo. Como bien ha dicho papatuelo, mira los juegos con physics de Nvidia. Cuando el cloudgine esté integrado en los SDK las desarrolladoras tendrán a huevo usar la nube, y va a estar curioso ver como reacciona el mercado la verdad.
warinroom está baneado por "troll"
Horizonte de sucesos escribió:
Zokormazo escribió:Ya pueden poner todas las herramientas con todas las facilidades que quieran, que como suponga un trabajo extra minimamente considerable para el desarrollador/distribuidor el porting a la consola que menos esta vendiendo ya veras todo lo que entra en los juegos...

Haran un fast-port modo offline de la base que tengan de ps4/pc y tirando millas.

Ya es costoso que aparte de los 4 AAAs anuales que den dinero el resto de desarrollos no den numeros rojos como para que el desarrollar para una unica consola suponga el doble de trabajo.

@papatuelo: yo me baso en lo que dice el tio ese. Es el quien esta diciendo que supone muchisimo trabajo. Eso siempre y cuando sea cierto lo que dice, que esta por ver.


Si implementan buenas herramientas, no supone el doble de trabajo. Como bien ha dicho papatuelo, mira los juegos con physics de Nvidia. Cuando el cloudgine esté integrado en los SDK las desarrolladoras tendrán a huevo usar la nube, y va a estar curioso ver como reacciona el mercado la verdad.



Si las promesas del cloudgine,que los nuevos kits..que si el direct 12 bla bla se llevan oyendo ya mucho tiempo,cuando tenian que estar desde que salio la consola al mercado

Y mientras tanto la PS4 esta a punto de duplicar las ventas de la One,como han dicho mas arriba,los programadores tiran para donde hay mas mercado y parque de consolas

No creo que muchas compañias se pongan a investigar y explotar esas supuestas bondades de la One,cuando hay mas gente que ha pillado la otra

Microsoft deberia centrarse menos en promesas de futuro de la nube y demas chorradas y empezar a hacer cosas como packs mejores o rebajas de precio para que la gente pille la One y no se quede tan atras

Por que al final esto pasa factura
Nuhar escribió:Ni idea de que son las Deltas, si tras tanto tiempo no has encontrado tu la info ... será algo raro de cojones jajaja.

Por otro lado esta claro que si no les dan buenas Apis a los desarrolladores, la nube y todo lo que conlleva se quedará en los exclusivos.

Alguien sabe porque no se usan los servidores dedicados? He leido algo sobre el netcode y cosas así, pero no me queda muy claro porque si supuestamente Microsoft los deja gratis las compañias no los usen.


Pues seguramente por el hecho de dar ventaja a una plataforma. Si lo usaran sony protestaria y retiraria apoyos a dicha desarrolladora por ejemplo y dudo que ninguna desarrolladora quiera llevarse mal con ninguna de las dos.

Una pena pero casi seguro es algo asi
Grinch escribió:
Nuhar escribió:Ni idea de que son las Deltas, si tras tanto tiempo no has encontrado tu la info ... será algo raro de cojones jajaja.

Por otro lado esta claro que si no les dan buenas Apis a los desarrolladores, la nube y todo lo que conlleva se quedará en los exclusivos.

Alguien sabe porque no se usan los servidores dedicados? He leido algo sobre el netcode y cosas así, pero no me queda muy claro porque si supuestamente Microsoft los deja gratis las compañias no los usen.


Pues seguramente por el hecho de dar ventaja a una plataforma. Si lo usaran sony protestaria y retiraria apoyos a dicha desarrolladora por ejemplo y dudo que ninguna desarrolladora quiera llevarse mal con ninguna de las dos.

Una pena pero casi seguro es algo asi


Que va, si fuera por eso habrian discutido tambien por resoluciones y fps y chorradas varias.

Lo que he leido es porque es incomodo para las desarrolladores porque no deben tener control sobre algunos aspectos del juego y deben adaptar el netcode para usar los servidores de Azure, vamos, que mas trabajo.

Los desarrolladores quieren el mejor juego posible al menor precio, si Sony o Microsoft se enfada y no quieren sacar el juego, es un juego menos que tiene en su catalogo y dile a EA, Ubisoft o Activision que no quieres sus juegos, a ver que pasa con tus ventas.

Ahi tienes a Nintendo llorando por esto mismo.
Quantum break es el mejor ejemplo del camino q ha tomado Microsoft con su consola.

http://www.pixelux.com/Remedy-QuantumBr ... ID=9242259
Szasz escribió:Quantum break es el mejor ejemplo del camino q ha tomado Microsoft con su consola.

http://www.pixelux.com/Remedy-QuantumBr ... ID=9242259

Lo sabía, si es que se notaba que ahí ya había computación al uso. Esto sí es next-gen, porque es algo que en la anterior simplemente NO se podía hacer. Pero hacer los mismos juegos a 1080p y con mejores texturas pues no dejan de ser las mismas cosas.

A este tipo de cosas me refería a que no usaran la eSRAM como simple framebuffer y que le sacar partido de verdad.
Yo ahi lo que leo es que usan una nueva técnica, básicamente es un nuevo plug in para Maya.

De lo que pone en el texto no saco en claro que es gracias a algo que tenga la Xbox One, quizas es que no sepa leer entre lineas...
Esque es eso lo que es. Un plugin maya para crear la animacion de destrucion + un exporter + code para ejecutar lo exportado sobre la GPU + documentacion.
Si lo pone.

The DMM Playback system allows 3-dimensional animations produced with the DMM plugin to be played back in-game with real-time performance. DMM Playback makes use of GPU-acceleration to minimize CPU overhead.


Por si alguien no lo entiende, el Playback system es el que se ejecuta en la consola.

Explica bien cómo funciona, que es usando computación. Y no son los 1os ya recuerdo el plugin ese de post-procesado que también le saca partido a la eSRAM, aunque aún no existe juego que lo use.
Microsoft se esta viendo q busca "otro tipo de juegos" en los q no solo hay mejores gráficos.

Y esta invirtiendo en tecnologías.

About Pixelux
--------------------
Pixelux Entertainment was founded in January of 2004 with a mission of automating art asset production through physical simulation. Digital Molecular Matter (DMM) technology has been designed to take full advantage of next-generation architectures, utilizing GPUs and multiprocessor cores to achieve an unprecedented degree of realism. Pixelux is a member of the Xbox middleware program. For more information, please visit http://www.pixelux.com
QB es un ejemplo de aprovechamiento de un hardware de supercomputacion, con efectos de posprocesado y sistemas de partículas que requieren calculo de tipo general y de GPU muy eficiente y balanceado.

Un hardware tipo actual, sufriría mucho para procesarlo y tendría problemas graves de framerate, debido que la CPU sufriría para procesar los efectos y lastraría mucho el rendimiento de la GPU.

Dicho de otro modo, no veo posible que una ps4 pudiera mover este juego, al igual que no podría una apu de pc portátil "estándar", por poner un ejemplo "the order" esta teniendo que sacrificar mucho (bandas negras, fov reducido, 30 fps, domwgrade grafico, escenarios en zonas reducidas) y es por que querer mover ese juego sobre un hardware obsoleto, y eso que gráficamente esta un paso por debajo de QB.

Las cosas poco a poco van saliendo a la luz y las mentiras tienen las patitas muy cortas señores.
@salocin21: de donde sale la info de que la ps4 no puede con el playback de DMM? Porque en la pagina de pixelux no dice nada de ello. De hecho, estan vendiendo la tecnologia de playback con un "Use DMM Playback to make your next-gen game awesome" generico, sin plataformas de por medio.

EDIT:

@darksch: y de dode tenemos seguridad de que esten usando la ESRAM?

EDIT2:

@Salocin21: De la pagina de pixellux:

DMM Engine Requirements
DMM Engine runs on PS3 and PS4, Xbox360 and XboxOne as well as PC. iOS, Linux and Mac versions are also available. The Authoring pipeline for DMM is available as a Plugin for Maya.

The DMM Engine distribution includes the DMM toolchain for building DMM objects from art meshes, a sample engine integration with different pre-built DMM scenes, documentation and libraries.


Esta clarisimo que la tecnologia solo funciona en xbox one por su grandioso hardware y el resto de arquitecturas no son capaces de usar el playback.
Estoy con Zokormazo, estais sacando las cosas de contexto.

Es un plugin de Maya.
Es un plugin de maya para crear escenas de destrucciones, anteriormente usada en renderizado en farms, desarrollado junto a LucasArts.

Ahora han añadido un sistema de playback en tiempo real sobre gpus, que funciona en infinidad de arquitecturas. Exportan esa escena pregenerada con maya a un formato comprimido y lo ejecutan sobre una GPU con la API esa que usa QB.

Y esa info viene de la pagina oficial de pixellux. El resto de paranoias, explicadme de donde vienen o como se justifican xD
Buenas gente. DDM no es revolucionario, ni nuevo, ni imposible de implementar en otro hardware :-? ... DDM es un middleware que se lleva usando desde hace bastante tiempo y que es compatible con plataformas de antigua generación e incluso con smarthphones. Es un pluging dnd puedes asignar ciertas propiedades a un material y offline te calcula como ese material se fracturaría. Esa información se comprime y se exporta en un formato propietario y posteriormente el engine del juego usa dicha información.

http://en.wikipedia.org/wiki/Digital_Molecular_Matter

Lo habéis visto ya en acción por ejemplo en Star Wars Force Unleashed corriendo en una Ps3:

https://www.youtube.com/watch?v=gAQ_j23PtWc

Por otra parte lo de Quantum Break, tiene pinta de ser una mezcla de este DDM, geometry shader para estirar y deformar ciertas caras y sobre todo efectos de deformación de imagen a cascoporro.

Para terminar hacer trabajo de propósito general en una GPU es lo q desde hace tiempo se está haciendo y por dnd van a ir los tiros en el futuro cada vez más. La mayoria de las personalizaciones de las máquinas de esta nueva generación van encaminadas a obtener el mayor provecho de esto, por ejemplo los ACEs o el espacio de memoria unificado... Uno de los mayores ejemplos de esto es un juego de los q no se consideran top, Resogun.

Un saludo.
No digo que otro hardware no lo pueda mover si no que es ideal para una maquina como x1.. Por que? Por que x1 es una gran maquina de cálculo general y este juego lo necesita de una manera muy especial (ddm, efectos de partículas, postprocesados) y una maquina de bus único sobre ddr5 es posiblemente la peor de la configuración para este tipo de requisitos, por la latencia que generarian los cálculos de la CPU, que en ps4 no es precisamente una maravilla, y volcar los "pequeños" paquetes de datos que generan los efectos de partículas sobre una memoria de alta latencia no ayuda..haría falta mucha optimización y sobre todo encriptar todo lo que fuera posible, para que la CPU no lastre el rendimiento.
Pero haber, tu comentario viene a raiz de la DDM. Y que dicen los de pixellux? Que su playback no tiene apenas cpu overhead. Entonces en que le afecta la ddr5 o lo que sea si es una API gpu dependiente sin apenas overhead en la cpu?

El resto no me meto, pero me parece muy aventurada tu afirmacion ademas de que carece de bases en las que asentarse.

BTW: para que quieres encriptar nada para que la cpu no lastre el rendimiento? o.O
Nadie ha dicho q estas herramientas no las pueda usar "la competencia".

Pero Microsoft es la q parece más interesada. Y en este caso, el primero en usarla. Al menos el motor de físicas de Quantum Break. Y aquí señores, no hay discusión posible.

Pixelux Entertainment announced today that Remedy Entertainment is the first to use the new Digital Molecular Matter (DMM) Playback System for high quality in-game destruction in their upcoming Xbox One Title, "Quantum Break".
Szasz escribió:Nadie ha dicho q estas herramientas no las pueda usar "la competencia".


salocin21 escribió:Dicho de otro modo, no veo posible que una ps4 pudiera mover este juego, al igual que no podría una apu de pc portátil "estándar"


@salocin21, no debes de ser nadie :P

Y no sabemos si la idea de usar el nuevo plugin de DDM es de Microsoft o de Remedy, de hecho tu quote atribuye a Remedy el tema y tu haces el bypass a Microsoft xD
Que se pueda usar está claro, el rendimiento que se le pueda sacar ahí está la clave.

Respecto a por qué funciona sobre eSRAM, más claro:
Imagen
La arquitectura XO está hecha para en temas de computación operar sobre eSRAM.

Esa demo de Star Wars es realmente pobre, si sólo se reduce a romper una tabla. Queremos más ejemplos de rendimiento sobre otras plataformas, para poder comparar. QB ya ha demostrado de que es capaz aplicando las deformaciones a TODO el escenario, puedes usar los poderes en cualquier parte y se aplica.

Así que no lo veo sacado de contexto. Si la demostración de la anterior gen es romper una triste tablita...pues el salto next-gen es abrumador y obvio, ¿no os parece?.
Pero no estas confirmando el uso de la ESRAM por ninguna parte.

Se que lo deseas, pero no hay info por ningun lado que demuestre que el plugin DDM de pixellux este usando la eSRAM de manera mas eficiente.
Pero ya estamos hipotetizando si es mejor o peor que...

Y si en este hilo se quiere tener cierta credibilidad, dentro de que ya de por si es todo hipotesis, hay que ser un poco tajante en estos aspectos.

Hasta que no llegue el directx12 a la consola no vamos a poder saber nada de nada, hay una version adaptada del mismo y que exprime bastante la consola, se nota porque sino la diferencia con otros hardwares similares sería bastante mayor.

Pero hasta que no veamos un juego hecho con directx12 para la versión completa del directx12 no sabremos cuanto beneficiara.
Es que el plugin no tiene porque usarla específicamente, es el software del sistema el que puede cachear de forma automática según le haga falta. La idea de los SDK es simplificar el trabajo y viendo lo que ya se hace tiene pinta cada vez más que el programador se limita a crear buffers de un tipo u otro y el sistema es quien los distribuye. Esos ports en 20 minutos si hubiera que estar como antes pues no sé no los veo.

Pero ya estamos hipotetizando si es mejor o peor que...

No hipotetizo, comparo con lo que ya hay al respecto, incluyendo plataformas poderosas como pueda ser el PC, y en ningún juego he visto aún algo similar, y quien tenga algo para comparar pues a ser posible que sea sobre un hardware más o menos equivalente (no con 4 tarjetas en SLI ni cosas así).

Y la anterior gen ha tenido tiempo ya más que de sobra para demostrar al respecto, y no lo ha hecho, por lo tanto ahí sí que podemos concluir que la anterior gen no puede hacer algo similar. Esto tampoco se hipotetiza.
salocin21 escribió:No digo que otro hardware no lo pueda mover si no que es ideal para una maquina como x1.. Por que? Por que x1 es una gran maquina de cálculo general y este juego lo necesita de una manera muy especial (ddm, efectos de partículas, postprocesados) y una maquina de bus único sobre ddr5 es posiblemente la peor de la configuración para este tipo de requisitos, por la latencia que generarian los cálculos de la CPU, que en ps4 no es precisamente una maravilla, y volcar los "pequeños" paquetes de datos que generan los efectos de partículas sobre una memoria de alta latencia no ayuda..haría falta mucha optimización y sobre todo encriptar todo lo que fuera posible, para que la CPU no lastre el rendimiento.


Buenas gente. Este no es el lugar más adecuado para hacer comparaciones de hardware entre Ps4 y XboxOne, no obstante, estás equivocado.

Un saludo.
Zokormazo escribió:
Szasz escribió:Nadie ha dicho q estas herramientas no las pueda usar "la competencia".


salocin21 escribió:Dicho de otro modo, no veo posible que una ps4 pudiera mover este juego, al igual que no podría una apu de pc portátil "estándar"


@salocin21, no debes de ser nadie :P

Y no sabemos si la idea de usar el nuevo plugin de DDM es de Microsoft o de Remedy, de hecho tu quote atribuye a Remedy el tema y tu haces el bypass a Microsoft


Si lo dices por ser de microsoft o Sony, pues no, no soy de nadie de echo me compre ps4 antes que xbox one.

Lo que me jode son las mentiras.. El lavado generalizado de cerebro que ha realizado Sony diciendo que ps4 es más potente cuando nada esta mas lejos de la realidad.

Para que entiendas lo que argumentaba antes.. Has visto las demos tipo " asteroides" para probar la potencia de un sistema? Son muy útiles por que miden la eficiencia entre GPU y CPU.. En un pc tienes memorias de diferentes velocidades y para la CPU poder volcar en ddr3 es una gran ayuda para paquetes de datos pequeños pero muy abundantes.

Pero en una ps4 calcular eso pequeños paquetes de datos y volcarlos sobre una drr5 conllevara una alta latencia y otro efecto negativo que es ocupar el bus único del sistema, lastrando el volcado de datos "grandes" desde la GPU.
Salocin se va a comer un baneooooooooooo [fiu] [fiu] [fiu] [fiu] jajajaja

Pero a la demo a la que te refieres hace la comparativa de Directx11 frente a Directx12 en PC. Por eso he matizado antes que la xbox one tiene una versión adaptada del directx12, porque igual de todos esos beneficios solo recibimos la mitad (es un dicho, no se cuanto porcentaje afectará a Xbox)

Esta claro que si Xbox One es full compatible con directx12 se va a notar, poco o mucho, pero se va a notar algo. Cuando sepamos mas, podremos hablar de Tiled resources, procesos de cpu/gpu o de la nube.
@salocin21: Lo de que no eres nadie era una coña por el comentario de Szasz xDD

Y creo que todos conocemos los pros y contras del GDDR5, pero no se que pinta eso cuando estamos hablando del plugin DDM de pixellux que precisamente es gpu dependant con poco overhead de cpu.
Nuhar escribió:Salocin se va a comer un baneooooooooooo [fiu] [fiu] [fiu] [fiu] jajajaja

Pero a la demo a la que te refieres hace la comparativa de Directx11 frente a Directx12 en PC. Por eso he matizado antes que la xbox one tiene una versión adaptada del directx12, porque igual de todos esos beneficios solo recibimos la mitad (es un dicho, no se cuanto porcentaje afectará a Xbox)

Esta claro que si Xbox One es full compatible con directx12 se va a notar, poco o mucho, pero se va a notar algo. Cuando sepamos mas, podremos hablar de Tiled resources, procesos de cpu/gpu o de la nube.



Con la demo asteroides no me refería precisamente a esa, pero si es buen ejemplo..

Haber es que hay cosas que son innegables, para cálculos de propósito general al final tiras de CPU, y a una CPU no hay mejor manera de "putearla" que montarle una memoria secuencial y de alta latencia, pero es que ps4 es una tarjeta grafica algo modificada que inicialmente estaba pensada para apoyarse en ddr3.

Saque el tema de pc/ps4 para explicar la diferencia que representa x1, que lejos de apoyarse en una arquitectura "actual" a cambiado a una arquitectura ideal para ello.
salocin21 escribió:....
Lo que me jode son las mentiras.. El lavado generalizado de cerebro que ha realizado Sony...


Buenas chavales.
Lo que a mi me jode es la desinformación y el afirmar cosas queriendo sentar cátedra sin conocer el alcance que tendrán ambas máquinas en un futuro...

Primero te has hecho eco de unas afirmaciones de no se que insider con perlas como:

"Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra."
"Ps4 no tendrá capacidad técnica para raytracing y hablan de una posible ps5 en 2016."

Luego te has aventurado a soltar algunas de tu propia cosecha:

"Y el raytracing en una maquina de 1.6 teraflod (1.8 - 0.2 para audio) solo se podrá implementar de manera muy básica."
"Y la ps4 no va a soportar texturas parciales por la arquitectura de su placa y su ridicula latencia debida a la ddr5."

Bien, como has sido tú quien ha empezado a nombrar a la competencia, te voy a dejar algunas citas con alguna información (aunque no enlaces ya que considero que no es el hilo para ello). Si quieres ampliar ésta, te invito a que busques un poco y no sigamos desviando el hilo.

En cuanto a los tiled, ha sido confirmado que la competencia puede utilizar PRT. PRT no solo para megatexturing, sino también para iluminación voxel y algunas cosillas más que no recuerdo. Hay información ampliada en este mismo hilo.

“Sony has announced that Partially Resident Textures (PRT) is available for PS4. This is aimed at doing the same thing as the Tiled Resources feature of DX 11.1+.

Veremos que se puede hacer con tiled en xbox one con la llegada de Dx12.

En cuanto a las técnicas de ray tracing, pego unas declaraciones recientes del presidente de Q-Games:

The Tomorrow Children uses a new lighting technology named Cascaded Voxel Cone Ray Tracing, which allows to simulate lighting in real time, and uses actual real reflections, and not screen space reflections like most games.

Como he comentado antes, te invito a que busques un poquito si tienes interés en ampliar esta información. Por mi parte dejo el hilo para que sigáis aportando cosillas, aunque como ya ha comentado un compañero esto no es un hilo para comparar máquinas.

pd- No te tomes este post como un ataque, no van por ahí los tiros.

Un saludo,
Notis escribió:
salocin21 escribió:....
Lo que me jode son las mentiras.. El lavado generalizado de cerebro que ha realizado Sony...


Buenas chavales.
Lo que a mi me jode es la desinformación y el afirmar cosas queriendo sentar cátedra sin conocer el alcance que tendrán ambas máquinas en un futuro...

Primero te has hecho eco de unas afirmaciones de no se que insider con perlas como:

"Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra."
"Ps4 no tendrá capacidad técnica para raytracing y hablan de una posible ps5 en 2016."

Luego te has aventurado a soltar algunas de tu propia cosecha:

"Y el raytracing en una maquina de 1.6 teraflod (1.8 - 0.2 para audio) solo se podrá implementar de manera muy básica."
"Y la ps4 no va a soportar texturas parciales por la arquitectura de su placa y su ridicula latencia debida a la ddr5."

Bien, como has sido tú quien ha empezado a nombrar a la competencia, te voy a dejar algunas citas con alguna información (aunque no enlaces ya que considero que no es el hilo para ello). Si quieres ampliar ésta, te invito a que busques un poco y no sigamos desviando el hilo.

En cuanto a los tiled, ha sido confirmado que la competencia puede utilizar PRT. PRT no solo para megatexturing, sino también para iluminación voxel y algunas cosillas más que no recuerdo. Hay información ampliada en este mismo hilo.

“Sony has announced that Partially Resident Textures (PRT) is available for PS4. This is aimed at doing the same thing as the Tiled Resources feature of DX 11.1+.

Veremos que se puede hacer con tiled en xbox one con la llegada de Dx12.

En cuanto a las técnicas de ray tracing, pego unas declaraciones recientes del presidente de Q-Games:

The Tomorrow Children uses a new lighting technology named Cascaded Voxel Cone Ray Tracing, which allows to simulate lighting in real time, and uses actual real reflections, and not screen space reflections like most games.

Como he comentado antes, te invito a que busques un poquito si tienes interés en ampliar esta información. Por mi parte dejo el hilo para que sigáis aportando cosillas, aunque como ya ha comentado un compañero esto no es un hilo para comparar máquinas.

pd- No te tomes este post como un ataque, no van por ahí los tiros.

Un saludo,



Pues me reafirmo en todo lo dicho.. Si Sony esta desarrollando alguna técnica para compensar las tield resources no lo se, pero ps4 nunca usara esa técnica primero por que no tiene capacidad técnica y segundo por que es un desarrollo exclusivo de microsoft..

En tu misma declaración pones que alcanzara un nivel similar a DirectX 11.1 + ( ps4 no soporta 11.2 por hardware) que es decir prácticamente nulo..

Lo del raytracing son declaraciones de los propios desarrolladores de la tecnica en ue4, ps4 tendrá raytracing (no es nada nuevo lleva inventado desde los 80) pero si definiéramos 3 niveles de calidad, ps4 no pasara del primero, que es lo que muestra Ryse, es decir para escenarios y objetos estáticos y sin reflejos "dinámicos"

Y no quiero offtipar mas esto así que si quieres abre un hilo y hablamos sobre hardware de ps4.
salocin21 escribió:Y no quiero offtipar mas esto así que si quieres abre un hilo y hablamos sobre hardware de ps4.


PS4 tiene un subforo propio, no entiendo que tiene que hablarse aquí, cuando ya el titulo del hilo es tremendamente explicito y no deja lugar a ningún tipo de duda sobre el tema a tratar.

Y no, no va haber ningún offtopic mas porque a partir de aquí se borraran y se pondrá el baneo pertinente.
se pueda utilizar o no en otras consolas pues, da igual, lo importante es que lo estan utilizando tambien para la One y con buenos resultados, me ha gustado bastante el demo del QB que presentaron, una razon mas por la cual me comprare la One, y como dijeron por ahi, ahora si se esta demostrando una superioridad con respecto a la generacion pasada....aver que viene despues
Notis escribió:
salocin21 escribió:....
Lo que me jode son las mentiras.. El lavado generalizado de cerebro que ha realizado Sony...


Buenas chavales.
Lo que a mi me jode es la desinformación y el afirmar cosas queriendo sentar cátedra sin conocer el alcance que tendrán ambas máquinas en un futuro...

Primero te has hecho eco de unas afirmaciones de no se que insider con perlas como:

"Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra."
"Ps4 no tendrá capacidad técnica para raytracing y hablan de una posible ps5 en 2016."

Luego te has aventurado a soltar algunas de tu propia cosecha:

"Y el raytracing en una maquina de 1.6 teraflod (1.8 - 0.2 para audio) solo se podrá implementar de manera muy básica."
"Y la ps4 no va a soportar texturas parciales por la arquitectura de su placa y su ridicula latencia debida a la ddr5."

Bien, como has sido tú quien ha empezado a nombrar a la competencia, te voy a dejar algunas citas con alguna información (aunque no enlaces ya que considero que no es el hilo para ello). Si quieres ampliar ésta, te invito a que busques un poco y no sigamos desviando el hilo.

En cuanto a los tiled, ha sido confirmado que la competencia puede utilizar PRT. PRT no solo para megatexturing, sino también para iluminación voxel y algunas cosillas más que no recuerdo. Hay información ampliada en este mismo hilo.

“Sony has announced that Partially Resident Textures (PRT) is available for PS4. This is aimed at doing the same thing as the Tiled Resources feature of DX 11.1+.

Veremos que se puede hacer con tiled en xbox one con la llegada de Dx12.

En cuanto a las técnicas de ray tracing, pego unas declaraciones recientes del presidente de Q-Games:

The Tomorrow Children uses a new lighting technology named Cascaded Voxel Cone Ray Tracing, which allows to simulate lighting in real time, and uses actual real reflections, and not screen space reflections like most games.

Como he comentado antes, te invito a que busques un poquito si tienes interés en ampliar esta información. Por mi parte dejo el hilo para que sigáis aportando cosillas, aunque como ya ha comentado un compañero esto no es un hilo para comparar máquinas.

pd- No te tomes este post como un ataque, no van por ahí los tiros.

Un saludo,



No se permite hablar de PS4 en el hilo, pero si al menos lo vas a hacer, usa tu cuenta buena anda.
17587 respuestas