Hablemos del interior de Xbox One

Yo veo mas logico que funcione como dice carlos, de hecho es como creo que funciona ahora mismo.
No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/
georgegero85 escribió:No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/


Gran aporte :)

Y es una mejora solo por software, imaginaros en una grafica desarrollada para DX12
georgegero85 escribió:No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/

Ahora dirán que eso es un artículo del mundo today y demás...
georgegero85 escribió:No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/



Creo que si, la puse hace tiempo y al parecer no tuvo mucha repercusión en el hilo :-?
Yo, como bien decis, si esa mejora es por software. Imaginaros lo que hara por Hardware con xbox one. Yo soy de los que pienso que la arquitectura de One con este Directx12 hara dar un salto e incluso superar a su competidora. Si hasta reduce el consumo. Imaginaros que el procesador de one se calentara menos.con direct x 11 creo que solo utiliza un nucleo para las drawcalls, con direct x 12 utilizara los 8 ....yo personalmente veo un autentico pelotazo con Direct x 12
Veo q sobre todo los accesos paralelos a distintos tipos de bus, RAM, esram, nube, coproscesadores, FPGAs, y con tan baja latencia, sumando a la potencia de dx12 a nivel de apoyo de cores para GPU, harán que podamos ver juegos nunca vistos técnicamente, en físicas, iluminación e IA.
Es una arquitectura q no tiene competidora, no se trata de potencia bruta, se trata de paralelismos de computacion a baja latencia , nube, y acceso a bajo nivel del hardware, donde no hay comparación ni en PCS de gama alta, creo q nos adentramos en un futuro que los juegos no se basaran en calidad de texturas o resolución, sino en realismo, y esto no se consigue con potencia bruta,por muchos GHz que le pongas a una maquina.
Lo que es RAM usable son 8GB, la RAM principal. La NVRAM se usa para optimizar el SO, y no puede usarse como RAM para almacenar datos para procesarlos (además sería condenadamente lento usarse como RAM), la eSRAM es una caché que nunca tendrá datos exclusivos, si no que los pillará de la RAM de 8GB.
xhectorx escribió:
georgegero85 escribió:No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/



Creo que si, la puse hace tiempo y al parecer no tuvo mucha repercusión en el hilo :-?


Eso es porque te hacemos vacio :P

¿Pero el directx no solo es una mierda de api para comunicarse con el PC? ma como!!! [+risas] [+risas] [+risas]
En el mejor de los casos la memoria flash de la One irá a 0.39GB/s (400MB/s), mientras que la RAM va a 68GB/s. Todo lo que se ejecuta en un ordenador, consola, etc... se hace desde/hacía la RAM. Un proceso ejecuta millones de lecturas/escrituras a un ritmo que cualquier otro tipo de memoria no soporta. Olvidad eso de ejecutar el SO desde cualquier otro sitio que no sea la RAM.
SangReal está baneado del subforo por "Flamer anti Xbox One"
salocin21 escribió:
Miquelangel19 escribió:Cuanta RAM tiene la xbox one???


16,032 8 gigas ddr3 + 8 gigas NVFLASH + 32 megas esram

No te pongo en la firma porque todos sabemos que eres un clon.
Buen aporte Geim, no tenía ni idea de semejante diferencia de velocidad
(mensaje borrado)
SangReal escribió:
salocin21 escribió:
Miquelangel19 escribió:Cuanta RAM tiene la xbox one???


16,032 8 gigas ddr3 + 8 gigas NVFLASH + 32 megas esram

No te pongo en la firma porque todos sabemos que eres un clon.
Buen aporte Geim, no tenía ni idea de semejante diferencia de velocidad

¿Te refieres a la diferencia entre el HDD y la NVFlash?, si es bestial. Será por eso que con la actualización de octubre el sistema vuela como dicen los que ya están probando la beta.
Buenas gente. Las 10 últimas páginas de este hilo no tienen desperdicio XD XD XD .



Qué tiene que ver un paper sobre el estudio teórico de una solución que se podría adoptar en HPC acerca de la reducción del consumo en sistemas y softwares que requieren ENORMES movimientos de datos con XboxOne?.

Un saludo.


Buenas gente. Si ese enlace es en respuesta a mi mensaje anterior, no tiene ningún sentido. El enlace que has puesto tu es una patente sobre el diseño y uso de una 10T-SRAM en una memoria embebida de una GPU y no tiene nada que ver con lo que se trata en el enlace que has puesto anteriormente.

Un saludo.
Hola, una pregunta
¿Las graficas futuras vendran con memoria ddr3 y ESRAM?

Gracias.
En PC, y siendo tarjetas discretas, no creo.

Eso viene bien para arquitecturas unificadas e integradas como la consola o las GPU integradas en las CPU, o en las APU.

Espero que te sirva.
ziu escribió:Hola, una pregunta
¿Las graficas futuras vendran con memoria ddr3 y ESRAM?

Gracias.


No, continuarán con GDDR5 un año más al menos. Luego serán stacked DRAM.

Las APUs serán DDR3\DDR4 más memoria embebida en el SoC(probablemente stacked DRAM de pequeña densidad). Serán la primeras APUs Dx12 por hardware y no únicamente por la memoria elegida (pirate islands).

Xbox One es la primera APU Dx12 por hardware del mercado.
georgegero85 escribió:Yo, como bien decis, si esa mejora es por software. Imaginaros lo que hara por Hardware con xbox one. Yo soy de los que pienso que la arquitectura de One con este Directx12 hara dar un salto e incluso superar a su competidora. Si hasta reduce el consumo. Imaginaros que el procesador de one se calentara menos.con direct x 11 creo que solo utiliza un nucleo para las drawcalls, con direct x 12 utilizara los 8 ....yo personalmente veo un autentico pelotazo con Direct x 12


Phil Spencer no comparte tu opinión.
Phil spencer lo que dijo mas que nada quiso decir, es que DX12 no haria magia. De sus palabras se puede desprender muchas teorias:

-Que no va a suponer un boost (esto es lo que piensan los haters que quiso decir Phill Spencer)
-Que no va a suponer un boost relevante (esto vendría a decir que solo mejoraria un poco (5%o 10%)
-Que no va a suponer un boost magico (que como maximo supondría un ventaja de maximo un 20% o un 50% y nunca multiplicxar x2 o x4 los teraflops de la consola xD, como hay algun flipao)

Yo abogo por la tercera opcion.
No merece la pena ni discutir, para lo poco que queda... todo se andará.

Y pase lo que pase habrá zascas, como ha habido de todo en este hilo...

Si hay que apostar, yo apuesto entre el 10% y 20% de eficiencia extra :D
Si hay que apostar, yo apuesto por un boost notorio en graficos en los juegos que lo usen correctamente (por esto de quitar el cuello de botella) pero en el resto de temas nanai.
Si hay que apostar, yo apuesto al verde, siempre al verde
Zokormazo escribió:Si hay que apostar, yo apuesto por un boost notorio en graficos en los juegos que lo usen correctamente (por esto de quitar el cuello de botella) pero en el resto de temas nanai.


????

Que respuesta tan enrevesada jajajaja.
Esque es un poco enrevesado el tema XDDD

Se supone que lo que mas mejora DX12 es que liberaria el cuello de botella con el core0. Entonces, que es lo que se beneficia mas de esto?

Si un juego no llega a colapsar el core0 porque su carga grafica no es para tanto, esto no le ayudara en apenas nada.
Si un juego colapsa la cpu por otro tipo de computos y son los cores jaguar los que crean el cuello, tampoco le ayudara en nada.
Si un juego tiene suficiente carga como para colapsar el core0 con el render, es ese juego el que mas provecho le sacara a la nueva situacion.

Obviamente no sera la unica mejora y supongo que veremos mas cosillas, pero donde mas boost veo es esa situacion xD
Estamos hablando de juegos que expriman los recursos, sino esta claro que aunque le metas diez titanes no va a mejorar jajaja.

Lo que estamos mas o menos debatiendo es cuanta será la mejora del Directx12 frente al Directx11 en el mejor de los casos.
Pero una gráfica no es más que unos cores especializados no?
Sea más menos eficiente la CPU con determinadas tareas si la tienes libre le puedes hacer offload de procesos o no?
¿PS3 no pretendía mover todo a basé de CPU? Creo que esa era la idea del cell y que en el último momento ñadieeron una GPU que no daba mucho de sí.

Además creo que AMD con sus APU´s ya no habla de CPU y GPU si no de nucleos de procesamiento en general.

Imagen
Por ahí va la cosa. Yo apuesto por:

- Lo que es dibujado en sí con el SDK actual ya está cerca del límite, basta ver el aumento de juegos a 1080p.
- Liberación de recursos, este es el punto importante:
1) CPU: mejora del framerate en general y disponibilidad de recursos para plantearse nuevos conceptos ahora limitados (más elementos, enemigos, etc.). Me vienen mucho a la mente juegos como DR3 o Sunset Overdrive, este tipo de juegos se puede beneficiar bastante. No es nada raro que los juegos AAA peten el core, recordemos que los de Metro dijeron que ellos se encontraron con el caso de tener el núcleo ocupado a tope.
2) Computación: veremos más y mejores efectos, aunque posiblemente no en los multis. Para ir abriendo boca, Quantum Break me parece un buen ejemplo, siendo una 1st party seguro que, al igual que ocurrió con Turn10, tienen ya acceso a características que los 3rd no.

No es algo que se pueda ponderar de forma numérica y sencilla, son nuevos recursos que tienes ahí, y ya como los use cada uno.
@papatuelo: sobre el offload de cpu a gpu, depende mucho del code a ejecutar. Si son calculos brutos, lo suyo es tirarlos a gpu si no hay problemas de sobrecarga de gpu. La gpu es muy eficiente en esas tareas. Si es algo con muchas condiciones, casi mejor tenerlo en espera en la cpu.
Supongo que dx12 también incluirá unos cuantos efectos gráficos nuevos como viene siendo habitual en las actualizaciones de directx. No soy experto en esta materia pero vamos es un poco de cajón, ¿no? xD. Lo que no se es si han enseñado algo respecto a este tema o lo dejan para el lanzamiento.
SangReal está baneado del subforo por "Flamer anti Xbox One"
eloskuro escribió:Phil spencer lo que dijo mas que nada quiso decir, es que DX12 no haria magia. De sus palabras se puede desprender muchas teorias:

-Que no va a suponer un boost (esto es lo que piensan los haters que quiso decir Phill Spencer)
-Que no va a suponer un boost relevante (esto vendría a decir que solo mejoraria un poco (5%o 10%)
-Que no va a suponer un boost magico (que como maximo supondría un ventaja de maximo un 20% o un 50% y nunca multiplicxar x2 o x4 los teraflops de la consola xD, como hay algun flipao)


Yo abogo por la tercera opcion.

Me quedo con la opción 2. Si fuera un 20-50% Phil estaría echando espuma por la boca.
eloskuro escribió:
georgegero85 escribió:No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/


Gran aporte :)

Y es una mejora solo por software, imaginaros en una grafica desarrollada para DX12


O no te has enterado, o no te has querido enterar, pero en el primer parrafo dejan claro que la prueba la han hecho sobre tarjetas compatibles dx12 [sonrisa]

Un saludo!

Editado: El que no se ha enterado he sido yo :D
Dx12 es compatible con todas las GPUs Dx11.

Full Dx12, es decir, tier3, es Xbox One la única a día de hoy.

Esto no es opinión. Esta confirmado.
Lo q no se sabe aún, es el rendimiento. Q es el bucle infinito en el q entramos a discutir cada pocos días....
argam escribió:
eloskuro escribió:
georgegero85 escribió:No se si ha puesto ya. Pero he encontrado esta noticia que habla de las primeras pruebas que ha echo Intel con direct x 12. Y la verdad, como en One solo haga la mitad de eso... ya seria la repanocha. Leedlo por que no tiene desperdicio


http://hardzone.es/2014/08/17/intel-mue ... s-hd-4400/


Gran aporte :)

Y es una mejora solo por software, imaginaros en una grafica desarrollada para DX12


O no te has enterado, o no te has querido enterar, pero en el primer parrafo dejan claro que la prueba la han hecho sobre tarjetas compatibles dx12 [sonrisa]

Un saludo!


[facepalm]
una diferencia abismal y más teniendo en cuenta que la mejora ha sido lograda únicamente a través de software.


Por lo que dice en el articulo y por este parrafo en concreto, creo que se refiere a mejoras via software. Hay otras mejoras que requieren un hardware especifico para aprovecharlas.

De todos modos mucho me parece esa mejora.
Szasz escribió:Dx12 es compatible con todas las GPUs Dx11.

Full Dx12, es decir, tier3, es Xbox One la única a día de hoy.

Esto no es opinión. Esta confirmado.
Lo q no se sabe aún, es el rendimiento. Q es el bucle infinito en el q entramos a discutir cada pocos días....


Cierto. Me confundi yo, y pido disculpas a eloskuro. Mi confusion vino del siguiente parrafo:

Hay que tener en cuenta que lo que ha manejado Intel para realizar esta demostración no son sino prácticamente prototipos, incluyendo los drivers


Donde di por hecho que los prototipos se referian a prototipos de hw, mientras que parece ser que solo eran prototipos de drivers y de api, ya que no se ha publicado todavia.

Disculpas de nuevo.

Un saludo!
darksch escribió:Por ahí va la cosa. Yo apuesto por:

- Lo que es dibujado en sí con el SDK actual ya está cerca del límite, basta ver el aumento de juegos a 1080p.
- Liberación de recursos, este es el punto importante:
1) CPU: mejora del framerate en general y disponibilidad de recursos para plantearse nuevos conceptos ahora limitados (más elementos, enemigos, etc.). Me vienen mucho a la mente juegos como DR3 o Sunset Overdrive, este tipo de juegos se puede beneficiar bastante. No es nada raro que los juegos AAA peten el core, recordemos que los de Metro dijeron que ellos se encontraron con el caso de tener el núcleo ocupado a tope.
2) Computación: veremos más y mejores efectos, aunque posiblemente no en los multis. Para ir abriendo boca, Quantum Break me parece un buen ejemplo, siendo una 1st party seguro que, al igual que ocurrió con Turn10, tienen ya acceso a características que los 3rd no.

No es algo que se pueda ponderar de forma numérica y sencilla, son nuevos recursos que tienes ahí, y ya como los use cada uno.


Remedy no es una 1st party, como tampoco lo es Insomniac, Capcom, o lo ha sido Crytek con Ryse. Y esta última tuvo que currarse mucho el desarrollo del juego porque no tenía mejores herramientas que las demas thirds.
De todos modos, el test del directx12 con las tarjetas Intel es muy interesante para todos.

Hay que tener en cuenta que siendo via software, otras Apis pueden hacerlo igualmente, aunque una lo haga algo mejor o peor. Al final es ese plus que podremos mejorar gratuitamente.
Zokormazo escribió:@papatuelo: sobre el offload de cpu a gpu, depende mucho del code a ejecutar. Si son calculos brutos, lo suyo es tirarlos a gpu si no hay problemas de sobrecarga de gpu. La gpu es muy eficiente en esas tareas. Si es algo con muchas condiciones, casi mejor tenerlo en espera en la cpu.


En portada:

"Creo que Mantle no solo ofrece mejores capacidades en la vertiente gráfica, claramente desatando más potencia hasta ahora inaccesible, sino que quizá de forma más sorprendente, el beneficio de Mantle y las nuevas APIs de bajo nivel será disponer de más potencia de la CPU para los juegos".

"Entonces, en vez de crear cuellos de botella artificiales e intentar descargar la CPU lo más posible, resulta que si el software está bien diseñado, también utilizas un montón la CPU. Así que también esperamos que se incrementen los usos interesantes de eso durante los próximos años".
papatuelo escribió:
Zokormazo escribió:@papatuelo: sobre el offload de cpu a gpu, depende mucho del code a ejecutar. Si son calculos brutos, lo suyo es tirarlos a gpu si no hay problemas de sobrecarga de gpu. La gpu es muy eficiente en esas tareas. Si es algo con muchas condiciones, casi mejor tenerlo en espera en la cpu.


En portada:

"Creo que Mantle no solo ofrece mejores capacidades en la vertiente gráfica, claramente desatando más potencia hasta ahora inaccesible, sino que quizá de forma más sorprendente, el beneficio de Mantle y las nuevas APIs de bajo nivel será disponer de más potencia de la CPU para los juegos".

"Entonces, en vez de crear cuellos de botella artificiales e intentar descargar la CPU lo más posible, resulta que si el software está bien diseñado, también utilizas un montón la CPU. Así que también esperamos que se incrementen los usos interesantes de eso durante los próximos años".


Pero eso que tiene que ver con el offload?

Mas bien tiene que ver con el overhead del driver en la cpu no? Si reducimos el overhead en cpu de los drivers al usar la gpu, obviamente nos queda mas cpu para tareas de cpu no?

El otro dia te entendi la cosa por otro lado distinto. De hacer offload de procesos de cpu a gpu para liberar la cpu. Es viable y recomendable dependiendo de la naturaleza del proceso. Si el proceso es calculo puro y duro de muchos datos, la gpu lo procesara mucho mejor. Si es un proceso de mucha logica (muchos saltos por condiciones logicas) mantener el proceso en cpu sin offload es mucho mejor.

No termino de entender que tiene que ver una cosa con la otra :S
Eso es así, pero si las cosas empiezan a hacerse como deben, no habrá que estar tan pendiente de esos procesos de cálculo y ver en que sitio lo meto. Hay que empezar ya a abandonar ese sistema anticuado de hacer las cosas, con motores de cálculo por software "hechos a mano" para gestionarlos con la CPU. Lo suyo es que usen DirectCompute que en DX12 tendrás ahí disponibles unidades de computación (no núcleos de CPU ni CUs de GPU) y el sistema ya se encargará de gestionarlo.

Es decir, si 1) liberamos a la CPU de tanto overhead, por lo que la API ya no tendrá peso sobre la CPU, y 2) se ofrece una forma homogénea de computación, te aseguras que el sistema estará bien aprovechado, que tanto la GPU como la CPU estarán siendo usadas de manera óptima, que de eso se trata.

Con lo cual tendrás aún más CPU para "tareas de CPU", como la IA. Es decir mejores IAs, de más entidades, más objetos en pantalla ya que tenemos más CPU para los algoritmos de ordenación y podemos hacer más API-calls, etc.

Por resumir, los juegos podrían ser más ricos y moverse con mayor fluidez.
Si te he entendido bien, el punto 2) por API suena a sueño humedo.

Ya quisieramos que las APIs por su propia cuenta optimizaran y sacaran el maximo jugo a los recursos.

Por ahora, y me da que durante un buen tiempo no tendremos tal transparencia.

Mejores herramientas para poder manejar todo esto y optimizar el codigo mejor y de manera mas eficiente? Si
Optimizacion magica por parte de las APIs sin interaccion por parte del coder? Ya quisieran los script kiddies XD

EDIT:

Y esto significa que seguira en manos del coder la decision de donde meter cada cosa, analizar su computacion y decidir si le conviene mas tirar de DirectCompute, meterlo en un thread de cpu o si lo manda a una FPGA o lo que sea.
Si lo mejor es que ya es así, en las API de computación no existen núcleos ni CUs, existen unidades de computación (dependiendo de tu hardware). La idea de M$ es que sobre XOne se programe con un modelo de computación desde el principio, así que su API original, DX12, está pensada para eso. Otra cosa es que los desarrolladores estén anclados en el pasado y demasiado acostumbrados a "lo de siempre" y no quieran cambiar.
DX12 te hace balanceo de todos los procesos, los envia a donde mas optimo sea etc el solo?

Pero no era que DX12 era practicamente solo D3D?

En que quedamos?

Y aun y todo, la futura API de xbox one, decide por si solo donde enviar cada proceso de computacion dependiendo de su naturaleza? Vamos, tu programas igual ya sean calls de rendering, IAs o posicionamientos de audio o lo que sea y la API decide si los manda a la cpu, a la gpu o al coprocesador de audio? Lo siento pero no me lo creo.
DX12 te hace balanceo de todos los procesos, los envia a donde mas optimo sea etc el solo?

Pero no era que DX12 era practicamente solo D3D?

Me parece que te estás liando tela...
darksch escribió:
DX12 te hace balanceo de todos los procesos, los envia a donde mas optimo sea etc el solo?

Pero no era que DX12 era practicamente solo D3D?

Me parece que te estás liando tela...


Con que?

Lo de D3D era por comentarios propios en este hilo.

EDIT:

Añado los quotes:

darksch escribió:DX es casi D3D de cara al uso de CPU


darksch escribió:La idea de M$ es que sobre XOne se programe con un modelo de computación desde el principio, así que su API original, DX12, está pensada para eso.


Entonces, o DX es practicamente D3D de cara a la cpu, o es una API capaz de leer la semantica del codigo y decidir a donde envia cada proceso de computacion transparentemente?

Porque si es lo segundo, DX como API tambien hara uso intensivo de cpu en procesos como las IAs que suelen tener muchos condicionantes logicos no?

EDIT 2:

Sigo pensando lo mismo: Una api/compilador al que le des distintios procesos de computacion y este decida cual es el hardware mas apropiado para ejecutarlo, lo prepare para enviarlo, optimice y a la vez balancee la carga entre todo el sistema de manera transparente al desarrollador es ciencia ficcion.
Por eso mismo, D3D ahora mismo es TODO lo que consume la CPU, porque le resto no lo hace (es despreciable) y lo único que podría consumir CPU que es DirectCompute, en la API DX11 no es así, es una API adaptada de PC (de ahí su CPU overhead) y en PC lo tira todo a la GPU. En DX12, API original de XOne que haría uso de todos sus componentes y buses apropiadamente, la computación es un sistema homogéneo.

Con lo cual, en DX12:
- Liberamos a la CPU de draw-calls costosas.
- Podemos usar esa CPU liberada (y mal usada en DX11) en tareas de computación.

Todo pasa por un compilador, por lo tanto, y si éste está bien hecho, puede comprobar perfectamente si el código a compilar es paralelizable, en cuyo caso lo más normal es usar la GPU, o si no lo es, y usar la CPU.

Es que no paras de mezclar DX11 y DX12, y precisamente se está hablando de las diferencias, recursos adicionales disponibles y nuevas posibilidades.
17587 respuestas