Hablemos del interior de Xbox One

alvarions escribió:La pasta es por cojer mantle y meterle 4 cambios y nombrarlo DX12.

Trabajo codo con codo de Amd y MS.

Ni más ni menos.


Imagen
Hola nakuada,

si que había una transparencia que decía que los beneficios dentro de la gama Intel serían especialmente importante con procesadores Haswell con grafica Iris. Se supone que esto es un Haswell con Iris:

Imagen

Puedo equivocarme.

Mira la slide que la había puesto poder gorrino antes:
Imagen
ESPMuD-XBONE escribió:Yo creo que no es aplicable, porque son plataformas distintas.

El software de Xbox que la haga compatible con DirectX 12 será distinta a la de PC, o la de una Tablet, porque son arquitecturas distintas. DirectX lo que propone es un conjunto de herramientas que permitan portar tus juegos al mayor número posible de plataformas y esto suele ir en contra del rendimiento.

Microsoft hara un "driver", (por decirlo de algún modo), que haga a la One compatible con DirectX, pero ese "driver" no tendrá mucho que ver con el de PC, (que puede llevar o no una gráfica Intel).

El beneficio real de DirectX ha sido siempre el poner librerías comunes a disposición de los programadores. Antes se limitaba a todo el hardware que pudiese llevar un PC. Ahora abarca varios sistemas. Lo bueno es que facilitará que los juegos de PC salgan también en One, lo malo es que seguramente seguirá siendo más difícil programarla que la competencia y menos potente. Si se centran en que sea más fácil programarla, seguramente será igual o más fácil de programar que la competencia, por similitud al juego en PC, pero eso hará que se pueda perder creatividad a la hora de emplear los recursos para optimizar el juego. Normalmente todo el mundo optará por lo rápido y sencillo.

Todo depende de como hagan las cosas luego los programadores o mejor dicho, las empresas, lo mismo deciden sacar los juegos capados al sistema menos potente y pasarlos al más potente con pocas mejoras, o a saber...


A ver... Han mejorado la API de microsoft, y nos dicen que la implentarán las funciones nuevas a la Xbox one. Además de que consume de general un 50% menos en llamadas a la CPU(aunque en la xboc podria ser menos, pero tambien podria ser ese 50%).

¿Que te cuesta decir que la nueva APi, cuando se implemente especificamente para la xbox one (vamos, que solo para su hardware) esto supondrá una mejora ya sea de 5, 10, 15 o 20% del rendimiento grafico?

No, para ti no es nada, solo que es facil de portar :P

En la GDC les preguntaron si esto hacia boost tambien a la xbox one, y dijeron que si. Te voy a creer a ti y no les voy a creer a ellos?
nakuada escribió:
PoderGorrino escribió:
nakuada escribió:
en que momento hablan de lo que comentas o donde lo has leido, por que después revisar la transcripción a prensa 2 veces, por si se me habia pasado en la audicion o en laprimera lectura y mirado toda la documentación, no existe constancia de eso que comentan en la conferencia de dx12, donde se hablo bastante poco de la One en ese sentido, si ha sido en una web copiame el link.


Pues revisalo.

Los responsables de NVidia aseguraron y así lo expusieron en su powerpoint correspondiente que Dx12 funcionaría especialmente bien con sus nuevas tarjetas que incorporan "Iris Graphics". Y una de las características de estas graficas es la de incluir EdRAM:

Making the Intel Iris Pro Graphics particularly interesting is that they have 128MB of eDRAM stacked onto the die itself. Intel Haswell graphics are already great performers for integrated graphics like the HD Graphics 4600, but Iris Pro should have a particularly good performance boost out of this embedded memory to serve as a graphics cache.


Vamos, que funciona mejor con arquitecturas similares a la de Xbox One, confirmado por la propia NVidia


repito otro vez de donde sacais estas informaciones, por que o bien estais errados o mexzclais conceptos o el sitio se las esta inventando o tergiversando, intel no comento nada de lo que dices en la conferencia de dx12 y en su presentacion de powerpoint tampoco aparece, en el material de que dispongo, ni en la trascripcion a la prensa.

De hecho el texto que citas sale de la web de Phoronix de su test de los drivers graficos de intel en linux de la nueva gama iris con fecha de septiembre de 2013.

http://www.phoronix.com/scan.php?page=a ... 5200&num=1


1.El texto que pongo solamente es para ilustrar la arquitectura de Iris, con EdRAM.

2.Te he puesto al captura de la diapositiva en la que Intel comenta que Dx12 funcionará especialmente bien con Iris. Esa captura está sacada directamente de la conferencia.
Yo espero que haya una mejora de rendimiento. Pero no por DirectX: porque lo natural es eso. La consola la han sacado con el culo y está todo sin optimizar. La "compatibilidad" con otros sistemas es un aliciente para las empresas que hacen juegos, pero puede llevar a que ningún sistema esté optimizado realmente. Otra cosa es que lo fuesen a estar o lo fuesen a empezar a desarrollar no siendo compatible.

Alvarions, no voy a poner en duda tu trabajo, pero Mantle no puede ser DirectX, porque DirectX es más amplio que el soporte a gráficas de AMD. Mantle puede ser una parte de DirectX que maneje las tarjetas de AMD dentro de DirectX, pero no DirectX, porque ya me contarás qué tiene que ver Mantle con una tablet, o una tarjeta de sonido.
ESPMuD-XBONE escribió:Yo espero que haya una mejora de rendimiento. Pero no por DirectX: porque lo natural es eso. La consola la han sacado con el culo y está todo sin optimizar. La "compatibilidad" con otros sistemas es un aliciente para las empresas que hacen juegos, pero puede llevar a que ningún sistema esté optimizado realmente. Otra cosa es que lo fuesen a estar o lo fuesen a empezar a desarrollar no siendo compatible.

Alvarions, no voy a poner en duda tu trabajo, pero Mantle no puede ser DirectX, porque DirectX es más amplio que el soporte a gráficas de AMD. Mantle puede ser una parte de DirectX que maneje las tarjetas de AMD dentro de DirectX, pero no DirectX, porque ya me contarás qué tiene que ver Mantle con una tablet, o una tarjeta de sonido.


estais diciendo lo mismo sobre mantle...
esa captura es de la presentación de los procesadores haswell de intel, no formo parte de la presentacion de dx12 y tiene ya su tiempo, aunque supongo que solo la colocaria de forma ilustrativa la web que la colgara.

Imagen

aquí tenéis todas las capturas de la presentación salen todas menos tres, con respecto a las que tengo en powerpoint, que son simplemente hojas de títulos sin información, estas las subió al publico el reportero de Pc Perpective en vivo durante la presentacion.

http://www.pcper.com/news/Graphics-Card ... Blog-Recap

PoderGorrino escribió:
1.El texto que pongo solamente es para ilustrar la arquitectura de Iris, con EdRAM.

2.Te he puesto al captura de la diapositiva en la que Intel comenta que Dx12 funcionará especialmente bien con Iris. Esa captura está sacada directamente de la conferencia.


vale eso si, de hecho en la conferencia se refirieron a un aumento de rendimiento gracias a el paso de trabajar a bajo nivel con la nueva api en su apartado gráfico, y la bajada en la demanda recursos en su cpu, con respecto a su funcionamiento actual, pero otra cosa es meter a la xbox one por ello, cuando precisamente, la api de xbox one ya funciona a bajo nivel desde su inicio.

Esto no quiere decir que la api no se pueda mejorar o que el dx12 que reciba xbox one no pueda tener ciertas mejoras, por supuesto (aunque tampoco esperéis la panacea, ser cautos), las grandes mejoras vendrán en lo referente a sus herramientas sobre la api y en estas mientras mas feedback de los desarrolladores tengan mucho mejor, en ese sentido.
En la misma conferencia. Estaban hablando de un 20% de performance boost en PC y se dijo esto:

Josh Walrath: DX12 will enhance any modern graphics chip. Driver support from IHVs will be key to enable those features. This is a massive change in how DX addresses the GPU, rather than (so far) the GPU adding features.
10:32
Comment From Guest
so this means xbox one will get a performance boost?
10:32
Scott Michaud: Yes


Con eto no quiero decir que haya un 20%, simplemente que seguro que habrá algo de ganancia por el DX12
ojo esas respuestas en el chat son entre los reporteros y el editor de pcperpective y los invitados a dicho chat, no son respuestas dadas en la conferencia (que en alguna web de noticias han dado por hecho que lo eran xD), de hecho si continuas veras que otro de los reporteros le ratifica esa afirmación como una suposición sobre una frase que si que se dijo justo antes de subir a la palestra los de intel.

10:33 Scott Michaud: According to "Benefits of Direct3D 12 will extend to Xbox One", at least.
Aunque me gustaría equivocarme,opino lo mismo que nakuada,la novedad de lo optimización de directx 12 es que funciona a más bajo nivel,pero es que las consolas ya funcionan así de siempre

Así y todo por supuesto que algo mejorara
Haber, lo que yo entiendo es que es cierto que one ya trabaja a bajo nivel, pero los juegos de pc se valen de procesador potente, y digamos 4 nucleos cuando mucho, por lo que siempre tiene que haber un trabajo extra para usar todos los nucleos de one. Con esta directx ya no habra este trabajo extra, la api lo hara eficientemente, distribuira todo el trabajo en todos los nucleos disponibles, ya sea pc, one, mobil o una licuadora, con lo que ese trqbajo extra para pprtar el juego a mas nucleos ya no hay qje hacerlo especial para one. O ya no sera tan dificil, solo xuestion de afinar.

Y a amd le importa un pepina si direct 12 es mantle renomnrqdo o no. Lo que le importa es que al poderse usar mas nucleos, va a poder vender mas procesadores. Los intel siempre le ganan porque son mas poderosos por nucleo, pero amd puede hacer procesadores como el 8350 con 8 nucleos, mas baratos. Ademas de que podra vender las tarjetas gama media, y gama baja que es donde esta la pasta, son las que xompran el comun de los mortales como yo, y la gama alta son de nicho, son solo para mostrar musculo, solo las compran los gordopeceros de picha corta que quieren presumir algo grande. Obviamente microsoft con directx 12 se la pone mas facil para convencer a los desarrolladores, que por ejemplo mantle solo.
alvarions escribió:La pasta es por cojer mantle y meterle 4 cambios y nombrarlo DX12.

Trabajo codo con codo de Amd y MS.

Ni más ni menos.


Las mismas compañias excepto microsoft haban de trabajar codo con codo con OPEN GL al menos en otra noticia de EOL que dice que mejorara 15 veces o algo asi juas [carcajad] [carcajad] asi que si micro invierte algunos de sus millones , esperaria algo mejor que apis y el lavado de cara del DirectX.....

Vamos que intel tambien esta involucrado cundo de la pasta ganza hablamos es decir Windows, para microsoft es mas importante windows que xbox.

Besos
Nosomi escribió:
alvarions escribió:La pasta es por cojer mantle y meterle 4 cambios y nombrarlo DX12.

Trabajo codo con codo de Amd y MS.

Ni más ni menos.


Las mismas compañias excepto microsoft haban de trabajar codo con codo con OPEN GL al menos en otra noticia de EOL que dice que mejorara 15 veces o algo asi juas [carcajad] [carcajad] asi que si micro invierte algunos de sus millones , esperaria algo mejor que apis y el lavado de cara del DirectX.....

Vamos que intel tambien esta involucrado cundo de la pasta ganza hablamos es decir Windows, para microsoft es mas importante windows que xbox.

Vamos a ver en que queda esta guerra porque amd esta en guerra xon intel, veremos a quien apoya mas. Y aunque te duela one dio un piñetazo en la mesa xon el full soporte a direct y microsoft dijo aqui estoy, listo para pelear.

Besos


Perdon, pero si por algo le metierom ddr3 a one, para en algun momento fusionarla con windows. One es tan imoortante para microsoft como windows. Lo de la dd3 no fue por lo barata, sino porque es lo mejor para un sistema operativo que quiere evolucionar a futuro.
manolinmx escribió:
Perdon, pero si por algo le metierom ddr3 a one, para en algun momento fusionarla con windows. One es tan imoortante para microsoft como windows. Lo de la dd3 no fue por lo barata, sino porque es lo mejor para un sistema operativo que quiere evolucionar a futuro.



Amén.
chris76 escribió:Aunque me gustaría equivocarme,opino lo mismo que nakuada,la novedad de lo optimización de directx 12 es que funciona a más bajo nivel,pero es que las consolas ya funcionan así de siempre

Así y todo por supuesto que algo mejorara


El vicepresidente tecnológico de Nvidia ha afirmado que habrá muchas novedades al margen de la optimización a más bajo nivel, novedades que no se desvelarán hasta finales de año, y que requerirán de nuevo hardware para poder aprovecharlo.
El link a la entrevista lo puse varias páginas atrás.
No es una opinión, es información contrastada. A partir de aquí, deberíamos indagar teniendo las declaraciones de Nvidia en mente.
A ver, que algunos se han perdido alguna parte de la presentación. No tengo todos los datos y no digo que sea todo al 100% fiable, pero yo estuve siguiendo la presentación en directo en pc perspective y los propios reporteros dijero lo de que DirectX12 trabajaría especialmente bien con la EDRAM y ESRAM, y da igual si es de Intel, AMD o Nvidia, pues es una arquitectura, la marca es el fabricante que la fabrica, pero la arquitectura es practicamente la misma, con lo que en principio esto también afecta a Xbox One.

Lo que está claro es que los SDK se tienen que optimizar mucho aún para sacar todo el rendimiento a la Xbox One, y la propia Microsoft ya ha dicho que en poco tiempo se podrá alcanzar los 1080p en todos los juegos (cosa que a mi la resolución me da igual sinceramente).

Ahora mismo no tengo tiempo para buscar en que parte exactamente los reporteros de pc perspective dicen esto, pero os dejo el blog que escribieron, luego en volver del curro os lo busco si quereis

http://www.pcper.com/news/Graphics-Card ... Blog-Recap

Edito: Una diapositiva e la propia AMD, mirad el último punto:

Imagen
KinderRey escribió:
chris76 escribió:Aunque me gustaría equivocarme,opino lo mismo que nakuada,la novedad de lo optimización de directx 12 es que funciona a más bajo nivel,pero es que las consolas ya funcionan así de siempre

Así y todo por supuesto que algo mejorara


El vicepresidente tecnológico de Nvidia ha afirmado que habrá muchas novedades al margen de la optimización a más bajo nivel, novedades que no se desvelarán hasta finales de año, y que requerirán de nuevo hardware para poder aprovecharlo.
El link a la entrevista lo puse varias páginas atrás.
No es una opinión, es información contrastada. A partir de aquí, deberíamos indagar teniendo las declaraciones de Nvidia en mente.


SEGUN MI OPINION (que si no se me tiran algunos a la yugular) NVIDIA no tiene hardware totalmente compatible, pero AMD desde la serie 7000 y su arquitectura GCN (que es lo que estoy tratando de hacer ver a algunos) ya lo es.
Pavlin escribió:
KinderRey escribió:
chris76 escribió:Aunque me gustaría equivocarme,opino lo mismo que nakuada,la novedad de lo optimización de directx 12 es que funciona a más bajo nivel,pero es que las consolas ya funcionan así de siempre

Así y todo por supuesto que algo mejorara


El vicepresidente tecnológico de Nvidia ha afirmado que habrá muchas novedades al margen de la optimización a más bajo nivel, novedades que no se desvelarán hasta finales de año, y que requerirán de nuevo hardware para poder aprovecharlo.
El link a la entrevista lo puse varias páginas atrás.
No es una opinión, es información contrastada. A partir de aquí, deberíamos indagar teniendo las declaraciones de Nvidia en mente.


SEGUN MI OPINION (que si no se me tiran algunos a la yugular) NVIDIA no tiene hardware totalmente compatible, pero AMD desde la serie 7000 y su arquitectura GCN (que es lo que estoy tratando de hacer ver a algunos) ya lo es.


Y ya te hemos dicho que es erróneo. AMD ha dicho que darán 100% soporte a DX12 en sus GPU, pero no ha especificado cuáles.
Sí ha dicho que todas sus tarjetas con arquitectura GCN soportarán DX12, pero no han especificado hasta qué punto.
Hay que diferenciar entre support y full-support.
@Pavlin

Es que tu no tienes que hacer ver nada a nadie, mientras que no se confirme lo uno o lo otros es absurdo que te hagan ver a ti una cosa o que tu hagas ver la contraria.

Puede llevar razón o no llevarla, lo más que puedes hacer es generar tu hipotesis como una opinión personal y respaldarla con los datos que consideres necesario. Por su parte los que piensen contrario a ti están en la misma posición.

Pero desde luego ahora mismo el que quiera hacer ver que tiene 100% de seguridad en algo que desconoce no lleva ninguna razón, no en cuanto ala cuestión en si misma que a fin de cuentas pudiera acabar confirmandose lo que sostiebe, sino en el grazo de certeza, ya que no tiene motivos contrastados para sostenerlo.
Chicos en una entrevista con un ingeniero de one,confirmo que el uso de ddr3 era unicamnete por avaratar costes,osea el binomio ddr3+esram fue por motivos economicos no por rendimiento

Siento no poder poner la fuente,si alguien se acuerda donde please....
chris76 escribió:Chicos en una entrevista con un ingeniero de one,confirmo que el uso de ddr3 era unicamnete por avaratar costes,osea el binomio ddr3+esram fue por motivos economicos no por rendimiento

Siento no poder poner la fuente,si alguien se acuerda donde please....


Lo que si que he leido yo es que se hizo por requerimientos energéticos

"Yeah, I think that's right. In terms of getting the best possible combination of performance, memory size, power, the GDDR5 takes you into a little bit of an uncomfortable place," says Nick Baker. "Having ESRAM costs very little power and has the opportunity to give you very high bandwidth. You can reduce the bandwidth on external memory - that saves a lot of power consumption and the commodity memory is cheaper as well so you can afford more. That's really a driving force behind that... if you want a high memory capacity, relatively low power and a lot of bandwidth there are not too many ways of solving that."


http://www.eurogamer.net/articles/digitalfoundry-vs-the-xbox-one-architects
Nosomi escribió:
alvarions escribió:La pasta es por cojer mantle y meterle 4 cambios y nombrarlo DX12.

Trabajo codo con codo de Amd y MS.

Ni más ni menos.


Las mismas compañias excepto microsoft haban de trabajar codo con codo con OPEN GL al menos en otra noticia de EOL que dice que mejorara 15 veces o algo asi juas [carcajad] [carcajad] asi que si micro invierte algunos de sus millones , esperaria algo mejor que apis y el lavado de cara del DirectX.....

Vamos que intel tambien esta involucrado cundo de la pasta ganza hablamos es decir Windows, para microsoft es mas importante windows que xbox.

Besos


Si lees bien la noticia de la presentacion dice que en algunas funciones tiene hasta 15 veces más de rendimiento que D3D 11. Habla de funciones, no de rendimiento general. Quien crea que OpenGL supera en rendimiento general a DirectX en x3,x4 o x15 es que no ha jugado mucho y comparado entre los dos. Lo que tiene Xbox One es D3D11(con algunas cosas Dx12) y juegos D3D11 , cuando tenga juegos y la API DirectX12 ya se verá que hay mejora en los juegos. Ya lo hemos visto con Mantle.

Y no, no digo que OpenGl sea peor que DirectX, ni mucho menos, a mi me parece que al final lo que tiene una tiene la otra y siempr etienenden a igualarse. Quizá en los ultimos tiempos DirectX tenia como punto negativo que consumia mas recursos de CPU y OpenGL que no era tan compatible con tarjetas AMD. Ahora esas dos cosas parece que van a cambiar. ¿Y que ocurrirá? Que estaran igualadas o una será un poco más eficiente que la otra, que eso para nosotros es minucia.
papatuelo escribió:
chris76 escribió:Chicos en una entrevista con un ingeniero de one,confirmo que el uso de ddr3 era unicamnete por avaratar costes,osea el binomio ddr3+esram fue por motivos economicos no por rendimiento

Siento no poder poner la fuente,si alguien se acuerda donde please....


Lo que si que he leido yo es que se hizo por requerimientos energéticos

"Yeah, I think that's right. In terms of getting the best possible combination of performance, memory size, power, the GDDR5 takes you into a little bit of an uncomfortable place," says Nick Baker. "Having ESRAM costs very little power and has the opportunity to give you very high bandwidth. You can reduce the bandwidth on external memory - that saves a lot of power consumption and the commodity memory is cheaper as well so you can afford more. That's really a driving force behind that... if you want a high memory capacity, relatively low power and a lot of bandwidth there are not too many ways of solving that."


http://www.eurogamer.net/articles/digitalfoundry-vs-the-xbox-one-architects


Yo lei en su dia lo mismo .

Pero ahora tiene un pòco mas de sentido... d12 funciona mejor con esram y edram. Y dd3 es mas efectivo para evolucionar sistemas operativos.
Coincidencia ?
Lo dudo mucho.
Microsoft ya comento que dx12 solo necesitaria de nuevo hardware, para utilizar 2 caracteristicas, durante la ronda de postconferencia...

Microsoft has mentioned only two DX12 features that will need new hardware: new blend modes and something called conservative rasterization, which can apparently help with object culling and hit detection.

http://techreport.com/news/26210/direct ... t-gen-gpus

Las ultimas actualizaciones de las arquitecturas de nvidia (SMX Gpu's volta) y AMD (RISC MIMD, Gpu's GCN 3.0) daran soporte a estas 2 nuevas caracteristicas, aunque no ofectara a la principal que es el acceso y programacion a bajo nivel, en ese sentido no han dicho nada de la gpu de One (salvo el tweet de phil que da a entender que ya lo soporta, aunque con las patinadas que a metido alguna vez me esperaria que lo ratificaran.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Lo que parece claro, es que a partir de Directx 12, todos los juegos mulit se desarrollaran como version madre para pc-one..... Lo que supone un pepinazo para One, añadido a la mejoras que traiga Directx 12, que en mi opinion seran muy buenas....
Tras las declaraciones de Nvidia, de que Directx 12 traera nuevas caractertisticas solo disponibles en hardware de nueva generacion, y saber que One, sera full support, yo solo puedo concluir una cosa....
EL HARDWARE DE ONE ES DE NUEVA GENERACION....

Y eso se dijo aqui, hace muxo tiempo, antes del anuncio de Direcx 12.....
nakuada escribió:Microsoft ya comento que dx12 solo necesitaria de nuevo hardware, para utilizar 2 caracteristicas, durante la ronda de postconferencia...

Microsoft has mentioned only two DX12 features that will need new hardware: new blend modes and something called conservative rasterization, which can apparently help with object culling and hit detection.

http://techreport.com/news/26210/direct ... t-gen-gpus

Las ultimas actualizaciones de las arquitecturas de nvidia (SMX Gpu's volta) y AMD (RISC MIMD, Gpu's GCN 3.0) daran soporte a estas 2 nuevas caracteristicas, en ese sentido no han dicho de la gpu de One (salvo el tweet de phil que da a entender que ya lo soporta, aunque con las patinadas que a metido alguna vez me esperaria que lo ratificaran.


De acuerdo contigo, pero es de lógica que los juegos escritos 100% para DirectX12 tendrán más rendimiento en hardware DirectX12 que los juegos que estén hechos en Directx11 o sean portados de una a otra..
Y no solo por las nuevas funciones.
Tamasi explained that DirectX 12 will introduce a set of new features in addition to the lower-level abstraction, and those features will require new hardware. In his words, Microsoft "only teased" at some of those additions this week, and a "whole bunch more" are coming.

So far, Microsoft has mentioned only two DX12 features that will need new hardware[...] but as Tamasi hinted, they may just be the tip of the iceberg. We'll probably have to wait for another announcement from Microsoft to find out more.


Es seguro que se conocen dos, pero no es seguro que solo vayan a ser dos.

Por cierto:

Hola me llamo papatuelo y soy adicto a esta mierda [+risas]
b_e_ne escribió:Lo que parece claro, es que a partir de Directx 12, todos los juegos mulit se desarrollaran como version madre para pc-one..... Lo que supone un pepinazo para One, añadido a la mejoras que traiga Directx 12, que en mi opinion seran muy buenas....


Esto es por lo que lucha ahora microsoft, que sus plataformas sean a en las que recaiga el desarrollo inicial al usar una api y herramientas conjuntas para todas sus platformas, lo que lo hace muy atractiva para las desarrolladoras en cuanto a complejidad/costo de los proyectos. :)

@eloscuro, si segun lo mostrado es de preveer que los juegos programados para dx12 correran mejor que usando dx11 principalmente por la posibilidad de entrar a bajo nivel, la cuantia de mejora pues esta por ver cuando salga los primeros en pc, pero si pinta tan bien como los resultados con mantle bienvenido sean.

@papatuelo... Lo de que solo sea la punta del iceberg es pura expeculacion del redactor, microsoft dio esa respuesta precisamente a una pregunta directa de si serian total o parcialmente compatibles las graficas actuales. Por ahora tendremos que creerles y lo de la punta del iceberg que solto tony tamasi de nvidia (no en la conferencia) viene mas bien por las Futuras nuevas interacciones (dx12.1,etc...) como viene siendo habitual xD
b_e_ne escribió:Parece que no lo hemos ententido bien.....
A partir de directx 12, pc y one son lo mismo.... la competencia es otra historia....
han montado una fiesta y alguien no ha sido invitado..... [qmparto] [qmparto] [qmparto]

A la fiesta de la cordura me parece que no te han invitado....que raro...
chris76 escribió:Chicos en una entrevista con un ingeniero de one,confirmo que el uso de ddr3 era unicamnete por avaratar costes,osea el binomio ddr3+esram fue por motivos economicos no por rendimiento

Siento no poder poner la fuente,si alguien se acuerda donde please....


En el Xbox One Architecture Panel que hicieron con Major Nelson y Boyd Multured entre otros, explicó que lo realmente importante en el tema de gráficos es el ancho de banda y colocar la memoria en sitios específicos donde combinando todo ello diera realmente esa diferencia.

No creo que ninguno de los que estamos por estos foros seamos capaces de entender lo que Microsoft ha creado, ahora lo vemos como una consola más, como si fuera un pc de estar por casa, pero es algo más.

Es una obra de ingieneria, que realmente como dijo Boyd el otro día, no sabe ni cómo avanzará en el futuro ya que la crearon pensando en que la consola fuera creciendo con el tiempo.

El tema de un tipo de RAM u otra no está en el coste, si no en lo que necesitaban los ingenieros para lo que habían diseñado.
Hombre en digital foundry dan muchos datos de como funciona, quiza ahora con más perspectiva alguien que entienda pueda encontrarle un sentio.

Hablan que el mayor problema es el la CPU y que la quieren descargar usando coprocesadores y la esram, por otro lado dicen que la esram no son bloques continuos si no muchos bloques pequeños y que pueden leer y escribir al mismo tiempo.

Lo digo de cabeza por lo que podría ser todo erroneo.
Sobre si son dos o más funciones es hacernos pajeos mentales.

Pueden ser funciones nuevas para hardware acttual. No tienen porque crear funciones nuevas que no funcionen sin tarjetas nuevas.

Os emplazo al Microsoft Build Developer Conference, del 2 al 4 de abril. Allí seguro que explican todas las novedades.
http://www.buildwindows.com/
Seguís haciendo de vuestra capa un sallo: la ddr no es mejor para escalar el s.o. ni nada. Es más barata, tiene menor latencia en accesos aleatorios, pero en los juegos se mueven grandes bloques de datos para gráficos y demás por lo que esa menor latencia no cuenta. Sin embargo, tener un mayor ancho de banda en toda la memoria, como el caso de la competencia te quita varias cosas: cuello de botella y trasteos raros para cachear datos. Puede que la arquitectura de One funcione con Dx12 y al final sea como programar un pc o casi igual, pero las limitaciones de hardware seguirán haciendo que sea lo que es ahora, un pc de gama media/baja. (La competencia también lo es, pero con especificaciones hardware superiores).

La cosa está en ver como nos afecta todo esto. Yo creo que mejoraremos, pero no una burrada. El ser muy compatible con pc facilitará el desarrollo, pero puede suponer que no se optimice. Puede que DirectX haga un mejor uso del hardware, cosa que espero, porque creo que ahora casi todos los juegos no lo aprovechan bien. También pensad que la competencia se programa como un pc y que de momento, es más potente y sencilla de programar, además, también debería mejorar.
Sere muy esceptico( por la de despagos que me e llevado en este mundillo mas que nada),pero pa mi que aunque la gpu sea custom,no lleva a nivel harware lo necesaria para que sea totalmente directx12,cuando dice el de microsoft que alguna ya las usa y las otras llegaran ese legaran me huele a software y no por harware ppr que si la gpu realmente fuera directx12 nativa y el driver o api como es el caso,es unica y exclusivamente para ella ya tendria que estar funcionando todo...
ESPMuD-XBONE escribió:Seguís haciendo de vuestra capa un sallo: la ddr no es mejor para escalar el s.o. ni nada. Es más barata, tiene menor latencia en accesos aleatorios, pero en los juegos se,mueven grandes bloques de datos para gráficos y demás por lo que esa menor latencia no cuenta. Sin embargo, tener un mayor ancho de banda en toda la memoria, como el caso de la competencia te quita varias cosas: cuello de botella y trasteos raros para cachear datos. Puede que la arquitectura de One funcione con Dx12 y al final sea como programar un pc o casi igual, pero las limitaciones de hardware seguirán haciendo que sea lo que es ahora, un pc de gama media, baja. (La competencia también lo es, pero con especificaciones hardware superiores).

La cosa está en ver como nos afecta todo esto. Yo creo que mejoraremos, pero no una burrada. El ser muy compatible con pc facilitará el desarrollo, pero puede suponer que no se optimice. Puede que DirectX haga un mejor uso del hardware, cosa que espero, porque creo que ahora casi todos los juegos no lo aprovechan bien. También pensad que la competencia se programa como un pc y que de momento, es más potente y sencilla de programar.


Hay una cosa en la que no estoy del todo de acuerdo.

Esta claro que la DDR3 es más lenta, pero una cosa es eso, y otra que en el caso de xbox one, sea el cuello de botella. Existiendo la ESRAM, la RAM no provoca cuello de botella, pues el ancho de banda con esta memoria extra es igual o superior a PS4. El problema principal de estas consolas es la mierda de graficas que en teoria llevan, pues el procesador, a pesar de ser de baja frequencia, son 8 núcleos, por tanto, existe potencia suficiente que aun no han exprimido. La gran diferencia entre ps4 y xbox one, es que ps4, al ser un ordenador, se llegará muy facilmente al límite teorico, pues es muy facil de aprovechar, en cambio xbox one, lleva multiples coprocesadores que liberan en un alto porcentaje de carga a CPU-GPU, por tanto, y en mi opinión, visto lo visto hasta ahora, xbox one sera superior a nivel de graficos en los juegos, pues ya lo es ahora con Ryse, sin ser exprimida como debería, esperemos a que la conozcan bien.

Salu2
Lo importante es:

¿La consola va mal ahora?

Yo creo que no. Yo he notado el cambio.

¿Tiene buenos juegos?

Sí. Me divierto un montón con One y la otra no la uso.

Ese es mi punto de vista. Que la mejoren lo que puedan y que me sigan dando buenos juegos.

Edito: sí es un cuello de botella. Toda la ddr lo es y la esram comparada a los ocho gigas de ddr no es nada.
Quizás venga microsoft a cazar talentos a este hilo.
Creo que en microsoft saben lo que hacen, mejor que cualquier usuario de este foro.
Si usan ddr3 es por que han querido ddr3, por qué, ya se descubrirá.
Porque si como ha dicho un usuario son 23 dólares de ahorro multiplícalo por los 5 millones de consolas que ya llevan vendidas para saber cuanto han ahorrado en costes.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Aqui hay alguno que entro a hilo de estas formas.....

Sí, los dos hilos más cachondos que hay. Peña llamando injinieros a los que intentan explicar cosas y haciendo ellos esas funciones injinieriles con supuesta información contrastada por los expertos de Telecinco.

Como digo, paso a reirme. No por el hardware, que tengo clarisímo como es, y lo más importante, porqué lo compré.

Lo que me da la risa son los fanatismos y los personajes con afán de protagonismo. Seguid, por favor.

Ahora de repente se ha vuelto un fanatico del foro, no para de escribir, y lo que intenta es llevar a la gente a su terreno (que claramente es decir que esto no es casi na y demas), a base de sus supuestos "tecnicismos irrefutables"....
Lo unico que esta consiguiendo es que un hilo que era cojonudo, le gustaba a todo el mundo y era muy divertido, se esta convirtiendo en una CASTAÑA INFUMABLE....

Enhorabuena, vas consiguiendo tus objetivos...... XD XD XD
b_e_ne escribió:Aqui hay alguno que entro a hilo de estas formas.....

Sí, los dos hilos más cachondos que hay. Peña llamando injinieros a los que intentan explicar cosas y haciendo ellos esas funciones injinieriles con supuesta información contrastada por los expertos de Telecinco.

Como digo, paso a reirme. No por el hardware, que tengo clarisímo como es, y lo más importante, porqué lo compré.

Lo que me da la risa son los fanatismos y los personajes con afán de protagonismo. Seguid, por favor.

Ahora de repente se ha vuelto un fanatico del foro, no para de escribir, y lo que intenta es llevar a la gente a su terreno (que claramente es decir que esto no es casi na y demas), a base de sus supuestos "tecnicismos irrefutables"....
Lo unico que esta consiguiendo es que un hilo que era cojonudo, le gustaba a todo el mundo y era muy divertido, se esta convirtiendo en una CASTAÑA INFUMABLE....

Enhorabuena, vas consiguiendo tus objetivos...... XD XD XD


Tú el primero no? No tengo mas que decir. Que vaya bien con el hilo.
Al final lo que haces es darme la razón y en este hilo sólo se puede entrar a darte la razón, Bene.

Un usuario, creo que Papatuelo, me hizo preguntas concretas a las que he respondido. Viendo que el chaval me pregunta de buena fe, yo contesto de buena fe. No te preocupes, que ya no entro más ni a reirme y ni a aportar como recriminabas tú. Se te ve el plumero: eres tú el que quiere llevar esto a tu terreno.

Tú ganas.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Ya claro, probre papatuelo que te pregunta de buena fe para que tu le saques de sus errores, a el y a todos los demas que es lo que querias desde un principo.....
Yo tengo mis propias opiniones y no necesito que me ayudes a ver la verdad....
Y has desvirtuado totalmente el ambiente que habia en el foro que era de diversion y buen rollo, haciendolo bien aburrido.....
b_e_ne escribió:Ya claro, probre papatuelo que te pregunta de buena fe para que tu le saques de sus errores, a el y a todos los demas que es lo que querias desde un principo.....
Yo tengo mis propias opiniones y no necesito que me ayudes a ver la verdad....
Y has desvirtuado totalmente el ambiente que habia en el foro que era de diversion y buen rollo, haciendolo bien aburrido.....


Lamentable tu actitud. Como a ti no te gusta el rumbo del hilo ahora lo saboteas y vienes a decir este tipo de cosas y a acusar a la gente. Pues quizás a muchos nos gustaba más el hilo y nos parecía más interesante ahora que cuando solamente se decían fantasias y suposiciones. Si a ti te parece aburrido me parece perfecto, pero es tu problema no el de los demás.
ESPMuD-XBONE escribió:Porque si como ha dicho un usuario son 23 dólares de ahorro multiplícalo por los 5 millones de consolas que ya llevan vendidas para saber cuanto han ahorrado en costes.


Hay que ir más allá, ¿No han estimado la relación entre el volumen de posible ventas y ese ahorro? Quiero decir antes de tomar esa decisión. Puede que si y que los modelos que plantearon fueran erroneos.

Quiero decir que lo lógico es ahorrar en componentes cuando estimas que no tendrá un impacto negativo sobre las ventas, de nada me sirve ahorrar si con ello produzco tal descenso de las ventas que el ahorro acaba por salir caro.
b_e_ne escribió:Ya claro, probre papatuelo que te pregunta de buena fe para que tu le saques de sus errores, a el y a todos los demas que es lo que querias desde un principo.....
Yo tengo mis propias opiniones y no necesito que me ayudes a ver la verdad....
Y has desvirtuado totalmente el ambiente que habia en el foro que era de diversion y buen rollo, haciendolo bien aburrido.....



Yo discrepo y , sinceramente, no me aburre en absoluto los temas más técnicos (apesar de no entender una mierda [chulito] ).

Yo animo a los que aportáis opiniones y buenas explicaciones a que sigáis posteando aquí, porque igual hay más gente como yo que disfruta leyéndoos.

Un saludo.
ESPMuD-XBONE escribió:Porque si como ha dicho un usuario son 23 dólares de ahorro multiplícalo por los 5 millones de consolas que ya llevan vendidas para saber cuanto han ahorrado en costes.


Microsoft ahorrando en dinero?

Hablas en serio? xDDD
ESPMuD-XBONE escribió:Seguís haciendo de vuestra capa un sallo: la ddr no es mejor para escalar el s.o. ni nada. Es más barata, tiene menor latencia en accesos aleatorios, pero en los juegos se mueven grandes bloques de datos para gráficos y demás por lo que esa menor latencia no cuenta. Sin embargo, tener un mayor ancho de banda en toda la memoria, como el caso de la competencia te quita varias cosas: cuello de botella y trasteos raros para cachear datos. Puede que la arquitectura de One funcione con Dx12 y al final sea como programar un pc o casi igual, pero las limitaciones de hardware seguirán haciendo que sea lo que es ahora, un pc de gama media/baja. (La competencia también lo es, pero con especificaciones hardware superiores).

La cosa está en ver como nos afecta todo esto. Yo creo que mejoraremos, pero no una burrada. El ser muy compatible con pc facilitará el desarrollo, pero puede suponer que no se optimice. Puede que DirectX haga un mejor uso del hardware, cosa que espero, porque creo que ahora casi todos los juegos no lo aprovechan bien. También pensad que la competencia se programa como un pc y que de momento, es más potente y sencilla de programar, además, también debería mejorar.


Entiende tu. Microsoft no solo quiere una maquina para juegos, por eso tiene sentido la ddr3. Obviamente como lo enfocas, solo para juegos, tiene mas sentido gddr5.

Ya dejen de alucinar sonyers queriendo ver todo negativo para microsoft. One es importante para microsoft porque escogio ddr3, en su estrategia de fusion de su sistema operarivo.
papatuelo escribió:
ESPMuD-XBONE escribió:Porque si como ha dicho un usuario son 23 dólares de ahorro multiplícalo por los 5 millones de consolas que ya llevan vendidas para saber cuanto han ahorrado en costes.


Hay que ir más allá, ¿No han estimado la relación entre el volumen de posible ventas y ese ahorro? Quiero decir antes de tomar esa decisión. Puede que si y que los modelos que plantearon fueran erroneos.

Quiero decir que lo lógico es ahorrar en componentes cuando estimas que no tendrá un impacto negativo sobre las ventas, de nada me sirve ahorrar si con ello produzco tal descenso de las ventas que el ahorro acaba por salir caro.

Asi es,pero claro los imbecxxxx de directivos que ahora casualmente se "estan llendo" tenian pensado otra cosa diferente a nosotros por lo visto,ellos querian mas un centro multimedia con opcion a juegos que una consola de juegos con opcion a multimedia,a partir de hay vienen todas las cagadas..
Veo que las trloladas emitidas por un sector web han dado sus frutos de desinformar a la gente y crear bulos de despropositos inmesos.Hablar de que Microsoft puso ddr3 en la memoria principal por abaratar costes es no tener ni p... Idea.One se hizo con la idea de utilizar ddr4 pero no pudieron implementarla por falta de tiempo para poder salir a la vez que PS4 asi que se opto por meter la ddr3 que mejor relacion diera de latencia/velocidad.Los S.O son muy dependientes de las latencias y si hubieran utilizado gddr5 para one como memoria principal hubiera sido un desproposito ralentizando el sistema y haciendo la multitarea ineficaz.Respecto a la utilizacion de la esram y la ddr3 o ddr4(como se penso en un principio) y no la famosa gddr5 es porque one necesita potencia para la computacion y ese binomio es muy superior a la gddr5 en ese aspecto.La computacion gestiona cosas tales como la IA,postprocesados y las famosas PRTs.La bajisima latencia de la esram es una gran ventaja respecto a la gddr5 debido a su altisima latencia.El porque no se nota esa ventaja en one?!es porque no se trabaja de esa manera hoy en dia y se sigue utilizando el sistema de enormes cantidades de datos en bloques grandes donde PS4 tiene ventaja con su gddr5 en estos momentos.Pero gracias a las nuevas DX12 veremos una utilizacion adecuada de los recursos de one que no se estan utilizando o de forma poco adecuada.
17587 respuestas