Hablemos del interior de Xbox One

Pavlin escribió:Una 7790 es de nueva generacion, totalmente compatible con DX12 dicho por AMD.


¿Fuente?
DirectX 12 vs Mantle

Hace algunos días se rumoreaba que DirectX 12 era en realidad una versión renombrada del API gráfica Mantle, rumor que si bien no ha sido desmentido ni confirmado por ninguna de las empresas implicadas en el desarrollo de ambas APIs, podemos deducir que termina siendo falso.

Los motivos que me llevan a deducir la falsedad de este rumor los resumimos en la siguiente tabla:
Imagen

Guiándonos por lo poco revelado por Microsoft, aparentemente Mantle pareciera ofrecer características superiores a Direct3D 12 en cuanto a la administración de múltiples hilos de procesamiento, pero DirectX 12 parece superarlo en cuanto a nuevas características gráficas, las que requieren nuevas unidades de hardware sólo presentes en los futuros GPUs DirectX 12.

En conclusión, en definitiva DirectX 12 ofrecerá un mayor número de características por hardware y un mayor rendimiento que el que actualmente ofrece Mantle (quizá AMD esté preparando un hipotético Mantle 2.0 que explote las características adicionales de sus futuros GPUs DirectX Pirate Islands “Graphics Core Next 3.0).

La buena noticia es que muchos GPUs actuales soportarán algunas de las funciones de acceso a bajo nivel, rendimiento mejorado y menor dependencia del CPU de DirectX 12; pero muchas nuevas funciones y características gráficas del API requerirán de nuevo hardware. En cuanto a Mantle, los GPUs AMD GCN (Graphics Core Next) soportan desde ya todas sus características.

http://www.chw.net/2014/03/el-api-multi ... irectx-12/
Hookun escribió:
papatuelo escribió:De hecho juraria q las CU de ONE son mas pequeñas de lo normal.

Al reves compi al reves...Cuando se analizaron los socs se descubrio que las CUs de PS4 solo tenian 1,6mm mientras que las de one eran de 2mm y estamos hablando que ambas son a 28nm.De echo los inginieros de Microsoft ya confirmaron que CU por CU son un 6% mas rapidas y eficientes las de one.Asi que si se sabia que algo raro tenia esa GPU pero como dicen muchos por aqui no interesaba investigar el hardware tan "especial" (customizado)que lleva one y es mas facil decir que lleva la GPU X , que asi siempre beneficiara a una y desprestigiara a one...


Expediente X... Box...

Ostras. Los argumentos son de risa. Ya no intento explicar nada. Ahora sólo miro para reirme. Voy por palomitas.
KinderRey escribió:
Pavlin escribió:Una 7790 es de nueva generacion, totalmente compatible con DX12 dicho por AMD.


¿Fuente?


La propia web de AMD:

Link
b_e_ne está baneado por "Saltarse el baneo con un clon"
Pavlin escribió:
KinderRey escribió:
Pavlin escribió:Una 7790 es de nueva generacion, totalmente compatible con DX12 dicho por AMD.


¿Fuente?


La propia web de AMD:

Link


Hay no pone nada de la 7790, es en generico, y no dice nada de full.....
No confundamos compatible, con totalmente compatible.....
Copio esto del mismo link directamente....

AMD revealed that it will support DirectX® 12 on all AMD Radeon™ GPUs that feature the Graphics Core Next (GCN) architecture.
A DirectX® 12 support schedule for AMD Radeon™ GPUs will be published at a later date.

[fiu] [fiu] [fiu]
Pavlin escribió:
KinderRey escribió:
Pavlin escribió:Una 7790 es de nueva generacion, totalmente compatible con DX12 dicho por AMD.


¿Fuente?


La propia web de AMD:

Link


No leo que ponga nada de lo que tú afirmas.
TE sugiero que agudices tu comprensión lectora.

Por otro lado, según las declaraciones de Tony Tamasi, vicepresidente de contenido y tecnología de Nvidia:

DirectX12 introducirá un conjunto de nuevas características además de la abstracción a más bajo nivel, y esas características requerirán nuevo hardware. Según Tony Tamasi, Microsoft tan sólo "avanzó" algunas de esas características esta semana, y "un buen montón de otras" están por venir


http://techreport.com/news/26210/direct ... t-gen-gpus
Pavlin escribió:
KinderRey escribió:
Pavlin escribió:Una 7790 es de nueva generacion, totalmente compatible con DX12 dicho por AMD.


¿Fuente?


La propia web de AMD:

Link


Pero exactamente dónde pone lo que el compañero dice, porque yo no lo he visto. Y ojo, que creo que es compatible, pero es que no he visto en ese artículo nada de lo preguntado.
b_e_ne escribió:
Hay no pone nada de la 7790, es en generico, y no dice nada de full.....
No confundamos compatible, con totalmente compatible.....
Copio esto del mismo link directamente....

AMD revealed that it will support DirectX® 12 on all AMD Radeon™ GPUs that feature the Graphics Core Next (GCN) architecture.
A DirectX® 12 support schedule for AMD Radeon™ GPUs will be published at a later date.

[fiu] [fiu] [fiu]


Si has dicho que no tienes mucha idea de gráficas, mejor no hables para confundir a la gente:

GCN AMD
Pavlin, estas equivocado.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Pavlin escribió:
b_e_ne escribió:
Hay no pone nada de la 7790, es en generico, y no dice nada de full.....
No confundamos compatible, con totalmente compatible.....
Copio esto del mismo link directamente....

AMD revealed that it will support DirectX® 12 on all AMD Radeon™ GPUs that feature the Graphics Core Next (GCN) architecture.
A DirectX® 12 support schedule for AMD Radeon™ GPUs will be published at a later date.

[fiu] [fiu] [fiu]


Si has dicho que no tienes mucha idea de gráficas, mejor no hables para confundir a la gente:

GCN AMD



Ese link demuestra algo..... :-? :-? :-?
No hace falta ser un experto para ver lo que has puesto antes..... Solo hay que saber leer bien las cosas....
Mira haber lo que te ha respondido KinderRey, que basicamente es lo mismo que yo..... [reojillo] [reojillo] [reojillo]
b_e_ne escribió:
Pavlin escribió:
b_e_ne escribió:
Hay no pone nada de la 7790, es en generico, y no dice nada de full.....
No confundamos compatible, con totalmente compatible.....
Copio esto del mismo link directamente....

AMD revealed that it will support DirectX® 12 on all AMD Radeon™ GPUs that feature the Graphics Core Next (GCN) architecture.
A DirectX® 12 support schedule for AMD Radeon™ GPUs will be published at a later date.

[fiu] [fiu] [fiu]


Si has dicho que no tienes mucha idea de gráficas, mejor no hables para confundir a la gente:

GCN AMD



Ese link demuestra algo..... :-? :-? :-?
No hace falta ser un experto para ver lo que has puesto antes..... Solo hay que saber leer bien las cosas....
Mira haber lo que te ha respondido KinderRey, que basicamente es lo mismo que yo..... [reojillo] [reojillo] [reojillo]


Iluminadme entonces...
Pero la gpu de one no era custom? Y la ESRAM? La tratamos como humo también? Se supone que esta se le dará un mayor uso con el directx 12, por lo que se entenderia mayor rendimiento gráfico.
Lumixinga escribió:Pero la gpu de one no era custom? Y la ESRAM? La tratamos como humo también? Se supone que esta se le dará un mayor uso con el directx 12, por lo que se entenderia mayor rendimiento gráfico.


Exacto, según revelaron en la conferéncia, DirectX 12 se ha optimizado sobretodo para usar ESRAM o EDRAM, con lo que se entiende que le sacarán mucho mas jugo a la ESRAM de la One. Yo creo que Microsoft fabricó la consola ya pensando en explotarla al máximo con el DirectX 12, lo que pasa que ha tenido que sacarla antes de tiempo con el directX 11
Lumixinga escribió:Pero la gpu de one no era custom? Y la ESRAM? La tratamos como humo también? Se supone que esta se le dará un mayor uso con el directx 12, por lo que se entenderia mayor rendimiento gráfico.


Sí, es custom pero según especificaciones se asemeja a una 7790 o R7 260X. La ESRAM es parte del total de la APU (CPU+GPU en uno) y no solo de la GPU. Y sí, lógicamente dará mas rendimiento. Por eso las nuevas APU de AMD e Intel incorporaran este tipo de memoria (o similar, ahora no estoy seguro del todo) porque con esta "nueva forma" de programar se obtiene un gran rendimiento haciendo trabajar conjuntamente a la CPU+GPU y se deben comunicar de la forma mas rápida, debiendo poder almacenar datos en una cache intermedia (ESRAM)
Pavlin escribió:
Lumixinga escribió:Pero la gpu de one no era custom? Y la ESRAM? La tratamos como humo también? Se supone que esta se le dará un mayor uso con el directx 12, por lo que se entenderia mayor rendimiento gráfico.


Sí, es custom pero según especificaciones se asemeja a una 7790 o R7 260X. La ESRAM es parte del total de la APU (CPU+GPU en uno) y no solo de la GPU. Y sí, lógicamente dará mas rendimiento. Por eso las nuevas APU de AMD e Intel incorporaran este tipo de memoria (o similar, ahora no estoy seguro del todo) porque con esta "nueva forma" de programar se obtiene un gran rendimiento haciendo trabajar conjuntamente a la CPU+GPU y se deben comunicar de la forma mas rápida, debiendo poder almacenar datos en una cache intermedia (ESRAM)

La gpu de One se asemeja a la R7 260. La 260X tiene diferente rendimiento. Ya hubo confusiones y polémica con el tema.
Aeterno escribió:
Lumixinga escribió:Pero la gpu de one no era custom? Y la ESRAM? La tratamos como humo también? Se supone que esta se le dará un mayor uso con el directx 12, por lo que se entenderia mayor rendimiento gráfico.


Exacto, según revelaron en la conferéncia, DirectX 12 se ha optimizado sobretodo para usar ESRAM o EDRAM, con lo que se entiende que le sacarán mucho mas jugo a la ESRAM de la One. Yo creo que Microsoft fabricó la consola ya pensando en explotarla al máximo con el DirectX 12, lo que pasa que ha tenido que sacarla antes de tiempo con el directX 11


en que momento hablan de lo que comentas o donde lo has leido, por que después revisar la transcripción a prensa 2 veces, por si se me habia pasado en la audicion o en laprimera lectura y mirado toda la documentación, no existe constancia de eso que comentan en la conferencia de dx12, donde se hablo bastante poco de la One en ese sentido, si ha sido en una web copiame el link.
:D Sigo con las palomitas... ¿Según vosotros, la ESRAM no se está usando ahora? Pregunto, que conste. :D
ESPMuD-XBONE escribió::D Sigo con las palomitas... ¿Según vosotros, la ESRAM no se está usando ahora? Pregunto, que conste. :D


Claro que se usa. Vaya pregunta O_o Una cosa es no usar y otra usarla mejor
ESPMuD-XBONE escribió::D Sigo con las palomitas... ¿Según vosotros, la ESRAM no se está usando ahora? Pregunto, que conste. :D


“It was clearly a bit more complicated to extract the maximum power from the Xbox One when you’re trying to do that. I think eSRAM is easy to use. The only problem is…Part of the problem is that it’s just a little bit too small to output 1080p within that size. It’s such a small size within there that we can’t do everything in 1080p with that little buffer of super-fast RAM.

“It means you have to do it in chunks or using tricks, tiling it and so on. It’s a bit like the reverse of the PS3. PS3 was harder to program for than the Xbox 360. Now it seems like everything has reversed but it doesn’t mean it’s far less powerful – it’s just a pain in the ass to start with. We are on fine ground now but the first few months were hell.”

Will the process become easier over time as understanding of the hardware improves? “Definitely, yeah. They are releasing a new SDK that’s much faster and we will be comfortably running at 1080p on Xbox One. We were worried six months ago and we are not anymore, it’s got better and they are quite comparable machines.

Read more at http://gamingbolt.com/xbox-ones-esram-t ... curIFrM.99
papatuelo escribió:
ESPMuD-XBONE escribió::D Sigo con las palomitas... ¿Según vosotros, la ESRAM no se está usando ahora? Pregunto, que conste. :D


“It was clearly a bit more complicated to extract the maximum power from the Xbox One when you’re trying to do that. I think eSRAM is easy to use. The only problem is…Part of the problem is that it’s just a little bit too small to output 1080p within that size. It’s such a small size within there that we can’t do everything in 1080p with that little buffer of super-fast RAM.

“It means you have to do it in chunks or using tricks, tiling it and so on. It’s a bit like the reverse of the PS3. PS3 was harder to program for than the Xbox 360. Now it seems like everything has reversed but it doesn’t mean it’s far less powerful – it’s just a pain in the ass to start with. We are on fine ground now but the first few months were hell.”

Will the process become easier over time as understanding of the hardware improves? “Definitely, yeah. They are releasing a new SDK that’s much faster and we will be comfortably running at 1080p on Xbox One. We were worried six months ago and we are not anymore, it’s got better and they are quite comparable machines.

Read more at http://gamingbolt.com/xbox-ones-esram-t ... curIFrM.99
Ya, eso ya lo había leído. Entonces sí se usa ya. Vale, y entonces no debería haber una gran mejora, ¿no? Vamos, que mejorará pero lo normal, nada de bombazos y tal, ¿no? Como ha ocurrido en consolas anteriores...

¿Puede ser que Microsoft haya empleado el truco de la ESRAM para emplear componentes más baratos, memoria y gráfica, y crear un caché para intentar compensar eso? ¿Puede que esa solución sea un apaño y encima con poca memoria, tamaño de ESRAM, que limite mucho su aplicación? ¿El parcelar la memoria para cachearla no consume recursos también? ¿Si hay que hacer tiles no habrá que repetir ciertas texturas y demás por lo que algunos gráficos pueden ser repetitivos? :D

Cojo palomitas para que vayan contestando los verdaderos injinieros.
Supongo que no quieres que te contesten, de lo contrario no dirías que espera a los injinieros.

Lo grande de un foro es aportar lo poco que sabes y aprender de los que saben más que tu, yo me incluyo entre los que no saben y no me importa equivocarme y que me corrijan. sencillamente me parece entretenido buscar información y compartirla, si no es correcta no importa que te corrijan con educación. No soy absoluto, no digo esto es así y es así y no soporto a los que lo hacen.

Ten un poquito más de educación y respeta a la gente que colabora en el foro, no olvides que es un foro de aficionados. Si quieres conversaciones más serias acorde con tu nivel de conocimientos supongo que tendrás acceso a ellas, los demás nos quedamos por aquí echando el rato.
ESPMuD-XBONE escribió:Ya, eso ya lo había leído. Entonces sí se usa ya. Vale, y entonces no debería haber una gran mejora, ¿no? Vamos, que mejorará pero lo normal, nada de bombazos y tal, ¿no? Como ha ocurrido en consolas anteriores...

¿Puede ser que Microsoft haya empleado el truco de la ESRAM para emplear componentes más baratos, memoria y gráfica, y crear un caché para intentar compensar eso? ¿Puede que esa solución sea un apaño y encima con poca memoria, tamaño de ESRAM, que limite mucho su aplicación? ¿El parcelar la memoria para cachearla no consume recursos también? ¿Si hay que hacer tiles no habrá que repetir ciertas texturas y demás por lo que algunos gráficos pueden ser repetitivos? :D

Cojo palomitas para que vayan contestando los verdaderos injinieros.

Reporto este comentario para ver si paras un poquito con las tonterías de injiniero.
Segun lo que he leido yo sobre varios desarrolladores, estos ven una complicación o basicamente un alargamiento innecesario en la adaptación de un juego a one, el hecho de tener que comprimir las texturas para que pasen por la esram, o eso me parecio entender, es posible que las causas sean otras.
ESPMuD-XBONE escribió:Ya, eso ya lo había leído. Entonces sí se usa ya. Vale, y entonces no debería haber una gran mejora, ¿no? Vamos, que mejorará pero lo normal, nada de bombazos y tal, ¿no? Como ha ocurrido en consolas anteriores...

¿Puede ser que Microsoft haya empleado el truco de la ESRAM para emplear componentes más baratos, memoria y gráfica, y crear un caché para intentar compensar eso? ¿Puede que esa solución sea un apaño y encima con poca memoria, tamaño de ESRAM, que limite mucho su aplicación? ¿El parcelar la memoria para cachearla no consume recursos también? ¿Si hay que hacer tiles no habrá que repetir ciertas texturas y demás por lo que algunos gráficos pueden ser repetitivos? :D

Cojo palomitas para que vayan contestando los verdaderos injinieros.

Microsoft no puso la ESRAM para ahorrar. Lo que pasa es que necesitaban 8 gigas de ram en su consola para su sistema operativo, y en el momento en que tenían que tomar la decisión (puede que en 2011 - 2012) la unica opción era usar DDR3 y ESRAM.
Bueno, otros fabricantes eligieron configuración con otros componentes disponibles en el mercado.

La GDDR es más cara que la memoria empleada en One, y que yo sepa, sí estaba disponible.

(Aldebarán, injiniero me han llamado a mí varias veces, y otras cosas, y no he reportado a nadie).

Edito: La ESRAM supongo que es más cara que la GDDR, pero claro será más rápida.Que sea más cara no lo sé con seguridad, pero casi seguro, porque si no fuese así todo el mundo pondría 8GB de ESRAM. Por tanto te ponen un pequeño caché. Esto ha sido así desde siempre.

Es peor para un programador tener que cachear los datos desde una memoria "lenta" que tener una memoria bastante rápida, que casi llega a la velocidad del caché y que no necesita ser cacheada. Toda la memoria "lenta" va a hacer que tu sistema vaya más lento y las mejorar por tu caché serán limitadas, porque tienes un cuello de botella hasta ese caché, el caché es pequeño y hoy por hoy los gráficos consumen mucha memoria, y cada vez más, "trocear" la memoria, colocarla y seleccionar lo que quieres usar también consume recursos. Por todo esto, yo creo que Microsoft ha creado un sistema inferior gráficamente hablando a la competencia, y todavía no he entrado a comparar una gráfica contra otra. (Pongo a la competencia como ejemplo).

Teniendo en cuenta que AMD fabrica para Microsoft y para Sony, (creo que Nintendo era NVidia), me podéis explicar entonces en qué queda la alianza Microsoft/AMD?
ESPMuD-XBONE escribió:Bueno, otros fabricantes eligieron configuración con otros componentes disponibles en el mercado.

La GDDR es más cara que la memoria empleada en One, y que yo sepa, sí estaba disponible.

(Aldebarán, injiniero me han llamado a mí varias veces, y otras cosas, y no he reportado a nadie).

No es nada personal contra ti, tienes conocimientos y puedes aportar un montón, yo mismo estoy aprendiendo de ti y de otros, si te faltaron el respeto deberías reportar para intentar mantener este hilo limpio de broncas de patio de colegio, repito no lo lleves a lo personal y sige aportando conocimientos. Un saludo.
David Ricardo escribió:
ESPMuD-XBONE escribió:Ya, eso ya lo había leído. Entonces sí se usa ya. Vale, y entonces no debería haber una gran mejora, ¿no? Vamos, que mejorará pero lo normal, nada de bombazos y tal, ¿no? Como ha ocurrido en consolas anteriores...

¿Puede ser que Microsoft haya empleado el truco de la ESRAM para emplear componentes más baratos, memoria y gráfica, y crear un caché para intentar compensar eso? ¿Puede que esa solución sea un apaño y encima con poca memoria, tamaño de ESRAM, que limite mucho su aplicación? ¿El parcelar la memoria para cachearla no consume recursos también? ¿Si hay que hacer tiles no habrá que repetir ciertas texturas y demás por lo que algunos gráficos pueden ser repetitivos? :D

Cojo palomitas para que vayan contestando los verdaderos injinieros.

Microsoft no puso la ESRAM para ahorrar. Lo que pasa es que necesitaban 8 gigas de ram en su consola para su sistema operativo, y en el momento en que tenían que tomar la decisión (puede que en 2011 - 2012) la unica opción era usar DDR3 y ESRAM.



Esa no era la única solución.

Otra hubiera sido usar GDDR5 y meter 2Gb de DDR3 para el SO.
En un despiece lei q XBOX se ahorraba 23€ por consola usando DDR3.
Bueno, hoy por hoy, tengo bastantes beneficios en la empresa donde trabajo. Sé lo que soy y a lo que me dedico. Lo que me llaman en un foro me da igual.

Cuando alguien me da información confirmada, me la creo a medias, cuando veo gente cegada que defiende una cosa sin razonamiento y sin conocimientos, intento corregirlo. Cuando veo que la discusión no lleva a nada, me descojono, porque a mí aprender me ha costado mucho y no hay más ciego que le que no quiere ver.

He vuelto a poner argumentos que cualquier persona que entienda de programación y de hardware podrá verificar. No invenciones ni medidas de chip sin saber.
Horizonte de sucesos escribió:
David Ricardo escribió:
ESPMuD-XBONE escribió:Ya, eso ya lo había leído. Entonces sí se usa ya. Vale, y entonces no debería haber una gran mejora, ¿no? Vamos, que mejorará pero lo normal, nada de bombazos y tal, ¿no? Como ha ocurrido en consolas anteriores...

¿Puede ser que Microsoft haya empleado el truco de la ESRAM para emplear componentes más baratos, memoria y gráfica, y crear un caché para intentar compensar eso? ¿Puede que esa solución sea un apaño y encima con poca memoria, tamaño de ESRAM, que limite mucho su aplicación? ¿El parcelar la memoria para cachearla no consume recursos también? ¿Si hay que hacer tiles no habrá que repetir ciertas texturas y demás por lo que algunos gráficos pueden ser repetitivos? :D

Cojo palomitas para que vayan contestando los verdaderos injinieros.

Microsoft no puso la ESRAM para ahorrar. Lo que pasa es que necesitaban 8 gigas de ram en su consola para su sistema operativo, y en el momento en que tenían que tomar la decisión (puede que en 2011 - 2012) la unica opción era usar DDR3 y ESRAM.



Esa no era la única solución.

Otra hubiera sido usar GDDR5 y meter 2Gb de DDR3 para el SO.


PD: Wii U lleva también AMD, y la alianza es por los 3.000 millones de $ que invirtió MS, pagando hasta los sueldos a los ingenieros de AMD.
¿Y en qué consiste la alianza?
Pues no sé si será verdad, pero parece ser que la cifra salió del linkedin ( o como se escriba) de uno que trabajaba en AMD:

http://www.winbeta.org/news/microsoft-amd-partnership-xbox-one-valued-at-over-3-billion-dollars
nakuada escribió:
Aeterno escribió:
Lumixinga escribió:Pero la gpu de one no era custom? Y la ESRAM? La tratamos como humo también? Se supone que esta se le dará un mayor uso con el directx 12, por lo que se entenderia mayor rendimiento gráfico.


Exacto, según revelaron en la conferéncia, DirectX 12 se ha optimizado sobretodo para usar ESRAM o EDRAM, con lo que se entiende que le sacarán mucho mas jugo a la ESRAM de la One. Yo creo que Microsoft fabricó la consola ya pensando en explotarla al máximo con el DirectX 12, lo que pasa que ha tenido que sacarla antes de tiempo con el directX 11


en que momento hablan de lo que comentas o donde lo has leido, por que después revisar la transcripción a prensa 2 veces, por si se me habia pasado en la audicion o en laprimera lectura y mirado toda la documentación, no existe constancia de eso que comentan en la conferencia de dx12, donde se hablo bastante poco de la One en ese sentido, si ha sido en una web copiame el link.


Pues revisalo.

Los responsables de NVidia aseguraron y así lo expusieron en su powerpoint correspondiente que Dx12 funcionaría especialmente bien con sus nuevas tarjetas que incorporan "Iris Graphics". Y una de las características de estas graficas es la de incluir EdRAM:

Making the Intel Iris Pro Graphics particularly interesting is that they have 128MB of eDRAM stacked onto the die itself. Intel Haswell graphics are already great performers for integrated graphics like the HD Graphics 4600, but Iris Pro should have a particularly good performance boost out of this embedded memory to serve as a graphics cache.


Vamos, que funciona mejor con arquitecturas similares a la de Xbox One, confirmado por la propia NVidia
El que se esta comiendo las palomitas soy yo XD

entonces a que conclusión esta llegando a todo esto ?

sera 25 mas potente llegaremos a los 1080p facilmente o lo que hago es reformar el pc :p
papatuelo escribió:Pues no sé si será verdad, pero parece ser que la cifra salió del linkedin ( o como se escriba) de uno que trabajaba en AMD:

http://www.winbeta.org/news/microsoft-amd-partnership-xbox-one-valued-at-over-3-billion-dollars


GamesIndustry reminds that Feldstein was one of several execs that were accused of stealing AMD documents before leaving for Nvidia.

El tio muy de fiar no parece, jajajaja.
O no te entiendo o creo que te has liado bastante. ¿No habla de chips de Intel?
La alianza entre AMD y Microsoft vale más de 3.000 millones de dólares
Un ex empleado de AMD confirma que la asociación no ha salido precisamente barata.

A tontas y a locas, la gran triunfadora de la nueva generación va a ser AMD, que ha metido cabeza en las dos grandes apuestas de Microsoft y Sony ayudando con la integración de sus componentes electrónicos. No sabemos la factura que le han pasado a la corporación nipona, pero Bob Feldstein, antiguo trabajador de la compañía famosa por sus tarjetas gráficas, ha revelado que el acuerdo por varios años con Microsoft les va a reporta más de 3.000 millones de dólares.

“AMD ha trabajado con Microsoft en Xbox One para diseñar una consola y un dispositivo de entretenimiento. Esto ha necesitado la coordinación de varios equipos de trabajo en AMD y reuniones frecuentes con los equipos responsables de afrontar los retos de estos acuerdos complejos por varios años. El proyecto está valorado en más de 3.000 millones de dólares”. Así de tranquilo lo dice Feldstein en VG247, pero la cantidad es absolutamente mareante. También es verdad, como hace notar la página, que Microsoft espera vender entre 400 y 1.000 millones de unidades, lo cual suponemos que taparía bastante el agujero, pero ¿creéis que esta meta es factible o los contables de Microsoft podrían comenzar a criar más canas de la cuenta en cosa de un par de años?


http://www.alfabetajuega.com/noticia/la ... es-n-24403
ESPMuD-XBONE escribió:O no te entiendo o creo que te has liado bastante. ¿No habla de chips de Intel?


Si, me he liado al poner NVidia en vez de Intel. Esto fue lo que presentaron en la GDC en la conferencia de Dx12:

Imagen

IDEAL FOR MODERN INTEGRATED DESINGS, LIKE INTEL´S 4th GENERATION CORE PROCESSORS WITH IRIS GRAPHICS.
Pues eso, que habla de Intel.
ESPMuD-XBONE escribió:O no te entiendo o creo que te has liado bastante. ¿No habla de chips de Intel?


Había una diapositiva en la presentación que decía que DirectX 12 reportaba incrementos de rendimiento especialmente importantes con IRIS de Intel. Iris tiene 128 megas eDRam en la cache L3 y lo comparten CPU y GPU dando prioridad a las necesidades de la GPU.

En su momento pregunte si eso era lo mismo que hacia XBOX ONE, pero nadie me contesto.
ESPMuD-XBONE escribió:Pues eso, que habla de Intel.



Si si, ya te digo que me he confundido al poner Nvidia, pero la comprensión de lo que puse si sustituyes Intel por Nvidia es la misma. ;)
Pero qué tiene que ver. Ni Nvidia ni Intel son partes interesadas en One. Lo estoy preguntando. No te sigo.
ESPMuD-XBONE escribió:Pero qué tiene que ver. Ni Nvidia ni Intel son partes interesadas en One. Lo estoy preguntando. No te sigo.


Lo que preguntamos, es si esa forma de operar de los iris podría ser similar a la que tiene XBOX ONE, por más que una sea AMD y otra Intel.

Tu que sabes de este tema podías explicárnoslo. Te lo digo en serio.
ESPMuD-XBONE escribió:Pero qué tiene que ver. Ni Nvidia ni Intel son partes interesadas en One. Lo estoy preguntando. No te sigo.


Nvidia, Intel y AMD son partes interesadas en DirectX12. Todas ellas junto con Xbox One, parece que creen que esa arquitectura (Edram y Esram* Esto es lo que suponemos, no lo afirmamos, a ver si te queda claro de una vez) será bien aprovechada por la nueva API, dandole mucho incremento de rendimiento. Por eso puede ser que Microsoft eligiese la Esram para su consola.
ESPMuD-XBONE escribió:Pero qué tiene que ver. Ni Nvidia ni Intel son partes interesadas en One. Lo estoy preguntando. No te sigo.


Intel dice que Directx12 será especialmente beneficioso para un procesador que tiene una arquitectura determinada, que parece muy similar a la que tiene Xbox One. Qué más dará si es Nvidia, Intel o AMD. Lo que dicen es que es especialmente adecuado para ese tipo de arquitecturas.
Yo creo que no es aplicable, porque son plataformas distintas.

El software de Xbox que la haga compatible con DirectX 12 será distinta a la de PC, o la de una Tablet, porque son arquitecturas distintas. DirectX lo que propone es un conjunto de herramientas que permitan portar tus juegos al mayor número posible de plataformas y esto suele ir en contra del rendimiento.

Microsoft hara un "driver", (por decirlo de algún modo), que haga a la One compatible con DirectX, pero ese "driver" no tendrá mucho que ver con el de PC, (que puede llevar o no una gráfica Intel).

El beneficio real de DirectX ha sido siempre el poner librerías comunes a disposición de los programadores. Antes se limitaba a todo el hardware que pudiese llevar un PC. Ahora abarca varios sistemas. Lo bueno es que facilitará que los juegos de PC salgan también en One, lo malo es que seguramente seguirá siendo más difícil programarla que la competencia y menos potente. Si se centran en que sea más fácil programarla, seguramente será igual o más fácil de programar que la competencia, por similitud al juego en PC, pero eso hará que se pueda perder creatividad a la hora de emplear los recursos para optimizar el juego. Normalmente todo el mundo optará por lo rápido y sencillo.

Todo depende de como hagan las cosas luego los programadores o mejor dicho, las empresas, lo mismo deciden sacar los juegos capados al sistema menos potente y pasarlos al más potente con pocas mejoras, o a saber...
La pasta es por cojer mantle y meterle 4 cambios y nombrarlo DX12.

Trabajo codo con codo de Amd y MS.

Ni más ni menos.
PoderGorrino escribió:
nakuada escribió:
en que momento hablan de lo que comentas o donde lo has leido, por que después revisar la transcripción a prensa 2 veces, por si se me habia pasado en la audicion o en laprimera lectura y mirado toda la documentación, no existe constancia de eso que comentan en la conferencia de dx12, donde se hablo bastante poco de la One en ese sentido, si ha sido en una web copiame el link.


Pues revisalo.

Los responsables de NVidia aseguraron y así lo expusieron en su powerpoint correspondiente que Dx12 funcionaría especialmente bien con sus nuevas tarjetas que incorporan "Iris Graphics". Y una de las características de estas graficas es la de incluir EdRAM:

Making the Intel Iris Pro Graphics particularly interesting is that they have 128MB of eDRAM stacked onto the die itself. Intel Haswell graphics are already great performers for integrated graphics like the HD Graphics 4600, but Iris Pro should have a particularly good performance boost out of this embedded memory to serve as a graphics cache.


Vamos, que funciona mejor con arquitecturas similares a la de Xbox One, confirmado por la propia NVidia


repito otro vez de donde sacais estas informaciones, por que o bien estais errados o mexzclais conceptos o el sitio se las esta inventando o tergiversando, intel no comento nada de lo que dices en la conferencia de dx12 y en su presentacion de powerpoint tampoco aparece, en el material de que dispongo, ni en la trascripcion a la prensa.

De hecho el texto que citas sale de la web de Phoronix de su test de los drivers graficos de intel en linux de la nueva gama iris con fecha de septiembre de 2013.

http://www.phoronix.com/scan.php?page=a ... 5200&num=1
17587 respuestas