eso lo digo en este hilo, que conste
Strife 117 escribió:NucelarGen escribió:Xbox One To Have A Similar Solution to huMA – Xbox One Dev
http://gamingbolt.com/xbox-one-to-have- ... ox-one-dev
PD: yo no me invento nada. Otra cosa es que me la "cuelen" a mí
Yo lo he dicho ya varias veces, los chips de Xbox One están totalmente personalizados por Microsoft.
AMD le dio la base de sus arquitecturas a Microsoft, y a partir de ahí estos últimos han hecho una máquina 100% suya y personalizada con ayuda del primero.
indigo_rs escribió:SERGIO9 escribió:NucelarGen escribió:Xbox One To Have A Similar Solution to huMA – Xbox One Dev
http://gamingbolt.com/xbox-one-to-have- ... ox-one-dev
PD: yo no me invento nada. Otra cosa es que me la "cuelen" a mí
Alguien puede comentar la noticia para los que no sepamos mucho el ingles
En pocas palabras que básicamente es lo mismo una que la otra.
Moraydron escribió:Strife 117 escribió:NucelarGen escribió:Xbox One To Have A Similar Solution to huMA – Xbox One Dev
http://gamingbolt.com/xbox-one-to-have- ... ox-one-dev
PD: yo no me invento nada. Otra cosa es que me la "cuelen" a mí
Yo lo he dicho ya varias veces, los chips de Xbox One están totalmente personalizados por Microsoft.
AMD le dio la base de sus arquitecturas a Microsoft, y a partir de ahí estos últimos han hecho una máquina 100% suya y personalizada con ayuda del primero.
Si pillan la base de AMD,como va a ser 100% suya?xD.Que puedan mejorar aun mas la arquitectura es algo que no sabemos,pero la base es lo que ha puesto AMD,pero a saber que muestran en la hot chips,tal vez en el liveshow digan specs y fecha de salida.
Por ahora lo que mejor luce sale en Xone,me refiero en materia a juegos de salida,y bueno,queda ver que tal dejan el BF4.
Un saludo.
SERGIO9 escribió:NucelarGen escribió:Xbox One To Have A Similar Solution to huMA – Xbox One Dev
http://gamingbolt.com/xbox-one-to-have- ... ox-one-dev
PD: yo no me invento nada. Otra cosa es que me la "cuelen" a mí
Alguien puede comentar la noticia para los que no sepamos mucho el ingles
NucelarGen escribió:Yo os daría un consejo, el que quiera que los acepten y los que no ....., que les den
Dejar de mirar gráficos, pues es puesto esta cogido por el pc. Entonces vamos a dirigirnos por los juegos y la forma en la que se pueden en dichas plataformas.
Esto no es para empezar la guerra de siempre. Quien me haya querido entender, esta muy claro.
SERGIO9 escribió:NucelarGen escribió:Xbox One To Have A Similar Solution to huMA – Xbox One Dev
http://gamingbolt.com/xbox-one-to-have- ... ox-one-dev
PD: yo no me invento nada. Otra cosa es que me la "cuelen" a mí
Alguien puede comentar la noticia para los que no sepamos mucho el ingles
"One issue we had was that we had some of our shaders allocated in Garlic but the constant writing code actually had to read something from the shaders to understand what it was meant to be writing - and because that was in Garlic memory, that was a very slow read because it's not going through the CPU caches. That was one issue we had to sort out early on, making sure that everything is split into the correct memory regions otherwise that can really slow you down."
pspskulls escribió:
Pues te confirman ni más ni menos que lo que comenté ayer: que la noticia de hUMA en PS4 no era más que otra noticia troll para tapar la nefasta conferencia de PS4.
Es evidente que en sistemas de memoria unificada como son los de PS4 o XOne la funcionalidad
que ofrece la idea de hUMA está claramente implementada (y digo hUMA porque es como lo llama AMD y por ello lo publicita para vender SU tecnología).
Lo que ocurre es que XOne tiene una particularidad que PS4 no tiene: eSRAM. Lógicamente si nos centramos en una terminología y las especificaciones claras de lo que se entiende por hUMA, en la que toda memoria es coherente respecto a CPU y GPU al mismo tiempo y por ello evitamos "duplicar" información, XOne no cumpliría con la totalidad de esta idea dado que INCLUYE la eSRAM y a ésta sólo se puede acceder por GPU. Pero la arquitectura de CPU-GPU usando la memoria unificada DDR3 que usa XOne es LA MISMA idea que ofrece hUMA.
La eSRAM no entra en la idea del hUMA básicamente porque es memoria extra rápida de baja latencia dedicada única y exclusivamente a determinados procesos gráficos a realizar por la GPU en la que la CPU no necesita ni entrar. Pero respecto a modificar partes de memoria en DDR3 como geometría dinámica es algo que se puede hacer desde CPU y GPU sin necesidad de copiar absolutamente nada y sin romper la idea fundamental de hUMA.
Aún así todo esto habría que cogerlo con pinzas, dado que la optimización puede ser muy limitada. En PS4 por ejemplo hay buses distintos para acceder a la memoria, y esos buses cachean memoria para CPU o GPU, NO PARA AMBAS. Con lo que se rompe parcialmente la idea del hUMA: sí, CPU y GPU pueden acceder a la misma memoria pero con grandes penalizaciones si esa memoria no está cacheada para quien quiera utilizarla. Un ejemplo claro de problemas que encontraron los que portaron CREW a PS4 y que detalla ésto:
http://www.eurogamer.net/articles/digit ... ystation-4
Así que, memoria compartida entre CPU y GPU sí, PERO OJO que no todo es de color de rosa.
En cualquier caso, a esperar al hotchips el Lunes que es lo que mucha gente debería hacer antes de decir barbaridades...
Natsu escribió:¿Habéis visto esto? está guapo.
Aquí el video.
http://www.xboxygen.com/Medias/Videos/1 ... le?lang=fr
Natsu escribió:¿Habéis visto esto? está guapo.
Aquí el video.
http://www.xboxygen.com/Medias/Videos/1 ... le?lang=fr
antonio613 escribió:Estoy casi seguro que las consolas son casi iguales en términos de potencias.
Ya lo han dicho los desarrolladores por activa y por pasiva.
Se llevarán algunos matices por las tecnologías aplicadas.
Ya está no flipeis más con potencias que no se ven.
bloodoffaith escribió:antonio613 escribió:Estoy casi seguro que las consolas son casi iguales en términos de potencias.
Ya lo han dicho los desarrolladores por activa y por pasiva.
Se llevarán algunos matices por las tecnologías aplicadas.
Ya está no flipeis más con potencias que no se ven.
No se han visto. No quiere decir que no existan. No se han enseñado dos versiones de un mismo juegos corriendo a la vez.
Yo no pienso que las diferencias vallan a ser enormes, pero seguro que las hay.
Veremos en favor de cual.
XESK_MALONE escribió:Pero el lag sigue siendo brutal.Pense que en el kinect 2 se habría solucionado
XESK_MALONE escribió:Pero el lag sigue siendo brutal.Pense que en el kinect 2 se habría solucionado
NucelarGen escribió:Xbox One's Phil Spencer: 'We're Committed To The Original Vision'
http://www.theguardian.com/technology/2 ... escom-2013
---------------------------------------------------
How DICE won EA over with Mirror’s Edge 2
http://www.videogamer.com/xboxone/mirro ... dge_2.html
Do you see a future that is purely digital?
Well I'm a big Steam fan; you talk about your phone, your tablet, those are all digital ecosystems – it's not like, as consumers, digital ecosystems are foreign to us. But we heard from consumers that they wanted us to also support a physical system as well. So our plan was to continue to grab a lot of the advantages of a digital system while adding in physical. Now, there are some differences that you need to understand: in a digital world, we know which games are yours – as you purchase them online, the license is associated with your account and that gives us unique capabilities in terms of what we can do with that content. When the DRM is on the disc, we don't know that you own that disc and so the capabilities are different. If you're a digital customer and you're comfortable with that, you should invest in being a digital customer on Xbox One, because those advantages will be coming, some at launch and some later. But we're giving you a choice. It's like movies: I happen to be more of a digital customer, through Netflix and pay-per-view, but you can still go and buy Blu-rays and DVDs.
AguilaRoja2012 escribió:bloodoffaith escribió:antonio613 escribió:Estoy casi seguro que las consolas son casi iguales en términos de potencias.
Ya lo han dicho los desarrolladores por activa y por pasiva.
Se llevarán algunos matices por las tecnologías aplicadas.
Ya está no flipeis más con potencias que no se ven.
No se han visto. No quiere decir que no existan. No se han enseñado dos versiones de un mismo juegos corriendo a la vez.
Yo no pienso que las diferencias vallan a ser enormes, pero seguro que las hay.
Veremos en favor de cual.
No,no son igual de potentes pero todavía no se sabe si ps4 es mucho màs potente o sólo màs potente.No creo que vayan a haber diferencias grandes en los multis,aunque en los exclusivos se puede dar por hecho.
AguilaRoja2012 escribió:bloodoffaith escribió:antonio613 escribió:Estoy casi seguro que las consolas son casi iguales en términos de potencias.
Ya lo han dicho los desarrolladores por activa y por pasiva.
Se llevarán algunos matices por las tecnologías aplicadas.
Ya está no flipeis más con potencias que no se ven.
No se han visto. No quiere decir que no existan. No se han enseñado dos versiones de un mismo juegos corriendo a la vez.
Yo no pienso que las diferencias vallan a ser enormes, pero seguro que las hay.
Veremos en favor de cual.
No,no son igual de potentes pero todavía no se sabe si ps4 es mucho màs potente o sólo màs potente.No creo que vayan a haber diferencias grandes en los multis,aunque en los exclusivos se puede dar por hecho.
Capi America escribió:Megatón!!!"MS CONFIRMS A NEW EPIC EXCLUSIVE IP ON 18:00 XBOX ONE EVENT"
Capi America escribió:Megatón!!!"MS CONFIRMS A NEW EPIC EXCLUSIVE IP ON 18:00 XBOX ONE EVENT"
huesin escribió:Una duda, tengo un codigo de live de 1 mes, si no lo utilizo hasta que salga la ONE ¿podre activarlo en ella?
saludos!
dunkam82 escribió:huesin escribió:Una duda, tengo un codigo de live de 1 mes, si no lo utilizo hasta que salga la ONE ¿podre activarlo en ella?
saludos!
Si sin ningún problema.
Por cierto aprovecho el post ¿no era hoy 22 de Agosto cuando habría actualización de la consola y de la web para pasar los Microsoft Points a dinero real? juraría que era hoy pero todavía no he visto ningún cambio.
antonio613 escribió:Perdonar
Si pillo una tarjeta de 4200mp y la dejo en mi cuenta. Se transformará en 50 euracos al cambiar de points a euros?
djber escribió:antonio613 escribió:Perdonar
Si pillo una tarjeta de 4200mp y la dejo en mi cuenta. Se transformará en 50 euracos al cambiar de points a euros?
si
antonio613 escribió:djber escribió:antonio613 escribió:Perdonar
Si pillo una tarjeta de 4200mp y la dejo en mi cuenta. Se transformará en 50 euracos al cambiar de points a euros?
si
Voy a partir hispasolutions jajajaja
Gracias
pspskulls escribió:SERGIO9 escribió:NucelarGen escribió:Xbox One To Have A Similar Solution to huMA – Xbox One Dev
http://gamingbolt.com/xbox-one-to-have- ... ox-one-dev
PD: yo no me invento nada. Otra cosa es que me la "cuelen" a mí
Alguien puede comentar la noticia para los que no sepamos mucho el ingles
Pues te confirman ni más ni menos que lo que comenté ayer: que la noticia de hUMA en PS4 no era más que otra noticia troll para tapar la nefasta conferencia de PS4.
Es evidente que en sistemas de memoria unificada como son los de PS4 o XOne la funcionalidad
que ofrece la idea de hUMA está claramente implementada (y digo hUMA porque es como lo llama AMD y por ello lo publicita para vender SU tecnología).
Lo que ocurre es que XOne tiene una particularidad que PS4 no tiene: eSRAM. Lógicamente si nos centramos en una terminología y las especificaciones claras de lo que se entiende por hUMA, en la que toda memoria es coherente respecto a CPU y GPU al mismo tiempo y por ello evitamos "duplicar" información, XOne no cumpliría con la totalidad de esta idea dado que INCLUYE la eSRAM y a ésta sólo se puede acceder por GPU. Pero la arquitectura de CPU-GPU usando la memoria unificada DDR3 que usa XOne es LA MISMA idea que ofrece hUMA.
La eSRAM no entra en la idea del hUMA básicamente porque es memoria extra rápida de baja latencia dedicada única y exclusivamente a determinados procesos gráficos a realizar por la GPU en la que la CPU no necesita ni entrar. Pero respecto a modificar partes de memoria en DDR3 como geometría dinámica es algo que se puede hacer desde CPU y GPU sin necesidad de copiar absolutamente nada y sin romper la idea fundamental de hUMA.
Aún así todo esto habría que cogerlo con pinzas, dado que la optimización puede ser muy limitada. En PS4 por ejemplo hay buses distintos para acceder a la memoria, y esos buses cachean memoria para CPU o GPU, NO PARA AMBAS. Con lo que se rompe parcialmente la idea del hUMA: sí, CPU y GPU pueden acceder a la misma memoria pero con grandes penalizaciones si esa memoria no está cacheada para quien quiera utilizarla. Un ejemplo claro de problemas que encontraron los que portaron CREW a PS4 y que detalla ésto:
http://www.eurogamer.net/articles/digit ... ystation-4"One issue we had was that we had some of our shaders allocated in Garlic but the constant writing code actually had to read something from the shaders to understand what it was meant to be writing - and because that was in Garlic memory, that was a very slow read because it's not going through the CPU caches. That was one issue we had to sort out early on, making sure that everything is split into the correct memory regions otherwise that can really slow you down."
Así que, memoria compartida entre CPU y GPU sí, PERO OJO que no todo es de color de rosa.
En cualquier caso, a esperar al hotchips el Lunes que es lo que mucha gente debería hacer antes de decir barbaridades...
marjalone escribió:Eso no tiene logica alguna, que haya una cache de 32MB en ese die es la peor cagada de Microsoft.... en ese espacio entraban dos controladores mas DDR3 (para asi poder pensar en 9GB de Ram y 384Bits) y un porron de shaders... Lo de Microsoft, es simplemente una cagada a todas luces..
La PS4 tiene 50% mas shaders y 250% mas ancho de banda, y si nos ponemos a ver lo que pierden las GPUs al quitarles ancho de banda, se puede ver que en potencia grafica la PS4 no es que sea mas potente, es que es mas del doble de potente gracias a la GDDR5, y con huma en la ecuacion, apaga y vamonos... ni remotamente la ESRAM va a acortar una distancia de mas del 100%...
Ya la HD7750 pierde mas del 40% por pasar de GDDR5 a GDDR3... ahora extrapola eso a una GPU de 768Shaders con DDR3 contra una de 1152shaders y GDDR5... seria como una HD7750 DDR5 contra casi una HD7870.. LA ESRAM puede ayudar mucho, pero esta solo tiene 106GB/s... y aunque los tiempos de acceso sean marginales tampoco es que 100GB/s sean mucho, ya mi GTX260 tenia mas, hace la tira de años y con DDR3..
Microsoft sabe esto perfectamente, por eso a ultima hora subieron 50Mhz la GPU, intentando rascar hasta la ultima gota que puedan de esa APU, que ya debe estar produciendose masivamente y montada en millones de consolas que solo esperan la "Bios final".
marjalone escribió:
Eso no tiene logica alguna, que haya una cache de 32MB en ese die es la peor cagada de Microsoft.... en ese espacio entraban dos controladores mas DDR3 (para asi poder pensar en 9GB de Ram y 384Bits) y un porron de shaders... Lo de Microsoft, es simplemente una cagada a todas luces..
La PS4 tiene 50% mas shaders y 250% mas ancho de banda, y si nos ponemos a ver lo que pierden las GPUs al quitarles ancho de banda, se puede ver que en potencia grafica la PS4 no es que sea mas potente, es que es mas del doble de potente gracias a la GDDR5, y con huma en la ecuacion, apaga y vamonos... ni remotamente la ESRAM va a acortar una distancia de mas del 100%...
Ya la HD7750 pierde mas del 40% por pasar de GDDR5 a GDDR3... ahora extrapola eso a una GPU de 768Shaders con DDR3 contra una de 1152shaders y GDDR5... seria como una HD7750 DDR5 contra casi una HD7870.. LA ESRAM puede ayudar mucho, pero esta solo tiene 106GB/s... y aunque los tiempos de acceso sean marginales tampoco es que 100GB/s sean mucho, ya mi GTX260 tenia mas, hace la tira de años y con DDR3..
Microsoft sabe esto perfectamente, por eso a ultima hora subieron 50Mhz la GPU, intentando rascar hasta la ultima gota que puedan de esa APU, que ya debe estar produciendose masivamente y montada en millones de consolas que solo esperan la "Bios final".
pspskulls escribió:
No te has enterado de NADA de lo que he dicho. Y desde luego no pienso entrar en las chorradas de potencia y comparaciones que comentas QUE SÍ QUE NO TIENEN lógica alguna.
PD: la eSRAM NO ES UNA CACHÉ. La gente que no tenga ni idea de hardware o desarrollo debería permanecer callada antes de soltar lindezas como estas y quedar en sumo ridículo.
marjalone escribió:ya se vera en noviembre y mas de un fanboy se pondra a llorar , entre ellos yo