Hablemos del interior de Xbox One

b_e_ne está baneado por "Saltarse el baneo con un clon"
Hay declaraciones de uno de los jefazos de Nvidia diciendo que para tener compatilibilidad FULL con directx 12, seran necesarias nuevas graficas, nuevo hardware, es decir que las actuales son compatibles, pero no al 100%....
En esas mismas declaraciones se dice que hasta ahora se han mostrado esas dos caracteristicas, pero que hay muchas mas que estan por revelarse aun,.....
Esta por atras en el hilo, habria que buscarlas....
En mi opinion no es una solucion que buscaron a sus problemas, el hardware de ONE, es deliberadamente asi, y asi se diseño con amd e ibm.....
One y Directx 12 son impletmentaciones de hardware y software de la misma tecnologia, no un parche remendado por MS, basicamente ambos son propiedad de MS....... Directx 12 demanda un ancho de banda muy grande, y casualidad One, esta diseñada precisamente para eso......
b_e_ne escribió:Hay declaraciones de uno de los jefazos de Nvidia diciendo que para tener compatilibilidad FULL con directx 12, seran necesarias nuevas graficas, nuevo hardware, es decir que las actuales son compatibles, pero no al 100%....
En esas mismas declaraciones se dice que hasta ahora se han mostrado esas dos caracteristicas, pero que hay muchas mas que estan por revelarse aun,.....
Esta por atras en el hilo, habria que buscarlas....
En mi opinion no es una solucion que buscaron a sus problemas, el hardware de ONE, es deliberadamente asi, y asi se diseño con amd e ibm.....
One y Directx 12 son impletmentaciones de hardware y software de la misma tecnologia, no un parche remendado por MS.......


Buenas gente, tu lo has dicho jefazos de Nvidia, no de AMD que es quien diseñó la GPU de XboxOne. Que Nvidia necesite sacar una nueva gráfica al mercado pq su arquitectura no soporta las nuevas funcionalidades que se han propuesto no significa que las gráficas de AMD con arquitectura GCN no las soporten.

El fin de la ingeniería es solucionar problemas de la mejor forma posible. XboxOne por supuesto q fue diseñada deliberadamente así, pero se intenta dar la mejor solución a un problema propuesto. El problema propuesto es, tenemos estas necesidades, como hacemos una consola dnd esté todo integrado en una APU, que tenga 8GB de memoria, que no consuma mucha potencia que tenga unos yields muy contenidos y que no se me vaya a 600€ de lanzamiento. Y todo esto en el año 2008...ale a currar xD.

EDITO (de nuevo jejeje): que DirectX 12 demanda un ancho de banda muy grande??. DirectX 12 no demanda nada jejeje, es una API!. Los gráficos son los que demandan un ancho de banda generoso no una API. Además precisamente DirectX 12 lo q intenta es justo lo contrario.

Un saludo.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Todas las opinones son respetables, tu opinas que el hardware de one es un parche, y mucha gente opina igual,....
Pero viendo como se estan desencadenando los acontecimientos, en mi opinon eso era plausible cuando se mostro la consola, pero ahora todo apunta por otros caminos...
Basicamente yo digo que one y dx12, fueron desarrolados a la vez, tanto la tecnologia como el software y repito que ambos son de MS, no entenderia remiendos en un hardware que se desarrolla para tu mismo software..... Si fueran de empresas diferentes pues aun seria entendible......
En MS, AMD y demas, estan los mejores ingenieros del planeta, y si para mi es obvio, creo que para esos cerebros lo sera tambien.....
b_e_ne escribió:Todas las opinones son respetables, tu opinas que el hardware de one es un parche, y mucha gente opina igual,....
Pero viendo como se estan desencadenando los acontecimientos, en mi opinon eso era plausible cuando se mostro la consola, pero ahora todo apunta por otros caminos...


Buenas gente. Yo en ningún momento he dicho q el hardware de XboxOne sea un parche, pq parche suena a improvisación, a no plafinicar las cosas y eso no es así. Como digo, XboxOne ha sido diseñada concienzudamente, resolviendo lo mejor q han podido los problemas que han ido surgiendo, y esto es lo q se hace en ingeniería, no hay más.

Lo normal es q si tu quieres tener una memoria embebida en el chip, empieces a investigar que tipo de memoria es mejor para tus necesidades. La elección de un tipo de memoria tiene pros y contras q tendrás q sopesar para ver si los pros compensan a los contras.

Ahora su solución puede que sea la mejor o no resolviendo y ajustándose a las especificaciones iniciales del problema, pero como he dicho antes, esto no quiere decir que sea la mejor solución del mundo mundial para una APU o una GPU o una consola...

Un saludo.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Al final basicamente hemos llegado a la misma conclusion, cada uno por su lado.....
El hardware de one es especifico para Dx 12, y optimizado a tope para ello....Tu dices que es buscar soluciones a problemas, y es asi, pero siempre con el conjunto global en mente, no por separado..... Ademas, si como crees las AMD seran 100% compatibles, para que se complica la vida MS, si solo tiene que coger una estandar y listo....
Si tenemos en cuenta que Dx 12 sera el estandar para videojuegos en muy poco tiempo, ya que sera la base de pc y one, y prometen grandes mejoras....
Pues grandes noticias para one y creo que veremos grandes avances..... [oki] [oki] [oki]
b_e_ne escribió:Al final basicamente hemos llegado a la misma conclusion, cada uno por su lado.....
El hardware de one es especifico para Dx 12, y optimizado a tope para ello....Tu dices que es buscar soluciones a problemas, y es asi, pero siempre con el conjunto global en mente, no por separado.....
Si tenemos en cuenta que Dx 12 sera el estandar para videojuegos en muy poco tiempo, ya que sera la base de pc y one, y prometen grandes mejoras....
Pues grandes noticias para one y creo que veremos grandes avances..... [oki] [oki] [oki]


Buenas gente. ¬_¬ ¬_¬ ¬_¬ no, no hemos llegado a la misma conclusión. No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello, pq el hardware es el que es y una API lo único q hace es darle soporte no al revés.

One mejorará como todas las consolas han hecho a lo largo de su ciclo de vida independientemente de la salida de una API para PC.

Un saludo.
DX12 ayudará? Si, a que One pueda convertirse en plataforma primaria de desarrollo. DX12 será killer para mejorar enormemente el rendimiento? No, pero lo mejorará un poco? Si.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Polyteres escribió:
b_e_ne escribió:Al final basicamente hemos llegado a la misma conclusion, cada uno por su lado.....
El hardware de one es especifico para Dx 12, y optimizado a tope para ello....Tu dices que es buscar soluciones a problemas, y es asi, pero siempre con el conjunto global en mente, no por separado.....
Si tenemos en cuenta que Dx 12 sera el estandar para videojuegos en muy poco tiempo, ya que sera la base de pc y one, y prometen grandes mejoras....
Pues grandes noticias para one y creo que veremos grandes avances..... [oki] [oki] [oki]


Buenas gente. ¬_¬ ¬_¬ ¬_¬ no, no hemos llegado a la misma conclusión. No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello, pq el hardware es el que es y una API lo único q hace es darle soporte no al revés.

One mejorará como todas las consolas han hecho a lo largo de su ciclo de vida independientemente de la salida de una API para PC.

Un saludo.


En definitiva, dx 12 es para pc, one na de na...... El hardware es una mierda, y MS es idiota que desarrolla las 2 cosas por separado,......
A ver si nos fijamos en que Directx y One son los mismo, son MICROSOFT!!!!!
Ahora que alguien me explique de donde viene, DIRECTX-BOX..... ¬_¬ ¬_¬ ¬_¬
b_e_ne escribió:En definitiva, dx 12 es para pc, one na de na...... El hardware es una mierda, y MS es idiota que desarrolla las 2 cosas por separado,......
A ver si nos fijamos en que Directx y One son los mismo, son MICROSOFT!!!!!
Ahora que alguien me explique de donde viene, DIRECTX-BOX..... ¬_¬ ¬_¬ ¬_¬


Buenas gente. ¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ ¬_¬ . No se si es q lees lo q quieres, o entiendes lo q te da la gana, o simplemente pasas del mundo y piensas lo q quieres. Podemos hablar de lo q quieras, dando opiniones y demás pero en discusiones gratuitas no voy a entrar.

Si después de todo lo q hemos hablado piensas así es q no has entendido nada.

Un saludo.
El problema es que pensamos que somos más listos que los ingenieros de microsoft. Lo digo sin acritud.
Sabemos que empresa es microsoft y el personal que tendrá para desarrollar la consola está muy lejos de nuestro entendimiento.
antonio613 escribió:El problema es que pensamos que somos más listos que los ingenieros de microsoft. Lo digo sin acritud.
Sabemos que empresa es microsoft y el personal que tendrá para desarrollar la consola está muy lejos de nuestro entendimiento.


Buenas gente. No te digo q no, todos pecamos de soberbia en mayor o menor medida, pero tb hay otro problema: creer q Microsoft es todopoderosa y que no se equivoca, q no puede cometer errores, o q sus soluciones son las mejores siempre.

Pero es q, como he dicho anteriormente, probablemente su solución, partiendo de sus especificaciones, sea la mejor...o no, pero esa solución no tiene pq ser la mejor para este sistema.

Un saludo.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Polyteres escribió:
b_e_ne escribió:Al final basicamente hemos llegado a la misma conclusion, cada uno por su lado.....
El hardware de one es especifico para Dx 12, y optimizado a tope para ello....Tu dices que es buscar soluciones a problemas, y es asi, pero siempre con el conjunto global en mente, no por separado.....
Si tenemos en cuenta que Dx 12 sera el estandar para videojuegos en muy poco tiempo, ya que sera la base de pc y one, y prometen grandes mejoras....
Pues grandes noticias para one y creo que veremos grandes avances..... [oki] [oki] [oki]


Buenas gente. ¬_¬ ¬_¬ ¬_¬ no, no hemos llegado a la misma conclusión. No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello, pq el hardware es el que es y una API lo único q hace es darle soporte no al revés.

One mejorará como todas las consolas han hecho a lo largo de su ciclo de vida independientemente de la salida de una API para PC.

Un saludo.


yo creo que lo he entendido perfectamente.....
No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello= MS ha desarrollado sus 2 productos sin tener en cuenta uno del otro, y llamalo como quieras basar el hardware en el software o al reves.....yo digo que los 2 son un conjunto....
el hardware es el que es= el hardware es deifiente, yo lo he llamado una mierda, es lo mismo
independientemente de la salida de una API para PC.= directx es para pc, one como si na

yo tampoco quiero discutir, pero no me gusta como mucha gente se basa en flops, rops, tros, crosks,.... Cuando a mi entender, las cosas OBVIAS, que son DE CAJON DE MADERA DE PINO, que estan en tos los morros ni las ven......

DIRECTX- BOX= CAJA DE DIRECTX (textual)
b_e_ne escribió:yo creo que lo he entendido perfectamente.....
No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello= MS ha desarrollado sus 2 productos sin tener en cuenta uno del otro, y llamalo como quieras basar el hardware en el software o al reves.....yo digo que los 2 son un conjunto....
el hardware es el que es= el hardware es deifiente, yo lo he llamado una mierda, es lo mismo
independientemente de la salida de una API para PC.= directx es para pc, one como si na

yo tampoco quiero discutir, pero no me gusta como mucha gente se basa en flops, rops, tros, crosks,.... Cuando a mi entender, las cosas OBVIAS, que son DE CAJON DE MADERA DE PINO, que estan en tos los morros ni las ven......

DIRECTX- BOX= CAJA DE DIRECTX (textual)


Buenas gente. No, no me has entendido y sigues poniendo en mis dedos cosas que yo no he escrito. Microsoft empezó a desarrollar su consola hace mucho tiempo, tanto q ni siquiera sabía q iba a tener DirectX 12, pero es q por otra parte lo vuelvo a repetir, el software da soporte al hardware no al revés. Si no lo entiendes no puedo hacer mucho mas.

XboxOne tiene su propia API, la cual mejoran con cada iteración. De aquí a 2016 q es cuando se verán los primeros juegos con DirectX 12 espero q Microsoft haya mejorado la API de XboxOne significativamente, por el bien de XboxOne.

Por otra parte: el hardware es el q es no es lo mismo que decir q el hardware es una mierda. Si eso es lo q has entendido es q no tienes comprensión lectora. Cuando digo q el hardware es el q es, es pq lo es jejeje, da igual que lo apliques a la GPU de XboxOne o a una Titan, lo q hay es lo q hay, no es ni bueno ni malo, es una obviedad. Si tu lo tomas como algo peyorativo...tu mismo chico.

Hay cosas q para una persona pueden ser OBVIAS y para otra no serlas. Yo no tengo la culpa de q no veas obvias ciertas cosas, pero no por ello deberías ponerte a la defensiva.

Si una manzana es de color rojo, por mucho q tu me digas q es azul, la manzana va a seguir siendo roja. Que tu la veas azul, o q no al no entender el color rojo digas q es azul pq te gustaría q fuera azul...no va a hacer q la manzana cambie de color.

Para terminar, si me permites te voy a dar un consejo, cógelo si quieres. He seguido el hilo por encima, y en mas de una ocasión has pedido respeto por las opiniones de la gente pero eres el primero q no lo cumples. Si quieres q el hilo siga su curso y no se cierre, respeta la opiniones de los demás, aunq no te gusten, no te pongas a la defensiva y sobre todo no pongas en la boca de alguien algo q no ha dicho.

No voy a llevar esta discusión mas allá pq carece de sentido. Si quieres hablar de hardware, de drivers, de APIs, de AMD o de la temática de este hilo, estaré encantado y dispuesto a conversar tanto contigo como con cualquier participante en el foro.

Un saludo.
Polyteres escribió:
Buenas gente, tu lo has dicho jefazos de Nvidia, no de AMD que es quien diseñó la GPU de XboxOne. Que Nvidia necesite sacar una nueva gráfica al mercado pq su arquitectura no soporta las nuevas funcionalidades que se han propuesto no significa que las gráficas de AMD con arquitectura GCN no las soporten.


No estoy de acuerdo.

Cuando se anunció DX12 se dio la lista de las GPUs compatibles, donde entraban las Nvidia. Afirmar que las Nvidia no soportan bien la API cuando ya se ha anunciado su compatibilidad, es inventarse un poco las cosas.

Las Nvidia están en la lista y eso es lo que vale, pues es info oficial. Si luego han dicho que no están reveladas todas las características de DX12 que que hay novedades que necesitan de una GPU nexgen pues es lo que hay. Lo dice Nvidia no nosotros.

Lo único que nos llama la atención es la similitud de esas nuevas GPUs con la arquitectura de ONE. A partir de aquí cada uno desarrolla un visión propia del asunto. La mía está muy clara, que no confirmada, y es que la arquitectura de ONE es truenextgen. Ahora falta ver si su hardware también lo es o se queda a medio camino. Y para ello necesito ver juegos que salgan como muy pronto a finales de este año, aunque lo suyo es para el 2015.

Si esos juegos gráficamente no concuerdan con el hardware de ONE o superan a los de PS4, pues blanco y en botella.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Polyteres escribió:
b_e_ne escribió:yo creo que lo he entendido perfectamente.....
No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello= MS ha desarrollado sus 2 productos sin tener en cuenta uno del otro, y llamalo como quieras basar el hardware en el software o al reves.....yo digo que los 2 son un conjunto....
el hardware es el que es= el hardware es deifiente, yo lo he llamado una mierda, es lo mismo
independientemente de la salida de una API para PC.= directx es para pc, one como si na

yo tampoco quiero discutir, pero no me gusta como mucha gente se basa en flops, rops, tros, crosks,.... Cuando a mi entender, las cosas OBVIAS, que son DE CAJON DE MADERA DE PINO, que estan en tos los morros ni las ven......

DIRECTX- BOX= CAJA DE DIRECTX (textual)


Buenas gente. No, no me has entendido y sigues poniendo en mis dedos cosas que yo no he escrito. Microsoft empezó a desarrollar su consola hace mucho tiempo, tanto q ni siquiera sabía q iba a tener DirectX 12, pero es q por otra parte lo vuelvo a repetir, el software da soporte al hardware no al revés. Si no lo entiendes no puedo hacer mucho mas.

XboxOne tiene su propia API, la cual mejoran con cada iteración. De aquí a 2016 q es cuando se verán los primeros juegos con DirectX 12 espero q Microsoft haya mejorado la API de XboxOne significativamente, por el bien de XboxOne.

Por otra parte: el hardware es el q es no es lo mismo que decir q el hardware es una mierda. Si eso es lo q has entendido es q no tienes comprensión lectora. Cuando digo q el hardware es el q es, es pq lo es jejeje, da igual que lo apliques a la GPU de XboxOne o a una Titan, lo q hay es lo q hay, no es ni bueno ni malo, es una obviedad. Si tu lo tomas como algo peyorativo...tu mismo chico.

Hay cosas q para una persona pueden ser OBVIAS y para otra no serlas. Yo no tengo la culpa de q no veas obvias ciertas cosas, pero no por ello deberías ponerte a la defensiva.

Si una manzana es de color rojo, por mucho q tu me digas q es azul, la manzana va a seguir siendo roja. Que tu la veas azul, o q no al no entender el color rojo digas q es azul pq te gustaría q fuera azul...no va a hacer q la manzana cambie de color.

Para terminar, si me permites te voy a dar un consejo, cógelo si quieres. He seguido el hilo por encima, y en mas de una ocasión has pedido respeto por las opiniones de la gente pero eres el primero q no lo cumples. Si quieres q el hilo siga su curso y no se cierre, respeta la opiniones de los demás, aunq no te gusten, no te pongas a la defensiva y sobre todo no pongas en la boca de alguien algo q no ha dicho.

No voy a llevar esta discusión mas allá pq carece de sentido. Si quieres hablar de hardware, de drivers, de APIs, de AMD o de la temática de este hilo, estaré encantado y dispuesto a conversar tanto contigo como con cualquier participante en el foro.

Un saludo.


Yo personalmente, lo que has dicho es lo que has dicho, sin darle mas vueltas.... esta escrito en el foro....
Es muy simple....
Yo no necesito ser ingeniero informatico para darme cuenta de ciertas cosas, aunque algun ingeniero informatico no se de cuenta de ellas.... Es solo sentido comun, el menos comun de todos los sentidos.....
Que quieres decir que one y dx12 no tienen na que ver, despues de que MS TE HA DICHO QUE ES FULL, pues bien....
Que seguimos pensando que MS es idiota, y saca sus productos por separdo, pues vale.....
Que pensamos que el pastizal que se ha gastado MS es solo para poner parches, pues tambien.....
OS VA A COMER, y vais a seguir igual.....
Que queremos pensar que MS es gilipollas, pues vale..... pero mejor forza que gt 6........
Veo que sigue la misma tonica de pensar que la esram es el parche puesto por Microsoft por no meter GDDR5.Pero a ver,porque tiene que ser asi?!Porque no puede ser una nueva forma de trabajar?!No os dice nada la configuracion de la GPU? Con esos 2 commands graphics?Para que co... quiere una GPU discreta eso?Porque sus CUs son mas rapidas y eficientes de lo normal?Porque tantos procesadores de apoyo y como funcionan?Donde estan esos Mb de lv2 de mas?Bahh eso no interesa,solo se miran las 12CUS y que no hay GDDR5 no hay que mirar mas.Saca Microsoft las nuevas DX12 y ya estamos con que no incorporan nada nuevo aunque desde Microsoft se confirme.Señores como lo sabemos si no hay ningun juego preparado para ellas,ni GPUs con soporte al 100% todabia?!!.Pone que las series 4xx de nividia en adelante y serie 5xxx de AMD en adelante tienen "soporte" ,no la totalidad de las funciones.No nos equivoquemos que ya paso con las DX11.2 donde se dice que las series 7700 GCN de AMD tienen soporte pero "solo hay soporte al 100% " en la serie HD 7900 en adelante que por lo que veo en muchos sitios se omite.El problema radica en que no hemos visto todavia ningun juego con funciones ni de DX11.2 ni de DX12.Tampoco hemos llegado a ver las PRT en accion en ningun juego y en definitiva no hemos visto nada de lo que puede ofrecer one.Estamos ante un timido inicio donde la mayoria de sus funciones no estan ni siquiera implementadas pero es mas facil criticar que buscar explicaciones logicas a esa arquitectura y o forma de trabajar.Yo digo que veremos un gran cambio el proximo año en one y mucha gente se sorprendera. [sonrisa]
Yo estoy casi seguro de que MS optó por esta arquitectura para la consola por motivos de rendimiento, pensando en el futuro; así que espero ver grandes cosas en el futuro. Eso sí, hay algunas pajas mentales del misterxmedia ese que son pa mear y no echar gota por lo que habéis estado poniendo. Hay mucho futuro en esta consola, pero también mucha gente que vive en el mundo de las fantasías y ve cosas donde no las hay.
Buenas gente.

@Horizonte de sucesos no tengo ni idea d q tarjetas de Nvidia van a tener soporte para DirectX 12. Lo q digo en ese mensaje es en respuesta a b_e_n_e q por el tema del jefazo de Nvidia y sus declaraciones sobre q se requeriría hardware nuevo...y yo simplemente he respondido que lo q diga un jefazo de Nvidia será aplicable a las tarjetas de Nvidia no a las tarjetas de AMD, quizás no lo expresé bien.

Por otra parte, dnd está la similitud?.

@b_e_n_e lo dicho antes, no voy a llevar la discusión contigo más allá a no ser q tengas algo q aportar al tema del hilo, en cuyo caso estaré encantando de hablar contigo. Por lo demás...modérate, modérate.

@Hookun

Veo que sigue la misma tonica de pensar que la esram es el parche puesto por Microsoft por no meter GDDR5.Pero a ver,porque tiene que ser asi?!


Pq la DDR3 tiene un ancho de banda muy limitado para lo q se requiere en procesos gráficos, y por tanto necesitas hacer algo más para suplir ese ancho de banda. Además tener un único pool de memoria con un ancho de banda elevado es muy ventajoso. Me da igual que sea GDDR5, DDR4 o la tecnología que quieras, siempre y cuando me des un ancho de banda grande. Esto me facilita las cosas pq no tengo q estar rompiendome la cabeza para saber dnd coño van a estar los datos en cada momento para q no se joda el rendimiento. Xbox360 lo hacia con la GDDR3 y me parecía mejor solución que tener dos pools de memoria separados con anchos de banda distintos.

No os dice nada la configuracion de la GPU? Con esos 2 commands graphics?Para que co... quiere una GPU discreta eso?Porque sus CUs son mas rapidas y eficientes de lo normal?


Uno de alta prioridad para el SO (para q al hacer swap no tengas q esperar dos horas a q te muestre el SO), y otro de "baja prioridad" para el juego. No obstante esto sería una ventaja si fuera una característica exclusiva, no lo es. Las CUs no son mas eficientes o rápidas de lo "normal", son arquitectura Sea Island (lo dice la propia Ms), por tanto se sabe lo q tienen dentro, cuantas datos pueden manejar de forma simultánea, cual es su estructura...Además los datos aportados por Ms corroboran que las CUs siguen a rajatabla dicha arquitectura.

Porque tantos procesadores de apoyo y como funcionan?

Se sabe cuantos hay y que hacen cada uno.

Donde estan esos Mb de lv2 de mas?

Que megas de lv2 de caché de mas?.

Para terminar las PRT si tienes Battlefield 4 ya las estás viendo funcionando.

Un saludo.
Microsoft pudo haber puesto GDDR5 y no le dio la gana.

Sí, buscaba 8GB de RAM, pero no para juegos señores. Pudo haber hecho lo mismo que sony, una xbox one con GDDR5 para juegos y DDR3 para el SO.

Sí, que sería más caro por tener dos pool distintos. Y qué? más se ha gastado con AMD para suplir los supuestos parches que decís (3000 millones de $)

Sí, que sería más lento acceder a la DDR3. Y qué, si es para el SO, no para juegos.

Si tiene la arquitectura que tiene es por algo, no por no poder disponer de GDDR5 para juegos. Creo que es bastante obvio.

MS ha hecho una inversión en I+D acojonante.
Polyteres escribió:Buenas gente.

@Horizonte de sucesos no tengo ni idea d q tarjetas de Nvidia van a tener soporte para DirectX 12. Lo q digo en ese mensaje es en respuesta a b_e_n_e q por el tema del jefazo de Nvidia y sus declaraciones sobre q se requeriría hardware nuevo...y yo simplemente he respondido que lo q diga un jefazo de Nvidia será aplicable a las tarjetas de Nvidia no a las tarjetas de AMD, quizás no lo expresé bien.

Por otra parte, dnd está la similitud?.

@b_e_n_e lo dicho antes, no voy a llevar la discusión contigo más allá a no ser q tengas algo q aportar al tema del hilo, en cuyo caso estaré encantando de hablar contigo. Por lo demás...modérate, modérate.

@Hookun
Veo que sigue la misma tonica de pensar que la esram es el parche puesto por Microsoft por no meter GDDR5.Pero a ver,porque tiene que ser asi?!


Pq la DDR3 tiene un ancho de banda muy limitado para lo q se requiere en procesos gráficos, y por tanto necesitas hacer algo más para suplir ese ancho de banda. Además tener un único pool de memoria con un ancho de banda elevado es muy ventajoso. Me da igual que sea GDDR5, DDR4 o la tecnología que quieras, siempre y cuando me des un ancho de banda grande. Esto me facilita las cosas pq no tengo q estar rompiendome la cabeza para saber dnd coño van a estar los datos en cada momento para q no se joda el rendimiento. Xbox360 lo hacia con la GDDR3 y me parecía mejor solución que tener dos pools de memoria separados con anchos de banda distintos.

No os dice nada la configuracion de la GPU? Con esos 2 commands graphics?Para que co... quiere una GPU discreta eso?Porque sus CUs son mas rapidas y eficientes de lo normal?


Uno de alta prioridad para el SO (para q al hacer swap no tengas q esperar dos horas a q te muestre el SO), y otro de "baja prioridad" para el juego. No obstante esto sería una ventaja si fuera una característica exclusiva, no lo es. Las CUs no son mas eficientes o rápidas de lo "normal", son arquitectura Sea Island (lo dice la propia Ms), por tanto se sabe lo q tienen dentro, cuantas datos pueden manejar de forma simultánea, cual es su estructura...Además los datos aportados por Ms corroboran que las CUs siguen a rajatabla dicha arquitectura.

Porque tantos procesadores de apoyo y como funcionan?

Se sabe cuantos hay y que hacen cada uno.

Donde estan esos Mb de lv2 de mas?

Que megas de lv2 de caché de mas?.

Para terminar las PRT si tienes Battlefield 4 ya las estás viendo funcionando.

Un saludo.



Todo el mundo sabe que aunque una da mucho mas ancho de banda pierde en latencias y Micro quiere buenas latencias para su sistema,para las PRT,cloud o lo que sea pero esta muy claro que ha escogido ese binomio por algo.Por los framebuffers?!!Todo el jaleo es por los framebuffers?!!Siento recordarte que one puede acceder simultaneamente a sus 2 bancos de memoria o pools que os gusta llamarlos.Es capaz de que la esram renderice X y la ddr3 Y para despues mostrarlo en pantalla.Por no contar que si se utilizan las PRTs junto con los DMEs no necesitaras de tanto ancho de banda.
Los graphics commands para el SO?!!!EStas seguro de lo que hablas?!!!Te pongo el enlace oficial de la arquitectura GCN de AMD:
The graphics command processor coordinates the traditional rendering pipeline. The 3D pipeline consists of several types of programmable shaders
(e.g. vertex, hull, domain, geometry and pixel shaders) and a variety of fixed function hardware that manipulates triangles and pixels. The shader
performance is quite scalable, so the real challenge lies with scaling the fixed function hardware.
Parece que no gestionan el SO sino los Shaders.De lo que tu estas hablando se encarga el pequeño ssd de 8gb de hacer una rapidisima cache del sistema junto con una parte de la memoria ram.
Las CUs que no tienen nada de especial porque son sea islands?!!pero micro habla de un 6% sobre la misma arquitectura no sobre otra.
Los chips se conoce el shape,los DMES y alguno mas que esta en el puerto ethernet pero alguno de ellos no se esta utilizando adecuadamente por lo tanto no sabemos las mejoras que puedan producir.
La memoria claro que la sabes,Micro nos dijo 47 mb y hay 32 mb de esram,4mb de los jaguar y se supone que otros 4mb de cache de apoyo entre los jaguar...Vaya nos faltan 7mb mas,podrias decirnos donde se encuentran?!!!Si lo sabes nos podrias dar mas detalles.
Edito que se me habia olvidado...Battlefield NO UTILIZA PRT!!SE ve algunas cosas mejores por el POSTPROCESADO!!Que es diferente...
Perdona tio pero creo que no deberias leer neogaf y si no lo haces lo parece.
Un saludo
Buenas, vengo a animar esto un poco:

http://www.redgamingtech.com/xbox-one-e ... developer/

Mi idea con esto es desmitificar un poco lo que muchos creen de que tiene que haber algo escondido que esta por descubrirse (al igual que lo de la doble gpu que se especulaba hace unos meses..).

La parte interesante:

When I hear people say devs need to just utilize esram better, its like saying they need to learn how to do the most basic thing again. Esram isn’t rocket science, it isn’t even complex. Its just a pain in the a**. That’s it,”

"Cuando oigo a la gente decir que los desarrolladores tienen que utilizar la esram mejor, es como decir que necesitan aprender a hacer algo muy basico de nuevo. Esram no es ciencia de misiles, no es siquiera complicada. Solo es un dolor en el c*lo. Eso es".

Y es que es cierto. Solo porque muchos no sepan lo que es no quiere decir que sea algo super complicado y dificil de sacarle provecho.

Mi conclusion es que de donde no hay, no se puede sacar, y que mas vale dejar de hacerse pajas mentales.

Un saludo!
Lo único que has hecho si no me equivoco, si me equivoco que alguien me corrija, es poner una cita de una opinión personal de un insider, además creo que cercano a sony.

Que por otro lado ayer mismo dijo que dejaba de cumplir con su papel de insider en Neogaf.

Edito: A no, no, que ha sido baneado...
Lo unico que pongo es que la gente que trabaja con hardware grafico sabe de sobra lo que es una Esram y lo que se puede o no hacer con ella, al igual que la arquitectura de la Xbox one, que no es algo traido de Marte ni nada que no se haya implementado ya en tarjetas graficas de PC. Por lo tanto, pensar que hay algo oscuro ahi escondido que va a mejorar drasticamente las capacidades graficas de la one es bastante ingenuo.

Un saludo!
Todos los programadores decimos que algo es un dolor de huevos la primera vez que lo vemos. Las tablas te enseñan a callarte la puta boca antes de quedar en ridículo. Y no estoy defendiendo la ESRAM.
Lo que nadie habla de tecnologias alienigenas u secret sauces si no de formas diferentes de trabajar para llegar a un fin.De todas maneras hasta el momento ninguna GPU ha dispuesto de semejante cantidad de ESRAM,ni nadie la habia utilizado como memoria grafica.Asi que es muy prematuro hablar y dar unos resultados finales respecto a guiarnos por los resultados de unos juegos multiplataforma que no han utilizado debidamente u odbiado la esram por no hablar de otros chips.A modo de anecdota os dire que la HD 7970 "solo" dispone de 12 mb de ESRAM asi que si se ha metido tanta sera por algo.
argam escribió:Buenas, vengo a animar esto un poco:

http://www.redgamingtech.com/xbox-one-e ... developer/

Mi idea con esto es desmitificar un poco lo que muchos creen de que tiene que haber algo escondido que esta por descubrirse (al igual que lo de la doble gpu que se especulaba hace unos meses..).

La parte interesante:

When I hear people say devs need to just utilize esram better, its like saying they need to learn how to do the most basic thing again. Esram isn’t rocket science, it isn’t even complex. Its just a pain in the a**. That’s it,”

"Cuando oigo a la gente decir que los desarrolladores tienen que utilizar la esram mejor, es como decir que necesitan aprender a hacer algo muy basico de nuevo. Esram no es ciencia de misiles, no es siquiera complicada. Solo es un dolor en el c*lo. Eso es".

Y es que es cierto. Solo porque muchos no sepan lo que es no quiere decir que sea algo super complicado y dificil de sacarle provecho.

Mi conclusion es que de donde no hay, no se puede sacar, y que mas vale dejar de hacerse pajas mentales.

Un saludo!


Hacer dominadas con el balon no es ciencia de marte. Hacer mil dominadas con el balon, requiere muchisima practica.

Usad la esram no es ciencia de marte, usarla como unmaestro eso es el reto.
argam escribió:Buenas, vengo a animar esto un poco:

http://www.redgamingtech.com/xbox-one-e ... developer/

Mi idea con esto es desmitificar un poco lo que muchos creen de que tiene que haber algo escondido que esta por descubrirse (al igual que lo de la doble gpu que se especulaba hace unos meses..).

La parte interesante:

When I hear people say devs need to just utilize esram better, its like saying they need to learn how to do the most basic thing again. Esram isn’t rocket science, it isn’t even complex. Its just a pain in the a**. That’s it,”

"Cuando oigo a la gente decir que los desarrolladores tienen que utilizar la esram mejor, es como decir que necesitan aprender a hacer algo muy basico de nuevo. Esram no es ciencia de misiles, no es siquiera complicada. Solo es un dolor en el c*lo. Eso es".

Y es que es cierto. Solo porque muchos no sepan lo que es no quiere decir que sea algo super complicado y dificil de sacarle provecho.

Mi conclusion es que de donde no hay, no se puede sacar, y que mas vale dejar de hacerse pajas mentales.

Un saludo!

Con leer esto ya me a sobrado,FamousMortimer.
A ver, imagino que todos estaremos de acuerdo en que la gente de Nvidia y Ati/AMD saben un poco de hardware grafico. Y si miras sus tarjetas graficas punteras, que arquitectura tienen? Que memoria tienen?

Un saludo!
(mensaje borrado)
argam escribió:A ver, imagino que todos estaremos de acuerdo en que la gente de Nvidia y Ati/AMD saben un poco de hardware grafico. Y si miras sus tarjetas graficas punteras, que arquitectura tienen? Que memoria tienen?

Un saludo!


Te refieres a las nuevas de Nvidia?

Las que van a a tener un soporte total por hardware a las nuevas características aún no anunciadas de DX12?

A esas te refieres?
b_e_ne está baneado por "Saltarse el baneo con un clon"
creo q si, que se refiere a esas..... XD XD XD XD

Imagen
Polyteres escribió:
Buenas gente. ¬_¬ ¬_¬ ¬_¬ no, no hemos llegado a la misma conclusión. No pienso que el hardware de One sea específico para DirectX 12, ni que esté optimizado para ello, pq el hardware es el que es y una API lo único q hace es darle soporte no al revés. [...]

Un saludo.


WRONG.
Cuando software y hardware se lanzan en el orden que esta ocurriendo, el software tiene que adaptarse, lógicamente. No obstante lo mejor y lo que más funciona es parirlos a la vez.
Buenas gente. Este post va a ser un poquito complejo y laaargo xD voy a poner mis respuestas en spoiler para no saturar al personal jejeje.

Hookun escribió:Todo el mundo sabe que aunque una da mucho mas ancho de banda pierde en latencias y Micro quiere buenas latencias para su sistema,para las PRT,cloud o lo que sea pero esta muy claro que ha escogido ese binomio por algo.Por los framebuffers?!!Todo el jaleo es por los framebuffers?!!Siento recordarte que one puede acceder simultaneamente a sus 2 bancos de memoria o pools que os gusta llamarlos.Es capaz de que la esram renderice X y la ddr3 Y para despues mostrarlo en pantalla.Por no contar que si se utilizan las PRTs junto con los DMEs no necesitaras de tanto ancho de banda.


Las latencias para acceder desde la caché L2 a la memoria DDR3 en XboxOne son de unos 170-190 ciclos frente a unos 220 ciclos respecto a usar GDDR5. La diferencia no es abismal y más si el controlador de memoria y sobre todo el compilador ayudan ocultando las latencias (q lo hacen). Siempre será mejor tener menos latencia obviamente, pero para un procesador como el que montan (Jaguar y a baja frecuencia) no es demasiado relevante.

Se que XboxOne puede acceder a los dos pools de forma simultánea pero para sacar el máximo provecho a este sistema de memoria y por tanto que te acerques al pico teórico tienes que estar haciendo una serie de operaciones de forma simultánea que raramente vas a conseguir. Tendrías q estar leyendo de la eSRAM en uno de los bancos de 8 megas, mientras que estas escribiendo en otro de los bancos de 8 megas, no puede ser el mismo, mientras a la vez estás accediendo a la memoria DDR3 a los 4 bancos a la vez ya sea para lectura o para escritura. Es un dolor de muelas.

Por último las PRTs y los DME no ahorran ancho de banda, de hecho lo necesitan para funcionar en condiciones. Son transferencias de memoria...a mas ancho de banda mas datos puedes mover.


Hookun escribió:Los graphics commands para el SO?!!!EStas seguro de lo que hablas?!!!Te pongo el enlace oficial de la arquitectura GCN de AMD:
...
Parece que no gestionan el SO sino los Shaders.De lo que tu estas hablando se encarga el pequeño ssd de 8gb de hacer una rapidisima cache del sistema junto con una parte de la memoria ram.


Hagamos un viaje profundo por la arquitectura de una GPU, esto va a molar xD.

Los graphics commands son planificadores de tareas gráficas. La CPU escribe en un buffer (command buffer) las "instrucciones" que quiere q la GPU haga y se las pasa para que las procese (esto es uno de los principales problemas de sobrecarga en los drivers dicho sea de paso). Dicho buffer se le pasa a un command proccessor (q aquí lo han llamado graphics proccessor pq solo planifica tareas gráficas, nada de GPGPU) para que se encargue de ver que unidades están libres, resuelva las dependencias...y asigne la tarea a las unidades correspondientes (pintar un triangulo, cambiar un estado, cargar una textura...).

Cada aplicación tiene su command buffer (por decirlo de alguna manera) pero que pasa si solo hay un command proccesor?. Q tienen que pelear por el. Imagínate que tu tienes tu SO y tu juego. Si le das al botoncito para q ponga tu juego en "segundo plano" en una pequeña pantalla y pinte el SO al lado o por ejemplo mientras que estás jugando quieres superponer varios planos (SO y juego) para consultar una cosa en internet o hacer una llamada por skype...si hubiera un solo command proccessor la planificación sería más lenta (hay q limpiar cachés, esperar que todo termine...) y tardaría mucho mas en sacarte el menú y perderías eficiencia. Ahora imagínate que tienes dos command proccessor con diferentes prioridades (la mas alta para el SO pq cuando le das al botón quieres q sea muy reactivo). Podrías tener planificadas dos "lineas" a la vez (SO y juego) sabiendo dnd van a ir cada una (10% de GPU reservada para el SO). En que se traduce esto?. En q no tengas q esperar prácticamente nada...q a q mola? xD.

Espero q ahora entendáis las tonterias q decía mixstermedia sobre que la GPU de XboxOne estaba dividida en dos y tenia el doble de potencia debido a los dos graphics proccessor...


Hookun escribió:Las CUs que no tienen nada de especial porque son sea islands?!!pero micro habla de un 6% sobre la misma arquitectura no sobre otra.


Un 6% más rápidas antes de subir la frecuencia de reloj con respecto a lo que tenían antes. Regla de tres básica:

800MHz -----> 100%
853MHz -----> x

x = 106,625

Anda mira ahora tienen unas CUs un 6% más rápidas que antes.


Hookun escribió:Los chips se conoce el shape,los DMES y alguno mas que esta en el puerto ethernet pero alguno de ellos no se esta utilizando adecuadamente por lo tanto no sabemos las mejoras que puedan producir.


Se conocen todos desde la conferencia que dio Microsoft en la HotChip y lo q hacen cada uno:

Imagen

Imagen

Vamos a contar:

-Sonido: 8 se come el sonido (cosa q ya se sabía de antemano). Lo q hacen cada uno lo puedes leer en la imagen es suficientemente descriptiva.
- 4 DME: transferencias de memoria eSRAM-eSRAM y eSRAM-DDR3, a parte dos de ellos pueden usar compresion LZ y otro a parte de LZ tb puede hacer lo propio con JPGE.
- Video Encode/Decode: para codificar y decodificar video, por si haces streamming, una llamada, ves un video...
- Composición de imagen y sonido: pues eso, todo lo q has creado, a tirarlo por la salida correspondiente.
- Entrada de video.

8+4+1+1+1 = 15 coprocesadores.


Hookun escribió:La memoria claro que la sabes,Micro nos dijo 47 mb y hay 32 mb de esram,4mb de los jaguar y se supone que otros 4mb de cache de apoyo entre los jaguar...Vaya nos faltan 7mb mas,podrias decirnos donde se encuentran?!!!Si lo sabes nos podrias dar mas detalles.


No se si sabes pero la arquitectura GCN tiene una serie de registros y bancos de memoria repartidos a lo largo del chip para asegurar la consistencia en los datos puesto que no se usan memorias con corrección de errores. Una 7970 tiene creo q hasta 16 o 12 MB...ahí tienes lo q falta.


Hookun escribió:Edito que se me habia olvidado...Battlefield NO UTILIZA PRT!!SE ve algunas cosas mejores por el POSTPROCESADO!!Que es diferente...
Perdona tio pero creo que no deberias leer neogaf y si no lo haces lo parece.
Un saludo


Esto no tiene ni pies ni cabeza. Las texturas de los terrenos de BF4 usan PRT, el postprocesado no tiene nada que ver aquí.


Un saludo.
@Polyteres
Se que XboxOne puede acceder a los dos pools de forma simultánea pero para sacar el máximo provecho a este sistema de memoria y por tanto que te acerques al pico teórico tienes que estar haciendo una serie de operaciones de forma simultánea que raramente vas a conseguir. Tendrías q estar leyendo de la eSRAM en uno de los bancos de 8 megas, mientras que estas escribiendo en otro de los bancos de 8 megas, no puede ser el mismo, mientras a la vez estás accediendo a la memoria DDR3 a los 4 bancos a la vez ya sea para lectura o para escritura. Es un dolor de muelas.


Pues parece que a eso al menos ya le habían dado solución:
The big revelation was that ESRAM could actually read and write at the same time

"There are four 8MB lanes, but it's not a contiguous 8MB chunk of memory within each of those lanes. Each lane, that 8MB is broken down into eight modules. This should address whether you can really have read and write bandwidth in memory simultaneously


http://www.eurogamer.net/articles/digitalfoundry-vs-the-xbox-one-architects
papatuelo escribió:@Polyteres
Se que XboxOne puede acceder a los dos pools de forma simultánea pero para sacar el máximo provecho a este sistema de memoria y por tanto que te acerques al pico teórico tienes que estar haciendo una serie de operaciones de forma simultánea que raramente vas a conseguir. Tendrías q estar leyendo de la eSRAM en uno de los bancos de 8 megas, mientras que estas escribiendo en otro de los bancos de 8 megas, no puede ser el mismo, mientras a la vez estás accediendo a la memoria DDR3 a los 4 bancos a la vez ya sea para lectura o para escritura. Es un dolor de muelas.


Pues parece que a eso al menos ya le habían dado solución:
The big revelation was that ESRAM could actually read and write at the same time

"There are four 8MB lanes, but it's not a contiguous 8MB chunk of memory within each of those lanes. Each lane, that 8MB is broken down into eight modules. This should address whether you can really have read and write bandwidth in memory simultaneously


http://www.eurogamer.net/articles/digitalfoundry-vs-the-xbox-one-architects


Buenas gente. Si, si eso está claro. Si no fuera así es q no saldrían los números. Hay dos buses de 1024bits uno de lectura y otro de escritura, bueno en realidad hay 4 de 256bits de lectura y 4 de 256bits de escritura cada par de dos están asociados a un controlador de memoria. Esto te divide la eSRAM en 4 modulos de 8MB cada uno, de los cuales cada uno está dividido a su vez en 8 modulos de 1MB.

Si quieres acercarte al pico teórico de la memoria tienes que estar leyendo de los 4 bancos a la vez en una subparte de los 8MB mientras que estás escribiendo en los 4 bancos a la vez en otra subparte de los 8MBs. Si lees y escribes en la misma posición de memoria (machacas el dato) no haces lectura y escritura simultánea por lo que el rendimiento al carajo.

Si usas los DME puedes conseguir la máxima frecuencia del bus/memoria eSRAM pero a costa de que estás bloqueando el acceso a la eSRAM por ejemplo para la GPU. Si usas los DME para copiar memoria entre la eSRAM y la DDR3, primero capas el bus de la DDR3 por lo q ni GPU ni CPU pueden usarlo, y por otra parte la anchura del bus de la DDR3 es de 256 bits por lo que solo podría usar uno de los bancos de 8MB y por tanto no llegas ni de lejos al ancho de banda total.

Con que operaciones podrías intentar acercarte al límite teórico?. Por ejemplo si estás haciendo operaciones de blending, dnd podrías estar leyendo de la eSRAM a la vez que escribes en ella (pero sin machacar los datos...esto te reduce la cantidad de memoria a usar por otra parte), mientras que tu CPU por ejemplo está leyendo de la memoria DDR3. En cuantas mas operaciones...pocas más.

Un saludo.
Stylish escribió:Cuando software y hardware se lanzan en el orden que esta ocurriendo, el software tiene que adaptarse, lógicamente. No obstante lo mejor y lo que más funciona es parirlos a la vez.


De acuerdo, pero en un entorno virtualizado y escalable, el software no da soporte al hardware, sino al contrario.
KinderRey escribió:
Stylish escribió:Cuando software y hardware se lanzan en el orden que esta ocurriendo, el software tiene que adaptarse, lógicamente. No obstante lo mejor y lo que más funciona es parirlos a la vez.


De acuerdo, pero en un entorno virtualizado y escalable, el software no da soporte al hardware, sino al contrario.


Pero en One no hay ningún entorno virtualizado de forma general.
Stylish escribió:
KinderRey escribió:
Stylish escribió:Cuando software y hardware se lanzan en el orden que esta ocurriendo, el software tiene que adaptarse, lógicamente. No obstante lo mejor y lo que más funciona es parirlos a la vez.


De acuerdo, pero en un entorno virtualizado y escalable, el software no da soporte al hardware, sino al contrario.


Pero en One no hay ningún entorno virtualizado de forma general.


Todo el sistema está virtualizado, incluida la GPU y ciertas modificaciones en la implementación de la virtualización por parte de los núcleos Jaguar.
One es un buen ejemplo de hardware "acomodado" a prerequisitos de software, más allá de la virtualización está por ejemplo el procesador de comandos de la GPU modificado por Microsoft y que será (creo) uno de los requisitos para que una GPU sea 100% DX12.
b_e_ne está baneado por "Saltarse el baneo con un clon"
q opinais de esto?

Imagen
b_e_ne escribió:q opinais de esto?

Imagen


Que no tengo ni puta idea de japonés [+risas]

Yo no me fio de las cosas que se vean por ahí. Eso tiene pinta de tener mucho tiempo. Del 2012.


Un saludo.
b_e_ne está baneado por "Saltarse el baneo con un clon"
http://www.meristation.com/playstation- ... 72/1966965

Este no es el mortimer del que hemos hablado aqui??
Eso es noticia para meristation........ :-? :-? :-?

http://es.ign.com/news/13635/xbox-one-p ... ca-digital
ojala dejen compartir juegos digitales.......
b_e_ne escribió:http://www.meristation.com/playstation-4/noticias/un-insider-explica-los-despidos-en-los-estudios-de-sony/44672/1966965

Este no es el mortimer del que hemos hablado aqui??
Eso es noticia para meristation........ :-? :-? :-?

http://es.ign.com/news/13635/xbox-one-p ... ca-digital
ojala dejen compartir juegos digitales.......

Que pinta esa noticia de meri aqui,luego te quejas de que aqui no se hable de la otra cuando eres tu que trae la mierda aqui
Botarga escribió:Yo estoy casi seguro de que MS optó por esta arquitectura para la consola por motivos de rendimiento, pensando en el futuro; así que espero ver grandes cosas en el futuro. Eso sí, hay algunas pajas mentales del misterxmedia ese que son pa mear y no echar gota por lo que habéis estado poniendo. Hay mucho futuro en esta consola, pero también mucha gente que vive en el mundo de las fantasías y ve cosas donde no las hay.


Solo Misterxmedia? En este mismo hilo también se pueden ver unas cuantas "pajas mentales", cada uno exponiendo sus propias conclusiones y puntos de vista. Vamos, que "pajas mentales" no faltan, más bien sobran. [+risas]

Yo también opino que la consola está "pensada" para el futuro. Ahora, habrá que ver qué nos van ofreciendo con el paso del tiempo. Espero que sea bueno. :)
indigo_rs está baneado por "saltarse el ban con un clon"
Imagen
b_e_ne escribió:q opinais de esto?

Imagen


Que para que hablar de elucubraciones de hace meses cuando las especificaciones de cada consola ya han sido publicadas por sus companyias :)

Yo sigo pensando que lo del hardware escondido que va a ser la revolucion es una tonteria. El hardware esta ahi, y seria muy tonto por parte de Microsoft estar perdiendo ventas durante meses esperando a descubrirlo. Que pueden optimizar el uso de la eDRAM, por supuesto, y lo van a hacer. El problema es que vas a seguir arrastrando la baja velocidad de la DDR3, y el reducido numero de CU's con respecto a la PS4. Ademas de que, cualquier cosa novedosa que puedas hacer con la eDRAM, Sony lo va a poder hacer igual con la GDDR5, y sin limitaciones de capacidad.

Un saludo!
SangReal está baneado del subforo por "Flamer anti Xbox One"
Hardware escondido? Dios mio, y pensar que yo estaba enfermo.....
SangReal escribió:Hardware escondido? Dios mio, y pensar que yo estaba enfermo.....

Gran aporte de un usuario muy interesado en la Xbox One.
SangReal está baneado del subforo por "Flamer anti Xbox One"
antonio613 escribió:
SangReal escribió:Hardware escondido? Dios mio, y pensar que yo estaba enfermo.....

Gran aporte de un usuario muy interesado en la Xbox One.


Dejaros de conspiraciones y jugar a la puñetera consola joder
SangReal escribió:
antonio613 escribió:
SangReal escribió:Hardware escondido? Dios mio, y pensar que yo estaba enfermo.....

Gran aporte de un usuario muy interesado en la Xbox One.


Dejaros de conspiraciones y jugar a la puñetera consola joder


He hecho un pequeña releída de tus últimos mensajes y...

No haces más que quejarte con un airecito de superioridad que no se lo cree nadie.
17587 respuestas