Xbox One ( Solo temas sobre Xbox One )

sero escribió:Quito la suscripción a este hilo, no se realmente quien es mas patético, los que defienden la xbox one como si la fabricasen ellos, o los que defienden la ps4 por lo mismo. También hay una tercera variante, los que no admiten ni una sola crítica de la xbox one aunque el que haga la crítica también vaya a comprarla. Esto es realmente lamentable, se supone que es un foro de OPINIÓN, no de a ver quien le entra el mayor berrinche posible.

En fin que os cunda a todos, estoy cansado de hacer scroll al ratón buscando enlaces, lo demás es paja [bye]


+1
Precisamente al ser un foro de opinión se opina, pero para ello no hace falta llamar idota a nadie.
VIDHAR escribió:Precisamente al ser un foro de opinión se opina, pero para ello no hace falta llamar idota a nadie.


Creo que esto debería de estar más enfocado a dar información y crear otro foro para opinar o al reves, puedes pasar páginas y páginas y solo ver burradas ( alguna mia también ) XD XD

Edito: que ni pintado, arriba de esto que lees puedes ver a alguien que cuelga información ya dada, pero que comprendo es imposible que lo sepa porque es dificil seguir las noticias en el hilo, y abajo pueden ver como seguimos con las vendetas en lugar de ignorar y esas cosas, entienda la crítica no va con mala leche
(mensaje borrado)



Acabo de leer en el hilo que la conferencia es a la misma hora que la de Sony ¿Esta confirmado?
eddy escribió:
xufeitor escribió:
eddy escribió:Una duda,esta confirmado que los headphones tipo Sharkoon no funcionan en One?


Los auriculares deberían funcionar, ya que se enchufa la salida optica al propio deco de los Sharkoon. Lo que no tengo tan claro es que funcione el Micrófono, eso dependera de como sea el conector del mando de One.

Yo tengo también los 5.1 y de la manera que se conectan deberían funcionar si o si.

pero a ver,por ejemplo,en ps3 van con optico y usb,no podria ir asi en One?


Eso ya no lo se, los que yo tengo no tienen USB. Se conecta la salida óptica al decodificador de sharkoon, y luego conectas los auriculares también al deco. Si se pueden conectar así no hay problema alguno.

La conexión USB de los tuyos para que es?
REYSHARK ese quote ya lo habia zanjado páginas atras, si moveis mucho la mierda acaba oliendo y nos afecta a todos.

Es el 3 aviso que doy en el hilo en menos de 30 minutos, vais a consegir que cierre el hilo unas horas.
La ram de ps4 cuesta 2750 dolares? Es que se lo lei a un forero de ps4 [alien]
xufeitor escribió:
Eso ya no lo se, los que yo tengo no tienen USB. Se conecta la salida óptica al decodificador de sharkoon, y luego conectas los auriculares también al deco. Si se pueden conectar así no hay problema alguno.

La conexión USB de los tuyos para que es?

pues el usb precisamente es para el micro en el caso de ps3,creo que tu no tienes pq debes tener la revision anterior a la mia,que eran incompatibles con ps3 en el aspecto charla.
eddy escribió:
xufeitor escribió:
Eso ya no lo se, los que yo tengo no tienen USB. Se conecta la salida óptica al decodificador de sharkoon, y luego conectas los auriculares también al deco. Si se pueden conectar así no hay problema alguno.

La conexión USB de los tuyos para que es?

pues el usb precisamente es para el micro en el caso de ps3,creo que tu no tienes pq debes tener la revision anterior a la mia,que eran incompatibles con ps3 en el aspecto charla.


Ahh vale! Los mios son de los primeros, si.

Para el micro me da a mi que tendremos que esperar a que salga la consola para saberlo.

Djber no saques más ese tema por favor XD

Al que ha puesto eso de los 2750€ se le ha dado el toque y reportado cada vez que lo ha puesto, a este paso no creo que dure mucho en el foro. Pero mejor dejar el tema donde se quedo.
xufeitor escribió:
eddy escribió:
xufeitor escribió:
Eso ya no lo se, los que yo tengo no tienen USB. Se conecta la salida óptica al decodificador de sharkoon, y luego conectas los auriculares también al deco. Si se pueden conectar así no hay problema alguno.

La conexión USB de los tuyos para que es?

pues el usb precisamente es para el micro en el caso de ps3,creo que tu no tienes pq debes tener la revision anterior a la mia,que eran incompatibles con ps3 en el aspecto charla.


Ahh vale! Los mios son de los primeros, si.

Para el micro me da a mi que tendremos que esperar a que salga la consola para saberlo.

Djber no saques más ese tema por favor XD

Al que ha puesto eso de los 2750€ se le ha dado el toque y reportado cada vez que lo ha puesto, a este paso no creo que dure mucho en el foro. Pero mejor dejar el tema donde se quedo.

ok xufeitor XD vaya partida de pecho me pegue cuando lo lei [flipa] [flipa] ratataaaa [qmparto] [qmparto]
Grinch escribió:Lo de los graficos hize yo una teoria ( pero los expertos sois vosotros ya me direis si es posible asi o no )

La cosa es .. si la nube puede ocuparse de dichas cosas ( digamos en un juego 100% online.. o sea que tengas que estar conectado si o si) .. si la nube se ocupa de x cosas ... la consola no podria mejorar ( la consola) un poco los graficos ya que esta liberada de hacer X cosas que hace la nube ?

Si me explico como el culo lo se :P pero espero se me entienda.
Lo que digo es mas como preguna que como afirmacion.


QUe vamos que los graficos que yo he visto hasta ahora son mas que suficientes la verdad ( y seguro que ni hemos visto toda la potencia).

De todas formas lo de que la nube aumenta los graficos lo usan mas por el otro lado para hacernos creer que sus 400 millones de gaikai es mejor/igual que los 15 mil millones de azure.
xD

Mas facil que eso (ya lo he intentao explicar antes),
-La CPU mueve la lógica del juego y la GPU se encarga de los gráficos
-La GPU tiene una potencia de calculo determinada pero se puede descargar de trabajo si se hace parte del calculo en la CPU; no es algo que se haga comunmente, porque es complicado de hacer y enguye los recursos de la CPU (necesarios para otras cosas), pero ya se ha hecho.
-Si gracias al proceso en la nube liberamos de carga a la CPU, ésta se puede encargar de ayudar a la GPU, lo que se traduce en que al final se pueden mover mas poligonos y aplicar mas shaders o filtros; osea, mejores gráficos.
Por lo que asevero que el proceso en la nube si que puede mejorar los gráficos de los juegos, no se hasta que punto, pero es posible.

Respecto a gaikai y azure, por absurdo que parezca, teoricamente, a dia de hoy Gaikai puede ayudar a mejorar los gráficos de los juegos mas que azure.
¡No os tireis a mi cuello todavía! Azure es un sistema mucho mas potente en todos los aspectos que gaikai, no lo niego; pero son conceptos diferentes. Azure por lo que parece está pensado entre otras cosas para ayudar al proceso en la nube mientras que gaikai ejecuta los juegos en la nube y basicamente recibe nuestras pulsaciones en los controles y nos manda la imagen y el sonido por streaming en tiempo real. Por lo que en gaikai se podría virtualizar una máquina 10 veces mas potente que una ps4 o una xone y mandar las imágenes por streaming a cualquier dispositivo y jugar a un juego con unos gráficos nunca vistos en un casi cualquier cacharro (mientras tenga potencia para mover video a un framerate/resolución decentes, sería mas que suficiente). Pero claro, lo de gaikai no es ayudar al proceso, es "suplantar a la consola". De todas formas esto es una mera curiosidad que no representa el uso real que se le va a dar.
nekuro escribió:
Grinch escribió:Lo de los graficos hize yo una teoria ( pero los expertos sois vosotros ya me direis si es posible asi o no )

La cosa es .. si la nube puede ocuparse de dichas cosas ( digamos en un juego 100% online.. o sea que tengas que estar conectado si o si) .. si la nube se ocupa de x cosas ... la consola no podria mejorar ( la consola) un poco los graficos ya que esta liberada de hacer X cosas que hace la nube ?

Si me explico como el culo lo se :P pero espero se me entienda.
Lo que digo es mas como preguna que como afirmacion.


QUe vamos que los graficos que yo he visto hasta ahora son mas que suficientes la verdad ( y seguro que ni hemos visto toda la potencia).

De todas formas lo de que la nube aumenta los graficos lo usan mas por el otro lado para hacernos creer que sus 400 millones de gaikai es mejor/igual que los 15 mil millones de azure.
xD

Mas facil que eso (ya lo he intentao explicar antes),
-La CPU mueve la lógica del juego y la GPU se encarga de los gráficos
-La GPU tiene una potencia de calculo determinada pero se puede descargar de trabajo si se hace parte del calculo en la CPU; no es algo que se haga comunmente, porque es complicado de hacer y enguye los recursos de la CPU (necesarios para otras cosas), pero ya se ha hecho.
-Si gracias al proceso en la nube liberamos de carga a la CPU, ésta se puede encargar de ayudar a la GPU, lo que se traduce en que al final se pueden mover mas poligonos y aplicar mas shaders o filtros; osea, mejores gráficos.
Por lo que asevero que el proceso en la nube si que puede mejorar los gráficos de los juegos, no se hasta que punto, pero es posible.

Respecto a gaikai y azure, por absurdo que parezca, teoricamente, a dia de hoy Gaikai puede ayudar a mejorar los gráficos de los juegos mas que azure.
¡No os tireis a mi cuello todavía! Azure es un sistema mucho mas potente en todos los aspectos que gaikai, no lo niego; pero son conceptos diferentes. Azure por lo que parece está pensado entre otras cosas para ayudar al proceso en la nube mientras que gaikai ejecuta los juegos en la nube y basicamente recibe nuestras pulsaciones en los controles y nos manda la imagen y el sonido por streaming en tiempo real. Por lo que en gaikai se podría virtualizar una máquina 10 veces mas potente que una ps4 o una xone y mandar las imágenes por streaming a cualquier dispositivo y jugar a un juego con unos gráficos nunca vistos en un casi cualquier cacharro (mientras tenga potencia para mover video a un framerate/resolución decentes, sería mas que suficiente). Pero claro, lo de gaikai no es ayudar al proceso, es "suplantar a la consola". De todas formas esto es una mera curiosidad que no representa el uso real que se le va a dar.


No te lo tomes a mal, pero decir que la CPU va a ayudar a la GPU a mover polígonos es como pretender que un Formula 1 ayude a un camionero xD
Donde va el carga y juega?

Porque el mando lo veo super fino y la bateria me parece un tochaco
Imagen

no me cuadran las proporciones

Imagen
xtroder escribió:No te lo tomes a mal, pero decir que la CPU va a ayudar a la GPU a mover polígonos es como pretender que un Formula 1 ayude a un camionero xD

No me parece mal; es más, ya he comentado que los calculos de ese tipo engullen recursos de la CPU. Pero segun recuerdo es algo que se ha hecho en la ps3, cuya GPU era bastante malilla, pero que era ayudada haciendo que los SPUs del Cell (que al fin y al cabo forman parte de la CPU) le ayudasen con el proceso para poder aplicar mas shaders y filtros. De hecho creo que microsoft lo hizo en el Alan wake de la 360 haciendo que algunos efectos se calculasen en la CPU en lugar de la GPU, por lo que insisto en que aunque no es comun y no es la panacea. Es algo que se puede hacer y que funciona.
Mas datos:
http://www.redgamingtech.com/xbox-360-and-playstation-3s-graphics-card-gpu-compared/
REYSHARK escribió:Donde va el carga y juega?

Porque el mando lo veo super fino y la bateria me parece un tochaco
Imagen

no me cuadran las proporciones

[imghttp://compass.xboxlive.com/assets/e5/6a/e56a0c11-2169-477c-b9a1-5442fea5dac8.jpg?n=play-and-charge-screen07.jpg][/img]

Abajo no ves pestaña para abrir?,hay o pones pilas o la bateria
SCREAM25 escribió:Imagen

25$=25€ El precio de los cascos oficiales, cuando bajen a 15 € igual los pillo XD

Pues nada a sumar 25€ al lote de salida para el carga y juega. El headset me lo compraré cuando me sea indispensable, es decir si juego habitualmente online y según grupo, porque si no hay gritones no veo problema a charlas tipo Skype.

Donde va el carga y juega?

Magia, el mando se ha diseñado precisamente para que con la batería no sobresalga nada y sea más ergonómico. Y es que el mando es una pasada.

Desde hace siiiiglos (con el T&L) la CPU no calcula vértices para tareas de dibujado, es una salvajada y seguramente ralentizaría, los procesamientos de GPU suelen estar hechos para hacerse "de tirona" sin tener que estar esperando a otros (como la CPU).
Ya jose juan pero es que el ladrillaco de la bateria lo veo tan ancho como el mando y parece como si no entrara ajajaja y lo de la tapa esa no cuadra mucho, lo que no entiendo es como los que pudieron tener el mando en las manos no comentaron esto ni hay fotos de esa tapa ni la tapa abierta
djber escribió:ok xufeitor XD vaya partida de pecho me pegue cuando lo lei [flipa] [flipa] ratataaaa [qmparto] [qmparto]


Pfff!! Es que eso no había por donde cogerlo XD
Esta mañana ha puesto otro post que también era digno de estudio [360º]
Gracias Grinch XD

Entonces el mando me da que sera un poco mas ancho que el de 360, porque si no no cuadra para meter semejante petaca xDD
REYSHARK escribió:Gracias Grinch XD

Entonces el mando me da que sera un poco mas ancho que el de 360, porque si no no cuadra para meter semejante petaca xDD


Imagen


fijate mejor aqui. Es mas fina que la petaca que tenemos hoy en dia en la 360
Grinch escribió:Imagen


Que chulada el mando, anda que no hay ganas de catarlo.

Salu2
Entonces a diferencia del mando de X360, que la batería se ponía "vertical", ahora se pone "horizontal", no?
La bateria que pones tiene pintas de ir en horizontal, por que en vertical como actualmente la tiene la 360 no me cuadra
pspskulls escribió:...
- Pase de Zpass, 6ms. Esto es un paso de rendering que hacemos previo a renderizar la escena. Es una técnica que nos permite pintar en un buffer la información de profundidad para de esta manera al pintar ahorrarnos rasterizar un pixel final.

- 10ms para cálculo de sombras. Lo pongo antes porque en realidad necesitamos calcular las sombras y tenerlas en texturas intermedias para poder ser utilizadas en el pase de rendering final en la que se aplican.

- 6ms para el rendering pass. Éste es el importante y es dónde entra el ancho de banda. Es aquí dónde para renderizar cada pixel de pantalla necesitamos "preparar" en memoria de video las texturas correspondientes para componer el color base de pixel y calcular y aplicar los efectos de iluminación.

Bien. En todo un proceso que tasan en 21ms, el único espacio de tiempo importante en que el ancho de banda IMPORTA es de 6 ms. Y OJO, que estamos hablando de 21ms SOLO para rendering. Es que luego viene el juego amigos: físicas, IA, ordenación de la escena para ser renderizada y optimizada... cálculos propios de CPU y que requieren NO DE ANCHO DE BANDA, sino de VELOCIDAD EN EL ACCESO a la memoria para poder modificar miles de variables en memoria que deben actualizarse por cada frame.

Una cosa es mover 100 texturas, dónde sí, me importa el ancho de banda y con 100 accesos a memoria lo tengo. Otra es actualizar 100000 variables en memoria en la que necesito 100000 accesos a la misma para modificarlos y creédme que con las físicas e IAs que se van a mover en esta generación quizá me quedo MUY corto.


Buenas gente, pero creo q tu sabes q hay cosillas q has obviado un poquito o bien has maquillado. Aunq en el ZPrepass y en los pases de sombra no estés usando ningun tipo de acceso a textura, si estás usando ancho de banda pq estás escribiendo en un buffer (y este será de 24 o 32 bits o sea igual q un render target RGB8/RGBA8). Por lo q eso de q no se usa ancho de banda en esos dos pases...se usa, en menor cantidad pero se usa. Si por ejemplo tienes un Cascade Shadow Map de 4 cascadas cada una de 1024x1024 a 32bits de profundidad ya estás usando un pellizquito... si estás haciendo la sombra de una luz omnidireccional y estás usando cube mapping ya tienes 6 texturas del tamaño q sea, y si usas Dual Paraboloid tienes 2...no se puede obviar tan a la ligera el ancho de banda q se usa en estos pases.

Por otra parte como bien sabes, cuando se accede a una textura no solo se hace un único acceso, dependiendo del filtrado tendrás mas o menos accesos. Componer la imagen final de un deferred tb se come mucho ancho de banda, si tienes algún tipo de HDR real (nada de nao32 ni compresiones raras q ya estamos en la next gen y podemos pasar de esas cosas para conseguir mas calidad), todo el postprocesado q haces...todo se come ancho de banda.

pspskulls escribió:...
Bien. 32 megas de eSRAM. Parece poco? Sí. Es suficiente? Depende de para qué. Para entender el uso de eSRAM hay que entender lo que es un deferred:

- Si cada MRTs de 32 bits a FullHD de resolución son: 8.1 MB
- Crytek utiliza 3 MRTs y equivale a 24.3 MB de los 32 MB totales.

Lo bueno de la eSRAM no es tanto el ancho de banda porque su utilidad no está en mover texturas... su finalidad está en tener un acceso JODIDAMENTE rápido. De los tres tipos de memoria (DDR3, GDDR5 y eSRAM) la eSRAM es SIN DUDA la de menor latencia con mucha diferencia. Esto nos permite que el proceso deferred vaya a toda castaña. Y aún así una vez tuvieramos el resultado deferred podriamos usar esa memoria para post procesado en lo que lo que más importa es la velocidad del acceso a esa memoria y no el ancho de banda.


Pero no solo tenemos los 3 render target... tenemos los tres distribuidos como se dice mas uno para la acumulación de la iluminación, mas el back buffer final dnd se compone todo, mas todo lo q añade el MSAA, mas todos los buffer intermedios q se usarán en el postprocesado (el SSAO no se hace a la resolución completa por ejemplo) toda la composición del HDR (q esto si q se come y bien el ancho de banda), mas toda la resolución de la iluminación... Todo eso no coge en la eSRAM.

El deferred es una técnica devoradora de ancho de banda lo q se necesita precisamente es eso, no la baja latencia. La latencia en gráficos importa poco. El deferred para ir a lanzado necesita ancho de banda

darksch escribió:Pues mira por donde ya tenemos un 1er uso de la esRAM, con ésta la ZPass será GRATIS, porque al hacer la 2ª pasada con los materiales, los vértices ya estarán en la esRAM como caché, de rápido acceso y gran ancho de banda. Todos los vértices de un objeto no caben ni de coña en la caché de la GPU, pero en 32MB hay espacio de sobra.


Dudo mucho q metan los atributos de los vértices en la eSRAM, aunq las cachés de la GPU son pequeñas hay métodos para optimizar el uso de la caché de estos atributos y muy eficientes por cierto. Sería un desperdicio y repito dudo muchísimo q la usen para eso, hay muchas otras cosas en las q "gastar" la eSRAM. No obstante el Zprepass no será gratuito en ningún caso. Por otro lado veremos a ver q tal se comportan los 16 ROPs con todo esto...

Un saludo.
Bueno entonces en tema de potencia ya va quedando claro..ahora con los 4,5 de RAM de la otra para juegos,ya podemos decir que la Xone es incluso más potente...

aunque al final cuando digan todo yo doy por hecho que serán casi igual...y que la mejor saldrá de la que tenga mejor herramientas y sofware..así que Xone se podría decir que volverá a tener los mejores gráficos...
dicanio1 escribió:Bueno entonces en tema de potencia ya va quedando claro..ahora con los 4,5 de RAM de la otra para juegos,ya podemos decir que la Xone es incluso más potente...

aunque al final cuando digan todo yo doy por hecho que serán casi igual...y que la mejor saldrá de la que tenga mejor herramientas y sofware..así que Xone se podría decir que volverá a tener los mejores gráficos...

El problema es que ahora dicen que tiene 6 xD

Pero vamso que tengan 4 ,5 o 6 da igual por que no sabemos cuantos dedica la nuestra a juego.
Ya que por mucho que se empeñen las espec de la one no han sido todavia reveladas.
Hay rumores de lo que podria tener ( y oye que lo que se rumorea a mi no me desagrada xD ) .

Y sobre la ram no se sabe ya que lo de los 3 gigas para SO no es oficial ni nada. es solo un rumor

Rumorear que es mas potenten la ps4 .... pueden AFIRMAR que lo es... solo un fanatico afirmaria algo que no sabe.

Es como si digo mi telefono tiene 12 megapixeles y el de mi hermana podria tener 6 por lo que mi movil ES mas potente.... .
Pues no... el podria y el es. Son verbos y tiempos diferentes.
¿Respecto a la velocidad del procesador de Xbox One se ha confirmado algo? Porque hasta ahora lo único que he leido es que el devkit de PlayStation 4 tiene 2,75 GHz...
xtroder escribió:¿Respecto a la velocidad del procesador de Xbox One se ha confirmado algo? Porque hasta ahora lo único que he leido es que el devkit de PlayStation 4 tiene 2,75 GHz...

Hay datos por ahi rondando que los del otro hilo se empeñan son oficiales pero .. la unica verdad es que no ha datos oficiales.. Sino fijate en game/xtralife etc... donde puedes ver TODAS las especificaciones de la ps4 y de la one apenas dicen nada :^P

Asi que puedes guiarte por lo que se "cree" pero no es oficial.. luego al final puede pasar tres cosas : sean peores ( no creo), sean iguales, o sean mejores
Para los que tenéis Headset o Auriculares de cualquier tipo que funcionaban en X360, Microsoft ya dijo que sacaría un adaptador para ello.

Todos aquellos que tenéis Tritton, Sharkoon etc... si queréis aprovecharlo, con el adaptador funcionará, no se ha dicho nada mas sobre este "adaptador", ni precios, ni como es, ni cuando saldrá.

El adaptador se supone que será mini-jack (2.5mm creo) a Mini-USB.

Por otra parte, sobre los precios de los mandos, kit y carga y juega, Headset etc... a mi forma de ver el mando tiene un precio "normal" (a lo que estamos acostumbrados) es decir, 60€, el Headset podría valer 20€ perfectamente, que no parece nada del otro mundo para que valga mas (por 20€ existen cascos mas que decentes, rollo Sennheiser, Panasonic etc..) y el Kit y carga mas de lo mismo, algo subidito de precio.
Por rumores,entonces las frecuencias van a ser aumentadas,además de la eSRAM ...y con todo eso la Xone ya estaría a la par de la otra o más..ya que la RAM al final va a ser mejor la de la Xone con el ddr3+eSRAM
Darkcaptain escribió:Para los que tenéis Headset o Auriculares de cualquier tipo que funcionaban en X360, Microsoft ya dijo que sacaría un adaptador para ello.

Todos aquellos que tenéis Tritton, Sharkoon etc... si queréis aprovecharlo, con el adaptador funcionará, no se ha dicho nada mas sobre este "adaptador", ni precios, ni como es, ni cuando saldrá.

El adaptador se supone que será mini-jack (2.5mm creo) a Mini-USB.

Por otra parte, sobre los precios de los mandos, kit y carga y juega, Headset etc... a mi forma de ver el mando tiene un precio "normal" (a lo que estamos acostumbrados) es decir, 60€, el Headset podría valer 20€ perfectamente, que no parece nada del otro mundo para que valga mas (por 20€ existen cascos mas que decentes, rollo Sennheiser, Panasonic etc..) y el Kit y carga mas de lo mismo, algo subidito de precio.


Los mios lo mismo no funcionan ( vamos va por optico eso espero si vaya pero el micro..... no va conectado T.T ..... va sincronizado con el mando
En parte creo que es para evitar malentendidos, por ejemplo, en PS3 el Cell tenia 8 nucleos a 3,2 GHz. (A grandes rasgos y aunque un SPU se dice que no funcionaba) ahora le dices a alguien que la PS4 tiene 8 nucleos a 2,75 GHz. y la mayoria de la gente pensará que es peor...
Una pena q no funcionen los headset inalambricos....
Polyteres escribió:Buenas gente, pero creo q tu sabes q hay cosillas q has obviado un poquito o bien has maquillado. Aunq en el ZPrepass y en los pases de sombra no estés usando ningun tipo de acceso a textura, si estás usando ancho de banda pq estás escribiendo en un buffer (y este será de 24 o 32 bits o sea igual q un render target RGB8/RGBA8). Por lo q eso de q no se usa ancho de banda en esos dos pases...se usa, en menor cantidad pero se usa. Si por ejemplo tienes un Cascade Shadow Map de 4 cascadas cada una de 1024x1024 a 32bits de profundidad ya estás usando un pellizquito... si estás haciendo la sombra de una luz omnidireccional y estás usando cube mapping ya tienes 6 texturas del tamaño q sea, y si usas Dual Paraboloid tienes 2...no se puede obviar tan a la ligera el ancho de banda q se usa en estos pases.


Bueno, tampoco creo que sea el hilo para concretar tanto pero bueno. Creo que no hay que confundir la finalidad del ancho del banda con la necesidad de allocatar recursos gráficos como pueden ser texturas. Evidentemente en estos procesos allocatamos texturas sea para el zPass o para las sombras, pero aquí lo que nos interesa no es el ancho de banda sino la velocidad de acceso a esa memoria.

Generar un buffer de zPass o crear las texturas de las sombras requiere generar las texturas y mantenerlas en memoria como RenderTargets. Más allá de esto, el ancho de banda necesario no viene por las texturas sino por el ancho de banda que necesite la geometría a renderizar sobre esas texturas, dado que estos dos procesos en concreto se basan en geometría no en texturizado. El ancho de banda necesario para geometría no es ni por asomo comparable a lo que se necesitaría para mover las texturas que en esta generación se moverán.

Por lo que, el generar los RenderTargets en eSRAM y según vayas sacando texturas de sombras ir pasándolas a la DDR3, aunque éste último proceso pueda penalizar, también es cierto que has ganado en cuanto al procesamiento dado que el acceso a eSRAM y a modificar estas texturas ha sido mucho más rápido.

Cierto es que en el deferred requerirás de esas texturas de las sombras en el DDR3 para componer la imagen final. Pero, de verdad no tenermos duficiente con cerca de 1.13 GB TEÓRICOS (para una tasa de 60fps) que nos ofrecería DDR3 de ancho de banda para acceder a esas texturas? O quizá incluso la menor latencia de la DDR3 me permitiría reclamar esas texturas de una manera más rápida?

Por otra parte como bien sabes, cuando se accede a una textura no solo se hace un único acceso, dependiendo del filtrado tendrás mas o menos accesos. Componer la imagen final de un deferred tb se come mucho ancho de banda, si tienes algún tipo de HDR real (nada de nao32 ni compresiones raras q ya estamos en la next gen y podemos pasar de esas cosas para conseguir mas calidad), todo el postprocesado q haces...todo se come ancho de banda.


Efectivamente, y como digo lo que importa en el número de accesos es la velocidad a la que puedes acceder a recursos y no la cantidad máxima de recursos a acceder que sería el ancho de banda.

Vuelvo a decir, un deferred no come ancho de banda. Un deferred REQUIERE de allocatar grandes recursos como pueden ser, en el caso que citaba, 3 texturas FullHD. Más allá de esto, tenemos el cuello de botella con el ancho de banda al hacer la primera pasada del deferred, dado que requerimos de TODAS las texturas en DDR3 que para generar ese frame necesitásemos. Una vez generado el G-Buffer no requiero de ancho de banda, requiero de acceso rápido sobre esa memoria y de la potencia de la GPU para hacer el cómputo final de iluminación. Sí es cierto que necesito dónde poner ese resultado, bien, tengo espacio para un cuarto RenderTarget, y de no tener espacio en la eSRAM, puedo colocarlo en la DDR3: más lento sí, pero lo que gano accediendo a toda velocidad a la eSRAM para hacer esos cálculos me lo compensa.

Una vez tienes el resultado albedo con iluminación final del deferred, puedes reutilizar alguna de las mismas texturas del deferred para los menesteres que comentas. De manera que todo el post-procesado (que es lo que más tiempo requiere) puede realizarse también en la eSRAM volviendo a ser el acceso muy rápido. A tener en cuenta que las técnicas de post-procesado requieren de una única textura origen y una de destino, ya que esto es screen-space. SSAO o por ejemplo hacer un blur requieren de RTs más pequeños pero como comento, hay que saber dónde poner cada cosa.

Pero no solo tenemos los 3 render target... tenemos los tres distribuidos como se dice mas uno para la acumulación de la iluminación, mas el back buffer final dnd se compone todo, mas todo lo q añade el MSAA, mas todos los buffer intermedios q se usarán en el postprocesado (el SSAO no se hace a la resolución completa por ejemplo) toda la composición del HDR (q esto si q se come y bien el ancho de banda), mas toda la resolución de la iluminación... Todo eso no coge en la eSRAM.

El deferred es una técnica devoradora de ancho de banda lo q se necesita precisamente es eso, no la baja latencia. La latencia en gráficos importa poco. El deferred para ir a lanzado necesita ancho de banda


El back buffer no lo necesitas hasta en el momento final en el que tienes el resultado del deferred y simplemente haces el blit encima, por lo que puedes tenerlo en DDR3 perfectamente.

Evidetemente seria genial tener 8GB de eSRAM pero me temo que eso es imposible. Pero tener aunque sean 32 megas de una memoria tan rápida en acceso y pensando perfectamente cómo optimizar un engine gráfico puede resultar una ventaja y no un inconveniente.

También veo como ejemplo Killzone, en el que usan un G-Buffer compuesto de 5 MRTs a 64 bits... es decir, ya esto mismo no te cabe en la eSRAM. Pero la pregunta es... saben lo que hacen? O es que simplemente al tener gigas de memoria a su disposición ni siquiera se preocupan lo más mínimo en optimizar las cosas un mínimo? Porque puedo comprender usar un mayor número de MRTs (quizá 4, 5 ya no sé para qué), pero es que encima de 64 bits es un despropósito. Por lo que, el espacio de la eSRAM puede ser pequeño pero bien usado algo muy interesante.
Darkcaptain escribió:Para los que tenéis Headset o Auriculares de cualquier tipo que funcionaban en X360, Microsoft ya dijo que sacaría un adaptador para ello.

Todos aquellos que tenéis Tritton, Sharkoon etc... si queréis aprovecharlo, con el adaptador funcionará, no se ha dicho nada mas sobre este "adaptador", ni precios, ni como es, ni cuando saldrá.

El adaptador se supone que será mini-jack (2.5mm creo) a Mini-USB.

Por otra parte, sobre los precios de los mandos, kit y carga y juega, Headset etc... a mi forma de ver el mando tiene un precio "normal" (a lo que estamos acostumbrados) es decir, 60€, el Headset podría valer 20€ perfectamente, que no parece nada del otro mundo para que valga mas (por 20€ existen cascos mas que decentes, rollo Sennheiser, Panasonic etc..) y el Kit y carga mas de lo mismo, algo subidito de precio.



Y me hago la picha un lío..yo tengo estos http://www.pccomponentes.com/steelserie ... white.html

y tengo un adaptador que tengo enchufado detrás de la Xbox para sacar el audio de los juegos,el auricular tiene dos cables uno que va para el audio del juego y otro que en teoría va al mando para el micro y así hablar con la gente...yo no puedo hablar con nadie ya que no tengo no tengo el adaptador que va en el mando...

Entonces se supone que en la Xone será igual..necesitaras 2 adaptadores,uno para enchufar una de las clavijas del auricular a a consola y otro al mando...
dicanio1 escribió:
Darkcaptain escribió:Para los que tenéis Headset o Auriculares de cualquier tipo que funcionaban en X360, Microsoft ya dijo que sacaría un adaptador para ello.

Todos aquellos que tenéis Tritton, Sharkoon etc... si queréis aprovecharlo, con el adaptador funcionará, no se ha dicho nada mas sobre este "adaptador", ni precios, ni como es, ni cuando saldrá.

El adaptador se supone que será mini-jack (2.5mm creo) a Mini-USB.

Por otra parte, sobre los precios de los mandos, kit y carga y juega, Headset etc... a mi forma de ver el mando tiene un precio "normal" (a lo que estamos acostumbrados) es decir, 60€, el Headset podría valer 20€ perfectamente, que no parece nada del otro mundo para que valga mas (por 20€ existen cascos mas que decentes, rollo Sennheiser, Panasonic etc..) y el Kit y carga mas de lo mismo, algo subidito de precio.



Y me hago la picha un lío..yo tengo estos http://www.pccomponentes.com/steelserie ... white.html

y tengo un adaptador que tengo enchufado detrás de la Xbox para sacar el audio de los juegos,el auricular tiene dos cables uno que va para el audio del juego y otro que en teoría va al mando para el micro y así hablar con la gente...yo no puedo hablar con nadie ya que no tengo no tengo el adaptador que va en el mando...

Entonces se supone que en la Xone será igual..necesitaras 2 adaptadores,uno para enchufar una de las clavijas del auricular a a consola y otro al mando...


De esos cascos, salen 2 cables nop? supongo que serán como mis SteelSeries Neckband y los Spectrum, pues bien, un Jack va a la TV, y el otro Jack iría al mando de la Xbox One con el adaptador que teóricamente tiene que vender Microsoft.

Los cascos que vayan por Jack/miniJack no hay problema, así tampoco los que vayan por óptico, el problema vendrá aquellos cascos que iban por Wi-Fi o similar, que dudo mucho que funcionen.
Grinch escribió:solo un fanatico afirmaria algo que no sabe.

Pues de momento todos somos fanáticos. Y digo TODOS (yo, tu, y todos los demás que pueblan estos foros de dios) porque todos afirmamos que nuestros argumentos son los correctos aunque a dia de hoy, sin las consolas en el mercado, ninguna fuente (ni siquiera las oficiales) son 100% fidelignas.
Pero eso es lo bonito de un foro, exponer tus argumentos y defenderlos con lo que tengas.
rara vez habre afirmado algo que creo no saber, Siempre pongo - creo o es mi opinion-

COn lo de fanatico me refiero a la gente que compara un rumor con otra cosa y afirma.

Por ejemplo el warframe ese que va a salir ahora en ambas . AL principio dije que no me gustaba. luego viendo mas videos me llamo mas .. y ahora lo he descartado totalmente por que no me gusta... Pero esto es una opinion personal por que hablo de mi. EN ningun momento me veras decir que es un juego de mierda o algo asi .
Darkcaptain escribió:
dicanio1 escribió:
Darkcaptain escribió:Para los que tenéis Headset o Auriculares de cualquier tipo que funcionaban en X360, Microsoft ya dijo que sacaría un adaptador para ello.

Todos aquellos que tenéis Tritton, Sharkoon etc... si queréis aprovecharlo, con el adaptador funcionará, no se ha dicho nada mas sobre este "adaptador", ni precios, ni como es, ni cuando saldrá.

El adaptador se supone que será mini-jack (2.5mm creo) a Mini-USB.

Por otra parte, sobre los precios de los mandos, kit y carga y juega, Headset etc... a mi forma de ver el mando tiene un precio "normal" (a lo que estamos acostumbrados) es decir, 60€, el Headset podría valer 20€ perfectamente, que no parece nada del otro mundo para que valga mas (por 20€ existen cascos mas que decentes, rollo Sennheiser, Panasonic etc..) y el Kit y carga mas de lo mismo, algo subidito de precio.



Y me hago la picha un lío..yo tengo estos http://www.pccomponentes.com/steelserie ... white.html

y tengo un adaptador que tengo enchufado detrás de la Xbox para sacar el audio de los juegos,el auricular tiene dos cables uno que va para el audio del juego y otro que en teoría va al mando para el micro y así hablar con la gente...yo no puedo hablar con nadie ya que no tengo no tengo el adaptador que va en el mando...

Entonces se supone que en la Xone será igual..necesitaras 2 adaptadores,uno para enchufar una de las clavijas del auricular a a consola y otro al mando...


De esos cascos, salen 2 cables nop? supongo que serán como mis SteelSeries Neckband y los Spectrum, pues bien, un Jack va a la TV, y el otro Jack iría al mando de la Xbox One con el adaptador que teóricamente tiene que vender Microsoft.

Los cascos que vayan por Jack/miniJack no hay problema, así tampoco los que vayan por óptico, el problema vendrá aquellos cascos que iban por Wi-Fi o similar, que dudo mucho que funcionen.



Si salen 2 cables,pero yo no lo tengo conectado al monitor,si no a la consola..el otro es el que va al mando,pero no tengo el adaptador,por eso el micro no funciona..xddd

pues entonces no hará falta que me compre unos nuevos,si no tendré que comprar el adaptador y ya esta...vamos como ahora [+risas]
Chicos hoy domingo ninguna noticia jugosa no? esto de no trabajr en domingo yo no lo veo claro, la empresa del videojuego tendria que estar los 365 dias nutriendo de rumores a la gente de los foros jaajja
Por aclarar lo de los 2.75GHz, esos 2.75 GHz salen del informe al pasar el control de la FCC. La FCC se encarga de controlar las transmisiones inalámbricas así que es muy probable que se refiera a la frecuencia máxima, pero de una emisión de radiofrecuencia. Se discutió en su momento, tanto para el devkit como para el de la consola final y algo llamado test kit.
Esos documentos de la FCC son públicos, así que se puede decir que son oficiales.
La frase es: Maximum clock frequency in the system: 2.75 GHz.
No tiene mucho sentido que la FCC hable de especificaciones de procesadores, pero habla de frecuencia de reloj (tampoco dice que sea de la CPU).
Si no recuerdo mal, el WiFi y bluetooth que lleva están en la banda de los 2.4 GHz.
Hay quien indica que puede ser la frecuencia del controlador de la GDDR5, pero esta en teoría va a 5.5 GHz, ni idea.

Así que hay bastante confusión acerca de a qué se refiere ese dato, o no he sabido encontrar información al respecto, pero vamos creo que poca gente se piensa que es la frecuencia de la CPU.

Faltan muchas, pero muchas cosas por decir de las especificaciones de ambas consolas, esperemos que en la Gamescom se sepa algo más.

En cuanto a la RAM, hay que ver la que se ha montado. Hay una posibilidad de que los documentos oficiales que maneja Digital Foundry sean del devkit actual con 8 Gigas. Y en un devkit necesitas más RAM para cargar las herramientas. Puede que los datos sean ciertos, pero no exactamente aplicables a una consola final. Hay mucho jaleo y baile de cifras, prefiero esperar a ver en qué acaba esto.
Los rumores apuntan a que One reserve 3GBs para sus tres sistemas operativos. Es de suponer que la RAM que necesita el hypervisor es mínima, así que esos 3GBs serían casi por completo para la máquina virtual, que lleva el sistema, digamos más windows 8 y los otros 5 GBs para el GameOS. O que hagan lo que se rumorea en PS4: dejar cierta cantidad en reserva¿?
De todos modos, lo mismo para las dos: a la espera de datos oficiales.

Sobre qué esquema de memoria es mejor (GDDR5 Vs DDR3+ESRAM): sin entrar en cuál es mejor, me parecen formas diferentes de hacer lo mismo. Una pregunta a los expertos:
A priori parece que cada una es mejor para una cosa: no hubiera sido más sencillo un esquema de memoria partida DDR3 + GDDR5? ¿Porqué los desarrolladores prefieren un pool único de memoria, aunque eso te haga perder alguna de las ventajas del esquema que no utilices?

Respecto a lo de Respawn, dejo el artículo original:
http://www.respawn.com/news/lets-talk-a ... ive-cloud/
Aunque habla algo de lo que la computación en la nube podría hacer, sobre todo se dedica al uso de servidores dedicados Vs P2P. Y que como gracias a la infraestructura de Azure, el desarrollador no se tiene que dejar una millonada en implantar ni los servidores ni en desarrollo de esa parte. Si además Microsoft se lo deja a buen precio, mejor todavía.
No creo que sea muy justo comparar TODO Azure con Gaikai. Xbox Live va ser, en mi opinión, una parte pequeña de Azure.

Y por acabar, otra buena noticia: parece que Microsoft ante la buena acogida de la noticia de la autopublicación de los indies, lo va a implantar en breve en la 360:
http://www.gamasutra.com/view/news/1971 ... _month.php
Quizás pueda ir a la Gamescom. Estoy a la espera de que en el Trabajo, me puedan dar la vacaciones ahora. Dios , ya me cuesta dormir :)
NucelarGen escribió:Quizás pueda ir a la Gamescom. Estoy a la espera de que en el Trabajo, me puedan dar la vacaciones ahora. Dios , ya me cuesta dormir :)

cabrón,como te odio ahora mismo
colets escribió:Sobre qué esquema de memoria es mejor (GDDR5 Vs DDR3+ESRAM): sin entrar en cuál es mejor, me parecen formas diferentes de hacer lo mismo. Una pregunta a los expertos:
A priori parece que cada una es mejor para una cosa: no hubiera sido más sencillo un esquema de memoria partida DDR3 + GDDR5? ¿Porqué los desarrolladores prefieren un pool único de memoria, aunque eso te haga perder alguna de las ventajas del esquema que no utilices?


Ese es el esquema del PC: RAM a DDR3 y GPU con GDDR5.

Tener un pool único de memoria te hace no duplicar memoria a parte del problema del traslado de memoria entre DDR3 y GDDR5 siempre que sea requerido. De esta manera tanto CPU como GPU tienen acceso al mismo recurso en memoria y no es necesario sincronizar recursos dinámicos que hayan podido modificarse.

Es típico en PC tener todo en RAM incluido texturas en caso de que si la GPU perdiera el contexto y necesitara utilizar la memoria para otras aplicaciones, al volver al juego la GPU sea capaz de recuperar la memoria cogiéndola de la RAM. Es por ello que los requerimientos recomendados en PC son siempre muy superiores a lo que realmente se necesita. En una consola ésto no es necesario.
Ya veo, entonces la razón principal sería no malgastar memoria en tener datos duplicados, no?
Bueno, y que el hecho de no tener que decidir donde colocas esos datos facilitaría las cosas, verdad?
Por lo que entiendo, las datos a mandar a la ESRAM son muy concretos así que esa parte no sería muy problemática en XOne.
Gracias por la respuesta, pspskulls
pspskulls escribió:
colets escribió:Sobre qué esquema de memoria es mejor (GDDR5 Vs DDR3+ESRAM): sin entrar en cuál es mejor, me parecen formas diferentes de hacer lo mismo. Una pregunta a los expertos:
A priori parece que cada una es mejor para una cosa: no hubiera sido más sencillo un esquema de memoria partida DDR3 + GDDR5? ¿Porqué los desarrolladores prefieren un pool único de memoria, aunque eso te haga perder alguna de las ventajas del esquema que no utilices?


Ese es el esquema del PC: RAM a DDR3 y GPU con GDDR5.

Tener un pool único de memoria te hace no duplicar memoria a parte del problema del traslado de memoria entre DDR3 y GDDR5 siempre que sea requerido. De esta manera tanto CPU como GPU tienen acceso al mismo recurso en memoria y no es necesario sincronizar recursos dinámicos que hayan podido modificarse.

Es típico en PC tener todo en RAM incluido texturas en caso de que si la GPU perdiera el contexto y necesitara utilizar la memoria para otras aplicaciones, al volver al juego la GPU sea capaz de recuperar la memoria cogiéndola de la RAM. Es por ello que los requerimientos recomendados en PC son siempre muy superiores a lo que realmente se necesita. En una consola ésto no es necesario.


Y podriais explicar algo sobre los 4 dmas esos con un ancho de banda de 25 gb/s que creo que venian en un esquema de vgleaks...

Es que sobre eso no se dice nada y desconozco para que es eso ni lo que es.

Gracias

Salu2
pspskulls escribió:
colets escribió:Sobre qué esquema de memoria es mejor (GDDR5 Vs DDR3+ESRAM): sin entrar en cuál es mejor, me parecen formas diferentes de hacer lo mismo. Una pregunta a los expertos:
A priori parece que cada una es mejor para una cosa: no hubiera sido más sencillo un esquema de memoria partida DDR3 + GDDR5? ¿Porqué los desarrolladores prefieren un pool único de memoria, aunque eso te haga perder alguna de las ventajas del esquema que no utilices?


Ese es el esquema del PC: RAM a DDR3 y GPU con GDDR5.

Tener un pool único de memoria te hace no duplicar memoria a parte del problema del traslado de memoria entre DDR3 y GDDR5 siempre que sea requerido. De esta manera tanto CPU como GPU tienen acceso al mismo recurso en memoria y no es necesario sincronizar recursos dinámicos que hayan podido modificarse.

Es típico en PC tener todo en RAM incluido texturas en caso de que si la GPU perdiera el contexto y necesitara utilizar la memoria para otras aplicaciones, al volver al juego la GPU sea capaz de recuperar la memoria cogiéndola de la RAM. Es por ello que los requerimientos recomendados en PC son siempre muy superiores a lo que realmente se necesita. En una consola ésto no es necesario.

Una pregunta, ¿los 2 Move Engine's dedicados a la compresión y descompresión de datos (cada uno a una cosa) en formato lz podrían usarse para mover una cantidad mayor de paquetes entre CPU/GPU y la memoria?

Gracias de antemano.
143083 respuestas