Xbox One ( Solo temas sobre Xbox One )

oscar_fv escribió:
NucelarGen escribió:Quizás pueda ir a la Gamescom. Estoy a la espera de que en el Trabajo, me puedan dar la vacaciones ahora. Dios , ya me cuesta dormir :)

cabrón,como te odio ahora mismo


jajaaja no te preocupes / preocupéis, ya haré un buen reportaje si al final voy
A ver si puedes probar la Xone y nos cuentas las impresiones jeje
NucelarGen escribió:
oscar_fv escribió:
NucelarGen escribió:Quizás pueda ir a la Gamescom. Estoy a la espera de que en el Trabajo, me puedan dar la vacaciones ahora. Dios , ya me cuesta dormir :)

cabrón,como te odio ahora mismo


jajaaja no te preocupes / preocupéis, ya haré un buen reportaje si al final voy



Recuerda .. si antes de jugar a la xbox one tienes las manos sudadas coge el mando de la ps4 .. xD
Erchacho está baneado por "Flames varios - The End"
colets escribió:
Sobre qué esquema de memoria es mejor (GDDR5 Vs DDR3+ESRAM): sin entrar en cuál es mejor, me parecen formas diferentes de hacer lo mismo. Una pregunta a los expertos:
A priori parece que cada una es mejor para una cosa: no hubiera sido más sencillo un esquema de memoria partida DDR3 + GDDR5? ¿Porqué los desarrolladores prefieren un pool único de memoria, aunque eso te haga perder alguna de las ventajas del esquema que no utilices?


Lo mismo me estaba preguntando yo""""" ¬_¬ ¬_¬ ¬_¬
NucelarGen escribió:Uufff el de Ps4 lo pienso chupar :)


O_O

ha sonado raro

Imagen


[+risas]


(ojala puedas ir !!!! )
NucelarGen escribió:Quizás pueda ir a la Gamescom. Estoy a la espera de que en el Trabajo, me puedan dar la vacaciones ahora. Dios , ya me cuesta dormir :)


Si vas te quedas allí ya seguro de la impresion hahaahaha, queremos de todo , fotos, vídeo , impreciones, videoimpresiones,fotoimpresiones, etc hahahahaha
Un saludo y si vas disfrútalo tio !
pspskulls escribió:...


Buenas gente. Q me digas q en un deferred no hay un alto consumo del ancho de banda y q es mas importante la latencia me deja esta cara Oooh . Cuando la mayoría de las "soluciones" q intentan encontrar para el deferred consisten en reducir el numero de atributos por pixel, la precision, comprimir, hacer tile rendering...van encaminados precisamente a eso, a reducir el ancho de banda necesario para usar dicha técnica.

Yo no estoy hablando exclusivamente de las texturas q tienes q tener para realizar esto o lo otro, que tb pq a mas texturas/tamaño menos cogen en la eSRAM, hablo de q cada textura/buffer q tu estás usando en un deferred o en un efecto de postprocesado o dnd sea tendrás q hacer una operación de lectura/escritura y consumirá ancho de banda.

Por ejemplo en un deferred cuando estás resolviendo la iluminación iteras sobre todas las luces de la escena q son visibles, identificas los pixeles q afectan a cada una de las luces y tienes q leer los atributos de cada pixel para resolver dicha iluminación y obtener el color final. Si tienes por ejemplo q leer el zbuffer para recomponer la posición en 3D, mas las normales, mas la especular ya mínimo (en el caso de Crytek) tendrías q realizar 2 accesos (esto consume ancho de banda), y esto por cada pixel q sea afectado por una luz. Luego hay luces q se solapan y q tendrás q leer del buffer y escribir...todo eso consume ancho de banda, de hecho un ancho de banda BRUTAL.

Es q uno de los problemas del deferred es el alto ancho de banda q consume, no solo el tamaño de todos los buffers.

A parte como he dicho lo mas normal es q quieras tener HDR. El HDR si quieres hacerlo en condiciones (y todos los efectos q se aprovechan de esta mayor precision como por ejemplo DOF, blur...) tendrás q tener 16 bits por pixel, o sea q te vas a 64 bits normalmente para un buffer RGBA. Eso consume mucho mucho pero q muchísimo ancho de banda. Luego haces el tone mapping para sacar el color final...por lo q tendrás q leer el buffer y escribir...seguimos consumiendo ancho de banda...sumale el ancho de banda q se lleva el MSAA...

En gráficos TODO quema/consume ancho de banda y la latencia importa muy muy poco, pq los accesos q se realizan a texturas suelen ser consecutivos/adyacentes por lo q en este caso las cachés funcionan a las mil maravillas.

La memoria de Xbox One es demasiado pequeña para alojar los buffers del deferred integramente, tendrán q hacer tile rendering si o si. Poner los buffer en la memoria DDR3...mejor no pensarlo pq el rendimiento puede bajar mucho. Tu querrás tener siempre los datos q mas uses en la memoria mas rápida, no por latencia sino por ancho de banda.

Ojo q no estoy diciendo q esta configuración de memoria sea mala, solo digo q si fuera mas grande a lo mejor...

Un saludo.
¿Se sabe si los mandos de la X360 funcionarán en la XONE?
Fusoner escribió:¿Se sabe si los mandos de la X360 funcionarán en la XONE?



No funionaran, creo que era por el cambio de los infrarojos.
Fusoner escribió:¿Se sabe si los mandos de la X360 funcionarán en la XONE?

No funcionan.
Se dijo que el move ingene ese [+risas] ,sería algo importante..al final exactamente que es..
Grinch escribió:
Fusoner escribió:¿Se sabe si los mandos de la X360 funcionarán en la XONE?

No funcionan.


Sabes algo sobre los mandos con cable grinch?
VDF_Demon escribió:
Grinch escribió:
Fusoner escribió:¿Se sabe si los mandos de la X360 funcionarán en la XONE?

No funcionan.


Sabes algo sobre los mandos con cable grinch?


Por lo que tengo entendido ( que me corrijan si me equivoco) ningun mando antiguo sirve... al menos por ahora
VDF_Demon escribió:
Grinch escribió:
Fusoner escribió:¿Se sabe si los mandos de la X360 funcionarán en la XONE?

No funcionan.


Sabes algo sobre los mandos con cable grinch?


Creo q ninguno.
http://www.eurogamer.es/articles/2013-05-22-mando-xbox-360-no-funciona-en-xbox-one
Grinch escribió:
VDF_Demon escribió:
Grinch escribió:[quot¿Se sabe si los mandos de la X360 funcionarán en la XONE?

No funcionan.


Sabes algo sobre los mandos con cable grinch?


Por lo que tengo entendido ( que me corrijan si me equivoco) ningun mando antiguo sirve... al menos por ahora[/quote]


Ningún mando de Xbox 360 vale para la Xone..
Polyteres escribió:
pspskulls escribió:...
- Pase de Zpass, 6ms. Esto es un paso de rendering que hacemos previo a renderizar la escena. Es una técnica que nos permite pintar en un buffer la información de profundidad para de esta manera al pintar ahorrarnos rasterizar un pixel final.

- 10ms para cálculo de sombras. Lo pongo antes porque en realidad necesitamos calcular las sombras y tenerlas en texturas intermedias para poder ser utilizadas en el pase de rendering final en la que se aplican.

- 6ms para el rendering pass. Éste es el importante y es dónde entra el ancho de banda. Es aquí dónde para renderizar cada pixel de pantalla necesitamos "preparar" en memoria de video las texturas correspondientes para componer el color base de pixel y calcular y aplicar los efectos de iluminación.

Bien. En todo un proceso que tasan en 21ms, el único espacio de tiempo importante en que el ancho de banda IMPORTA es de 6 ms. Y OJO, que estamos hablando de 21ms SOLO para rendering. Es que luego viene el juego amigos: físicas, IA, ordenación de la escena para ser renderizada y optimizada... cálculos propios de CPU y que requieren NO DE ANCHO DE BANDA, sino de VELOCIDAD EN EL ACCESO a la memoria para poder modificar miles de variables en memoria que deben actualizarse por cada frame.

Una cosa es mover 100 texturas, dónde sí, me importa el ancho de banda y con 100 accesos a memoria lo tengo. Otra es actualizar 100000 variables en memoria en la que necesito 100000 accesos a la misma para modificarlos y creédme que con las físicas e IAs que se van a mover en esta generación quizá me quedo MUY corto.


Buenas gente, pero creo q tu sabes q hay cosillas q has obviado un poquito o bien has maquillado. Aunq en el ZPrepass y en los pases de sombra no estés usando ningun tipo de acceso a textura, si estás usando ancho de banda pq estás escribiendo en un buffer (y este será de 24 o 32 bits o sea igual q un render target RGB8/RGBA8). Por lo q eso de q no se usa ancho de banda en esos dos pases...se usa, en menor cantidad pero se usa. Si por ejemplo tienes un Cascade Shadow Map de 4 cascadas cada una de 1024x1024 a 32bits de profundidad ya estás usando un pellizquito... si estás haciendo la sombra de una luz omnidireccional y estás usando cube mapping ya tienes 6 texturas del tamaño q sea, y si usas Dual Paraboloid tienes 2...no se puede obviar tan a la ligera el ancho de banda q se usa en estos pases.

Por otra parte como bien sabes, cuando se accede a una textura no solo se hace un único acceso, dependiendo del filtrado tendrás mas o menos accesos. Componer la imagen final de un deferred tb se come mucho ancho de banda, si tienes algún tipo de HDR real (nada de nao32 ni compresiones raras q ya estamos en la next gen y podemos pasar de esas cosas para conseguir mas calidad), todo el postprocesado q haces...todo se come ancho de banda.

pspskulls escribió:...
Bien. 32 megas de eSRAM. Parece poco? Sí. Es suficiente? Depende de para qué. Para entender el uso de eSRAM hay que entender lo que es un deferred:

- Si cada MRTs de 32 bits a FullHD de resolución son: 8.1 MB
- Crytek utiliza 3 MRTs y equivale a 24.3 MB de los 32 MB totales.

Lo bueno de la eSRAM no es tanto el ancho de banda porque su utilidad no está en mover texturas... su finalidad está en tener un acceso JODIDAMENTE rápido. De los tres tipos de memoria (DDR3, GDDR5 y eSRAM) la eSRAM es SIN DUDA la de menor latencia con mucha diferencia. Esto nos permite que el proceso deferred vaya a toda castaña. Y aún así una vez tuvieramos el resultado deferred podriamos usar esa memoria para post procesado en lo que lo que más importa es la velocidad del acceso a esa memoria y no el ancho de banda.


Pero no solo tenemos los 3 render target... tenemos los tres distribuidos como se dice mas uno para la acumulación de la iluminación, mas el back buffer final dnd se compone todo, mas todo lo q añade el MSAA, mas todos los buffer intermedios q se usarán en el postprocesado (el SSAO no se hace a la resolución completa por ejemplo) toda la composición del HDR (q esto si q se come y bien el ancho de banda), mas toda la resolución de la iluminación... Todo eso no coge en la eSRAM.

El deferred es una técnica devoradora de ancho de banda lo q se necesita precisamente es eso, no la baja latencia. La latencia en gráficos importa poco. El deferred para ir a lanzado necesita ancho de banda

darksch escribió:Pues mira por donde ya tenemos un 1er uso de la esRAM, con ésta la ZPass será GRATIS, porque al hacer la 2ª pasada con los materiales, los vértices ya estarán en la esRAM como caché, de rápido acceso y gran ancho de banda. Todos los vértices de un objeto no caben ni de coña en la caché de la GPU, pero en 32MB hay espacio de sobra.


Dudo mucho q metan los atributos de los vértices en la eSRAM, aunq las cachés de la GPU son pequeñas hay métodos para optimizar el uso de la caché de estos atributos y muy eficientes por cierto. Sería un desperdicio y repito dudo muchísimo q la usen para eso, hay muchas otras cosas en las q "gastar" la eSRAM. No obstante el Zprepass no será gratuito en ningún caso. Por otro lado veremos a ver q tal se comportan los 16 ROPs con todo esto...

Un saludo.


¿Por qué no van a meter vértices en la esRAM?.

Creo que tú estás obviando mucho más. Veamos, estás hablando casi como si tuviera esos 32MB en plan VRAM y se acabó, nada más lejos. Son 32MB de velocidad extrema para lo que se quiera. Además estás obviando toda la arquitectura minimizándola a un "chip 32MB esRAM" como si fuera todo.

Lo puedes usar para almacenar la geometría para la pasada posterior al ZPass, ¿por qué no?, lo puedes usar de framebuffer, y
Pero no solo tenemos los 3 render target...

Acabas de ignorar por completo a los Move Engine, como si no existieran. Recordemos que el render se hace por scanline, esto significa que si tengo que mezclar buffers puedo ir trayéndomelos un poco por delante de la operación actual y las líneas ya acabadas las vamos quitando de la esRAM de vuelta al buffer de la "VRAM" (la parte de la shared memory que se use para video).

Vamos que con 32MB de memoria ultra-rápida en todos los aspectos (acceso y ancho) y 2 motores para leer/escribir en ésta y la RAM principal...se pueden hacer maravillas. Recuero, además, que estos datos van comprimidos.

La latencia en gráficos importa poco.

Y entonces resulta que la CPU no tendrá derecho a acceder a la RAM por lo visto, pues cuando necesite datos para sus tareas como IA o simplemente hacer funcionar el sistema (porque una CPU hace cantidad de cosas) tendrá que quedarse ahí sentada esperando a que la GPU le deje algún hueco, por cierto, a muy altas latencias. Estoy hablando de tener todo como GDDR5 claro.

Mejor no intentes darle más vueltas al diseño hardware porque seguro que los ingenieros que lo han hecho saben bastante más. Yo a nada que lo piense un poco no le veo más que ventajas pero tampoco me voy a comer el coco porque como digo para eso se lo han currado los ingenieros de AMD.


Recuerda .. si antes de jugar a la xbox one tienes las manos sudadas coge el mando de la ps4 .. xD

tu tienes una obsesion con lo del sudor que no es normal jaja y todo porque lo ha soltado un cantamañanas en un video por no saber expresarse mejor, menudos reporteros tenemos en este pais jaja
oscar_fv escribió:


Recuerda .. si antes de jugar a la xbox one tienes las manos sudadas coge el mando de la ps4 .. xD

tu tienes una obsesion con lo del sudor que no es normal jaja y todo porque lo ha soltado un cantamañanas en un video por no saber expresarse mejor, menudos reporteros tenemos en este pais jaja


Era una broma que me habian dejado a huevo xD :P dejame reirme un rato :P
darksch escribió:¿Por qué no van a meter vértices en la esRAM?.

Creo que tú estás obviando mucho más. Veamos, estás hablando casi como si tuviera esos 32MB en plan VRAM y se acabó, nada más lejos. Son 32MB de velocidad extrema para lo que se quiera. Además estás obviando toda la arquitectura minimizándola a un "chip 32MB esRAM" como si fuera todo.

Lo puedes usar para almacenar la geometría para la pasada posterior al ZPass, ¿por qué no?, lo puedes usar de framebuffer, y


Buenas gente. No son 32 Mb de velocidad extrema, el ancho de banda q tiene es de "tan solo" 102GB/s, por lo q extrema extrema...es mas rápida q la principal.

No estoy hablando como si esos 32MB fueran solo de memoria VRAM pero es q estábamos hablando de procesos gráficos, de deferred rendering/shading, de texturas... Por supuesto q puedes/debes meter mas cosas en esa memoria pero meter en la eSRAM atributos de los vértices a no ser q estos fueran a cambiar muy frecuentemente es una tonteria simplemente pq no hace falta. Para ello tienes las caches especificas de vertices q guardan los atributos procesados y dnd el trabajo no tiene q volver a hacerse. Si son de solo lectura (posiciones, normales, coordenadas de textura, colores...) q no tienen q ser refrescados continuamente, mas el procesamiento con tus herramientas de los vertices para optimizarlos para la caché no hace falta que gastes recursos tan preciados y escasos en esa tarea.

darksch escribió:Acabas de ignorar por completo a los Move Engine, como si no existieran. Recordemos que el render se hace por scanline, esto significa que si tengo que mezclar buffers puedo ir trayéndomelos un poco por delante de la operación actual y las líneas ya acabadas las vamos quitando de la esRAM de vuelta al buffer de la "VRAM" (la parte de la shared memory que se use para video).

Vamos que con 32MB de memoria ultra-rápida en todos los aspectos (acceso y ancho) y 2 motores para leer/escribir en ésta y la RAM principal...se pueden hacer maravillas.



No los he ignorado, es precisamente lo q digo en mi mensaje anterior tendrán que hacer tile rendering pq en la memoria no van a coger todos los render targets juntos. Hacer tile rendering implicará tener q copiar datos con la consecuente penalización. Además según los diagramas si estas escribiendo desde/hacia la esRAM a la DDR3 o viceversa, necesitas ocupar el bus por lo q si estás haciendo una copia de la eSRAM a la DDR3 no podrás leer ninguna textura de la DDR3 por ejemplo y tendrás q tener los datos en la memoria eSRAM, y si no los tienes tendrás q esperar para tenerlos disponibles...se nos están empezando a empequeñecer esos 32MB.

darksch escribió:Y entonces resulta que la CPU no tendrá derecho a acceder a la RAM por lo visto, pues cuando necesite datos para sus tareas como IA o simplemente hacer funcionar el sistema (porque una CPU hace cantidad de cosas) tendrá que quedarse ahí sentada esperando a que la GPU le deje algún hueco, por cierto, a muy altas latencias. Estoy hablando de tener todo como GDDR5 claro.


Es q yo no he hablado de CPU estábamos hablando de una técnica en concreto, una técnica que se ciñe exclusivamente a la parte gráfica. Si ademas de querer tener por ejemplo los render targets en la eSRAM quieres tener texturas q uses frecuentemente (por ejemplo las q usa tu arma en primera persona o tu personaje) y a eso le quieres añadir mas datos q va a consumir la CPU además con el añadido de q la CPU tiene q pasar por varios caminos hasta llegar a la eSRAM la memoria se hace cada vez mas escasa.

Si hay cosas de las q se podría beneficiar este tipo de memoria por ejemplo los sparse voxel octree pero...volvemos a las mismas es escasa para estos menesteres.

darksch escribió:Mejor no intentes darle más vueltas al diseño hardware porque seguro que los ingenieros que lo han hecho saben bastante más. Yo a nada que lo piense un poco no le veo más que ventajas pero tampoco me voy a comer el coco porque como digo para eso se lo han currado los ingenieros de AMD.


No le doy vueltas, y como he dicho no critico el sistema de memoria. Si critico la cantidad y tb la velocidad de la misma. Si usas una memoria de baja latencia y alta velocidad hazlo a lo grande y o me das una gran cantidad de la misma o al menos dame un ancho de banda bestial q me permita hacer q ese tamaño no me importe tanto puesto q puedo estar llevando y trayendo datos continuamente...no es el caso. Además q todo el mundo puede equivocarse.

Un saludo.
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
Bigotin escribió:me gustaria que me dijeseis (en plan directo, porque podria haber mucha miga que cortar), que le diriais a una persona que esta indecisa, que aspectos deberia tener en cuenta de cara a elegir xbox one, es decir, porque motivos deberia una persona elegir xbox one antes que ps4.

estoy haciendo un pequeño estudio XD

este mensaje lo voy a poner en el otro hilo, igual, pero al reves.

[bye]

sin pikes, sin historias, please


1. Xbox One es la consola más potente actualmente del mercado, capaz de juegazos como: Ryse, Forza 5 o Dead rising 3 (se los enseñas para que flipe).

2. Xbox One tiene una cámara con la técnica actualmente más puntera en materia de detección de movimiento, destinada principalmente para los videojuegos, pero también sirve para hacer videoconferencias por Skype, o para hacer de youtuber, o para lo que quieras.

3. El Online de Microsoft es el mejor con mucha diferencia en el mercado.

4. Xbox One es una consola pensada para ser extremadamente silenciosa y consumiendo poquísima energía.

5. El precio de esta tecnología del futuro es 500 euros; menos de lo que cuesta un móvil. Ofrece mucha más diversión que la competencia, muchos más juegos que la competencia, y muchas más prestaciones que la competencia. El futuro, sólo en Xbox One [boing]
xbox one no esta en el mercado . Y dudo que sea la mas potente... pero ten por seguro que ps4 tampoco lo es
Cada una tendran sus pros y sus contras
Polyteres escribió:

Buenas gente. No son 32 Mb de velocidad extrema, el ancho de banda q tiene es de "tan solo" 102GB/s, por lo q extrema extrema...es mas rápida q la principal.


Yo pienso que la configuración de PS4 dará mejores resultados, al menos, eso parece ahora mismo, a falta de unos meses para el lanzamiento de ambas plataformas, pero la diferencia va a ser muy pequeña.

La idea de microsoft no ha sido crear 'a fuerza bruta' y ha intentado esmerarse en su nuevo dispisitivo All-in-One. Además que ya reconocieron públicamente ellos mismos que no serían igual de potentes que PS4.

El quote que te hago es para comentarte que la velocidad de la esram, según contó la propia Microsoft a los desarrolladores será casi el doble de lo que comentas, exactamente: 192 GB/s

Al fin y al cabo si se desarrolla para ONE las diferencias entre ambas serán pequeñas, y según se empieza a rumorear, los desarrolladores van a tirar por ONE, al meses en los primeros años.

Fuente entre otras miles de webs que recogieron la noticia:

http://www.gamechup.com/xbox-one-esram- ... bs-report/
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
Grinch escribió:xbox one no esta en el mercado . Y dudo que sea la mas potente... pero ten por seguro que ps4 tampoco lo es
Cada una tendran sus pros y sus contras


La velocidad se demuestra andando, y mientras Xbox One la petó en el E3, playstation 4 no mostró calidad en Driveclub, Killzone SF fue un juego completamente distinto a la "demo técnica" mostrada en febrero, todo a 30fr; los multiplataformas se colgaban hasta romperse como el caso de Assasins creed...

Xbox One por lo tanto es más potente, para mí termina la discusión en relación con la potencia.

En segundo lugar, viene con el Kinect 2.0, un portento del futuro, cuyo único defecto es no venir con la Ps4; es como la memoria RAM, el problema de los 5 gigas de ram dedicados a juegos para la Xbox One es que no los llevaba la PS4, en cuanto se ha sabido que la PS4 los lleva ¡ya no son necesarios más de 5 gigas¡
Cuando ha dicho ms que nosotros tenemos 5 gigas ?


Y sobre la potencia puedes cantar misa... Sin ver los multis y sin haber salido la consola oficiallmete nadie creo que pueda decir esta desarrolla mejor los juegos que la otra
Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.
indigo_rs está baneado por "saltarse el ban con un clon"
Fusoner escribió:¿Se sabe si los mandos de la X360 funcionarán en la XONE?


No
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


Esperate a la gamescom que tiene que anunciar mas juegos y decides ^^
Soy otro más de los muchos que están indecisos a día de hoy. Por ahora me está convenciendo más la One, pero habrá que esperar a la Gamescom a ver qué ocurre finalmente.

PD: Soy nuevo por aquí, después de llevar leyendo el foro bastante tiempo el buen rollo que he visto me ha animado a registrarme.

Un saludo [sonrisa]
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


En esta generación 360 ha tenido Blue Dragon, Mass Effect y Lost Odyssey exclusivos, por ejemplo. Eternal Sonata con tiempo de exclusividad... no creo que los RPGs/rol se vayan a PS4. The Witcher 3 multi también.
indigo_rs está baneado por "saltarse el ban con un clon"
NeoP escribió:
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


En esta generación 360 ha tenido Blue Dragon, Mass Effect y Lost Odyssey exclusivos, por ejemplo. Eternal Sonata con tiempo de exclusividad... no creo que los RPGs/rol se vayan a PS4. The Witcher 3 multi también.


The Witcher 3 afortunadamente es multi, menudo juegazo [tadoramo] [tadoramo]
Erchacho está baneado por "Flames varios - The End"
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


Pillate las dos!!!! XD XD XD XD y no tendras ese problema
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


The Witcher 2, de CDProyect, es un exclusivo de Xbox 360 y PC. Es uno de los mejores juegos de esta generación.

Skyrim fue, por lo menos durante un año, un exclusivo de Xbox 360, ya que la versión de PS3 se volvía injugable pasadas unas cuantas horas de juego.

FFXVI sale para Xbox One ¿por qué temer en ese aspecto?
Erchacho escribió:
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


Pillate las dos!!!! XD XD XD XD y no tendras ese problema



XDD No tengo pasta para dos, si pudiera. XD
Me esperaré a la Gamescon, y decidiré, que ya queda poco.


P. D Me refiero a los juegos de Rol exclusivos. 360 ha tenido muy buenos, pero Sony se llevo una buena lista de exclusivos.
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
CodeSeeker escribió:
Erchacho escribió:
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


Pillate las dos!!!! XD XD XD XD y no tendras ese problema



XDD No tengo pasta para dos, si pudiera. XD
Me esperaré a la Gamescon, y decidiré, que ya queda poco.


P. D Me refiero a los juegos de Rol exclusivos. 360 ha tenido muy buenos, pero Sony se llevo una buena lista de exclusivos.


El mejor exclusivo de PS3 no es mejor a The Witcher 2
Jeronimomoulia escribió:
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


The Witcher 2, de CDProyect, es un exclusivo de Xbox 360 y PC. Es uno de los mejores juegos de esta generación.

Skyrim fue, por lo menos durante un año, un exclusivo de Xbox 360, ya que la versión de PS3 se volvía injugable pasadas unas cuantas horas de juego.

FFXVI sale para Xbox One ¿por qué temer en ese aspecto?


Hombre el FFXVI no se sabe aun, supongo que de momento pensemos solo en FFXIV y FFXV que por lo menos están anunciados jajajajaja
Qwertydhf escribió:Yo pienso que la configuración de PS4 dará mejores resultados, al menos, eso parece ahora mismo, a falta de unos meses para el lanzamiento de ambas plataformas, pero la diferencia va a ser muy pequeña.

La idea de microsoft no ha sido crear 'a fuerza bruta' y ha intentado esmerarse en su nuevo dispisitivo All-in-One. Además que ya reconocieron públicamente ellos mismos que no serían igual de potentes que PS4.

El quote que te hago es para comentarte que la velocidad de la esram, según contó la propia Microsoft a los desarrolladores será casi el doble de lo que comentas, exactamente: 192 GB/s

Al fin y al cabo si se desarrolla para ONE las diferencias entre ambas serán pequeñas, y según se empieza a rumorear, los desarrolladores van a tirar por ONE, al meses en los primeros años.

Fuente entre otras miles de webs que recogieron la noticia:

http://www.gamechup.com/xbox-one-esram- ... bs-report/


Buenas gente, la idea de Microsoft fue desde un principio la misma q la de Sony, sacar una consola con un precio muy contenido, q no tuviera problemas de fabricación y q fuera de desarrollo amigable. Y aquí es dnd cada compañía tomó su camino.

Microsoft quería desde un principio una gran cantidad de RAM para su nueva máquina, por una parte pq los desarrolladores se lo habían pedido y pq ellos lo necesitaban internamente. 8GB fue el número elegido (al menos) y empezaron a ver opciones para implementarlo. Para cumplir con los requisitos antes expuestos la solución q vieron mas correcta pasaba por tener memoria DDR3 pero esto acarreaba un problema...tenían un ancho de banda escaso q es lo q necesitan los procesos gráficos de una consola. Para paliar este "defecto" se buscó una alternativa: una pequeña cantidad de memoria con mayor ancho de banda y otra serie de características. Se optó por la eSRAM pero tenía un problemita...se necesitaba bastante espacio del chip, por lo q la solución empezó a dar otros problemas. Ese espacio no podía ser usado para añadir mas CUs por lo q se tuvieron q reducir el numero y consecuentemente el numero de unidades de textura, al igual q el numero de ROPs. A parte complicó el diseño del contralor de memoria, añadieron los DME... Al final la solución se convirtió en un lastre de diseño q han tenido q ir arrastrando.

Sony por su parte, se arriesgó MUCHO y le salió bien la jugada con mucha mucha suerte. Sony y su histórica y particular visión de la memoria [poraki] optó por un mayor ancho de banda en sacrificio de la cantidad. Se empezó en 2GB de memoria GDDR5 (con un ancho de banda muy alto 192GB/s). Ante la insistencia de los desarrolladores se vió "obligada" a montar mas memoria poniendo 4. Pero es q luego le sonrió la fortuna puesto q el proceso de fabricación permitió aumentar la densidad de los módulos manteniendo en cierta medida el coste y con el añadido de q no tuvo q cambiar practicamente nada (ni diseño de la placa, ni diseño del controlador de memoria...). De esta forma pudo montar 8GB de memoria GDDR5 anunciandolo a bombo y platillo consiguiendo tanto un golpe mediatico como la satisfacción de los estudios de desarrollo al ver q Sony les "hacia caso" dandoles no solo mucha memoria sino muy rapida, facilitando las cosas enormemente. No todo serían buenas noticias ya q este aumento trajo consigo una disminución del ancho de banda hasta los 176GB/s.

Lo dicho Sony arriesgó y le salió una jugada maestra no sin mucha mucha pero q mucha suerte. Microsoft fue previsor y buscó un objetivo mas definido desde el principio, buscando una solución suficiente y saliendo un poco perjudicada al final.

Con respecto a lo q dices de los famosos 192GB/s q publicó Eurogamer...q alguien me explique como sin cambiar el ancho del bus, ni la frecuencia de este ni duplicando los buses (escritura/lectura simultanea) teniendo un pico teórico e inamovible de 102GB/s pueden transpasar ese límite teórico. Huecos en los ciclos???. En todo caso podrían mejorar la eficiencia del bus para alcanzar o acercarse lo mas posible a dicho pico pero sobrepasarlo...como?. Ademas despues de tanto tiempo desarrollando un producto q "se den cuenta" de q como por arte de magia los buses transmiten mas datos?. Oooh Oooh Oooh Oooh

Un saludo.
Mientras unos hablan de potencias sin haber datos reales ( pajas mentales por doquier ), nosotros hablamos de juegos que es para lo que sirve mayormente la consola, y eso me encanta!

Catalogazo de salida amigos, de salida! [amor]

Que ganas de pillar el Quantum y Dead Rising [bye]
NeoP escribió:Mientras unos hablan de potencias sin haber datos reales ( pajas mentales por doquier ), nosotros hablamos de juegos que es para lo que sirve mayormente la consola, y eso me encanta!

Catalogazo de salida amigos, de salida! [amor]

Que ganas de pillar el Quantum y Dead Rising [bye]



[beer] [beer]
[/quote]El mejor exclusivo de PS3 no es mejor a The Witcher 2[/quote]

No se como es de bueno TW2, pues no he jugado XD Fable dicen que es muy bueno.

Pero de PS3, exclusivos de Rol buenos, Ni no Kuni, Disgaea, Tales Of etc....


A ver con que juegos nos sorprende One en la Gamescon.
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
Polyteres escribió:
Qwertydhf escribió:Yo pienso que la configuración de PS4 dará mejores resultados, al menos, eso parece ahora mismo, a falta de unos meses para el lanzamiento de ambas plataformas, pero la diferencia va a ser muy pequeña.

La idea de microsoft no ha sido crear 'a fuerza bruta' y ha intentado esmerarse en su nuevo dispisitivo All-in-One. Además que ya reconocieron públicamente ellos mismos que no serían igual de potentes que PS4.

El quote que te hago es para comentarte que la velocidad de la esram, según contó la propia Microsoft a los desarrolladores será casi el doble de lo que comentas, exactamente: 192 GB/s

Al fin y al cabo si se desarrolla para ONE las diferencias entre ambas serán pequeñas, y según se empieza a rumorear, los desarrolladores van a tirar por ONE, al meses en los primeros años.

Fuente entre otras miles de webs que recogieron la noticia:

http://www.gamechup.com/xbox-one-esram- ... bs-report/


Buenas gente, la idea de Microsoft fue desde un principio la misma q la de Sony, sacar una consola con un precio muy contenido, q no tuviera problemas de fabricación y q fuera de desarrollo amigable. Y aquí es dnd cada compañía tomó su camino.

Microsoft quería desde un principio una gran cantidad de RAM para su nueva máquina, por una parte pq los desarrolladores se lo habían pedido y pq ellos lo necesitaban internamente. 8GB fue el número elegido (al menos) y empezaron a ver opciones para implementarlo. Para cumplir con los requisitos antes expuestos la solución q vieron mas correcta pasaba por tener memoria DDR3 pero esto acarreaba un problema...tenían un ancho de banda escaso q es lo q necesitan los procesos gráficos de una consola. Para paliar este "defecto" se buscó una alternativa: una pequeña cantidad de memoria con mayor ancho de banda y otra serie de características. Se optó por la eSRAM pero tenía un problemita...se necesitaba bastante espacio del chip, por lo q la solución empezó a dar otros problemas. Ese espacio no podía ser usado para añadir mas CUs por lo q se tuvieron q reducir el numero y consecuentemente el numero de unidades de textura, al igual q el numero de ROPs. A parte complicó el diseño del contralor de memoria, añadieron los DME... Al final la solución se convirtió en un lastre de diseño q han tenido q ir arrastrando.

Sony por su parte, se arriesgó MUCHO y le salió bien la jugada con mucha mucha suerte. Sony y su histórica y particular visión de la memoria [poraki] optó por un mayor ancho de banda en sacrificio de la cantidad. Se empezó en 2GB de memoria GDDR5 (con un ancho de banda muy alto 192GB/s). Ante la insistencia de los desarrolladores se vió "obligada" a montar mas memoria poniendo 4. Pero es q luego le sonrió la fortuna puesto q el proceso de fabricación permitió aumentar la densidad de los módulos manteniendo en cierta medida el coste y con el añadido de q no tuvo q cambiar practicamente nada (ni diseño de la placa, ni diseño del controlador de memoria...). De esta forma pudo montar 8GB de memoria GDDR5 anunciandolo a bombo y platillo consiguiendo tanto un golpe mediatico como la satisfacción de los estudios de desarrollo al ver q Sony les "hacia caso" dandoles no solo mucha memoria sino muy rapida, facilitando las cosas enormemente. No todo serían buenas noticias ya q este aumento trajo consigo una disminución del ancho de banda hasta los 176GB/s.

Lo dicho Sony arriesgó y le salió una jugada maestra no sin mucha mucha pero q mucha suerte. Microsoft fue previsor y buscó un objetivo mas definido desde el principio, buscando una solución suficiente y saliendo un poco perjudicada al final.

Con respecto a lo q dices de los famosos 192GB/s q publicó Eurogamer...q alguien me explique como sin cambiar el ancho del bus, ni la frecuencia de este ni duplicando los buses (escritura/lectura simultanea) teniendo un pico teórico e inamovible de 102GB/s pueden transpasar ese límite teórico. Huecos en los ciclos???. En todo caso podrían mejorar la eficiencia del bus para alcanzar o acercarse lo mas posible a dicho pico pero sobrepasarlo...como?. Ademas despues de tanto tiempo desarrollando un producto q "se den cuenta" de q como por arte de magia los buses transmiten mas datos?. Oooh Oooh Oooh Oooh

Un saludo.


No si recordarás el E3 de 2006, Sony mostró la "jugabilidad" de Killzone 2... la demo más falsa que un billete de 6 euros. Y no sólo el Killzone 2... TODO el E3 de Sony fue una farsa; juegos que eran puras invenciones, trailers falsos, etc...

Y Guerrilla y Sony, los compinches, lo han vuelto a hacer... El Killzone SF que mostraron en febrero era DISTINTO al gameplay mostrado en este E3 (que no podían jugar los periodistas... siendo un juego de salida)... Driveclub (popping, 30fps)... Sony no ha cambiado.

No es algo que me parezca deleznable, Sony es una empresa y tiene que ganar dinero, pero, señores ¿cuándo Microsoft ha engañado con un gameplay que no era?

Yo no sé porqué los que vamos a comprar la Xbox One tenemos que estar a la defensiva, sino porque los soniers nos han lavado el cerebro.
Si hay cosas de las q se podría beneficiar este tipo de memoria por ejemplo los sparse voxel octree pero...volvemos a las mismas es escasa para estos menesteres.

Jaja si venga tú rebusca más, yo creo que es mejor para renderizado cuántico.

Te insisto en que los ingenieros sabrán mucho más, porque para que una memoria intermedia sea eficiente se ha demostrado sobradamente que no necesita tener espacio para todo lo usado, mismo ejemplo las cachés de la CPU que siendo pequeña aceleran enormemente la velocidad respecto a lo que sería trabajar sólo sobre RAM.

Y te aseguro que estos ingenieros se han centrado en optimizar los sistemas de render para juegos y no los sparse voxel octree [qmparto]

Mira te pondré un ejemplito muy sencillo y además es un caso práctico y demostrado, la Xbox360 tiene 10MB de edRAM, sin capacidad de comprimir las transferencias y sin Move Engine, y mira como ha funcionado. Ahora sigue intentado buscar que sería sólo bueno y quizás para sparse voxel octree, menuda forma de intentar "minimizar" (como un intento casi de ridiculizar en cierto modo) la arquitectura de XOne que es precisamente en lo que se han gastado un pastizal, venga ya que se te ve el plumero admítelo [carcajad]

Es q yo no he hablado de CPU estábamos hablando de una técnica en concreto, una técnica que se ciñe exclusivamente a la parte gráfica

Y yo que pensaba que el objetivo de las consolas eran hacer juegos, y ahora resulta que sólo se usan para ejecutar un Shader con texturas de 8192x8192 exclusivamente.

Lo dicho, intentar buscarle la 7ª pata al gato no me recuerda sino a los típicos y vanos intentos de Sony de rebuscar y rebuscar el único caso aislado donde su máquina es mejor y decir "hala, como es mejor en esto ya es mejor en todo", y de querer venderle la moto a todo el mundo de que es en lo único en lo que hay que fijarse para ver cual es más potente para hacer juegos.
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
darksch escribió:
Si hay cosas de las q se podría beneficiar este tipo de memoria por ejemplo los sparse voxel octree pero...volvemos a las mismas es escasa para estos menesteres.

Jaja si venga tú rebusca más, yo creo que es mejor para renderizado cuántico.

Te insisto en que los ingenieros sabrán mucho más, porque para que una memoria intermedia sea eficiente se ha demostrado sobradamente que no necesita tener espacio para todo lo usado, mismo ejemplo las cachés de la CPU que siendo pequeña aceleran enormemente la velocidad respecto a lo que sería trabajar sólo sobre RAM.

Y te aseguro que estos ingenieros se han centrado en optimizar los sistemas de render para juegos y no los sparse voxel octree [qmparto]

Es q yo no he hablado de CPU estábamos hablando de una técnica en concreto, una técnica que se ciñe exclusivamente a la parte gráfica

Y yo que pensaba que el objetivo de las consolas eran hacer juegos, y ahora resulta que sólo se usan para ejecutar un Shader con texturas de 8192x8192 exclusivamente.

Lo dicho, intentar buscarle la 7ª pata al gato no me recuerda sino a los típicos y vanos intentos de Sony de rebuscar y rebuscar el único caso aislado donde su máquina es mejor y decir "hala, como es mejor en esto ya es mejor en todo", y de querer venderle la moto a todo el mundo de que es en lo único en lo que hay que fijarse para ver cual es más potente para hacer juegos.


La generación pasada era el Cell, ahora la RAM... que se cansen. Microsoft es una empresa que no te vende gato por liebre, y en los gameplays no hay trampa ni cartón.
Editado.
Editado por SCREAM25. Razón: Flame y Faltas de respeto.
NeoP escribió:
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


En esta generación 360 ha tenido Blue Dragon, Mass Effect y Lost Odyssey exclusivos, por ejemplo. Eternal Sonata con tiempo de exclusividad... no creo que los RPGs/rol se vayan a PS4. The Witcher 3 multi también.


También esta en PS3 i Wii U, te lo digo por si no lo sabes no por crear mal rollo compañero.

Un saludo!
georgegero85 escribió:Mucho troll de las cavernas de Sony veo por aqui.... se ve que estan escocidos con los 4,5 gb que deja para juegos su sanwichera....pues nada ..a seguir, solo digo ke espero que sony no se saque el miembro viril y os lo clave hasta el fondo como hizo con PS3 , la cual era 3 o 4 veces mas potente que 360 y luego resulta que era todo mas falso que un billete de 3 euros


+1000 mucha gente se mete en el hilo de XBOX ONE porque sony se calla muchas cosas, está la gente muy ansiosa, y para lo poco que dicen... van y sueltan que su OS va a comerse 3 gigas... pero claro... como es sony se perdona, cuando salió "xbox va a requerir 3 gigas para sus 3 S.O." todos los sonyboys a echar mierda, pero ahora lo aceptan... a eso yo lo llamo doble moral...
Jeronimomoulia está baneado por "Crearse un clon para saltarse un baneo"
georgegero85 escribió:Mucho troll de las cavernas de Sony veo por aqui.... se ve que estan escocidos con los 4,5 gb que deja para juegos su sanwichera....pues nada ..a seguir, solo digo ke espero que sony no se saque el miembro viril y os lo clave hasta el fondo como hizo con PS3 , la cual era 3 o 4 veces mas potente que 360 y luego resulta que era todo mas falso que un billete de 3 euros


Por lo menos en la guerra Sega-nintendo Sega tenía gracia, con el lema "Sega Genesis can do it, Ninten-dont". Pero es que los sonieros son taaaaan pesaos
CheWinki escribió:
NeoP escribió:
CodeSeeker escribió:Yo aun sigo indeciso si pillar todavía o PS4 o Xbox One. Ultimamente, me decanto por One, pero me da miedo que la mayoría de juegos de Rol, se los quede PS4 y no pueda catarlos.


En esta generación 360 ha tenido Blue Dragon, Mass Effect y Lost Odyssey exclusivos, por ejemplo. Eternal Sonata con tiempo de exclusividad... no creo que los RPGs/rol se vayan a PS4. The Witcher 3 multi también.


También esta en PS3 i Wii U, te lo digo por si no lo sabes no por crear mal rollo compañero.

Un saludo!


El ejemplo del mass effect es un mal ejemplo Ya que no fue que se pasara a otras consola si no que compraron la empresa y or es salio en otra. Es una caso que dudo que ocurra mas. Es como si ahora el exclusivo pepe de ps4 lo compra EA.. pues saldra en todas.


Dejad de usas el ejemplo del mass effect por que ademas de tonteria no sirve de mucho
Mirad esto es lo que pasa cuando la parte de la CPU se descuida. Id al minuto 4:50 y mirad los FPS.
http://www.youtube.com/watch?v=vnTG-C_z5vI
Cuando toca mezclar drawcalls con poner monigotes etc.etc...pues eso.
143083 respuestas