› Foros › Multiplataforma › General
takeda escribió:Menudo noob Arkanoid, lo mejor es hablar de bandos y nunca, nunca, nunca, incluirse en uno.
takeda escribió:Menudo noob Arkanoid, lo mejor es hablar de bandos y nunca, nunca, nunca, incluirse en uno.
Pinta interesante el juego de Hidetaka Suehiro
D4: Dark Dreams Don't Die
https://www.youtube.com/watch?v=jtzuToMbsA4
Absolute Terror escribió:takeda escribió:Menudo noob Arkanoid, lo mejor es hablar de bandos y nunca, nunca, nunca, incluirse en uno.
Culpa mia, ya no me acordaba que los bandos no existen!
Yo esta gen he sido xboxer porque la 360 ha sido mi consola preferida de largo.
En cambio en esta proxima gen que viene creo que directamente pasare de las consolas y ahorrare para comprarme un buen PC en 2014/15.
Es mas, de tener predileccion -y a falta de ver mas juegos y exclusivas- mi compra a dia de hoy seria la PS4.Pinta interesante el juego de Hidetaka Suehiro
D4: Dark Dreams Don't Die
https://www.youtube.com/watch?v=jtzuToMbsA4
Pues pintara interesante por la estetica, la historia, el gameplay o yo que se, porque lo que es graficamente es una castaña importante.
Natsu escribió:Que decepción, me levanto me tomo mi relaxing cup de cafe con leche, mientras veo en mi bandeja de entrada que tengo una notificación del hilo "hablemos de la next gen...", digo huala cuantas páginas! seguro que ya se sabe algo interesante de steambox, me leo la mitad de las páginas nuevas, solo veo guerra en ambos bandos, "uff que coñazo, me duele la cabeza, me voy a por mi dosis diaria de nicotina" me doy un garbeo vuelvo, veo más páginas que se suman a las que me quedaban por leer, "guau fijo que a partir de alguna de ellas hay algo interesante" me enciendo un pity con un base de Coca-cola, sigo leyendo----- mmmm....... sigo leyendo.------- llego hasta la ultima página...
PilaDePetaca escribió:Natsu escribió:Que decepción, me levanto me tomo mi relaxing cup de cafe con leche, mientras veo en mi bandeja de entrada que tengo una notificación del hilo "hablemos de la next gen...", digo huala cuantas páginas! seguro que ya se sabe algo interesante de steambox, me leo la mitad de las páginas nuevas, solo veo guerra en ambos bandos, "uff que coñazo, me duele la cabeza, me voy a por mi dosis diaria de nicotina" me doy un garbeo vuelvo, veo más páginas que se suman a las que me quedaban por leer, "guau fijo que a partir de alguna de ellas hay algo interesante" me enciendo un pity con un base de Coca-cola, sigo leyendo----- mmmm....... sigo leyendo.------- llego hasta la ultima página...
De steambox hasta esta tarde en USA no sabremos nada.
Franky_el_Punky escribió:Crees que son la polla Forza 5 que parece Forza 4'5 y que para ir fluido y full hd no han podido ni poner iluminación dinámica? Ryse que está super automatizado, lineal, 900p y que por muchos que flipeis con los gráficos a mi no deja de parecerme un tio detallado y hasta el culo de brilli-brilli que te ponen a 2mm de la cámara y así no se nota demasiado que los escenarios son mediocres??? O Dead Rising 3 que parece un Dead Rising 2 pero con los gráficos oscuros de Resident Evil 5, un juego con animaciones de PS2 en el que fliplan por que ponga muchos zombies repetidos y tontos a la vez en pantalla, sin parece ser que entendais que eso no es ningún alarde técnico bajo esas circunstancias, por no hablar de los 30fps cogidos con pinzas.
chris76 escribió:Acabo de ver el video del mgs5 de one y lo e visto muy clavado al de ps4,no?
Sin levantar polemicas,como los veis?,ya que creo que es el primer multiplataforma para comparar...
chris76 escribió:Acabo de ver el video del mgs5 de one y lo e visto muy clavado al de ps4,no?
Sin levantar polemicas,como los veis?,ya que creo que es el primer multiplataforma para comparar...
chorizito escribió:chris76 escribió:Acabo de ver el video del mgs5 de one y lo e visto muy clavado al de ps4,no?
Sin levantar polemicas,como los veis?,ya que creo que es el primer multiplataforma para comparar...
Yo los veo igualicos a falta de unos videos de mejor calidad, vamos como lo seran casi todos los multis de esta generacion.
juan19 escribió:de forza aparte de la iluminacion que me parece exagerada , tambien me parece que siguen con la textura del asfalto que parece como de goma , que no me gusta nada , ya se lo note sobretodo en el tercero que es al que mas horas le dedique.
por lo demas , en modelados , me parece una bestia , al menos el Mclaren ese , que con el diseño que tiene , luce muchisimo.
PilaDePetaca escribió:chorizito escribió:chris76 escribió:Acabo de ver el video del mgs5 de one y lo e visto muy clavado al de ps4,no?
Sin levantar polemicas,como los veis?,ya que creo que es el primer multiplataforma para comparar...
Yo los veo igualicos a falta de unos videos de mejor calidad, vamos como lo seran casi todos los multis de esta generacion.
Yo lo que si he visto es un downgrade desde lo que se vió corriendo en PC a lo que se ha visto corriendo en XONE.
lherre escribió:Juas, me hace gracia lo del downgrade desde PC cuando las 2 demos del TGS corrian en PC con mandos de one o ps4 en cada caso .
Herebus escribió:Para quien no lo sepa ha salido un articulo de Digital Foundry en el que un redactor entrevista a dos de los ingenieros encargados del diseño del Hardware de XBOX One.
Echadle un ojo.
Yo dejo mi opinion por aqui, justo mas abajo:
Aclaran por un lado cosas pero por otro siguen dejando cosas en el aire.
El titulo debería de ser BALANCE. Y cierto pueden balancear todo lo que quieran pero hay unos cuantos aspectos, que me han llamado poderosamente la atención. Y no para bien:
Empezamos:
Con respecto a la eSRAM
Comentan que les ha sorprendido la respuesta de la gente ante su aproximación de memoria para XBOX One, cuando es una evolución de lo visto en XBOX 360 y XBOX 360 era un hardware fácil para trabajar.
Comentan que los 204GBps son en pico. (Obvio)
Confirman que el rendimiento medio real sería de 140/150GBps.
Confirman que no es una caché ni por asomo es un ScratchPAD, por tanto nada de espacio de memoria direccionable directamente por hardware, sino que tiene que ser administrado por cada App.
Confirman que sí se puede leer y escribir a la vez, dado que son 4 Módulos de 8MB cada uno con un controlador cada uno de 256Bits lo que da un bus total de 1024.
Eso quiere decir que por ejemplo 2 clusters pueden estar leyendo y dos escribiendo. Si lo manejas bien puedes tener en un momento dado a todos leyendo y conseguir el pico comentado, salvando los errores de acceso.
Lo que NO Comentan:
- No comentan que en la generación actual si lo comparamos con PS3, XBOX360 es aplastantemente mas facil de programar. Pero dado que en la anterior estabamos con PowerPC, pues ya había que dar un salto (por decirlo de alguna manera), para los juegos Multiplataformas que se desarrollaban pensando en PC. Y por tanto pues puestos a saltar el salto a un pool unificado y un ScratchPAD de eDRAM de XBOX 360 era y es más fácil.
El problema es que en la genearción al caer hemos saltado de arquitectura RISC PowerPC a arquitectura CISC x86. ¿Porque? Porque no había una alternativa RISC que fuera interesante por precio y potencia, y porque los desarrollos cada vez son mas caros. Por tanto la idea es abaratar costes. ¿Como? Simplificando la vida al desarrollador haciendo que solo tenga que programar para x86 para que salga en PC y consolas, le estas ahorrando esfuerzo, personal y tiempo, o lo que es lo mismo dinero.
Y ya que saltas a x86 si quieres hacer las cosas aún más fácil al desarrollador, lo ideal es olvidarse de los ScratchPADs, que no dejan de ser añadidos anexos a un Microprocesador para poder trabajar sueltos a pesar de las limitaciones de ancho de banda a la memoria principal. Pero si ya tienes un buen ancho a una memoria principal y esa memoria es unificada y en cantidad, es hacerle las cosas mucho mas sencillas aún. Meter un ScratchPAD lo que hace es complicarles la vida, porque en PC NUNCA se programan juegos pensando en esos ScratchPADs porque NO los hay.
Por eso Intel y AMD a pesar de que ya hace tiempo que han tocado techo con sus APUs (GPU+CPU), en el sentido de que no pueden meter GPUs mas potentes sin que la falta de ancho de banda ahogue por completo esas GPUs, no se han lanzado a meter ScratchPADs de eDRAM o eSRAM en sus APUs para PC. ¿Porque?. Porque habría que desarrollar ex professo para ello, (algo que los desarrolladores de Juegos para PC no van a hacer, es decir no van a currarse una versión para un puñado de CPUs de PC). O bien meter una capa de abstracción, que se comería gran parte de los recursos. Asi que por eso lo han descartado y estan pensando en tirar como ha hecho AMD para PS4, en meter una APU con solo GDDR5, y que vaya todo soldado en placa, Micro y Memorias, (interesante quizá para Ordenadores portatiles (aunque saca de la ecuación la opcion de ampliar), o bien lo que están haciendo que es esperar como lobos a que salga la memoria DDR4.
- Si tienes 4 clusters y no 1, tienes un problema si tienes digamos un dato grande (las texturas lo son por ejemplo) tienes que repartirlo entre uno, dos o hasta tres de esos clusters. Segun como repartas eso puede jugar en tu contra o en tu favor. El problema es que en cualquier de los casos, el hacer que juegue en tu favor y no en tu contra, te va a llevar a tener que planear y con mucho ojo como lo haces.
- Siguen siendo 32MB. Y son esos 32MB los únicos que tienen y ofrecen un ancho suficiente a la GPU para trabajar sin problema. El trabajo para traer, almacenar y llevar datos entre GPU y Pool de DDR3, va a ser fino.
La XBOX360 tenía un ancho de 22,4GBps a los 512MB de GDDR3 (notese que ya la XBOX 360 motaba GDDR3 y NO DDR2, que sería lo equivalente a lo que monta ahora XBOX ONe que es DDR3).
La GPU de XBOX 360 llamada Xenos, era un derivado del chip RV600 de AMD, que iendonos por arriba sería un "a caballo" entre una Radeon HD 2400 y 2600, y Xenos tiene 230millones de trasistores, corre a 500Mhz, y . Ese "a caballo" de GPU debería requerir de ancho para ella sola unos 12/15GBps aprox. La CPU por tanto se tendría que conformar con el resto.
A lo que voy es que el acceso al Pool central de RAM GDDR3 en XBOX 360 era lo suficientemente rápido como para asegurar el ancho de banda que necesitaba la GPU y quedaba algo para la CPU. Tenía un ScratchPAD de 10MB eDRAM con un acceso inicial de 30GBps y otro interno a 256GBps para tratar ciertos datos de forma más rapido y no tener que abusar del ancho al pool Central de 512MB que compartía con CPU, pero repito que tenía opcion a alimentarse por completo (como de hecho en gran medida hacía) de los datos que llegaban e iban al Pool de GDDR3.
En XBOX One el tema es otro. La GPU de XBOX One es un derivado de la serie 77xx de AMD. De hecho en el articulo comentan a las claras que es Southern Islands, NADA de Volcanic Islands (de hecho era absurdo pensar en que una APU para algo que se lanza en 2 meses iba a basarse en Volcanic Islands, cuando Volcanic Islands es una arquitectura para 2014, porque AMD se ha saltado la serie 8000 que iba a ser Sea Islands de 2013 por la bajada de ventas de PCs y porque es absurdo lanzar algo nuevo cuando tienes todavía Stock de lo anterior, ademas el chip tanto de PS4 y XBOX One tenían que estar 100% diseñado y cerrado como tarde en el tercer cuarto de 2012).
El caso y volviendo al tema y perdón por la disgresión, la GPU de XBOX One es una derivación de la serie 77xx de AMD. La GPU más básica de esa serie la 7750 (que es de hecho menos potente que la GPU de XBOX One, que tiene aspectos de la 7790 [2 cálculos por ciclo], de hecho comentan mas adelante que en realidad su GPU monta 14Compute Units (CUs), como la 7790 solo que 2 de ellos estan capados para redundancia y tener mas chips buenos por oblea, la 7790 con 14CUs aún cuando corre a 1GHz reclama como mínimo para ella sola 96GBps, y la 7770 con 10 CUs y corriendo a 1GHz reclarma 72/73GBps, y lo mismo reclama la 7750 que tiene apenas 8CUs y corre segun la version entre 800 y 9xxMhz
El acceso de XBOX One a los 8GB de DDR3 es de 68GBps a repartir entre CPU y GPU. :roll: :roll:
Asi que la eSRAM y los DMEs están no como complemento sino que van a tener que estar a destajo para poder alimentar desde el Pool Central a la GPU.
- Segun estos señores, la decisión de escoger DDR3 y eSRAM es por dos cuestiones. Una evolucionar un modelo que les fue bien en XBOX 360, y otro los consumos.
Y lo han apostillado soltando esto:
<<< "Yeah, I think that's right. In terms of getting the best possible combination of performance, memory size, power, the GDDR5 takes you into a little bit of an uncomfortable place," >>>
Hasta aquí el articulo ha tenido sus puntos, pero cuando basicamente han soltado esto es cuando literalmente me he quedado así :o :o :?
Vamos a ver, sí cierto que GDDR5 consume mas energía, y emite mas calor, pero que en ningun momento digas a las claras que el motivo fundamental que puede llevar a estas alturas de los tiempos a alguien a meter para alimentar a una GPU DDR3 y no GDDR5, es el PRECIO .... , pues hombre ... X-D
El consumo y el calor de GDDR5 e mayor que el de DDR3 sí sin duda, eso te lleva a tener que meter una fuente algo mayor, y un sistema mejor de disipación ventilación lo que redunda todo ello a la fin de la postre en ---> COSTES MAS ALTOS. Y la GDDR5 ya es mas cara de por sí. Así que la GDDR5 es una memoria infinitamente mejor para una GPU de gama media actual, pero a costa de ser mas cara en sí y en su implementación. Al final a lo que voy es que todo redunda en COSTES y PRECIO.
Y punto pelota.
Ahora mismo salvo en gamas muy muy bajas (es decir las mas baratas de las baratas) ni una sola compañía en gama media o media baja tiene en Stock NI UNA pero NI UNA sola GPU que tire con DDR3. Todas montan GDDR5. ¿Porque?. Porque es la única memoria que aporta un ancho de banda suficiente.
La aproximacion de buscar el menor coste tiene su sentido, si vas con la idea de lanzar el producto a un precio de venta al público menor que el de tu competencia mas directa.
Pero es que aquí ha pasado lo contrario ... :roll: :shock: ... , sale 100€ mas cara. ¿Quien puñetas se ha llevado el gato al agua para que a pesar de montar un hardware de base mas barato y rebañando en aspecto tan fundamentales como la memoria, salgo costando 100€ mas que la competencia? ---> KINECT.
DDR3
- En el articulo comentan que la polemica de sumar anchos no la entienden ya que en realidad la GPU si que puede leer del ScartchPAD y del Pool de DDR3.
Sí es cierto, de hecho solo faltaba, pero las cosas no funcionan así, no puedes sumar tan alegremente ambos anchos cuando el ancho a DDR3 hay que repartirlo con CPU. Ademas la GPU tiene su propio controlador de memoria, a ese controlador de memoria es al que conecta todo DMEs, GPU, y eSRAM, y de ese controlador hay un canal que lleva al controlador de memoria de la APU, (al que conecta tambien la CPU), y es lo que a su vez conecta a DDR3.
Si la GPU llama a DDR3 el dato tiene que llegar pasa por el controlador de APU, llegar al controlador de GPU y pasar DMEs donde presumiblemente se descomprime se pasa de nuevo al controlador de GPU, y desde allí tira a eSRAM o tira a GPU directamente.
A lo que voy es que con apenas 32MB de eSRAM los datos van a tener que estar entrando y saliendo de ahí de forma continua, no tienes apenas espacio (si tienes por ejemplo 2 o 3 FrameBuffers), para dejar datos residentes, por lo que a la fin de la postre, tienes que estar de forma continua llamando y enviando datos al Pool de DDR3 que está muy muy costreñido ya, y de ahí repito que haya DMEs y eSRAM.
¿Es decir aportan datos la eSRAM y el pool de DDR3 a GPU?
Sí
Pero dado el tamaño, apenas (si es que puedes) dejar datos residentes en eSRAM mas allá de FrameBuffers & Co, y los datos que debe servir la eSRAM a GPU en realidad son los mismos que han sido llamados antes al Pool de DDR3.
Por tanto sumarlos es absurdo, salvo quizá algun momento muy puntual que dudo que se dé ... :| :roll:
GPU
- Comentan que la GPU de XBOX One, tiene por defecto 14CUs, pero de esos 14CUs, solo 12 están activos. Y para los que os lo pregunteis, NO, nunca van a poder activarse.
Esos 2CUs de más están ahí para asegurar que el ratio de Chips "buenos", por Oblea es bueno. Es decir que de los chips que salen de fabrica hay algunos que salen perfectos y con los 14CUs, bien y otros que salen solo con 13, y otros con 12CUs. Algunos salen solo 11CUs bien. Los que salen con menos de 12CUs se tiran a la basura. Los que salen con 12CUs o más se ponen en placa, y luego a las estanterías de las tiendas. Los que salen con 13 o 14CUs simplemente se les capa uno o dos CUs respectivamente. Asi todo el mundo tiene el msimo hardware.
De hecho es mas que probable que en realidad PS4 tenga no 18 sino 20 CUs, estando dos de ellas tambien desactivadas por redundancias.
- Comentan que hicieron pruebas de hecho y cogieron un chip con los 14CUs bien y los activaron para ver como rendían. Y el rendimiento de meter 2CUs más en lineas generales aporta un 17% más de potencia.
Y luego probaron a hacer un OverClock a solo 12CUs y les dio un 6,6% de ganancia.
Sin embargo segun ellos en circunstancias reales hay una serie de cuellos de botella en el pipeline que hacen realmente mas rentable desde un punto de vista de rendimiento subir frecuencias y no desbloquear CUs.
Y aquí es donde es un sí, tienen razón, pero por otro lado NO, porque no cuentan toda la historia tampoco.
Los cuellos de botella al que se refieren son las ROPs. La GPU de XBOX One cuenta con 16 ROPs. Los ROPs son Raster Operators (Operadores de Raster), que basicamente son un componente de la GPU que se encarga de juntar toda la información que viene del Vertex, Vertex Shader, Pixel, Pixel Shader, Color, Stencil, etc, y juntarlas de acuerdo a la resolución que buscas y escupirlo a la pantalla.
Es como la última parte del proceso. Teners mas ROPs significa a la hora del rendimiento ahorrar mucho ancho de banda, ya que te ahorras llamadas a memoria.
El caso es que subir el número de CUs NO SUBE EL NUMERO DE ROPs.
De hecho en las gráficas de arriba se puede ver como la 7750, 7770 y 7790 tiene 8, 10 y 14 CUs respectivamente pero todas tienen 16 ROPs.
Conclusión ---> SÍ QUE HAY UN CUELLO DE BOTELLA Y GORDO EN LA GPU DE XBOX ONE Y ES ---> FALTA DE ANCHO DE BANDA.
Si hubieran decidido sacrificar dinero desechar las APUs que tiene solo 12 o 13CUs bien y coger solo las que salen perfectas de 14CUs, (cosa que tampoco pueden hacer porque sería una sangría de dinero salvaje), no solo seguirían teniendo sino que estarían empeorando aún mas el problema que tiene que es la falta de Ancho de Banda porque tienen solo 16 ROPs.
Si suben en cambio frecuencia y no solo la frecuencia de la GPU, que aquí viene lo importante, sino tambien de la eSRAM y por tanto tienen de base en lugar de 102GBps tienen 109GBps, tienen mas ancho con el que tirar y minimizan un poco el problemas de ir justos con las ROPs (y repito si tienes ancho suficiente tener mas ROPs no hace falta, por eso la 7750, 7770 y 7790, tiran las 3 con 16 ROPs, pero si vas justo y tened claro no, sino critalino que XBOX One va justa pero que muy justa de ancho de banda, el tener mas ROPs te puede reducir esa demanda de ancho), y dan a su vez mas salida y juego a los FrameBuffers.
Esa subida de frecuencias les permite ir mas balanceados, y es cierto. El tema es que PS4 no va mal balanceada para nada cuanta de hecho con 32 ROPs y un ancho a un Pool centra de 176GBps a repartir entre CPU y GPU. Pero las 7850 y la 7870 no demanda mas de 153GBps.
Dejando 23GBps para la CPU.
El tema de las TUs (Texture Units) que hablamos de 48 en XBOX One y 72 en PS4, pues tambien puede suponer y mucho ciertos problemas sobre todo a largo plazo dado que se sigue ampliando y ampliando resolución de las texturas, pero esa es otra historia ...
Lo que no comentan al hablar de dichos aspectos es que:
- Siguen sin comentar un pijo, como han apañado el tema de los anchos de banda desde el Pool de DDR3. Si ya de por sí el ancho al Pool de DDR3 iendo a 68GBps iba justo con la CPU a 1,6Ghz y la GPU a 800Mhz, ahora que lo han subido a 1,7Ghz la CPU y 853Mhz la GPU, lo van a llevar todavía mas crudo ... :pale:
En su momento ya comenté esto mismo, y comenté que al subir toda la APU suben CPU, suben GPU, suben eSRAM, y suben tambien de frecuencia de trabajo los DMEs, por tanto quizá lo haya solucionado apostando por aprovechandose de la mayor frecuencia de trabajo de los DMEs, hayan aumentado el nivel de compresión de los datos que van y vienen al Pool de DDR3, pero no han dicho ni Pamplona al respecto.
GPGPU
Esto ya con todos los respetos por momentos me parece que no saben ni por donde salir.
- Primero comentan que Sony está de acuerdo con ellos porque Sony tambien ha pensado en el balance y hace referencia al tema de los 14CUs para Render y los otros 4CUs para GPGPU.
Algo desmentido ya por Cerny hace meses.
Los 18CUs de PS4 son CUs y punto. Se pueden dedicar a lo que sea a Render o a GPGPU a discrección del programados, y de hecho han reforzado esa capacidad subien de 2 (que tendría una GPU como la de PS4 en PC) a 8 hilos diferentes y simultaneos de tareas tipo GPGPU que puede comerse la GPU.
- Comentan tambien que ellos en sus 12CUs tambien tienen margen (eso es lo que significa HearRoom), entre lo que da actualmente y puede dar sin problemas, por lo que tambien pueden aprovechar temas de GPGPU. Es cierto no es un mentira ni mucho menos, pero sin animo de ofender ... , hombre ...
- Segun ellos la soluciones GPGPU para XBOX One las abordarán o detallarán mas adelante. Pero al parecer ellos aprovecharan la baja latencia de la memoria DDR3. Por lo que deduzco que se refieren mas que GPGPU, se refieren a aprovechar las bajas latencias de la memoria DDR3 para que la CPU trabaje mejor ... :no:
A ver vamos por partes. El cálculo GPGPU consiste en aprovechar la GPU para tratar tareas de proposito general, aprovechando su capacidad de procesado en paralelo.
Las bajas latencias son importantes cuando se realizan procesos consecutivos y ordenados que hay que tomar los datos y hacer una labor con ellos en orden y uno por uno.
Cuando se trabaja en paralelo a gran escala como en las GPUs, el impacto de las latencias es mínimo. Porque se cogen todos los datos del tiron y se van reaprovechando usando los resultados y trazando un mapa de trabajo en cascada.
Por eso tirar un RENDER por GPU en cualquier programa actual que le de uso tarda digamos 30 minutos tirando de una CPU de Gama Alta y con una GPU de gama media o baja los tienes en 15 minutos.
A mayor capacidad e hilos posibles de ejecución de GPGPU mejor. Asi de simple.
Ellos comentan que hay ciertas labores de GPGPU que tiran mejor aprovechando bajas latencias. Y estamos en lo de siempre sí pero no.
Si porque efectivamente tienes menos latencias y los datos entre que son llamados y servidos hay menos retardo y contar con un retardo pequeño te da mas margen de ejecutar "a tiempo", sin pérdida de ciclos. Pero eso es cierto siempre que que estés llamando a los datos digamos que casi de uno en uno ...
Si llamas un paquete de datos grandes y lo sueltas sobre una GPU el aumento de retardo entre que llamas y se sirven se pulveriza y se invierte hasta el extremo al procesar toda esa avalancha de datos de forma paralela en la GPU. ESA ES LA VENTAJA DE GPGPU de hecho.
CPU
- Segun ellos han visto que los juegos uno de los factores que mas costriñe es la CPU. Y sí es cierto. Es un factor limitante de base. La CPU que montan PS4 y XBOX One es lo que es.
- Ahora estamos con lo de antes, subir un 9% de CPU, ayuda sí sin duda. y es bienvenido, pero no supone un cambio radical ni mucho menos. Hablamos de 1 fotograma por segundo más, ¿quizá?.
Y seguimos aún por esas en las mismas y ver si el hecho de subir la frecuencia de trabajo de ambos micros, tanto CPU como GPU, pero no subir la frecuencia de la RAM DDR3 que sigue en 68GBps, lo han resuelto realmente o no. Si no lo han resuelto la primera perjudicada será la CPU, ya que la GPU como es normal suele tener prioridad en una consola de videojuegos ya que es el apartado que mas recursos demanda con diferencia. Luego esa subida quedaría mermada en gran parte. La CPU podría trabajar mas rapido con los datos que ya tenga pero si el ancho a repartir es el mismo y ya iba justo, y ahora ambos micros demandan más, pues hay que decidir en el reparto quien se lleva mas trozo del pastel, porque ademas la GPU hace un uso y repito continuo e intensivo de acceso a RAM.
DESCARGA DE LA CPU
- Comentan que ellos gracias a la labor de los CoProcesadores del chip de Sonido Shape, y etc, que pueden descarga mucho a la CPU de cierta carga.
- Y tambien son ellos mismos quienes comentan que gran parte de esa carga es de Kinect, y que si esos CoProcesadores están ahí es por y para hacer que el uso de Kinect tenga el impacto menor posible en el resto del hardware.
- PS4 simplemente no cuenta con un control por gestos y voz, de serie, no tiene que lidiar con ello, no tiene esa carga simplemente. Es igualmente cierto que si algun juego hace uso de control por voz y gestos, esos aspectos tendrán que deducirse de quitar parte de proceso a CPU y GPU para que se encarguen de ello, mientras que en XBOX One no.
REESCALADO
- Comentan tambien en la misma linea que tienen en la miriada de esos CoProcesadores, sistema para llevar a cabo Overlays. Hacer un Overlays no es mas que superponer capas o si lo preferís ventanas. Separar la imagen en ventanas y que esa separación en ventanas o apartados tenga un coste lo mas reducido posible.
- Comentan que pueden aplicarlo por ejemplo para ajustar de forma dinamica la resolución de un juego. Para que en momentos de mucha carga baje la resolución del escenario pero que poniendo el HUD o al personaje principal en una de esas ventajas a parte pueden dejar que esos aspectos mantengan esa resolucion inicial (pongamos 1080p), mientras que el resto de la imagen baja a 900p por ejemplo. Segun ellos hace que el impacto de bajar de resolución en momentos puntuales para asegurar un buen FrameRate, sea apenas percibido por el usuario.
- Lo que no comentan es que se supone que esos CoProcesadores encargados de Escalar y hacer Overlays, tiene que estar tambien pendientes del sistema, pero de hecho si están ahí es porque el Sistema Operativo de MicroSoft, se basa en que tener por ejemplo para la videoconferencia durante el juego (PiP, Picture in Picture), es decir el juego y sobre el juego una ventana en la que se ve a la persona al otro lado de la llamada. Y para tener por ejemplo en el margen del Televisior los mensajes de texto y Chat con otras personas.
Si tienen que dejar esas opciones del sistema abiertas, (y lo tiene que dejar sí o sí a menos que cambien radicalmente todo el planteamiento del Sisteam Operativo y no creo que estén por la labor a estas alturas), y queda algo para que lo usen los desarrolladores, es lo que está por ver. A mi entender, sí queda pero desde luego no mucho.
Conclusión: la consola estará balanceada pero no hay novedad.
Esto sigue siendo inamovible:
PS4's GPU: 800Mhz; 18CUs; 1152SPs; 72TMUs; 32ROPs;
Xbone's GPU: 853Mhz; 12CUs; 768SPs; 48TMUs; 16ROPs;
Xbox One...............................................................PS4:
CPU 1,75 Ghz (+9%) ..........................................CPU 1,6 Ghz
GPU 12 Compute Units (CUs).............................GPU 18 Compute Units (CUs) (+50%)
1.31 TFLOPS (-10% que se lleva kinect) ...........1.84 TFLOPS (+40%)
40.9 GTex/s ........................................................57.6 GTex/s (+40%)
13.6 GPix/s..........................................................25.6 GPix/s (+90%)
68GB/s 8GB DDR3..............................................176GB/s 8GB GDDR5(+160%)
109GB/s eSRAM .................................................. ,, (+61% vs eSRAM)
2 ACE GPGPU Lines...............................................8 ACE GPGPU Lines (+400%)
768 Shaders.......................................................1152 Shaders (+50%)
48 Texture units..................................................72 Texture units (+50%)
16 ROPS.............................................................32 ROPS (+100%)PS4: 1152 Shaders
Xbone: 768 Shaders
PS4: 72 Texture units
Xbone: 48 Texture units
PS4: 32 ROPS
Xbone: 16 ROPSXb1+PS3+X360 < PS4
Xb1: 1.31 TF
PS3: 250 Gflops (without Cell) aprox
X360: 230 Gflops aprox
PS4: 1.84 TF
PS4 - XB1 = 530GFlops
Xb1+PS3+X360 < PS4
Si se verá o no en los juegos multis y exclusivos, coincido que es la mejor prueba, está por ver ...
Salu2
Pig_Saint escribió:Horizonte de sucesos
Parece que no hayamos visto nunca el sol. Cambia de cámara o vete a un sitio donde no detonen bombas nucleares a medio metro, por favor. Ese solazo no es realista ni de lejos. Te pones moreno como el tizón en media hora.
Horizonte de sucesos escribió:juan19 escribió:de forza aparte de la iluminacion que me parece exagerada , tambien me parece que siguen con la textura del asfalto que parece como de goma , que no me gusta nada , ya se lo note sobretodo en el tercero que es al que mas horas le dedique.
por lo demas , en modelados , me parece una bestia , al menos el Mclaren ese , que con el diseño que tiene , luce muchisimo.
Pero exagerada por qué?
Porque no salen "circulitos de colores" al mirar el sol?
O porque te deslumbra si miras el sol?
Voy a ponerte una imágenes de cosecha propia, replicando que sucede en la vida real si tienes el sol de cara cuando conduces.
En la primera foto, he puesto la mano para simular el techo del coche. Teniendo el sol de cara no molesta porque el techo te lo tapa. de hecho todo se ve genial.
Pero qué sucede si el sol aparece dentro del marco del parabrisas? Vamos, que el techo no te lo tapa y lo tienes de frente. Para ello he retirado mi mano, que es la que simula el techo. pero no he variado la posición de la cámara. El resultado es este (no hace falta que aclare que es un deslumbramiento, no "circulitos de colores"):
Así que más que llamarla exagerada, le llamaría realista.
lherre escribió:El que se lea el tocho de arriba que indique de qué va
mocolostrocolos escribió:lherre escribió:El que se lea el tocho de arriba que indique de qué va
Siendo un post de juan19, seguro que algo malo de Xbox One o algo bueno de PS4 xD
mocolostrocolos escribió:lherre escribió:El que se lea el tocho de arriba que indique de qué va
Siendo un post de juan19, seguro que algo malo de Xbox One o algo bueno de PS4 xD
Pig_Saint escribió:
Horizonte de sucesos
Parece que no hayamos visto nunca el sol. Cambia de cámara o vete a un sitio donde no detonen bombas nucleares a medio metro, por favor. Ese solazo no es realista ni de lejos. Te pones moreno como el tizón en media hora.
Iluminación real (se ve un día muy soleado):
Foto al sol, (se aprecia que la lente oscurece por el deslumbramiento)
Probar cuando el sol está bajo y veréis lo que escurece los objetos, y lo que deslumbra si el sol te da de pleno.
lherre escribió:El que se lea el tocho de arriba que indique de qué va
triki1 escribió:lherre escribió:El que se lea el tocho de arriba que indique de qué va
De las cuentas del fichaje de Bale, comisiones de representantes, cuentas en las islas Caiman, esas cosas....
juan19 escribió:mocolostrocolos escribió:lherre escribió:El que se lea el tocho de arriba que indique de qué va
Siendo un post de juan19, seguro que algo malo de Xbox One o algo bueno de PS4 xD
Yo también te quiero
Krain escribió:mocolostrocolos escribió:lherre escribió:El que se lea el tocho de arriba que indique de qué va
Siendo un post de juan19, seguro que algo malo de Xbox One o algo bueno de PS4 xD
Aciertas. Es un poco PS4 la tiene más grande y más gorda, pero el texto está bien, no es malvado . Yo me lo he leido porque estoy en el curro . A mi tanta diferencia teórica entre PS4 y One (que además tiene por ahí un S.O. más gordo y Kinect chupango cosa mala...) me va a acabar pareciendo más en perjuicio de PS4 para los multis que otra cosa. Pero los exclusivos de PS4 todo parece indicar que van a diferenciarse muuucho.
[/quote][/quote]Nuhar escribió:
Venga, que todos sabemos que eres lherrebus jajaja (no he sido el primero en decirte esto, verdad? que poco imaginativo que somos...)
A ver, yo creo que da una de cal y otra de arena, si lees el comentario final apreciaras que no se moja mucho para decir cual es mas potente, aunque leyendo el articulo ya se sabe por cual tira
Basicamente lo que hace es analizar el articulo de Digital Foundry y resaltar los pros y contras que tiene la arquitectura de Xbox one.
juan19 escribió:Que Herebus sea sonyer , xboxer , nintendero o budista poco importa , yo no veo que por ser sonyer este contando una mentira con el post , y si lo hace que alguien lo postee .
gynion escribió:juan19 escribió:Que Herebus sea sonyer , xboxer , nintendero o budista poco importa , yo no veo que por ser sonyer este contando una mentira con el post , y si lo hace que alguien lo postee .
Pero si es que suena a chiste; o sea, que por creer que una persona sea Sonyer, sin saber nada de su vida, ya podemos dudar de su opinión, sin embargo los ingenieros de MS son fiables y neutrales cuando te hablan de las bondades de su maquina.
Si se verá o no en los juegos multis y exclusivos, coincido que es la mejor prueba, está por ver ...
Salu2
Nuhar escribió:Luego direis...
O yo estoy ciego o ¿quien ha dicho que herebus sea sonyer?
Es que ya os defendeís sin ataque ni nada...
Juan:Si se verá o no en los juegos multis y exclusivos, coincido que es la mejor prueba, está por ver ...
Salu2
Vamos, que cree que si, pero no se moja, lo que he dicho
Nuhar escribió:Luego direis...
O yo estoy ciego o ¿quien ha dicho que herebus sea sonyer? ¿o criticado?
Es que ya os defendeís sin ataque ni nada...
Juan:Si se verá o no en los juegos multis y exclusivos, coincido que es la mejor prueba, está por ver ...
Salu2
Vamos, que cree que si, pero no se moja, lo que he dicho
Nuhar escribió:Krain escribió:Aciertas. Es un poco PS4 la tiene más grande y más gorda, pero el texto está bien, no es malvado . Yo me lo he leido porque estoy en el curro . A mi tanta diferencia teórica entre PS4 y One (que además tiene por ahí un S.O. más gordo y Kinect chupango cosa mala...) me va a acabar pareciendo más en perjuicio de PS4 para los multis que otra cosa. Pero los exclusivos de PS4 todo parece indicar que van a diferenciarse muuucho.
Venga, que todos sabemos que eres lherrebus jajaja (no he sido el primero en decirte esto, verdad? que poco imaginativo que somos...)
A ver, yo creo que da una de cal y otra de arena, si lees el comentario final apreciaras que no se moja mucho para decir cual es mas potente, aunque leyendo el articulo ya se sabe por cual tira
Basicamente lo que hace es analizar el articulo de Digital Foundry y resaltar los pros y contras que tiene la arquitectura de Xbox one.
Krain escribió:Nuhar escribió:Krain escribió:Aciertas. Es un poco PS4 la tiene más grande y más gorda, pero el texto está bien, no es malvado . Yo me lo he leido porque estoy en el curro . A mi tanta diferencia teórica entre PS4 y One (que además tiene por ahí un S.O. más gordo y Kinect chupango cosa mala...) me va a acabar pareciendo más en perjuicio de PS4 para los multis que otra cosa. Pero los exclusivos de PS4 todo parece indicar que van a diferenciarse muuucho.
Venga, que todos sabemos que eres lherrebus jajaja (no he sido el primero en decirte esto, verdad? que poco imaginativo que somos...)
A ver, yo creo que da una de cal y otra de arena, si lees el comentario final apreciaras que no se moja mucho para decir cual es mas potente, aunque leyendo el articulo ya se sabe por cual tira
Basicamente lo que hace es analizar el articulo de Digital Foundry y resaltar los pros y contras que tiene la arquitectura de Xbox one.
¿lherrebus? . Pues es la primera vez que me lo llaman. Será que el resto de foreros no es tan chistoso como tú.
http://misterxmedia.livejournal.com/136043.html?thread=4816747#t4816747
Segun documentos que hay por ahí, la PS4 tendría 14+4 CU, y no 18 CU . Ya que dada su arquitectura el usar esos 4 CU extra para render no le proporcionaría el equivalente en velocidad de render adicional a lo que debería aportar (lo que decían en M$ más o menos). Por lo que sos 4 CU adicionales se ofrecen para computación, y ya se sabe que como poco en el sonido se usarán.
Como caso práctico el Killzone usa 14 CU para el render, en su propio documento lo dicen.
Nuhar escribió:Luego direis...
O yo estoy ciego o ¿quien ha dicho que herebus sea sonyer? ¿o criticado?
Es que ya os defendeís sin ataque ni nada...
Juan:Si se verá o no en los juegos multis y exclusivos, coincido que es la mejor prueba, está por ver ...
Salu2
Venga, que todos sabemos que eres lherrebus jajaja (no he sido el primero en decirte esto, verdad? que poco imaginativo que somos...)
A ver, yo creo que da una de cal y otra de arena, si lees el comentario final apreciaras que no se moja mucho para decir cual es mas potente, aunque leyendo el articulo ya se sabe por cual tira
Basicamente lo que hace es analizar el articulo de Digital Foundry y resaltar los pros y contras que tiene la arquitectura de Xbox one.
Vamos, que cree que si, pero no se moja, lo que he dicho
eloskuro escribió:Que dirá Herebus de esto?http://misterxmedia.livejournal.com/136043.html?thread=4816747#t4816747
Segun documentos que hay por ahí, la PS4 tendría 14+4 CU, y no 18 CU . Ya que dada su arquitectura el usar esos 4 CU extra para render no le proporcionaría el equivalente en velocidad de render adicional a lo que debería aportar (lo que decían en M$ más o menos). Por lo que sos 4 CU adicionales se ofrecen para computación, y ya se sabe que como poco en el sonido se usarán.
Como caso práctico el Killzone usa 14 CU para el render, en su propio documento lo dicen.
PD: Yo ni idea de estas cosas eh, no mateis al mensajero.
takeda escribió:Si es que a nivel de gustos poco se puede decir, otra cosa es a nivel de 'coste' o 'dificultad'.
Edit: Sobre el tema de la iluminación
triki1 escribió:Dejaros de tonterias, en menos de dos horas habla el gordo y todo esto carecera de interes porque todo Dios estara preguntando por los foros cuales son las mejores paginas para comprar Keys
eloskuro escribió:Que dirá Herebus de esto?http://misterxmedia.livejournal.com/136043.html?thread=4816747#t4816747
Segun documentos que hay por ahí, la PS4 tendría 14+4 CU, y no 18 CU . Ya que dada su arquitectura el usar esos 4 CU extra para render no le proporcionaría el equivalente en velocidad de render adicional a lo que debería aportar (lo que decían en M$ más o menos). Por lo que sos 4 CU adicionales se ofrecen para computación, y ya se sabe que como poco en el sonido se usarán.
Como caso práctico el Killzone usa 14 CU para el render, en su propio documento lo dicen.
PD: Yo ni idea de estas cosas eh, no mateis al mensajero.
juan19 escribió:eloskuro escribió:Que dirá Herebus de esto?http://misterxmedia.livejournal.com/136043.html?thread=4816747#t4816747
Segun documentos que hay por ahí, la PS4 tendría 14+4 CU, y no 18 CU . Ya que dada su arquitectura el usar esos 4 CU extra para render no le proporcionaría el equivalente en velocidad de render adicional a lo que debería aportar (lo que decían en M$ más o menos). Por lo que sos 4 CU adicionales se ofrecen para computación, y ya se sabe que como poco en el sonido se usarán.
Como caso práctico el Killzone usa 14 CU para el render, en su propio documento lo dicen.
PD: Yo ni idea de estas cosas eh, no mateis al mensajero.
pues que cerny ya confirmo que ps4 dispone de los 18 CUs para graficos.
P.D: aun os creeis lo que salga de misterxmedia?