› Foros › PlayStation 4 › General
Ferdopa escribió:Jur...
Lo que saco de la información de Cerny es que PS4 es un PC diseñado para tener las ventajas tradicionales de programar para una consola.
Más que destacar la innovadora arquitectura de PS4 mis conclusiones son que quien queda en mal lugar son los desarrolladores de PC. Muchas de las cosas de las que habla Cerny no son nuevas (chips dedicados los llevan las consolas desde hace décadas) y un PC de gama media a día de hoy es mucho más potente por procesador y GPU que PS4, al igual que utilizar la GPU para procesos de físicas tampoco es nuevo.
Sin embargo los desarrolladores no han aprovechado ni explotado esa potencia en PC, algo que sí parece que harán en PS4 (y supongo que en la nueva Xbox) en un hardware menos potente.
Por lo demás, habrá que esperar a ver la consola para saber lo que puede dar en la práctica. Este tipo de declaraciones suelen ser deslumbrantes para vender un producto, como es lógico y normal.
Pero sí resulta interesante conocer detalles como la composición del sistema (utilizar chips dedicados, empezar a utilizar la GPU como un procesador de verdad, memoria fuera de la placa del chip).
Un saludo.
focustop10 escribió:Aquí tenéis la traducción literal de la entrevista a Mark Cerny. Vaya monstruo el amigo.
Inside the PlayStation 4 With Mark Cerny
by Christian Nutt [Business/Marketing, Interview, Console/PC]
4 comments Share on Twitter Share on Facebook
RSS
Las cuestiones acerca del User Interface y Sistema Operativo estaban fuera de la mesa de conversación. De lo que se trataba es de discutir de qué es capaz el sistema, y el tipo de pensamiento que dirigió a Cerny y su equipo en la toma de deciones sobre componentes a usar y como debían funcionar entre ellos.
Para llegar al fondo de esta discusión profundamente técnica, Gamasutra estaba asistida por alguien con íntimo conocimiento de como funciona el hardware de una consola. Este era Mar de Loura, el que era dirigente de THQ en temas de tecnología y ahora consejero de medios digitales en la Officina de la CIencia y la Tecnología de la Casa Blanca.
Los Inicios
Para mi, todo empezó a finales del 2007. Habíamos estado haciendo estudios postmortems sobre la Playstation 3 y como había quedado su hardware ya en el mercado. Éramos un gran grupo de gente de varios departamentos de Sony Computer Entertaintment evaluando lo bueno y malo de su lanzamiento.
Eso llevó, naturalmente, a pensamientos sobre que habría que hacer a partir de entonces. Cavilando sobre la arquitectura del próximo sistema de Sony, Cerny invirtió todas sus vacaciones de navidad leyendo sobre la historia de la arquitectura x86., y se dio cuenta que no solo había evolucionado dramaticamente sobre los años, sino que para el tiempo en que fuese a ser lanzada la PS4, sería lo suficientemente potente para las necesidades de Sony.
Había evolucionado en algo que era ampliamente utilizable incluso para el tipo de programadores extremos que encontramos en el negocio de los videojuegos.
Dandose cuenta de lo apasionado que estaba por el proyecto de la Playstation 4, Cerny fue tras acción de Gracias a los entonces ejecutivos de Sony Phil Harrison y Masa Chatani y "preguntó si podría ser el que encabezara el esfuerzo de la nueva generación de consolas. Para mi gran sopresa, dijeron que si.
Más tarde, cuando le preguntamos si Sony consideraba el hecho de que muchos desarrolladores third party tendrían que crear versiones d elos juegos para la proxima Xbox, su respuesta fue que "cuando digo que nuestro objetivo era no crear puzzles para los desarrolladores, eso es como se hace en un mundo multiplataforma".
Pero la facilidad de uso estaba lejos de ser el único objetivo de Cerny. Como un veterano con ya 31 años en la industria, sabía muy bien que el PC sigue avanzando mientras que la PS4 se quedaría congelada en el tiempo en su hardware.
"Al final, lo que estamos intentando es lograr un balance entre técnicas que podrás usar desde el primer día, y técnicas que permitirán al sistema evlucionar a lo largo de los años, tal como lo harán los juegos", dijo Cerny. La "supercharged PC architecture" que el equipo ha logrado realizar, está diseñada para ofrecer significativas mejoras que el PC no puede, mientras que al tiempo ofrece un entorno familiar de desarrollo para los ingenieros de software.
Para diseñar la PS4, Cerny no se basó únicamente en investigación, o análisis postmortems sobre la Playstation 3. También pidió ser rodeado por equipos de desarrollo y habló con socios programadores de middelware para que le dijesen exactamente qué es lo que ellos querrían en una consola de nueva generación. El resultado?
Qué quiere decir Sobrecargado, de todas formas??
La arquitectura de la Playstation 4 parece muy familiar en un primer vistazo.....y lo es. Pero Cerny mantiene que el trabajo de customización de su equipo extiende este hardware muy por encima de sus capacidades básicas.
Por ejemplo, esto es lo que dice sobre su GPU: "Es una Ati Radeon. Hablar de números específicos probablemente no ayudará a clarificar la situación demasiado, excepto si decimos que cogimos su tecnología más reciente y realizamos un gran número de modificaciones sobre esta".
Para comprender la PS4, tienes que coge rlo que era la visión original de Cerny (facil de usar, pero poderosa a largo plazo) y casarlo con lo que la compañía ha elegido para su arquitectura (familiar, pero inteligentemente modificada). A esto es a lo que se refieren con sobrecargado.
"Lo de sobrecargado, buena parte viene del uso de un solo pool de memoria unificado y de alta velocidad. La PS4 tiene 8GB de GDDR5 Ram que es fácilmente y de todo atribuible tanto a la CPU como a la GPU.
Si miras a un PC, decía Cerny, "incluso si tiene 8 Gigas de memoria en él, la CPU y la GPU pueden compartir solo alrededor de un 1% de esa memoria en un frame. Esto es simplmente un límite impuesto por la velocidad de los PCIe. Asi que, si, hay un beneficio sustancial en tener una arquitectura unificada en la PS4, y es un beneficio muy directo que podrás aprovechar desde el primer día que empieces a codificar con el sistema. El crecimiento del sistema en los años posteriores vendrá, sin embargo, de tener una GPU mejorada respecto a lo que existe en PC. Y supongo que esa conversación nos lleva a todo lo que hemos hecho para mejorarla.
La CPU y la GPU están ambas en un enorme custom chip, creado por AMD para Sony (la APU, vamos). Los ocho cores Jaguar, la GPU y un grna número de otras unidades están todas en este circuito. La memoria no está en el mismo chip, sin embargo. Vía un bus de 256 bits, se comunica con el pool unificado de memoria a 176 Gb por segundo.
Una cosa que podríamos haber hecho es bajar el bus a 128 bits, lo cual habría hecho caer el bandwith a 88 gigabytes por segundo, y entonces meterle memoria eDRAM al chip para volver a boostear el ancho de banda, dijo Cerny. Aunque esa solución inicialmente era apetecible para el equipo dado lo fácil de manufacturar, fue abandonada debido a la complejidad extra que añade para los desarrolladores. No queríamos crear un tipo de puzzle con el que la comunidad tuviese que chocar para crear sus juegos. Asi que nos mantuvimos firmes en la filosofía de la memoria unificada en un solo pool (y mantuvimos el bus en 256 bits).
De hecho, dijo Cerny, cuando consultó a los estudios de desarrollo preguntando que querían de la PS4, la petición mas generalizada que se recibió era que querían memoria unificada.
"Creo que se puede apreciar cual es nuestro compromiso con tener una arquitectura fácil de programar en el que podríamos haber hecho un hardware hasta con un terabyte de bandwith hacia una pequeña memoria RAm (eDRAM) pero preferimos no seguir esta estrategia. Esto lo demuestra todo".
Falta una parte de la traducción. La pondré más adelante.
PD: Gracias al compañero Hector_Hall de Vandal por la traducción.
Saludos.
EDITO: Segunda parte .
Arquitectura familiar, asegurada para el futuro
Qué es lo que Cerny piensa que ganará la consola por esta arquitectura diferenciada? Longevidad
Cerny está convencido que en los próximos años, los desarrolladores querrán usar la GPU para algo más que para renderizar gráficos, y para eso cree que se ha logrado determinar una solución poderosa y flexible para ellos. "La vision es usar la GPU tanto para gráficos como para computar simultáneamente. "Nuestra creencia es que hacia la mitad del ciclo de la PS4, la computación asincrónica será una parte muy grande y fundamental de la tecnología de los juegos. Cerny prevee "una docena de programas corriendo simultáneamente en esa GPU", usándola para "realizar cálculos físicos, calcular colisiones, hacer ray tracing para audio". Pero esa visión creo un gran desafío. "Una vez que teníamos esta visión de computación asincrónica en medio del ciclo vital de la consola, la cuestión entonces se convertía en ......Como creamos un hardware que soporte esto?
Una barrera a esto en el entorno tradicional del hardware de PC, dijo, es la comunicación entre CPU, GPU, y la RAM. La arquitectura de la PS4 está expresamente designada para resolver este problema.
" La típica GPU del PC tiene dos buses", dijo Cerny. "Uno de ellos es el que el GPU usa para acceder a la VRAM, y luego hay un segundo bus que va a trave´s del PCI Express que la GPU usa para acceder al la memoria del sistema. Pero uses el bus que uses, las caches internas d ela GPU e convierten en barreras muy significantes para la comunicación entre CPU y GPU. En cualquier momento que la GPU quiera leer la información que la CPU escribió, o que la GPU quiera escribir información para que la CPU la pueda ver, hay unos cuellos de botella consumidores de tiempo debido a los flujos con los que operan las memorias cache internas de esa GPU.
Realizando la visión: Cómo Sony modificó el hardware.
Las tres principales modificaciones que Sony hizo a la arquitectura para soportar su visión fueron las siguientes, en palabras de Cerny:
"Lo primero, añadimos otro bus a la GPU que permite que esta lea directamente desde la memoria sistema o escriba directamente a la memoria sistema, saltándose con un bypass sus propias caches L1 y L2. Como resultado, si los datos que están siendo pasados adelante y atrás entre CPU y GPU son pequeños, ya no tienes problemas con la sincronización entre ellos. Y con pequeños me refiero solo a pequeños en términos de nueva generacion. Podemos pasar alrededor de 20 Gb por segundo a través de ese bus. Eso no es "muy pequeño" en términos actuales.....es bastante más grande que el total del ancho de banda PCIe en la mayoría de los PCs!
Lo siguiente, para permitir el caso en el cual se quisiese usar la memoria cache L2 de la GPU simultáneamente para gráficos y computación asincrónica, hemos añadido un bit en las etiquetas de las líneas de código de la cache. Lo llamamos el bit "volátil". Con este bit podemos selectivamente marcar todos los accesos de computación como "volátiles", y cuando sea tiempo para esos procesos de computación de leer en la mmoria de sistema, puede invalidar, selectivamente, las lineas que usa en el L2.Cuando llega el momento de escribir de nuevo los resultados, puede reescribir selectivamente las líneas que usan este tag. Esta innovación permite a los procesos de computación de usar la memoria L2 de la gpu y realizar las operaciones requeridas sin impactar las opraciones gráficas que se estén realizando al mismo tiempo....en otras palabras, esto reduce radicalmente el overhead que supone correr gráficos y computación simultáneamente en la GPU".
En tercer lugar, dijo Cerny, la arquitectura original GCN de AMD permitía una fuente de comandos gráficos, y dos fuentes de comandos de computación. Para la PS4 hemos trabajado con AMD para incrementar ese límite a 64 fuentes de comandos de computación....la idea es que si tienes algún tipo de computación asincrónica que quieras realizar, debes poner comandos en alguna de estas 64 colas, y entonces hay muchos niveles de arbitraje en el hardware para determinar qué corre, como lo corre, y cuando lo corre, al mismo tiempo que se sigue renderizando los gráficos en el sistema.
La razón de que tantas fuentes de trabajo computacional sean necesarias es que no son tan solo los sistemas del juego los que usarán compute---el middleware puede necesitar computación también. Y las peticiones del middleware sobre la GPU tendrán que ser propiamente mezcladas con peticiones del propio juego, y entonces finalmente propiamente priorizadas en relación con los gráficos en una base "momento a momento" (en tiempo real).
Este concepto nació de un software que Sony había creado, llamado SPURS, para ayudar a los programadores a lidiar con las tareas en los SPU del Cell, pero en la PS4 está hecho automáticamente por el hardware.
El equipo, para decirlo de alguna manera, tuvo que pensar con anticipación sobre los siguientes años. La franja de tiempo cuando tuvimos que ir diseñando estas innovaciones fue 2009, 2010....y la franja temporal cuando pensamos que la gente las va a usar realmente era 2015 quizás, o 2017, dijo Cerny.
Nuestro enfoque global fue introducir un gran número de controles sobre como mezclar gráficos y computación, y dejar a la comunidad de desarrolladores decidir cuáles prefieren usar cuando lleguen al punto en el que comienzen a estar familiarizados y desarrollando un montón de computación asincrónica.
Cerny espera que los desarrolladores puedan correr middleware-por ejemplo, físicas-en la GPU. Usando el sistema que ha descrito arriba, deberías ser capaz de correr el sistema continuamente a un pico de eficiencia (100% de eficiencia).
Si se hecha un vistazo a la parte de la GPU disponible para computar durante un frame, puede variar dramáticamente de instante a instante. Por ejemplo, algo como renderizar un mapa de sombras opacas no usa ni un pixel shader, está hecho enteramente por los vertex shaders y el hardware de rasterización- así que los gráficos no estarán usando la gran mayoría de los 1.84 Teraflops de ALU disponibles en las CU. Son estos momentos en los que durante ese frame en concreto, tienes una oportunidad de decir..."Okay, todas esas operaciones de computación que querías hacer, sube el dial al 11 ahora mismo".
Suena genial.....pero como gestionas hacer eso? Hay unos controles muy simples donde desde el punto de vista de los gráficos, desde el buffer de comandos gráficos, puedes ajustar arriba o abajo la computación", dijo Cerny. "La cuestión se convierte, viendo cada pasada de renderizado y la carga que ponga en cada una de las unidades de la GPU, cuanta cantidad y estilo de computación podría ser corrida eficientmente durante esa pasada?".
Lanzamiento y más allá
Los beneficios de este poderoso hardware serán vistos en los juegos de lanzamiento de la PS4. Pero Cerny mantiene que, en el futuro, brillarán totalmente de formas totalmente distintas.
"La parrilla de lanzamientos de la PS4 en su salida, aunque desafortunadamente no puedo dar el número exacto de títulos, será más fuerte que cualquier lanzamiento de hardware Playstation. Ese es un resultado de la familiaridad del hardware. Pero si la fraja de lanzamiento de tu juego es 2015, te conviene implementar la nueva forma de abordar el hardware, porque necesitarás usar estas customizaciones si quieres que tu juego brille tanto como los de otras compañías que lo estarán implementando.
Así que aunque lleva "semanas, no meses" el portear un engine desde PC a la PS4 de acuerdo con Cerny, más allá de esto, los desarrolladores específicos de juegos de consola podrán saborear y enarbolar las capacidades específicas de la PS4, customizar sus herramientas de desarrollo, y llevarse todos los beneficios.
Hay realmente muchas, muchas formas de controlar como los recursos dentro de la GPU están asingados entre GPU y compute. Por supuesto, lo que puedes hacer, y lo que la mayoría de los juegos de lanzamiento harán, es simplemente asignar todos los recursos a gráficos. Y esto es genial, está bien. Simplemente la visión que tenemos es que para la mitad de la vida de la consola, habrá muchas ventajas en ir asignando recursos a computación(para maximizar la GPU y sus tiempos muertos).
Este tio es un genio.
Falta la tercera y ultima parte.
EDITO: Tercera parte.
Liberando recursos, la PS4 y sus unidades dedicadas
Otra cosa que el equipo de la PS4 hizo para incrementar la flexibilidad de la consola es poner muchas de sus funciones básicas en unidades(chips) dedicadas en la placa....de esta manera, no tienes que gastar ningún recurso del sistema en manejar esas funciones.
"La razón por la cual usamos unidades dedicadas es porque así aseguramos que el overhead sobre la consola en lo que a correr juegos se refiere sea muy bajo. Asimismo, puede establecer una base estable sobre la que montar la experiencia del usuario.
"Por ejemplo, teniendo una unidad de hardware específico dedicada al audio, esto significa que podemos soportar audio chat sin que los juegos tengan que prescindir de ningún recurso reseñable para correrlo (en la APU). Lo mismo pasa con la compresión y descompresión de vídeo. La unidad de audio también permite la descompresión de un muy gran número de streams de MP3 para el sonido in-game, añadió Cerny.
En al conferencia de presentación del sistema en NY, Cerny habló sobre PlayGO, el sistema por el cual la consola descargará títulos digitales al tiempo que son jugados.
"El concepto es que tu descargas solo una pequeña porción de los datos totales y empiezas ya tu sesión de juego, y luego continuas tu sesión de juego mientras el resto se va descargando en segundo plano", explicó a Gamasutra.
De todas formas, PlayGO es "dos sistemas separados unidos", dijo Cerny. El otro tiene que ver con el lector de Blu Ray, y con el hecho de que es, esencialmente y pese a su incremento de velocidad, algo lento para juegos next gen.
Así que, lo que vamos a hacer es que según el juego acceda al Blu Ray, es que cogemos cualquier paquete de datos que haya sido leído y lo metemos directamente en el disco duro. Y cuando y si hay algún tiempo inactivo(muerto), seguimos adelante y copiamos todo el resto de los datos restantes al disco duro. Lo que eso significa e que despues de una hora o dos, el juego está en el disco duro y tienes total acceso, y desde entonces ya tienes tiempos de carga dramáticamente más rápidos....También tienes la posibilidad de hacer un streaming de auténtica alta velocidad.
Para ayudar aún más al Blu Ray en el proceso, el sistema también tiene una unidad de hardware para permitir la decompresión zlib- de esa manera los desarrolladores pueden confiadamente comprimir todos su juego y saber que el sistema lo descomprimirá al vuelo. Como mínimo, nuestra visión es que nuestros juegos estarán comprimidos en zlib en media (videos, FMV,etc)
Hay también otro chip customizado que pondrá el sistema en una configuración de bajo consumo (stand by) para descargas en segundo plano. "Para hacer que sea un hardware aún más ecológico, lo cual es muy importante para nosotros, tenemos la capacidad de apagar el consumo principal del sistema y tener activado solo ese chip custom secundario, a memoria del sistema y el I/O (input/output,)-disco duro y Ethernet. Esto permite descargas en segundo plano que ocurren en una configuración de bajísimo consumo. También nos da la habilidad de apagar todo excepto la alimentación de la RAM...esta es la manera por la cual vamos a ser capaces de dejar las sesiones de juego suspendidas en stand by con la consola apagada".
Suena bien, pero.....cuellos de botella?
"Con los gráficos, el primer cuello de botella sobre el que probablemente toparás es el ancho de banda de la memoria. Dado que 10 o mas texturas por objeto serán standar en esta generación, es muy fácil caer en ese cuello de botella", nos dijo. "Una buena parte de las fases del renderizado están asociadas a la memoria, y más allá de cambiar a texturización con un índice más bajo de bits por texel, no hay una gran cantidad de cosas que puedas hacer para evitarlo. Nuestra estrategia en esto fue simplmente asegurarnos que se iba a utilizar la memoria GDDR5 como la principal del sistema y por tanto tener un montón de bandwith.
Esto te ahorra uno de los potenciales cuellos de botella. "Si no tienes un cuello de botella por la memoria, es muy posible- si tienes gran densidad de poligonaje en tus objetos- que tengas un cuello de botella en vertices. Puedes intentar decir a tus artistas que usen triángulas más grandes, pero como sabemos por la práctica, es dificil conseguir eso. Es bastante común estar renderizando gráficos en los cuales la maor parte de lo que ves en la pantalla son triángulos que tienen apenas un pixel de tamaño. En cuyo caso, si, los cuellos de botella causados por los vértices (vertex) pueden ser importantes.
Hay una amplia variedad de técnicas que hemos desarrollado para reducir los cuellos de botella con vertex, en algunos casos son mejoras directas al hardware, pero la más interesante de todas es quizás el que puedas usar las instrucciones de computación como un frontend para tus gráficos.
Esta técnica, según nos dijo, es una mezcla de hardware, firmware embebido en la GPU, y tecnología de compilación. Lo que ocurre es que coges cada vertex shader, y lo compilas dos veces, una como un shader de computación, la otra como un shader de vértice. El shader de computación hace un análisis del triángulo- simplmente hace los cálculos de posicion del original vertex sahder para ver si el triangulo esta mirando hacia el lado opuesto, y cosas así. Y esto genera, en tiempo real, un número reducido de triangulos para que use el vertex shader. Estas funciones de computación shader y vertex shader están muy, muy estrechamente relacionadas con el hardware (y sus mejoras)
No es además una solución difícil de implementar, sugirió Cerny. Desde una perspectiva de un programador gráfico, usar esta técnica significa poner una especie de banderitas de complilador en los datos y usar en ellas un modo diferente de la APi gráfica. Este es el tipo de cosas que puedes intentar alguna tarde y ver como amplifica el rendimiento de tu código.
Estos procesos están ligados tan estrechamente, dijo Cerny, que todo lo que se requiere es un anillo de buffer para los indexados(índices)...del tamaño de rizitos de oro (muy pequeño). Suficientemente pequeño para entrar en la cache, y bastante grande para no salirse basándose en discrepancias entre la velocidad de proceso de shaders vertex y shader de computación".
También prometió a Gamasutra que la compañía está trabajando en una versión de su herramienta de análisis de rendimiento, Razor, optimizada para la Playstation 4, así como un código de ejemplo distribuido a los desarrolladores. Cerny también querría distribuir código real: "si alguien ha escrito algo interesante y está dispuesto a poner la fuente, a hacerlo disponible para otros desarrolladores de Playstation, entonces es algo del más alto valor".
Hay otra forma en la cual Cerny está trabajando lo que los desarrolladores necesitan del hardware.
Cuando me presenté a Sony originalmente con la idea de ser el arquitecto jefe del futuro sistema a finales del 2007, tenía la idea de que estaría relacionado sobre todo con el software pero haría algo de software de tiempo en tiempo"..."pero luego me ví muy ocupado con el hardware".
Este alejamiento del software no duró. "Tuve finalmente una conversación con Akira Sato, quien fue jefe de Sony Computer Entertaintment por muchos años. Y me aconsejó fuertemente: "No abandones el software, porque tu valor será mucho mayor para el proceso, sea cual sea este- diseño de hardware, entorno de desarrollo, cadena de herramientas- si sigues manteniéndote haciendo juegos.
Este es el nacimiento de Knack, el juego de Cerny en Playstation 4, el cual desveló durante la presentación del sistema en Nueva York. Y es su vínculo a comprender los problemas prácticos de desarrollar en PS4 de una manera íntima y personal.
De un día de Acción de Gracias leyendo documentos técnicos a un difícil y duro proceso de ingeniería y finnalmente al desarrolo de una nueva y gran IP de lanzamiento para Sony, no se puede decir que Mark Cerny no sea un hombre ocupado, apasionado y dedicado a su trabajo.
"No he estado tan ocupado en los últimos 20 años. Pero está bien. Definitivamente, estoy MUY ocupado ahora mismo!!" dijo, ante las risas de la sala.
Y hasta aqui. Lo dicho. IMPRESIONANTE lo de este hombre y su equipo.
Tendremos un consolon que ni en nuestros sueños mas humedos.
Ahora solo falta que anuncien el dia de la presentacion del MAQUINON que deberia de ser a primeros de mayo.
Gracias de nuevo a Hector_Hall de Vandal por el curro de la traducción .
Saludos .
meliman07 escribió:focustop10 escribió:Aquí tenéis la traducción literal de la entrevista a Mark Cerny. Vaya monstruo el amigo.
Inside the PlayStation 4 With Mark Cerny
by Christian Nutt [Business/Marketing, Interview, Console/PC]
4 comments Share on Twitter Share on Facebook
RSS
Las cuestiones acerca del User Interface y Sistema Operativo estaban fuera de la mesa de conversación. De lo que se trataba es de discutir de qué es capaz el sistema, y el tipo de pensamiento que dirigió a Cerny y su equipo en la toma de deciones sobre componentes a usar y como debían funcionar entre ellos.
Para llegar al fondo de esta discusión profundamente técnica, Gamasutra estaba asistida por alguien con íntimo conocimiento de como funciona el hardware de una consola. Este era Mar de Loura, el que era dirigente de THQ en temas de tecnología y ahora consejero de medios digitales en la Officina de la CIencia y la Tecnología de la Casa Blanca.
Los Inicios
Para mi, todo empezó a finales del 2007. Habíamos estado haciendo estudios postmortems sobre la Playstation 3 y como había quedado su hardware ya en el mercado. Éramos un gran grupo de gente de varios departamentos de Sony Computer Entertaintment evaluando lo bueno y malo de su lanzamiento.
Eso llevó, naturalmente, a pensamientos sobre que habría que hacer a partir de entonces. Cavilando sobre la arquitectura del próximo sistema de Sony, Cerny invirtió todas sus vacaciones de navidad leyendo sobre la historia de la arquitectura x86., y se dio cuenta que no solo había evolucionado dramaticamente sobre los años, sino que para el tiempo en que fuese a ser lanzada la PS4, sería lo suficientemente potente para las necesidades de Sony.
Había evolucionado en algo que era ampliamente utilizable incluso para el tipo de programadores extremos que encontramos en el negocio de los videojuegos.
Dandose cuenta de lo apasionado que estaba por el proyecto de la Playstation 4, Cerny fue tras acción de Gracias a los entonces ejecutivos de Sony Phil Harrison y Masa Chatani y "preguntó si podría ser el que encabezara el esfuerzo de la nueva generación de consolas. Para mi gran sopresa, dijeron que si.
Más tarde, cuando le preguntamos si Sony consideraba el hecho de que muchos desarrolladores third party tendrían que crear versiones d elos juegos para la proxima Xbox, su respuesta fue que "cuando digo que nuestro objetivo era no crear puzzles para los desarrolladores, eso es como se hace en un mundo multiplataforma".
Pero la facilidad de uso estaba lejos de ser el único objetivo de Cerny. Como un veterano con ya 31 años en la industria, sabía muy bien que el PC sigue avanzando mientras que la PS4 se quedaría congelada en el tiempo en su hardware.
"Al final, lo que estamos intentando es lograr un balance entre técnicas que podrás usar desde el primer día, y técnicas que permitirán al sistema evlucionar a lo largo de los años, tal como lo harán los juegos", dijo Cerny. La "supercharged PC architecture" que el equipo ha logrado realizar, está diseñada para ofrecer significativas mejoras que el PC no puede, mientras que al tiempo ofrece un entorno familiar de desarrollo para los ingenieros de software.
Para diseñar la PS4, Cerny no se basó únicamente en investigación, o análisis postmortems sobre la Playstation 3. También pidió ser rodeado por equipos de desarrollo y habló con socios programadores de middelware para que le dijesen exactamente qué es lo que ellos querrían en una consola de nueva generación. El resultado?
Qué quiere decir Sobrecargado, de todas formas??
La arquitectura de la Playstation 4 parece muy familiar en un primer vistazo.....y lo es. Pero Cerny mantiene que el trabajo de customización de su equipo extiende este hardware muy por encima de sus capacidades básicas.
Por ejemplo, esto es lo que dice sobre su GPU: "Es una Ati Radeon. Hablar de números específicos probablemente no ayudará a clarificar la situación demasiado, excepto si decimos que cogimos su tecnología más reciente y realizamos un gran número de modificaciones sobre esta".
Para comprender la PS4, tienes que coge rlo que era la visión original de Cerny (facil de usar, pero poderosa a largo plazo) y casarlo con lo que la compañía ha elegido para su arquitectura (familiar, pero inteligentemente modificada). A esto es a lo que se refieren con sobrecargado.
"Lo de sobrecargado, buena parte viene del uso de un solo pool de memoria unificado y de alta velocidad. La PS4 tiene 8GB de GDDR5 Ram que es fácilmente y de todo atribuible tanto a la CPU como a la GPU.
Si miras a un PC, decía Cerny, "incluso si tiene 8 Gigas de memoria en él, la CPU y la GPU pueden compartir solo alrededor de un 1% de esa memoria en un frame. Esto es simplmente un límite impuesto por la velocidad de los PCIe. Asi que, si, hay un beneficio sustancial en tener una arquitectura unificada en la PS4, y es un beneficio muy directo que podrás aprovechar desde el primer día que empieces a codificar con el sistema. El crecimiento del sistema en los años posteriores vendrá, sin embargo, de tener una GPU mejorada respecto a lo que existe en PC. Y supongo que esa conversación nos lleva a todo lo que hemos hecho para mejorarla.
La CPU y la GPU están ambas en un enorme custom chip, creado por AMD para Sony (la APU, vamos). Los ocho cores Jaguar, la GPU y un grna número de otras unidades están todas en este circuito. La memoria no está en el mismo chip, sin embargo. Vía un bus de 256 bits, se comunica con el pool unificado de memoria a 176 Gb por segundo.
Una cosa que podríamos haber hecho es bajar el bus a 128 bits, lo cual habría hecho caer el bandwith a 88 gigabytes por segundo, y entonces meterle memoria eDRAM al chip para volver a boostear el ancho de banda, dijo Cerny. Aunque esa solución inicialmente era apetecible para el equipo dado lo fácil de manufacturar, fue abandonada debido a la complejidad extra que añade para los desarrolladores. No queríamos crear un tipo de puzzle con el que la comunidad tuviese que chocar para crear sus juegos. Asi que nos mantuvimos firmes en la filosofía de la memoria unificada en un solo pool (y mantuvimos el bus en 256 bits).
De hecho, dijo Cerny, cuando consultó a los estudios de desarrollo preguntando que querían de la PS4, la petición mas generalizada que se recibió era que querían memoria unificada.
"Creo que se puede apreciar cual es nuestro compromiso con tener una arquitectura fácil de programar en el que podríamos haber hecho un hardware hasta con un terabyte de bandwith hacia una pequeña memoria RAm (eDRAM) pero preferimos no seguir esta estrategia. Esto lo demuestra todo".
Falta una parte de la traducción. La pondré más adelante.
PD: Gracias al compañero Hector_Hall de Vandal por la traducción.
Saludos.
EDITO: Segunda parte .
Arquitectura familiar, asegurada para el futuro
Qué es lo que Cerny piensa que ganará la consola por esta arquitectura diferenciada? Longevidad
Cerny está convencido que en los próximos años, los desarrolladores querrán usar la GPU para algo más que para renderizar gráficos, y para eso cree que se ha logrado determinar una solución poderosa y flexible para ellos. "La vision es usar la GPU tanto para gráficos como para computar simultáneamente. "Nuestra creencia es que hacia la mitad del ciclo de la PS4, la computación asincrónica será una parte muy grande y fundamental de la tecnología de los juegos. Cerny prevee "una docena de programas corriendo simultáneamente en esa GPU", usándola para "realizar cálculos físicos, calcular colisiones, hacer ray tracing para audio". Pero esa visión creo un gran desafío. "Una vez que teníamos esta visión de computación asincrónica en medio del ciclo vital de la consola, la cuestión entonces se convertía en ......Como creamos un hardware que soporte esto?
Una barrera a esto en el entorno tradicional del hardware de PC, dijo, es la comunicación entre CPU, GPU, y la RAM. La arquitectura de la PS4 está expresamente designada para resolver este problema.
" La típica GPU del PC tiene dos buses", dijo Cerny. "Uno de ellos es el que el GPU usa para acceder a la VRAM, y luego hay un segundo bus que va a trave´s del PCI Express que la GPU usa para acceder al la memoria del sistema. Pero uses el bus que uses, las caches internas d ela GPU e convierten en barreras muy significantes para la comunicación entre CPU y GPU. En cualquier momento que la GPU quiera leer la información que la CPU escribió, o que la GPU quiera escribir información para que la CPU la pueda ver, hay unos cuellos de botella consumidores de tiempo debido a los flujos con los que operan las memorias cache internas de esa GPU.
Realizando la visión: Cómo Sony modificó el hardware.
Las tres principales modificaciones que Sony hizo a la arquitectura para soportar su visión fueron las siguientes, en palabras de Cerny:
"Lo primero, añadimos otro bus a la GPU que permite que esta lea directamente desde la memoria sistema o escriba directamente a la memoria sistema, saltándose con un bypass sus propias caches L1 y L2. Como resultado, si los datos que están siendo pasados adelante y atrás entre CPU y GPU son pequeños, ya no tienes problemas con la sincronización entre ellos. Y con pequeños me refiero solo a pequeños en términos de nueva generacion. Podemos pasar alrededor de 20 Gb por segundo a través de ese bus. Eso no es "muy pequeño" en términos actuales.....es bastante más grande que el total del ancho de banda PCIe en la mayoría de los PCs!
Lo siguiente, para permitir el caso en el cual se quisiese usar la memoria cache L2 de la GPU simultáneamente para gráficos y computación asincrónica, hemos añadido un bit en las etiquetas de las líneas de código de la cache. Lo llamamos el bit "volátil". Con este bit podemos selectivamente marcar todos los accesos de computación como "volátiles", y cuando sea tiempo para esos procesos de computación de leer en la mmoria de sistema, puede invalidar, selectivamente, las lineas que usa en el L2.Cuando llega el momento de escribir de nuevo los resultados, puede reescribir selectivamente las líneas que usan este tag. Esta innovación permite a los procesos de computación de usar la memoria L2 de la gpu y realizar las operaciones requeridas sin impactar las opraciones gráficas que se estén realizando al mismo tiempo....en otras palabras, esto reduce radicalmente el overhead que supone correr gráficos y computación simultáneamente en la GPU".
En tercer lugar, dijo Cerny, la arquitectura original GCN de AMD permitía una fuente de comandos gráficos, y dos fuentes de comandos de computación. Para la PS4 hemos trabajado con AMD para incrementar ese límite a 64 fuentes de comandos de computación....la idea es que si tienes algún tipo de computación asincrónica que quieras realizar, debes poner comandos en alguna de estas 64 colas, y entonces hay muchos niveles de arbitraje en el hardware para determinar qué corre, como lo corre, y cuando lo corre, al mismo tiempo que se sigue renderizando los gráficos en el sistema.
La razón de que tantas fuentes de trabajo computacional sean necesarias es que no son tan solo los sistemas del juego los que usarán compute---el middleware puede necesitar computación también. Y las peticiones del middleware sobre la GPU tendrán que ser propiamente mezcladas con peticiones del propio juego, y entonces finalmente propiamente priorizadas en relación con los gráficos en una base "momento a momento" (en tiempo real).
Este concepto nació de un software que Sony había creado, llamado SPURS, para ayudar a los programadores a lidiar con las tareas en los SPU del Cell, pero en la PS4 está hecho automáticamente por el hardware.
El equipo, para decirlo de alguna manera, tuvo que pensar con anticipación sobre los siguientes años. La franja de tiempo cuando tuvimos que ir diseñando estas innovaciones fue 2009, 2010....y la franja temporal cuando pensamos que la gente las va a usar realmente era 2015 quizás, o 2017, dijo Cerny.
Nuestro enfoque global fue introducir un gran número de controles sobre como mezclar gráficos y computación, y dejar a la comunidad de desarrolladores decidir cuáles prefieren usar cuando lleguen al punto en el que comienzen a estar familiarizados y desarrollando un montón de computación asincrónica.
Cerny espera que los desarrolladores puedan correr middleware-por ejemplo, físicas-en la GPU. Usando el sistema que ha descrito arriba, deberías ser capaz de correr el sistema continuamente a un pico de eficiencia (100% de eficiencia).
Si se hecha un vistazo a la parte de la GPU disponible para computar durante un frame, puede variar dramáticamente de instante a instante. Por ejemplo, algo como renderizar un mapa de sombras opacas no usa ni un pixel shader, está hecho enteramente por los vertex shaders y el hardware de rasterización- así que los gráficos no estarán usando la gran mayoría de los 1.84 Teraflops de ALU disponibles en las CU. Son estos momentos en los que durante ese frame en concreto, tienes una oportunidad de decir..."Okay, todas esas operaciones de computación que querías hacer, sube el dial al 11 ahora mismo".
Suena genial.....pero como gestionas hacer eso? Hay unos controles muy simples donde desde el punto de vista de los gráficos, desde el buffer de comandos gráficos, puedes ajustar arriba o abajo la computación", dijo Cerny. "La cuestión se convierte, viendo cada pasada de renderizado y la carga que ponga en cada una de las unidades de la GPU, cuanta cantidad y estilo de computación podría ser corrida eficientmente durante esa pasada?".
Lanzamiento y más allá
Los beneficios de este poderoso hardware serán vistos en los juegos de lanzamiento de la PS4. Pero Cerny mantiene que, en el futuro, brillarán totalmente de formas totalmente distintas.
"La parrilla de lanzamientos de la PS4 en su salida, aunque desafortunadamente no puedo dar el número exacto de títulos, será más fuerte que cualquier lanzamiento de hardware Playstation. Ese es un resultado de la familiaridad del hardware. Pero si la fraja de lanzamiento de tu juego es 2015, te conviene implementar la nueva forma de abordar el hardware, porque necesitarás usar estas customizaciones si quieres que tu juego brille tanto como los de otras compañías que lo estarán implementando.
Así que aunque lleva "semanas, no meses" el portear un engine desde PC a la PS4 de acuerdo con Cerny, más allá de esto, los desarrolladores específicos de juegos de consola podrán saborear y enarbolar las capacidades específicas de la PS4, customizar sus herramientas de desarrollo, y llevarse todos los beneficios.
Hay realmente muchas, muchas formas de controlar como los recursos dentro de la GPU están asingados entre GPU y compute. Por supuesto, lo que puedes hacer, y lo que la mayoría de los juegos de lanzamiento harán, es simplemente asignar todos los recursos a gráficos. Y esto es genial, está bien. Simplemente la visión que tenemos es que para la mitad de la vida de la consola, habrá muchas ventajas en ir asignando recursos a computación(para maximizar la GPU y sus tiempos muertos).
Este tio es un genio.
Falta la tercera y ultima parte.
EDITO: Tercera parte.
Liberando recursos, la PS4 y sus unidades dedicadas
Otra cosa que el equipo de la PS4 hizo para incrementar la flexibilidad de la consola es poner muchas de sus funciones básicas en unidades(chips) dedicadas en la placa....de esta manera, no tienes que gastar ningún recurso del sistema en manejar esas funciones.
"La razón por la cual usamos unidades dedicadas es porque así aseguramos que el overhead sobre la consola en lo que a correr juegos se refiere sea muy bajo. Asimismo, puede establecer una base estable sobre la que montar la experiencia del usuario.
"Por ejemplo, teniendo una unidad de hardware específico dedicada al audio, esto significa que podemos soportar audio chat sin que los juegos tengan que prescindir de ningún recurso reseñable para correrlo (en la APU). Lo mismo pasa con la compresión y descompresión de vídeo. La unidad de audio también permite la descompresión de un muy gran número de streams de MP3 para el sonido in-game, añadió Cerny.
En al conferencia de presentación del sistema en NY, Cerny habló sobre PlayGO, el sistema por el cual la consola descargará títulos digitales al tiempo que son jugados.
"El concepto es que tu descargas solo una pequeña porción de los datos totales y empiezas ya tu sesión de juego, y luego continuas tu sesión de juego mientras el resto se va descargando en segundo plano", explicó a Gamasutra.
De todas formas, PlayGO es "dos sistemas separados unidos", dijo Cerny. El otro tiene que ver con el lector de Blu Ray, y con el hecho de que es, esencialmente y pese a su incremento de velocidad, algo lento para juegos next gen.
Así que, lo que vamos a hacer es que según el juego acceda al Blu Ray, es que cogemos cualquier paquete de datos que haya sido leído y lo metemos directamente en el disco duro. Y cuando y si hay algún tiempo inactivo(muerto), seguimos adelante y copiamos todo el resto de los datos restantes al disco duro. Lo que eso significa e que despues de una hora o dos, el juego está en el disco duro y tienes total acceso, y desde entonces ya tienes tiempos de carga dramáticamente más rápidos....También tienes la posibilidad de hacer un streaming de auténtica alta velocidad.
Para ayudar aún más al Blu Ray en el proceso, el sistema también tiene una unidad de hardware para permitir la decompresión zlib- de esa manera los desarrolladores pueden confiadamente comprimir todos su juego y saber que el sistema lo descomprimirá al vuelo. Como mínimo, nuestra visión es que nuestros juegos estarán comprimidos en zlib en media (videos, FMV,etc)
Hay también otro chip customizado que pondrá el sistema en una configuración de bajo consumo (stand by) para descargas en segundo plano. "Para hacer que sea un hardware aún más ecológico, lo cual es muy importante para nosotros, tenemos la capacidad de apagar el consumo principal del sistema y tener activado solo ese chip custom secundario, a memoria del sistema y el I/O (input/output,)-disco duro y Ethernet. Esto permite descargas en segundo plano que ocurren en una configuración de bajísimo consumo. También nos da la habilidad de apagar todo excepto la alimentación de la RAM...esta es la manera por la cual vamos a ser capaces de dejar las sesiones de juego suspendidas en stand by con la consola apagada".
Suena bien, pero.....cuellos de botella?
"Con los gráficos, el primer cuello de botella sobre el que probablemente toparás es el ancho de banda de la memoria. Dado que 10 o mas texturas por objeto serán standar en esta generación, es muy fácil caer en ese cuello de botella", nos dijo. "Una buena parte de las fases del renderizado están asociadas a la memoria, y más allá de cambiar a texturización con un índice más bajo de bits por texel, no hay una gran cantidad de cosas que puedas hacer para evitarlo. Nuestra estrategia en esto fue simplmente asegurarnos que se iba a utilizar la memoria GDDR5 como la principal del sistema y por tanto tener un montón de bandwith.
Esto te ahorra uno de los potenciales cuellos de botella. "Si no tienes un cuello de botella por la memoria, es muy posible- si tienes gran densidad de poligonaje en tus objetos- que tengas un cuello de botella en vertices. Puedes intentar decir a tus artistas que usen triángulas más grandes, pero como sabemos por la práctica, es dificil conseguir eso. Es bastante común estar renderizando gráficos en los cuales la maor parte de lo que ves en la pantalla son triángulos que tienen apenas un pixel de tamaño. En cuyo caso, si, los cuellos de botella causados por los vértices (vertex) pueden ser importantes.
Hay una amplia variedad de técnicas que hemos desarrollado para reducir los cuellos de botella con vertex, en algunos casos son mejoras directas al hardware, pero la más interesante de todas es quizás el que puedas usar las instrucciones de computación como un frontend para tus gráficos.
Esta técnica, según nos dijo, es una mezcla de hardware, firmware embebido en la GPU, y tecnología de compilación. Lo que ocurre es que coges cada vertex shader, y lo compilas dos veces, una como un shader de computación, la otra como un shader de vértice. El shader de computación hace un análisis del triángulo- simplmente hace los cálculos de posicion del original vertex sahder para ver si el triangulo esta mirando hacia el lado opuesto, y cosas así. Y esto genera, en tiempo real, un número reducido de triangulos para que use el vertex shader. Estas funciones de computación shader y vertex shader están muy, muy estrechamente relacionadas con el hardware (y sus mejoras)
No es además una solución difícil de implementar, sugirió Cerny. Desde una perspectiva de un programador gráfico, usar esta técnica significa poner una especie de banderitas de complilador en los datos y usar en ellas un modo diferente de la APi gráfica. Este es el tipo de cosas que puedes intentar alguna tarde y ver como amplifica el rendimiento de tu código.
Estos procesos están ligados tan estrechamente, dijo Cerny, que todo lo que se requiere es un anillo de buffer para los indexados(índices)...del tamaño de rizitos de oro (muy pequeño). Suficientemente pequeño para entrar en la cache, y bastante grande para no salirse basándose en discrepancias entre la velocidad de proceso de shaders vertex y shader de computación".
También prometió a Gamasutra que la compañía está trabajando en una versión de su herramienta de análisis de rendimiento, Razor, optimizada para la Playstation 4, así como un código de ejemplo distribuido a los desarrolladores. Cerny también querría distribuir código real: "si alguien ha escrito algo interesante y está dispuesto a poner la fuente, a hacerlo disponible para otros desarrolladores de Playstation, entonces es algo del más alto valor".
Hay otra forma en la cual Cerny está trabajando lo que los desarrolladores necesitan del hardware.
Cuando me presenté a Sony originalmente con la idea de ser el arquitecto jefe del futuro sistema a finales del 2007, tenía la idea de que estaría relacionado sobre todo con el software pero haría algo de software de tiempo en tiempo"..."pero luego me ví muy ocupado con el hardware".
Este alejamiento del software no duró. "Tuve finalmente una conversación con Akira Sato, quien fue jefe de Sony Computer Entertaintment por muchos años. Y me aconsejó fuertemente: "No abandones el software, porque tu valor será mucho mayor para el proceso, sea cual sea este- diseño de hardware, entorno de desarrollo, cadena de herramientas- si sigues manteniéndote haciendo juegos.
Este es el nacimiento de Knack, el juego de Cerny en Playstation 4, el cual desveló durante la presentación del sistema en Nueva York. Y es su vínculo a comprender los problemas prácticos de desarrollar en PS4 de una manera íntima y personal.
De un día de Acción de Gracias leyendo documentos técnicos a un difícil y duro proceso de ingeniería y finnalmente al desarrolo de una nueva y gran IP de lanzamiento para Sony, no se puede decir que Mark Cerny no sea un hombre ocupado, apasionado y dedicado a su trabajo.
"No he estado tan ocupado en los últimos 20 años. Pero está bien. Definitivamente, estoy MUY ocupado ahora mismo!!" dijo, ante las risas de la sala.
Y hasta aqui. Lo dicho. IMPRESIONANTE lo de este hombre y su equipo.
Tendremos un consolon que ni en nuestros sueños mas humedos.
Ahora solo falta que anuncien el dia de la presentacion del MAQUINON que deberia de ser a primeros de mayo.
Gracias de nuevo a Hector_Hall de Vandal por el curro de la traducción .
Saludos .
Muchas gracias
Henry123456 escribió:Tomada de VANDAL.NET
Sony ha asegurado que PS4 tendrá el mejor catálogo de lanzamiento jamás visto en una consola de PlayStation.
"El catálogo de lanzamiento de PlayStation 4, aunque desafortunadamente no puedo dar un número concreto, va a ser el más fuerte jamás visto en una consola PlayStation", dijo Mark Cerny de Sony. Según ha comentado, esto será posible gracias a lo fácil que resultará programar en este sistema, por lo que muchos desarrolladores ya estarán familiarizados con su arquitectura.
Adaptar el motor de un juego de PC a PlayStation 4 será cuestión de semanas y no de meses, por lo que los estudios de desarrollo no deberían de tener mayores problemas para realizar las conversiones de sus juegos de compatibles...
.
supervegeta10 escribió:
a mi con que pongan battlefield 4 de salida lo demas me sobra xD
mgarciar escribió:Se sabe algo del traslado de cuentas? mi perfil de psn sera le mismo en ps3 que en ps4, se heredaran los trofeos?
augustuss escribió:mgarciar escribió:Se sabe algo del traslado de cuentas? mi perfil de psn sera le mismo en ps3 que en ps4, se heredaran los trofeos?
Pues no me suena que hayan asegurado que sí, pero vamos, es lo lógico y normal, si ya son el mismo en PS3 que en Vita o PSP. Además, no tendría sentido tener que crearte otra cuenta distinta.
Polyteres escribió:Buenas gente. La verdad es q el señor Cerny y su equipo parece q han hecho un gran trabajo con la arquitectura de Ps4. Ya lo adelantó Carmak diciendo q habian tomado decisiones de diseño muy inteligente y acertadas, y ahora se entiende q dijera eso.
La clave es la eficiencia. El sistema está pensado por y para aprovechar cada uno de los ciclos del mismo. Como dice Cerny, estas cosas no se verán al principio de la generación sino q poco a poco se le irá sacando provecho al hardware. Es muy intersante lo q dice sobre los SPURS en Ps3 y como han intentado llevar ese concepto al hardware mediante, firmware, hardware y compilador. Muy interesante tb como Ps4 es capaz de realizar tareas de GPGPU y graficas simultaneamente sin penalizar el rendimiento, sin tener q vaciar cachés, sin tener problemas de comunicacion con la CPU, sin hacer copias de los datos puesto q todo está en la misma memoria compartida...
Un saludo.
daymaster escribió:Ya que micro a hecho oficial en dia de la primera conferencia xbox,creeis que si presenta consola,especificaciones etc sony hara otra antes del e3 para mostrar tambien la consola y no dejar ni un segundo de protagonismo a la durango?
satan bihotz txiki escribió:Polyteres escribió:Buenas gente. La verdad es q el señor Cerny y su equipo parece q han hecho un gran trabajo con la arquitectura de Ps4. Ya lo adelantó Carmak diciendo q habian tomado decisiones de diseño muy inteligente y acertadas, y ahora se entiende q dijera eso.
La clave es la eficiencia. El sistema está pensado por y para aprovechar cada uno de los ciclos del mismo. Como dice Cerny, estas cosas no se verán al principio de la generación sino q poco a poco se le irá sacando provecho al hardware. Es muy intersante lo q dice sobre los SPURS en Ps3 y como han intentado llevar ese concepto al hardware mediante, firmware, hardware y compilador. Muy interesante tb como Ps4 es capaz de realizar tareas de GPGPU y graficas simultaneamente sin penalizar el rendimiento, sin tener q vaciar cachés, sin tener problemas de comunicacion con la CPU, sin hacer copias de los datos puesto q todo está en la misma memoria compartida...
Un saludo.
Y te lo pregunto a ti, habemus pepino o no????? Porque la verdad por lo que yo he entendido la consola desde un punto de vista tecnologico parece muy interesante.
Un saludo
augustuss escribió:daymaster escribió:Ya que micro a hecho oficial en dia de la primera conferencia xbox,creeis que si presenta consola,especificaciones etc sony hara otra antes del e3 para mostrar tambien la consola y no dejar ni un segundo de protagonismo a la durango?
Yo creo que no. No puedes esperar al 21 de Mayo para ver que presentan ellos y entonces contrarrestar tú. Un evento así, tienes que prepararlo bien y con antelación, y estando encima el E3 no creo que pierdan el tiempo, salvo que sea algo que ya tengan previsto pero no han anunciado.
yameli escribió:buenisima pinta ese mando or dios!! ahora si que lo he visto chulo chulo lo que no se o entiendo es si compartir se podra unos minutos o por ejemplo grabar partidas enteras?saludos
xufeitor escribió:
Estaba puesto solo 2 post más arriba
juan19 escribió:mil perdones compi
satan bihotz txiki escribió:Polyteres escribió:Buenas gente. La verdad es q el señor Cerny y su equipo parece q han hecho un gran trabajo con la arquitectura de Ps4. Ya lo adelantó Carmak diciendo q habian tomado decisiones de diseño muy inteligente y acertadas, y ahora se entiende q dijera eso.
La clave es la eficiencia. El sistema está pensado por y para aprovechar cada uno de los ciclos del mismo. Como dice Cerny, estas cosas no se verán al principio de la generación sino q poco a poco se le irá sacando provecho al hardware. Es muy intersante lo q dice sobre los SPURS en Ps3 y como han intentado llevar ese concepto al hardware mediante, firmware, hardware y compilador. Muy interesante tb como Ps4 es capaz de realizar tareas de GPGPU y graficas simultaneamente sin penalizar el rendimiento, sin tener q vaciar cachés, sin tener problemas de comunicacion con la CPU, sin hacer copias de los datos puesto q todo está en la misma memoria compartida...
Un saludo.
Y te lo pregunto a ti, habemus pepino o no????? Porque la verdad por lo que yo he entendido la consola desde un punto de vista tecnologico parece muy interesante.
Un saludo
4A games want to release an SDK and they plan to eventually, most likely paired with multiplayer.
- MLL multiplayer will be released as a separate project, something along the lines of a Xbox Arcade game. ETA: At least half a year after MLL release.
- Confirmed five DLC, story missions from the point of view of other characters. These are not cut content, work on these began after the game was finished.
- Season pass is a possibility.
- PS4 version. Will probably come with M2033.
Newport escribió:Si se confirma Killzone ps4 a 1080p 30fps, me parecerá un churro. Es una cagada que no salga a 60fps.
valf0r escribió:Newport escribió:Si se confirma Killzone ps4 a 1080p 30fps, me parecerá un churro. Es una cagada que no salga a 60fps.
a mi me parece todo lo contrario. Si uno de los primeros en llegar ya viene a 1080p y 30fps sin bajadas.. ¿que llegara a partir del año siguiente cuando empiecen a tener el culo pelado de programar para ps3? ¿y donde tendra el techo? Porque el suelo ya se sabe practicamente, 1080p a 30fps. Francamente me parece un buen suelo.
Foxhound 85 escribió:Confirmado Metro Last Light para PS4 podria llegar junto con su primera parte Metro 20334A games want to release an SDK and they plan to eventually, most likely paired with multiplayer.
- MLL multiplayer will be released as a separate project, something along the lines of a Xbox Arcade game. ETA: At least half a year after MLL release.
- Confirmed five DLC, story missions from the point of view of other characters. These are not cut content, work on these began after the game was finished.
- Season pass is a possibility.
- PS4 version. Will probably come with M2033.
http://www.lastlightforum.com/showthread.php?t=4704
valf0r escribió:Newport escribió:Si se confirma Killzone ps4 a 1080p 30fps, me parecerá un churro. Es una cagada que no salga a 60fps.
a mi me parece todo lo contrario. Si uno de los primeros en llegar ya viene a 1080p y 30fps sin bajadas.. ¿que llegara a partir del año siguiente cuando empiecen a tener el culo pelado de programar para ps3? ¿y donde tendra el techo? Porque el suelo ya se sabe practicamente, 1080p a 30fps. Francamente me parece un buen suelo.
NeCLaRT escribió:valf0r escribió:Newport escribió:Si se confirma Killzone ps4 a 1080p 30fps, me parecerá un churro. Es una cagada que no salga a 60fps.
a mi me parece todo lo contrario. Si uno de los primeros en llegar ya viene a 1080p y 30fps sin bajadas.. ¿que llegara a partir del año siguiente cuando empiecen a tener el culo pelado de programar para ps3? ¿y donde tendra el techo? Porque el suelo ya se sabe practicamente, 1080p a 30fps. Francamente me parece un buen suelo.
Pues lo mismo con mejor aspecto visual. Nunca los avances en optimizacion los han dedicado a mejorar el framerate.
El suelo dependera de que titulo con que condiciones y con que aspecto. Mas bien el suelo de los 1080p/30fps en PS4 sera el aspecto visual que tenga Killzone de salida.
Luego entre preferir 60fps con peor aspecto o 30 con mejor, dependera del tipo de jugabilidad que tenga cada titulo.
Newport escribió:Si se confirma Killzone ps4 a 1080p 30fps, me parecerá un churro. Es una cagada que no salga a 60fps.
satan bihotz txiki escribió:Yo nose porque hay queja , si para mover Battlefield 3 en ultra en PC se necesitaban graficas de un 1 teraflop y tenemos una GPU que llega casi a 2 teraflops.
La cosa para mi pinta francamente bien y lo que vimos en B3, eso sera solo el principio. La cosa pinta bien
Un saludo
juan19 escribió:joer... yo quiero ser igual de optimista
no pinta mal pero tampoco parece que sera la hostia , creo que tanto micro como sony , han hecho 2 consolas para una generacion que no se alargara tanto como la actual.
yameli escribió:juan19 escribió:joer... yo quiero ser igual de optimista
no pinta mal pero tampoco parece que sera la hostia , creo que tanto micro como sony , han hecho 2 consolas para una generacion que no se alargara tanto como la actual.
yo creo que se alargara lo mismo 6-7 años