Natsu escribió:Bigotin escribió:si ese rumor se cumpliese (que lo sigo dudando pero bueno)
me veo a las grandes aprovechandose de eso, ya sabeis.. EA y todas esas compañias que "aman" y "cuidan" tanto a sus clientes.
Con el consiguiente "éxito Sim City"
Game Cube escribió:Me he perdido en un detalle, si alguien es tan amable de explicarmelo sin tirarse al cuello. He visto una foto de una mini xbox que podria ser presentada, ese modelo mini que es de la 360? Un saludo.
litos001 escribió:Sobre los logros a ver si se los curran un poco más y dejan ya de hacer logros chorra de multijugador y otros de encontrar objetos estúpidos y cosas así. Que hagan logros que entretengan, no que aburran.
kolombo escribió:litos001 escribió:Sobre los logros a ver si se los curran un poco más y dejan ya de hacer logros chorra de multijugador y otros de encontrar objetos estúpidos y cosas así. Que hagan logros que entretengan, no que aburran.
Bueno, como ahora se pueden pedir pizzas desde la Xbox igual premian con pizzas la consecución de algún logro
gynion escribió:Game Cube escribió:Me he perdido en un detalle, si alguien es tan amable de explicarmelo sin tirarse al cuello. He visto una foto de una mini xbox que podria ser presentada, ese modelo mini que es de la 360? Un saludo.
Son fakes, hechos por aficionados; no se ha presentado nada.
Respecto a la conexión permanente.. también soy de la opinión de que no será así, y será más o menos como hasta ahora; pero tampoco niego la posibilidad de que lo hagan, total o parcialmente (en juegos concretos, o según la compañía desarrolladora), ya que hay indicios para pensarlo.
kolombo escribió:Oficialmente no hay nada ni de la nueva ni de la mini.
indigo_rs escribió:Esta aplicación creo que no la veremos en España
jose juan escribió:indigo_rs escribió:Esta aplicación creo que no la veremos en España
Ni falta que hace que la veamos por aqui
morenu_1989 escribió:Como esa noticia de poligon sea cierta
erikoptero escribió:jose juan escribió:indigo_rs escribió:Esta aplicación creo que no la veremos en España
Ni falta que hace que la veamos por aqui
Pues yo necesito esa aplicación xD Es un puntazo poder pedirte una pizza desde la Xbox sin tener que ir al ordenador o pillar el telefono, encima puedes montar la pizza tu mismo en la Xbox, ponerle olivillas, etc... xD
Tmac_1 escribió:morenu_1989 escribió:Como esa noticia de poligon sea cierta
Pues si que sois facilmente impresionables algunos, salvo lo de que no va a obligar a conexion permanente (lo contrario era un suicidio), el resto son cosas logicas de una consola nueva.
erikoptero escribió:jose juan escribió:indigo_rs escribió:Esta aplicación creo que no la veremos en España
Ni falta que hace que la veamos por aqui
Pues yo necesito esa aplicación xD Es un puntazo poder pedirte una pizza desde la Xbox sin tener que ir al ordenador o pillar el telefono, encima puedes montar la pizza tu mismo en la Xbox, ponerle olivillas, etc... xD
evilkainn_ escribió:En lo que respecta al espinoso tema de la conexión permanente a internet que tanta polémica ha generado estos últimos meses, aseguran que Microsoft dará la posibilidad a las editoras de decidir si sus juegos requerirán internet obligatoriamente para poderlos jugar o no. A su vez, en caso de que la conexión sea obligatoria, podrán escoger entre que sea constante o solo para iniciar el juego.
litos001 escribió:Yo tampoco me la pierdo por nada del mundo!!
Raksha escribió:Venga, barra libre de rumores
Lo cierto que esta tanda me ha gustado, mas o menos lo que se iba hablando hace unos dia, nuevas opciones sociales, bien, y el espinoso tema de la conexion que dejaran a las editoras por otra parte es logico, Microsoft no gana nada con imponerlo, lo que pasa que ya me veo al trio calavera (Activision, EA, Ubisoft) riendo malvadamente
kolombo escribió:Yo veo difícil ver la edición con cuota aquí por que si no me equivoco la edición con cuota de la 360 en USA incluye algunos canales de TV de pago cosa que aquí con los precios draconianos de las plataformas digitales lo veo muy difícil.
oceanic escribió:se muere de ganas por hacerlo o q te crees? yo q no soy gold y quite el cable xq estaba hasta la polla de la publicidad de la narices. q si videos musicales, q si pelis, musica,"rebajas" live gold, "ofertas" del bazar....... q quiero el telar para jugar señores!!! no para compraros cosas!!!!!!
juan19 escribió:kolombo escribió:Yo veo difícil ver la edición con cuota aquí por que si no me equivoco la edición con cuota de la 360 en USA incluye algunos canales de TV de pago cosa que aquí con los precios draconianos de las plataformas digitales lo veo muy difícil.
y aparte el monopolio que existe en este nuestro "gran" pais.
Además, en una entrada en Facebook de la firma Wild Mouse del pasado septiembre, adelantaba estar trabajando con Rare en un nuevo juego, del que no podía ofrecer detalles por estar sujeto a un contrato de confidencialidad, pero que era un proyecto "grande".
Las últimas informaciones no confirmadas apuntan a que el título de gladiadores de Crytek llamado Ryse, junto a un nuevo Forza, un título de zombis y otro familiar podrían acompañar a la salida de la nueva Xbox.
El 21 de mayo se presentará la nueva Xbox, y durante la conferencia de Microsoft en el E3 se presentaría la línea de juegos de lanzamiento del sistema.
Cyborg_Ninja escribió:superfenix2020 escribió:que sea menos potente o no que la Ps4 aquí no es lo importante.
Al menos para mi.
los juegos multis se verán muy parejos en ambas consolas.
El problema es que no es que sea inferior a PS4, que dudo que lo sea, a mí por lo menos me gustaría que fuera algo más potente. No sé, que montara algo parecido a una 7870 como poco. Si las especificaciones técnicas de PS4 ya me parecen discretillas (que no se me malinterprete, es una máquina potente, pero yo esperaba algo más), que las de la nueva Xbox sean peores la verdad es que no es un buen panorama.
Aquí tenéis la traducción literal de la entrevista a Mark Cerny. Vaya monstruo el amigo.
Inside the PlayStation 4 With Mark Cerny
by Christian Nutt [Business/Marketing, Interview, Console/PC]
4 comments Share on Twitter Share on Facebook
RSS
Las cuestiones acerca del User Interface y Sistema Operativo estaban fuera de la mesa de conversación. De lo que se trataba es de discutir de qué es capaz el sistema, y el tipo de pensamiento que dirigió a Cerny y su equipo en la toma de deciones sobre componentes a usar y como debían funcionar entre ellos.
Para llegar al fondo de esta discusión profundamente técnica, Gamasutra estaba asistida por alguien con íntimo conocimiento de como funciona el hardware de una consola. Este era Mar de Loura, el que era dirigente de THQ en temas de tecnología y ahora consejero de medios digitales en la Officina de la CIencia y la Tecnología de la Casa Blanca.
Los Inicios
Para mi, todo empezó a finales del 2007. Habíamos estado haciendo estudios postmortems sobre la Playstation 3 y como había quedado su hardware ya en el mercado. Éramos un gran grupo de gente de varios departamentos de Sony Computer Entertaintment evaluando lo bueno y malo de su lanzamiento.
Eso llevó, naturalmente, a pensamientos sobre que habría que hacer a partir de entonces. Cavilando sobre la arquitectura del próximo sistema de Sony, Cerny invirtió todas sus vacaciones de navidad leyendo sobre la historia de la arquitectura x86., y se dio cuenta que no solo había evolucionado dramaticamente sobre los años, sino que para el tiempo en que fuese a ser lanzada la PS4, sería lo suficientemente potente para las necesidades de Sony.
Había evolucionado en algo que era ampliamente utilizable incluso para el tipo de programadores extremos que encontramos en el negocio de los videojuegos.
Dandose cuenta de lo apasionado que estaba por el proyecto de la Playstation 4, Cerny fue tras acción de Gracias a los entonces ejecutivos de Sony Phil Harrison y Masa Chatani y “preguntó si podría ser el que encabezara el esfuerzo de la nueva generación de consolas. Para mi gran sopresa, dijeron que si.
Más tarde, cuando le preguntamos si Sony consideraba el hecho de que muchos desarrolladores third party tendrían que crear versiones d elos juegos para la proxima Xbox, su respuesta fue que “cuando digo que nuestro objetivo era no crear puzzles para los desarrolladores, eso es como se hace en un mundo multiplataforma”.
Pero la facilidad de uso estaba lejos de ser el único objetivo de Cerny. Como un veterano con ya 31 años en la industria, sabía muy bien que el PC sigue avanzando mientras que la PS4 se quedaría congelada en el tiempo en su hardware.
“Al final, lo que estamos intentando es lograr un balance entre técnicas que podrás usar desde el primer día, y técnicas que permitirán al sistema evlucionar a lo largo de los años, tal como lo harán los juegos”, dijo Cerny. La “supercharged PC architecture” que el equipo ha logrado realizar, está diseñada para ofrecer significativas mejoras que el PC no puede, mientras que al tiempo ofrece un entorno familiar de desarrollo para los ingenieros de software.
Para diseñar la PS4, Cerny no se basó únicamente en investigación, o análisis postmortems sobre la Playstation 3. También pidió ser rodeado por equipos de desarrollo y habló con socios programadores de middelware para que le dijesen exactamente qué es lo que ellos querrían en una consola de nueva generación. El resultado?
Qué quiere decir Sobrecargado, de todas formas??
La arquitectura de la Playstation 4 parece muy familiar en un primer vistazo…..y lo es. Pero Cerny mantiene que el trabajo de customización de su equipo extiende este hardware muy por encima de sus capacidades básicas.
Por ejemplo, esto es lo que dice sobre su GPU: “Es una Ati Radeon. Hablar de números específicos probablemente no ayudará a clarificar la situación demasiado, excepto si decimos que cogimos su tecnología más reciente y realizamos un gran número de modificaciones sobre esta”.
Para comprender la PS4, tienes que coge rlo que era la visión original de Cerny (facil de usar, pero poderosa a largo plazo) y casarlo con lo que la compañía ha elegido para su arquitectura (familiar, pero inteligentemente modificada). A esto es a lo que se refieren con sobrecargado.
“Lo de sobrecargado, buena parte viene del uso de un solo pool de memoria unificado y de alta velocidad. La PS4 tiene 8GB de GDDR5 Ram que es fácilmente y de todo atribuible tanto a la CPU como a la GPU.
Si miras a un PC, decía Cerny, “incluso si tiene 8 Gigas de memoria en él, la CPU y la GPU pueden compartir solo alrededor de un 1% de esa memoria en un frame. Esto es simplmente un límite impuesto por la velocidad de los PCIe. Asi que, si, hay un beneficio sustancial en tener una arquitectura unificada en la PS4, y es un beneficio muy directo que podrás aprovechar desde el primer día que empieces a codificar con el sistema. El crecimiento del sistema en los años posteriores vendrá, sin embargo, de tener una GPU mejorada respecto a lo que existe en PC. Y supongo que esa conversación nos lleva a todo lo que hemos hecho para mejorarla.
La CPU y la GPU están ambas en un enorme custom chip, creado por AMD para Sony (la APU, vamos). Los ocho cores Jaguar, la GPU y un grna número de otras unidades están todas en este circuito. La memoria no está en el mismo chip, sin embargo. Vía un bus de 256 bits, se comunica con el pool unificado de memoria a 176 Gb por segundo.
Una cosa que podríamos haber hecho es bajar el bus a 128 bits, lo cual habría hecho caer el bandwith a 88 gigabytes por segundo, y entonces meterle memoria eDRAM al chip para volver a boostear el ancho de banda, dijo Cerny. Aunque esa solución inicialmente era apetecible para el equipo dado lo fácil de manufacturar, fue abandonada debido a la complejidad extra que añade para los desarrolladores. No queríamos crear un tipo de puzzle con el que la comunidad tuviese que chocar para crear sus juegos. Asi que nos mantuvimos firmes en la filosofía de la memoria unificada en un solo pool (y mantuvimos el bus en 256 bits).
De hecho, dijo Cerny, cuando consultó a los estudios de desarrollo preguntando que querían de la PS4, la petición mas generalizada que se recibió era que querían memoria unificada.
“Creo que se puede apreciar cual es nuestro compromiso con tener una arquitectura fácil de programar en el que podríamos haber hecho un hardware hasta con un terabyte de bandwith hacia una pequeña memoria RAm (eDRAM) pero preferimos no seguir esta estrategia. Esto lo demuestra todo”.
Falta una parte de la traducción. La pondré más adelante.
PD: Gracias al compañero Hector_Hall de Vandal por la traducción.
Saludos.
EDITO: Segunda parte .
Arquitectura familiar, asegurada para el futuro
Qué es lo que Cerny piensa que ganará la consola por esta arquitectura diferenciada? Longevidad
Cerny está convencido que en los próximos años, los desarrolladores querrán usar la GPU para algo más que para renderizar gráficos, y para eso cree que se ha logrado determinar una solución poderosa y flexible para ellos. “La vision es usar la GPU tanto para gráficos como para computar simultáneamente. “Nuestra creencia es que hacia la mitad del ciclo de la PS4, la computación asincrónica será una parte muy grande y fundamental de la tecnología de los juegos. Cerny prevee “una docena de programas corriendo simultáneamente en esa GPU”, usándola para “realizar cálculos físicos, calcular colisiones, hacer ray tracing para audio”. Pero esa visión creo un gran desafío. “Una vez que teníamos esta visión de computación asincrónica en medio del ciclo vital de la consola, la cuestión entonces se convertía en ……Como creamos un hardware que soporte esto?
Una barrera a esto en el entorno tradicional del hardware de PC, dijo, es la comunicación entre CPU, GPU, y la RAM. La arquitectura de la PS4 está expresamente designada para resolver este problema.
” La típica GPU del PC tiene dos buses”, dijo Cerny. “Uno de ellos es el que el GPU usa para acceder a la VRAM, y luego hay un segundo bus que va a trave´s del PCI Express que la GPU usa para acceder al la memoria del sistema. Pero uses el bus que uses, las caches internas d ela GPU e convierten en barreras muy significantes para la comunicación entre CPU y GPU. En cualquier momento que la GPU quiera leer la información que la CPU escribió, o que la GPU quiera escribir información para que la CPU la pueda ver, hay unos cuellos de botella consumidores de tiempo debido a los flujos con los que operan las memorias cache internas de esa GPU.
Realizando la visión: Cómo Sony modificó el hardware.
Las tres principales modificaciones que Sony hizo a la arquitectura para soportar su visión fueron las siguientes, en palabras de Cerny:
“Lo primero, añadimos otro bus a la GPU que permite que esta lea directamente desde la memoria sistema o escriba directamente a la memoria sistema, saltándose con un bypass sus propias caches L1 y L2. Como resultado, si los datos que están siendo pasados adelante y atrás entre CPU y GPU son pequeños, ya no tienes problemas con la sincronización entre ellos. Y con pequeños me refiero solo a pequeños en términos de nueva generacion. Podemos pasar alrededor de 20 Gb por segundo a través de ese bus. Eso no es “muy pequeño” en términos actuales…..es bastante más grande que el total del ancho de banda PCIe en la mayoría de los PCs!
Lo siguiente, para permitir el caso en el cual se quisiese usar la memoria cache L2 de la GPU simultáneamente para gráficos y computación asincrónica, hemos añadido un bit en las etiquetas de las líneas de código de la cache. Lo llamamos el bit “volátil”. Con este bit podemos selectivamente marcar todos los accesos de computación como “volátiles”, y cuando sea tiempo para esos procesos de computación de leer en la mmoria de sistema, puede invalidar, selectivamente, las lineas que usa en el L2.Cuando llega el momento de escribir de nuevo los resultados, puede reescribir selectivamente las líneas que usan este tag. Esta innovación permite a los procesos de computación de usar la memoria L2 de la gpu y realizar las operaciones requeridas sin impactar las opraciones gráficas que se estén realizando al mismo tiempo….en otras palabras, esto reduce radicalmente el overhead que supone correr gráficos y computación simultáneamente en la GPU”.
En tercer lugar, dijo Cerny, la arquitectura original GCN de AMD permitía una fuente de comandos gráficos, y dos fuentes de comandos de computación. Para la PS4 hemos trabajado con AMD para incrementar ese límite a 64 fuentes de comandos de computación….la idea es que si tienes algún tipo de computación asincrónica que quieras realizar, debes poner comandos en alguna de estas 64 colas, y entonces hay muchos niveles de arbitraje en el hardware para determinar qué corre, como lo corre, y cuando lo corre, al mismo tiempo que se sigue renderizando los gráficos en el sistema.
La razón de que tantas fuentes de trabajo computacional sean necesarias es que no son tan solo los sistemas del juego los que usarán compute—el middleware puede necesitar computación también. Y las peticiones del middleware sobre la GPU tendrán que ser propiamente mezcladas con peticiones del propio juego, y entonces finalmente propiamente priorizadas en relación con los gráficos en una base “momento a momento” (en tiempo real).
Este concepto nació de un software que Sony había creado, llamado SPURS, para ayudar a los programadores a lidiar con las tareas en los SPU del Cell, pero en la PS4 está hecho automáticamente por el hardware.
El equipo, para decirlo de alguna manera, tuvo que pensar con anticipación sobre los siguientes años. La franja de tiempo cuando tuvimos que ir diseñando estas innovaciones fue 2009, 2010….y la franja temporal cuando pensamos que la gente las va a usar realmente era 2015 quizás, o 2017, dijo Cerny.
Nuestro enfoque global fue introducir un gran número de controles sobre como mezclar gráficos y computación, y dejar a la comunidad de desarrolladores decidir cuáles prefieren usar cuando lleguen al punto en el que comienzen a estar familiarizados y desarrollando un montón de computación asincrónica.
Cerny espera que los desarrolladores puedan correr middleware-por ejemplo, físicas-en la GPU. Usando el sistema que ha descrito arriba, deberías ser capaz de correr el sistema continuamente a un pico de eficiencia (100% de eficiencia).
Si se hecha un vistazo a la parte de la GPU disponible para computar durante un frame, puede variar dramáticamente de instante a instante. Por ejemplo, algo como renderizar un mapa de sombras opacas no usa ni un pixel shader, está hecho enteramente por los vertex shaders y el hardware de rasterización- así que los gráficos no estarán usando la gran mayoría de los 1.84 Teraflops de ALU disponibles en las CU. Son estos momentos en los que durante ese frame en concreto, tienes una oportunidad de decir…”Okay, todas esas operaciones de computación que querías hacer, sube el dial al 11 ahora mismo”.
Suena genial…..pero como gestionas hacer eso? Hay unos controles muy simples donde desde el punto de vista de los gráficos, desde el buffer de comandos gráficos, puedes ajustar arriba o abajo la computación”, dijo Cerny. “La cuestión se convierte, viendo cada pasada de renderizado y la carga que ponga en cada una de las unidades de la GPU, cuanta cantidad y estilo de computación podría ser corrida eficientmente durante esa pasada?”.
Lanzamiento y más allá
Los beneficios de este poderoso hardware serán vistos en los juegos de lanzamiento de la PS4. Pero Cerny mantiene que, en el futuro, brillarán totalmente de formas totalmente distintas.
“La parrilla de lanzamientos de la PS4 en su salida, aunque desafortunadamente no puedo dar el número exacto de títulos, será más fuerte que cualquier lanzamiento de hardware Playstation. Ese es un resultado de la familiaridad del hardware. Pero si la fraja de lanzamiento de tu juego es 2015, te conviene implementar la nueva forma de abordar el hardware, porque necesitarás usar estas customizaciones si quieres que tu juego brille tanto como los de otras compañías que lo estarán implementando.
Así que aunque lleva “semanas, no meses” el portear un engine desde PC a la PS4 de acuerdo con Cerny, más allá de esto, los desarrolladores específicos de juegos de consola podrán saborear y enarbolar las capacidades específicas de la PS4, customizar sus herramientas de desarrollo, y llevarse todos los beneficios.
Hay realmente muchas, muchas formas de controlar como los recursos dentro de la GPU están asingados entre GPU y compute. Por supuesto, lo que puedes hacer, y lo que la mayoría de los juegos de lanzamiento harán, es simplemente asignar todos los recursos a gráficos. Y esto es genial, está bien. Simplemente la visión que tenemos es que para la mitad de la vida de la consola, habrá muchas ventajas en ir asignando recursos a computación(para maximizar la GPU y sus tiempos muertos).
Este tio es un genio.
Falta la tercera y ultima parte.
EDITO: Tercera parte.
Liberando recursos, la PS4 y sus unidades dedicadas
Otra cosa que el equipo de la PS4 hizo para incrementar la flexibilidad de la consola es poner muchas de sus funciones básicas en unidades(chips) dedicadas en la placa….de esta manera, no tienes que gastar ningún recurso del sistema en manejar esas funciones.
“La razón por la cual usamos unidades dedicadas es porque así aseguramos que el overhead sobre la consola en lo que a correr juegos se refiere sea muy bajo. Asimismo, puede establecer una base estable sobre la que montar la experiencia del usuario.
“Por ejemplo, teniendo una unidad de hardware específico dedicada al audio, esto significa que podemos soportar audio chat sin que los juegos tengan que prescindir de ningún recurso reseñable para correrlo (en la APU). Lo mismo pasa con la compresión y descompresión de vídeo. La unidad de audio también permite la descompresión de un muy gran número de streams de MP3 para el sonido in-game, añadió Cerny.
En al conferencia de presentación del sistema en NY, Cerny habló sobre PlayGO, el sistema por el cual la consola descargará títulos digitales al tiempo que son jugados.
“El concepto es que tu descargas solo una pequeña porción de los datos totales y empiezas ya tu sesión de juego, y luego continuas tu sesión de juego mientras el resto se va descargando en segundo plano”, explicó a Gamasutra.
De todas formas, PlayGO es “dos sistemas separados unidos”, dijo Cerny. El otro tiene que ver con el lector de Blu Ray, y con el hecho de que es, esencialmente y pese a su incremento de velocidad, algo lento para juegos next gen.
Así que, lo que vamos a hacer es que según el juego acceda al Blu Ray, es que cogemos cualquier paquete de datos que haya sido leído y lo metemos directamente en el disco duro. Y cuando y si hay algún tiempo inactivo(muerto), seguimos adelante y copiamos todo el resto de los datos restantes al disco duro. Lo que eso significa e que despues de una hora o dos, el juego está en el disco duro y tienes total acceso, y desde entonces ya tienes tiempos de carga dramáticamente más rápidos….También tienes la posibilidad de hacer un streaming de auténtica alta velocidad.
Para ayudar aún más al Blu Ray en el proceso, el sistema también tiene una unidad de hardware para permitir la decompresión zlib- de esa manera los desarrolladores pueden confiadamente comprimir todos su juego y saber que el sistema lo descomprimirá al vuelo. Como mínimo, nuestra visión es que nuestros juegos estarán comprimidos en zlib en media (videos, FMV,etc)
Hay también otro chip customizado que pondrá el sistema en una configuración de bajo consumo (stand by) para descargas en segundo plano. “Para hacer que sea un hardware aún más ecológico, lo cual es muy importante para nosotros, tenemos la capacidad de apagar el consumo principal del sistema y tener activado solo ese chip custom secundario, a memoria del sistema y el I/O (input/output,)-disco duro y Ethernet. Esto permite descargas en segundo plano que ocurren en una configuración de bajísimo consumo. También nos da la habilidad de apagar todo excepto la alimentación de la RAM…esta es la manera por la cual vamos a ser capaces de dejar las sesiones de juego suspendidas en stand by con la consola apagada”.
Suena bien, pero…..cuellos de botella?
“Con los gráficos, el primer cuello de botella sobre el que probablemente toparás es el ancho de banda de la memoria. Dado que 10 o mas texturas por objeto serán standar en esta generación, es muy fácil caer en ese cuello de botella”, nos dijo. “Una buena parte de las fases del renderizado están asociadas a la memoria, y más allá de cambiar a texturización con un índice más bajo de bits por texel, no hay una gran cantidad de cosas que puedas hacer para evitarlo. Nuestra estrategia en esto fue simplmente asegurarnos que se iba a utilizar la memoria GDDR5 como la principal del sistema y por tanto tener un montón de bandwith.
Esto te ahorra uno de los potenciales cuellos de botella. “Si no tienes un cuello de botella por la memoria, es muy posible- si tienes gran densidad de poligonaje en tus objetos- que tengas un cuello de botella en vertices. Puedes intentar decir a tus artistas que usen triángulas más grandes, pero como sabemos por la práctica, es dificil conseguir eso. Es bastante común estar renderizando gráficos en los cuales la maor parte de lo que ves en la pantalla son triángulos que tienen apenas un pixel de tamaño. En cuyo caso, si, los cuellos de botella causados por los vértices (vertex) pueden ser importantes.
Hay una amplia variedad de técnicas que hemos desarrollado para reducir los cuellos de botella con vertex, en algunos casos son mejoras directas al hardware, pero la más interesante de todas es quizás el que puedas usar las instrucciones de computación como un frontend para tus gráficos.
Esta técnica, según nos dijo, es una mezcla de hardware, firmware embebido en la GPU, y tecnología de compilación. Lo que ocurre es que coges cada vertex shader, y lo compilas dos veces, una como un shader de computación, la otra como un shader de vértice. El shader de computación hace un análisis del triángulo- simplmente hace los cálculos de posicion del original vertex sahder para ver si el triangulo esta mirando hacia el lado opuesto, y cosas así. Y esto genera, en tiempo real, un número reducido de triangulos para que use el vertex shader. Estas funciones de computación shader y vertex shader están muy, muy estrechamente relacionadas con el hardware (y sus mejoras)
No es además una solución difícil de implementar, sugirió Cerny. Desde una perspectiva de un programador gráfico, usar esta técnica significa poner una especie de banderitas de complilador en los datos y usar en ellas un modo diferente de la APi gráfica. Este es el tipo de cosas que puedes intentar alguna tarde y ver como amplifica el rendimiento de tu código.
Estos procesos están ligados tan estrechamente, dijo Cerny, que todo lo que se requiere es un anillo de buffer para los indexados(índices)…del tamaño de rizitos de oro (muy pequeño). Suficientemente pequeño para entrar en la cache, y bastante grande para no salirse basándose en discrepancias entre la velocidad de proceso de shaders vertex y shader de computación”.
También prometió a Gamasutra que la compañía está trabajando en una versión de su herramienta de análisis de rendimiento, Razor, optimizada para la Playstation 4, así como un código de ejemplo distribuido a los desarrolladores. Cerny también querría distribuir código real: “si alguien ha escrito algo interesante y está dispuesto a poner la fuente, a hacerlo disponible para otros desarrolladores de Playstation, entonces es algo del más alto valor”.
Hay otra forma en la cual Cerny está trabajando lo que los desarrolladores necesitan del hardware.
Cuando me presenté a Sony originalmente con la idea de ser el arquitecto jefe del futuro sistema a finales del 2007, tenía la idea de que estaría relacionado sobre todo con el software pero haría algo de software de tiempo en tiempo”…”pero luego me ví muy ocupado con el hardware”.
Este alejamiento del software no duró. “Tuve finalmente una conversación con Akira Sato, quien fue jefe de Sony Computer Entertaintment por muchos años. Y me aconsejó fuertemente: “No abandones el software, porque tu valor será mucho mayor para el proceso, sea cual sea este- diseño de hardware, entorno de desarrollo, cadena de herramientas- si sigues manteniéndote haciendo juegos.
Este es el nacimiento de Knack, el juego de Cerny en Playstation 4, el cual desveló durante la presentación del sistema en Nueva York. Y es su vínculo a comprender los problemas prácticos de desarrollar en PS4 de una manera íntima y personal.
De un día de Acción de Gracias leyendo documentos técnicos a un difícil y duro proceso de ingeniería y finnalmente al desarrolo de una nueva y gran IP de lanzamiento para Sony, no se puede decir que Mark Cerny no sea un hombre ocupado, apasionado y dedicado a su trabajo.
“No he estado tan ocupado en los últimos 20 años. Pero está bien. Definitivamente, estoy MUY ocupado ahora mismo!!” dijo, ante las risas de la sala.
Y hasta aqui. Lo dicho. IMPRESIONANTE lo de este hombre y su equipo.
Tendremos un consolon que ni en nuestros sueños mas humedos.
Ahora solo falta que anuncien el dia de la presentacion del MAQUINON que deberia de ser a primeros de mayo.
Gracias de nuevo a Hector_Hall de Vandal por el curro de la traducción .
Saludos .
- Lo del requerimiento online según las editoras quieran es algo que muchas personas coherentes llevamos diciendo que ocurrirá tanto en PS4 como en Xbox, es algo que YA existe y sólo facilitaran su uso.
prepotente1 escribió:Cyborg_Ninja escribió:superfenix2020 escribió:que sea menos potente o no que la Ps4 aquí no es lo importante.
Al menos para mi.
los juegos multis se verán muy parejos en ambas consolas.
El problema es que no es que sea inferior a PS4, que dudo que lo sea, a mí por lo menos me gustaría que fuera algo más potente. No sé, que montara algo parecido a una 7870 como poco. Si las especificaciones técnicas de PS4 ya me parecen discretillas (que no se me malinterprete, es una máquina potente, pero yo esperaba algo más), que las de la nueva Xbox sean peores la verdad es que no es un buen panorama.
es que una HD7870 mejorada es lo que trae play4
es que todavia no te as enterado, si lo han dicho e varias entrevistas ya, revisa el hilo de play4 varias persona han traducido esas entrevistas y en uan de ellas ACLARAN al 100% que la gpu que trae es una HD7870 mejorada, en la ultima entrevista a marck c. explica algunas de esas mejoras en la apu y la gpu, solo hay que rebuscar e intentar informarse un poco
aqui tienes la ULTIMA entrevista traducida quoteada del hilo play4Aquí tenéis la traducción literal de la entrevista a Mark Cerny. Vaya monstruo el amigo.
Inside the PlayStation 4 With Mark Cerny
by Christian Nutt [Business/Marketing, Interview, Console/PC]
4 comments Share on Twitter Share on Facebook
RSS
Las cuestiones acerca del User Interface y Sistema Operativo estaban fuera de la mesa de conversación. De lo que se trataba es de discutir de qué es capaz el sistema, y el tipo de pensamiento que dirigió a Cerny y su equipo en la toma de deciones sobre componentes a usar y como debían funcionar entre ellos.
Para llegar al fondo de esta discusión profundamente técnica, Gamasutra estaba asistida por alguien con íntimo conocimiento de como funciona el hardware de una consola. Este era Mar de Loura, el que era dirigente de THQ en temas de tecnología y ahora consejero de medios digitales en la Officina de la CIencia y la Tecnología de la Casa Blanca.
Los Inicios
Para mi, todo empezó a finales del 2007. Habíamos estado haciendo estudios postmortems sobre la Playstation 3 y como había quedado su hardware ya en el mercado. Éramos un gran grupo de gente de varios departamentos de Sony Computer Entertaintment evaluando lo bueno y malo de su lanzamiento.
Eso llevó, naturalmente, a pensamientos sobre que habría que hacer a partir de entonces. Cavilando sobre la arquitectura del próximo sistema de Sony, Cerny invirtió todas sus vacaciones de navidad leyendo sobre la historia de la arquitectura x86., y se dio cuenta que no solo había evolucionado dramaticamente sobre los años, sino que para el tiempo en que fuese a ser lanzada la PS4, sería lo suficientemente potente para las necesidades de Sony.
Había evolucionado en algo que era ampliamente utilizable incluso para el tipo de programadores extremos que encontramos en el negocio de los videojuegos.
Dandose cuenta de lo apasionado que estaba por el proyecto de la Playstation 4, Cerny fue tras acción de Gracias a los entonces ejecutivos de Sony Phil Harrison y Masa Chatani y “preguntó si podría ser el que encabezara el esfuerzo de la nueva generación de consolas. Para mi gran sopresa, dijeron que si.
Más tarde, cuando le preguntamos si Sony consideraba el hecho de que muchos desarrolladores third party tendrían que crear versiones d elos juegos para la proxima Xbox, su respuesta fue que “cuando digo que nuestro objetivo era no crear puzzles para los desarrolladores, eso es como se hace en un mundo multiplataforma”.
Pero la facilidad de uso estaba lejos de ser el único objetivo de Cerny. Como un veterano con ya 31 años en la industria, sabía muy bien que el PC sigue avanzando mientras que la PS4 se quedaría congelada en el tiempo en su hardware.
“Al final, lo que estamos intentando es lograr un balance entre técnicas que podrás usar desde el primer día, y técnicas que permitirán al sistema evlucionar a lo largo de los años, tal como lo harán los juegos”, dijo Cerny. La “supercharged PC architecture” que el equipo ha logrado realizar, está diseñada para ofrecer significativas mejoras que el PC no puede, mientras que al tiempo ofrece un entorno familiar de desarrollo para los ingenieros de software.
Para diseñar la PS4, Cerny no se basó únicamente en investigación, o análisis postmortems sobre la Playstation 3. También pidió ser rodeado por equipos de desarrollo y habló con socios programadores de middelware para que le dijesen exactamente qué es lo que ellos querrían en una consola de nueva generación. El resultado?
Qué quiere decir Sobrecargado, de todas formas??
La arquitectura de la Playstation 4 parece muy familiar en un primer vistazo…..y lo es. Pero Cerny mantiene que el trabajo de customización de su equipo extiende este hardware muy por encima de sus capacidades básicas.
Por ejemplo, esto es lo que dice sobre su GPU: “Es una Ati Radeon. Hablar de números específicos probablemente no ayudará a clarificar la situación demasiado, excepto si decimos que cogimos su tecnología más reciente y realizamos un gran número de modificaciones sobre esta”.
Para comprender la PS4, tienes que coge rlo que era la visión original de Cerny (facil de usar, pero poderosa a largo plazo) y casarlo con lo que la compañía ha elegido para su arquitectura (familiar, pero inteligentemente modificada). A esto es a lo que se refieren con sobrecargado.
“Lo de sobrecargado, buena parte viene del uso de un solo pool de memoria unificado y de alta velocidad. La PS4 tiene 8GB de GDDR5 Ram que es fácilmente y de todo atribuible tanto a la CPU como a la GPU.
Si miras a un PC, decía Cerny, “incluso si tiene 8 Gigas de memoria en él, la CPU y la GPU pueden compartir solo alrededor de un 1% de esa memoria en un frame. Esto es simplmente un límite impuesto por la velocidad de los PCIe. Asi que, si, hay un beneficio sustancial en tener una arquitectura unificada en la PS4, y es un beneficio muy directo que podrás aprovechar desde el primer día que empieces a codificar con el sistema. El crecimiento del sistema en los años posteriores vendrá, sin embargo, de tener una GPU mejorada respecto a lo que existe en PC. Y supongo que esa conversación nos lleva a todo lo que hemos hecho para mejorarla.
La CPU y la GPU están ambas en un enorme custom chip, creado por AMD para Sony (la APU, vamos). Los ocho cores Jaguar, la GPU y un grna número de otras unidades están todas en este circuito. La memoria no está en el mismo chip, sin embargo. Vía un bus de 256 bits, se comunica con el pool unificado de memoria a 176 Gb por segundo.
Una cosa que podríamos haber hecho es bajar el bus a 128 bits, lo cual habría hecho caer el bandwith a 88 gigabytes por segundo, y entonces meterle memoria eDRAM al chip para volver a boostear el ancho de banda, dijo Cerny. Aunque esa solución inicialmente era apetecible para el equipo dado lo fácil de manufacturar, fue abandonada debido a la complejidad extra que añade para los desarrolladores. No queríamos crear un tipo de puzzle con el que la comunidad tuviese que chocar para crear sus juegos. Asi que nos mantuvimos firmes en la filosofía de la memoria unificada en un solo pool (y mantuvimos el bus en 256 bits).
De hecho, dijo Cerny, cuando consultó a los estudios de desarrollo preguntando que querían de la PS4, la petición mas generalizada que se recibió era que querían memoria unificada.
“Creo que se puede apreciar cual es nuestro compromiso con tener una arquitectura fácil de programar en el que podríamos haber hecho un hardware hasta con un terabyte de bandwith hacia una pequeña memoria RAm (eDRAM) pero preferimos no seguir esta estrategia. Esto lo demuestra todo”.
Falta una parte de la traducción. La pondré más adelante.
PD: Gracias al compañero Hector_Hall de Vandal por la traducción.
Saludos.
EDITO: Segunda parte .
Arquitectura familiar, asegurada para el futuro
Qué es lo que Cerny piensa que ganará la consola por esta arquitectura diferenciada? Longevidad
Cerny está convencido que en los próximos años, los desarrolladores querrán usar la GPU para algo más que para renderizar gráficos, y para eso cree que se ha logrado determinar una solución poderosa y flexible para ellos. “La vision es usar la GPU tanto para gráficos como para computar simultáneamente. “Nuestra creencia es que hacia la mitad del ciclo de la PS4, la computación asincrónica será una parte muy grande y fundamental de la tecnología de los juegos. Cerny prevee “una docena de programas corriendo simultáneamente en esa GPU”, usándola para “realizar cálculos físicos, calcular colisiones, hacer ray tracing para audio”. Pero esa visión creo un gran desafío. “Una vez que teníamos esta visión de computación asincrónica en medio del ciclo vital de la consola, la cuestión entonces se convertía en ……Como creamos un hardware que soporte esto?
Una barrera a esto en el entorno tradicional del hardware de PC, dijo, es la comunicación entre CPU, GPU, y la RAM. La arquitectura de la PS4 está expresamente designada para resolver este problema.
” La típica GPU del PC tiene dos buses”, dijo Cerny. “Uno de ellos es el que el GPU usa para acceder a la VRAM, y luego hay un segundo bus que va a trave´s del PCI Express que la GPU usa para acceder al la memoria del sistema. Pero uses el bus que uses, las caches internas d ela GPU e convierten en barreras muy significantes para la comunicación entre CPU y GPU. En cualquier momento que la GPU quiera leer la información que la CPU escribió, o que la GPU quiera escribir información para que la CPU la pueda ver, hay unos cuellos de botella consumidores de tiempo debido a los flujos con los que operan las memorias cache internas de esa GPU.
Realizando la visión: Cómo Sony modificó el hardware.
Las tres principales modificaciones que Sony hizo a la arquitectura para soportar su visión fueron las siguientes, en palabras de Cerny:
“Lo primero, añadimos otro bus a la GPU que permite que esta lea directamente desde la memoria sistema o escriba directamente a la memoria sistema, saltándose con un bypass sus propias caches L1 y L2. Como resultado, si los datos que están siendo pasados adelante y atrás entre CPU y GPU son pequeños, ya no tienes problemas con la sincronización entre ellos. Y con pequeños me refiero solo a pequeños en términos de nueva generacion. Podemos pasar alrededor de 20 Gb por segundo a través de ese bus. Eso no es “muy pequeño” en términos actuales…..es bastante más grande que el total del ancho de banda PCIe en la mayoría de los PCs!
Lo siguiente, para permitir el caso en el cual se quisiese usar la memoria cache L2 de la GPU simultáneamente para gráficos y computación asincrónica, hemos añadido un bit en las etiquetas de las líneas de código de la cache. Lo llamamos el bit “volátil”. Con este bit podemos selectivamente marcar todos los accesos de computación como “volátiles”, y cuando sea tiempo para esos procesos de computación de leer en la mmoria de sistema, puede invalidar, selectivamente, las lineas que usa en el L2.Cuando llega el momento de escribir de nuevo los resultados, puede reescribir selectivamente las líneas que usan este tag. Esta innovación permite a los procesos de computación de usar la memoria L2 de la gpu y realizar las operaciones requeridas sin impactar las opraciones gráficas que se estén realizando al mismo tiempo….en otras palabras, esto reduce radicalmente el overhead que supone correr gráficos y computación simultáneamente en la GPU”.
En tercer lugar, dijo Cerny, la arquitectura original GCN de AMD permitía una fuente de comandos gráficos, y dos fuentes de comandos de computación. Para la PS4 hemos trabajado con AMD para incrementar ese límite a 64 fuentes de comandos de computación….la idea es que si tienes algún tipo de computación asincrónica que quieras realizar, debes poner comandos en alguna de estas 64 colas, y entonces hay muchos niveles de arbitraje en el hardware para determinar qué corre, como lo corre, y cuando lo corre, al mismo tiempo que se sigue renderizando los gráficos en el sistema.
La razón de que tantas fuentes de trabajo computacional sean necesarias es que no son tan solo los sistemas del juego los que usarán compute—el middleware puede necesitar computación también. Y las peticiones del middleware sobre la GPU tendrán que ser propiamente mezcladas con peticiones del propio juego, y entonces finalmente propiamente priorizadas en relación con los gráficos en una base “momento a momento” (en tiempo real).
Este concepto nació de un software que Sony había creado, llamado SPURS, para ayudar a los programadores a lidiar con las tareas en los SPU del Cell, pero en la PS4 está hecho automáticamente por el hardware.
El equipo, para decirlo de alguna manera, tuvo que pensar con anticipación sobre los siguientes años. La franja de tiempo cuando tuvimos que ir diseñando estas innovaciones fue 2009, 2010….y la franja temporal cuando pensamos que la gente las va a usar realmente era 2015 quizás, o 2017, dijo Cerny.
Nuestro enfoque global fue introducir un gran número de controles sobre como mezclar gráficos y computación, y dejar a la comunidad de desarrolladores decidir cuáles prefieren usar cuando lleguen al punto en el que comienzen a estar familiarizados y desarrollando un montón de computación asincrónica.
Cerny espera que los desarrolladores puedan correr middleware-por ejemplo, físicas-en la GPU. Usando el sistema que ha descrito arriba, deberías ser capaz de correr el sistema continuamente a un pico de eficiencia (100% de eficiencia).
Si se hecha un vistazo a la parte de la GPU disponible para computar durante un frame, puede variar dramáticamente de instante a instante. Por ejemplo, algo como renderizar un mapa de sombras opacas no usa ni un pixel shader, está hecho enteramente por los vertex shaders y el hardware de rasterización- así que los gráficos no estarán usando la gran mayoría de los 1.84 Teraflops de ALU disponibles en las CU. Son estos momentos en los que durante ese frame en concreto, tienes una oportunidad de decir…”Okay, todas esas operaciones de computación que querías hacer, sube el dial al 11 ahora mismo”.
Suena genial…..pero como gestionas hacer eso? Hay unos controles muy simples donde desde el punto de vista de los gráficos, desde el buffer de comandos gráficos, puedes ajustar arriba o abajo la computación”, dijo Cerny. “La cuestión se convierte, viendo cada pasada de renderizado y la carga que ponga en cada una de las unidades de la GPU, cuanta cantidad y estilo de computación podría ser corrida eficientmente durante esa pasada?”.
Lanzamiento y más allá
Los beneficios de este poderoso hardware serán vistos en los juegos de lanzamiento de la PS4. Pero Cerny mantiene que, en el futuro, brillarán totalmente de formas totalmente distintas.
“La parrilla de lanzamientos de la PS4 en su salida, aunque desafortunadamente no puedo dar el número exacto de títulos, será más fuerte que cualquier lanzamiento de hardware Playstation. Ese es un resultado de la familiaridad del hardware. Pero si la fraja de lanzamiento de tu juego es 2015, te conviene implementar la nueva forma de abordar el hardware, porque necesitarás usar estas customizaciones si quieres que tu juego brille tanto como los de otras compañías que lo estarán implementando.
Así que aunque lleva “semanas, no meses” el portear un engine desde PC a la PS4 de acuerdo con Cerny, más allá de esto, los desarrolladores específicos de juegos de consola podrán saborear y enarbolar las capacidades específicas de la PS4, customizar sus herramientas de desarrollo, y llevarse todos los beneficios.
Hay realmente muchas, muchas formas de controlar como los recursos dentro de la GPU están asingados entre GPU y compute. Por supuesto, lo que puedes hacer, y lo que la mayoría de los juegos de lanzamiento harán, es simplemente asignar todos los recursos a gráficos. Y esto es genial, está bien. Simplemente la visión que tenemos es que para la mitad de la vida de la consola, habrá muchas ventajas en ir asignando recursos a computación(para maximizar la GPU y sus tiempos muertos).
Este tio es un genio.
Falta la tercera y ultima parte.
EDITO: Tercera parte.
Liberando recursos, la PS4 y sus unidades dedicadas
Otra cosa que el equipo de la PS4 hizo para incrementar la flexibilidad de la consola es poner muchas de sus funciones básicas en unidades(chips) dedicadas en la placa….de esta manera, no tienes que gastar ningún recurso del sistema en manejar esas funciones.
“La razón por la cual usamos unidades dedicadas es porque así aseguramos que el overhead sobre la consola en lo que a correr juegos se refiere sea muy bajo. Asimismo, puede establecer una base estable sobre la que montar la experiencia del usuario.
“Por ejemplo, teniendo una unidad de hardware específico dedicada al audio, esto significa que podemos soportar audio chat sin que los juegos tengan que prescindir de ningún recurso reseñable para correrlo (en la APU). Lo mismo pasa con la compresión y descompresión de vídeo. La unidad de audio también permite la descompresión de un muy gran número de streams de MP3 para el sonido in-game, añadió Cerny.
En al conferencia de presentación del sistema en NY, Cerny habló sobre PlayGO, el sistema por el cual la consola descargará títulos digitales al tiempo que son jugados.
“El concepto es que tu descargas solo una pequeña porción de los datos totales y empiezas ya tu sesión de juego, y luego continuas tu sesión de juego mientras el resto se va descargando en segundo plano”, explicó a Gamasutra.
De todas formas, PlayGO es “dos sistemas separados unidos”, dijo Cerny. El otro tiene que ver con el lector de Blu Ray, y con el hecho de que es, esencialmente y pese a su incremento de velocidad, algo lento para juegos next gen.
Así que, lo que vamos a hacer es que según el juego acceda al Blu Ray, es que cogemos cualquier paquete de datos que haya sido leído y lo metemos directamente en el disco duro. Y cuando y si hay algún tiempo inactivo(muerto), seguimos adelante y copiamos todo el resto de los datos restantes al disco duro. Lo que eso significa e que despues de una hora o dos, el juego está en el disco duro y tienes total acceso, y desde entonces ya tienes tiempos de carga dramáticamente más rápidos….También tienes la posibilidad de hacer un streaming de auténtica alta velocidad.
Para ayudar aún más al Blu Ray en el proceso, el sistema también tiene una unidad de hardware para permitir la decompresión zlib- de esa manera los desarrolladores pueden confiadamente comprimir todos su juego y saber que el sistema lo descomprimirá al vuelo. Como mínimo, nuestra visión es que nuestros juegos estarán comprimidos en zlib en media (videos, FMV,etc)
Hay también otro chip customizado que pondrá el sistema en una configuración de bajo consumo (stand by) para descargas en segundo plano. “Para hacer que sea un hardware aún más ecológico, lo cual es muy importante para nosotros, tenemos la capacidad de apagar el consumo principal del sistema y tener activado solo ese chip custom secundario, a memoria del sistema y el I/O (input/output,)-disco duro y Ethernet. Esto permite descargas en segundo plano que ocurren en una configuración de bajísimo consumo. También nos da la habilidad de apagar todo excepto la alimentación de la RAM…esta es la manera por la cual vamos a ser capaces de dejar las sesiones de juego suspendidas en stand by con la consola apagada”.
Suena bien, pero…..cuellos de botella?
“Con los gráficos, el primer cuello de botella sobre el que probablemente toparás es el ancho de banda de la memoria. Dado que 10 o mas texturas por objeto serán standar en esta generación, es muy fácil caer en ese cuello de botella”, nos dijo. “Una buena parte de las fases del renderizado están asociadas a la memoria, y más allá de cambiar a texturización con un índice más bajo de bits por texel, no hay una gran cantidad de cosas que puedas hacer para evitarlo. Nuestra estrategia en esto fue simplmente asegurarnos que se iba a utilizar la memoria GDDR5 como la principal del sistema y por tanto tener un montón de bandwith.
Esto te ahorra uno de los potenciales cuellos de botella. “Si no tienes un cuello de botella por la memoria, es muy posible- si tienes gran densidad de poligonaje en tus objetos- que tengas un cuello de botella en vertices. Puedes intentar decir a tus artistas que usen triángulas más grandes, pero como sabemos por la práctica, es dificil conseguir eso. Es bastante común estar renderizando gráficos en los cuales la maor parte de lo que ves en la pantalla son triángulos que tienen apenas un pixel de tamaño. En cuyo caso, si, los cuellos de botella causados por los vértices (vertex) pueden ser importantes.
Hay una amplia variedad de técnicas que hemos desarrollado para reducir los cuellos de botella con vertex, en algunos casos son mejoras directas al hardware, pero la más interesante de todas es quizás el que puedas usar las instrucciones de computación como un frontend para tus gráficos.
Esta técnica, según nos dijo, es una mezcla de hardware, firmware embebido en la GPU, y tecnología de compilación. Lo que ocurre es que coges cada vertex shader, y lo compilas dos veces, una como un shader de computación, la otra como un shader de vértice. El shader de computación hace un análisis del triángulo- simplmente hace los cálculos de posicion del original vertex sahder para ver si el triangulo esta mirando hacia el lado opuesto, y cosas así. Y esto genera, en tiempo real, un número reducido de triangulos para que use el vertex shader. Estas funciones de computación shader y vertex shader están muy, muy estrechamente relacionadas con el hardware (y sus mejoras)
No es además una solución difícil de implementar, sugirió Cerny. Desde una perspectiva de un programador gráfico, usar esta técnica significa poner una especie de banderitas de complilador en los datos y usar en ellas un modo diferente de la APi gráfica. Este es el tipo de cosas que puedes intentar alguna tarde y ver como amplifica el rendimiento de tu código.
Estos procesos están ligados tan estrechamente, dijo Cerny, que todo lo que se requiere es un anillo de buffer para los indexados(índices)…del tamaño de rizitos de oro (muy pequeño). Suficientemente pequeño para entrar en la cache, y bastante grande para no salirse basándose en discrepancias entre la velocidad de proceso de shaders vertex y shader de computación”.
También prometió a Gamasutra que la compañía está trabajando en una versión de su herramienta de análisis de rendimiento, Razor, optimizada para la Playstation 4, así como un código de ejemplo distribuido a los desarrolladores. Cerny también querría distribuir código real: “si alguien ha escrito algo interesante y está dispuesto a poner la fuente, a hacerlo disponible para otros desarrolladores de Playstation, entonces es algo del más alto valor”.
Hay otra forma en la cual Cerny está trabajando lo que los desarrolladores necesitan del hardware.
Cuando me presenté a Sony originalmente con la idea de ser el arquitecto jefe del futuro sistema a finales del 2007, tenía la idea de que estaría relacionado sobre todo con el software pero haría algo de software de tiempo en tiempo”…”pero luego me ví muy ocupado con el hardware”.
Este alejamiento del software no duró. “Tuve finalmente una conversación con Akira Sato, quien fue jefe de Sony Computer Entertaintment por muchos años. Y me aconsejó fuertemente: “No abandones el software, porque tu valor será mucho mayor para el proceso, sea cual sea este- diseño de hardware, entorno de desarrollo, cadena de herramientas- si sigues manteniéndote haciendo juegos.
Este es el nacimiento de Knack, el juego de Cerny en Playstation 4, el cual desveló durante la presentación del sistema en Nueva York. Y es su vínculo a comprender los problemas prácticos de desarrollar en PS4 de una manera íntima y personal.
De un día de Acción de Gracias leyendo documentos técnicos a un difícil y duro proceso de ingeniería y finnalmente al desarrolo de una nueva y gran IP de lanzamiento para Sony, no se puede decir que Mark Cerny no sea un hombre ocupado, apasionado y dedicado a su trabajo.
“No he estado tan ocupado en los últimos 20 años. Pero está bien. Definitivamente, estoy MUY ocupado ahora mismo!!” dijo, ante las risas de la sala.
Y hasta aqui. Lo dicho. IMPRESIONANTE lo de este hombre y su equipo.
Tendremos un consolon que ni en nuestros sueños mas humedos.
Ahora solo falta que anuncien el dia de la presentacion del MAQUINON que deberia de ser a primeros de mayo.
Gracias de nuevo a Hector_Hall de Vandal por el curro de la traducción .
Saludos .
y sobre el tema de que microsoft no gana nada imponiendo la conexcion permanente, NO digo que la tenga, eso no es asi, SI GANA, antipirateria!
espero que sea muyy bueno lo que nos tiene microsoft el 21 por su biren, y por el nuestro
-7870: 2,56 Tflops/ 1000 MHz
-Orbis: 1,84 TFlops/ 800 MHz
-7850: 1,76 TFlops/ 860 MHz
Stream Processors:
-7870: 1280
-Orbis: 1152 con 18 CUs (con 4 CUs "balanceados" segun Vgleaks).
-7850: 1024
Cyborg_Ninja escribió:Mi fuerte no es el hardware, pero la GPU de PS4 no llega a una 7870.-7870: 2,56 Tflops/ 1000 MHz
-Orbis: 1,84 TFlops/ 800 MHz
-7850: 1,76 TFlops/ 860 MHz
Es más, creo que la GPU de Orbis tiene 4 CU "no del todo activos":Stream Processors:
-7870: 1280
-Orbis: 1152 con 18 CUs (con 4 CUs "balanceados" segun Vgleaks).
-7850: 1024
Otra cosa es que en un sistema cerrado, sin un SO pesado, pues seguramente rinda bastante más. Por numeros la GPU de Durango es una 7770 con más ancho de banda y dos CUs mas, algo más potente y con el mismo numero de Tflops (1,2). Sinceramente espero que monte como mínimo algo similar a PS4, me cuesta pensar en que el próximo Call of Duty de turno se verá mejor en PS4 que en Durango. Esperemos que las especificaciones realmente sean antiguas o si no que la arquitectura de Durango sea realmente más eficiente que la de PS4.
Cyborg_Ninja escribió:Mi fuerte no es el hardware, pero la GPU de PS4 no llega a una 7870.-7870: 2,56 Tflops/ 1000 MHz
-Orbis: 1,84 TFlops/ 800 MHz
-7850: 1,76 TFlops/ 860 MHz
Es más, creo que la GPU de Orbis tiene 4 CU "no del todo activos":Stream Processors:
-7870: 1280
-Orbis: 1152 con 18 CUs (con 4 CUs "balanceados" segun Vgleaks).
-7850: 1024
Otra cosa es que en un sistema cerrado, sin un SO pesado, pues seguramente rinda bastante más. Por numeros la GPU de Durango es una 7770 con más ancho de banda y dos CUs mas, algo más potente y con el mismo numero de Tflops (1,2). Sinceramente espero que monte como mínimo algo similar a PS4, me cuesta pensar en que el próximo Call of Duty de turno se verá mejor en PS4 que en Durango. Esperemos que las especificaciones realmente sean antiguas o si no que la arquitectura de Durango sea realmente más eficiente que la de PS4.
juan19 escribió:
por muy eficiente que sea , si las specs de durango son ciertas , hay demasiada diferencia de potencia entre ambas.
por muy eficiente que sea , si las specs de durango son ciertas , hay demasiada diferencia de potencia entre ambas.
, porque si no todos los multis se veran y moveran mejor en play4 y eso PODRIA DOLER mucho entre la comunicadad xboxres
la hd7870 de la play4 va DENTRO de la CPU, play4 usa una APU cpu+gpu, como usan los portatiles, pero en los portatiles usan GPu especiales para portatiles, en este caso han cogido la gpu hd7870 BRUTA y la han metido en la APU, han quitado unos CU para gestion y han bajado mhz por calor NADA MAS
prepotente1 escribió:Cyborg_Ninja escribió:El problema es que no es que sea inferior a PS4, que dudo que lo sea, a mí por lo menos me gustaría que fuera algo más potente. No sé, que montara algo parecido a una 7870 como poco. Si las especificaciones técnicas de PS4 ya me parecen discretillas (que no se me malinterprete, es una máquina potente, pero yo esperaba algo más), que las de la nueva Xbox sean peores la verdad es que no es un buen panorama.
es que una HD7870 mejorada es lo que trae play4
es que todavia no te as enterado, si lo han dicho e varias entrevistas ya, revisa el hilo de play4 varias persona han traducido esas entrevistas y en uan de ellas ACLARAN al 100% que la gpu que trae es una HD7870 mejorada, en la ultima entrevista a marck c. explica algunas de esas mejoras en la apu y la gpu, solo hay que rebuscar e intentar informarse un poco
prepotente1 escribió:- Lo del requerimiento online según las editoras quieran es algo que muchas personas coherentes llevamos diciendo que ocurrirá tanto en PS4 como en Xbox, es algo que YA existe y sólo facilitaran su uso.
corrijo
- en play4 no ocurre ya confirmado
- y eso no es FACILITAR, res se llama, IMPONER su uso
si quiero ir con los cogelas como hacemos cada mes a garaje de un colega , en su casa de campo que NO tiene internet, hacer nuestras partir, NO me porida llevar la xbox, como hacemos ahora algunos colegas
y mas gtne podria poner sus casos
que microsoft COPIE a sony que NO va a IMPONER estar conectado y yata, si una casa de juegos decide que SU jeugo si lo esta por la razon que sea, es ESE JUEGO y no la consola en si
la facilidad de usar intenet siempre esta SOLO hay que CON UNA MANO CONECTAR UN CABLE ETHERNET y YATA! y pagar el internet, si eso feura asi, SERIA OBLIGATORIO PAGAR INTERNET para jugar!, que esa es otra
no creo que lo traiga , ya lanzaron el GLOBO soda a ver como reaccionaba la gente con aquellas declaracione sy con las filtraciones y han visto que la getne nolo quiere, y la play4 no lo tiene asi que casi seguro que microsoft copie a sony y xbox8 no lo traiga
Cyborg_Ninja escribió:Mi fuerte no es el hardware, pero la GPU de PS4 no llega a una 7870.-7870: 2,56 Tflops/ 1000 MHz
-Orbis: 1,84 TFlops/ 800 MHz
-7850: 1,76 TFlops/ 860 MHz
Es más, creo que la GPU de Orbis tiene 4 CU "no del todo activos":Stream Processors:
-7870: 1280
-Orbis: 1152 con 18 CUs (con 4 CUs "balanceados" segun Vgleaks).
-7850: 1024
Otra cosa es que en un sistema cerrado, sin un SO pesado, pues seguramente rinda bastante más. Por numeros la GPU de Durango es una 7770 con más ancho de banda y dos CUs mas, algo más potente y con el mismo numero de Tflops (1,2). Sinceramente espero que monte como mínimo algo similar a PS4, me cuesta pensar en que el próximo Call of Duty de turno se verá mejor en PS4 que en Durango. Esperemos que las especificaciones realmente sean antiguas o si no que la arquitectura de Durango sea realmente más eficiente que la de PS4.