› Foros › Multiplataforma › General
Sony Cell CPU to deliver two teraflops in 64-core config
By Tony Smith
Posted: 05/11/2003 at 12:10 GMT
'Cell', the massively parallel processing chip currently being designed by Sony and IBM, will scale from single-chip systems through to entire server rooms packed with thousands of them, Sony's executive deputy president Ken Kutaragi told attendees of the company's Transformation 60 conference yesterday.
That's always been the goal, of course, since Cell was first announced back in March 2001. But yesterday Kutaragi put some numbers onto the chart.
A four-core chip home server system will be able to deliver one billion floating-point operations per second, apparently. Move up to a 32-core chip - in, say, a blade server module - and you'd get 32 gigaflops of processing power, while a 64-core slab of silicon inside a rack-mount unit doing graphics work would churn out two teraflops, according to Kutaragi's presentation foils.
Ultimately, Kutaragi suggested, we'll see 16 teraflop supercomputer 'cabinets' and one petaflop (a million billion flops, in other words) server rooms - the latter delivering enough raw power for true AI systems, he said.
Kutaragi likened a single Cell chip to IBM's 32-node RS/6000-based chess supercomputer Deep Blue. The exponential scaling rate suggests Cell really doesn't come into its own until you use lots of them together.
That's certainly the design philosophy: "With built-in broadband connectivity, microprocessors that currently exist as individual islands will be more closely linked, making a network of systems act more as one, unified 'supersystem'. Just as biological cells in the body unite to form complete physical systems, Cell-based electronic products of all types will form the building blocks of larger systems," was how Kutaragi described the Cell concept back in 2001.
Since it takes 2200 PowerPC 970 chips - aka the G5 - to yield just over ten teraflops - much the same as you get from 2000 Athlon 64s - getting similar performance out of just 64 Cell cores is impressive, if Sony and co. can deliver.
Right now, they're just a little way past half way through the five-year Cell research project, so they have a few more years yet to demonstrate the device in action. We'd expect the successors to today's chips to have got a little closer to those kinds of figures by 2006, but not that close.
Others are not so far behind. ClearSpeed's recently announced CS301 chip, for example, can deliver 25 gigaflops peak, the company claims. The CS301 is a 64-way parallel processing co-processor designed to work alongside an x86 or other general purpose CPU. The downside is that it's expected to cost over $16,000 per chip. We suspect Sony and IBM are aiming for something a little more mass-market. ®
Escrito originalmente por ourumov
Sí, precisamente hoy lo hablaba con un amigo en la clase de cine ante las atentas miradas de la gente de letras...Les interesaba mucho creo... ¬¬'
Ayer un tío que ha currado en el desarrollo de CELL estaba dando un ruedo de preguntas en unos foros.
Al preguntarle yo a cuando correrá cada APU, me contestó que de momento 32 GFLOPS.
Teniendo en cuenta que se dice que la PS3 usará 8 APUS esto nos da un total de 256 FLOPS.
Esto hace que todo cuadre y que el chip que ARM y NEC tienen a punto a 64 GFLOP ya no sea tan mierda en comparación al de PS3, que tenía que alcanzar el TERAFLOP.
A small company like ClearSpeed ( the technology they used and the volume they can make those chips at [very low] explains the current price per chip ) is able to do 12.5 GFLOPS per Watt which means that with 80 Watts they could achieve 1 TFLOPS.
I expect IBM, Toshiba and SCE to do better than that.
PlayStation 2 had an over-all Power Consumption of 79 Watts already, when it came out.
Escrito originalmente por ourumov
Y Joyas, realmente crees que los resultados de PS2 son horribles ???
Escrito originalmente por Joyas
Me refiero a los multiplataforma no a la consola en sí, aunque eso es más culpa de la vaguería de los programadores que de la consola.
Creo recordar que la GC da en CPU 12GIGAflops totales, ya q tiene integrada la "Fixed T&L" si no me equivoco
Xbox mismo mueve 3GIGAflops en CPU con las SSE y MMy demás "pendejadas").
q el GeForce 4 de Xbox (el solito) se clava casi 100GIGAFlops/seg
Sumale los 10GIGAFlops del MCPX
Si a los juegos de PS2 le metemos algún efecto "tipo" de GC o Xbox se caga en las bragas, seamos francos.
Solo hay q ver el PES 3, en la PS2 parece q va justito, y la demo de PC, va a toda leche a 4 veces más de resolución en un equipo "medio"...
Escrito originalmente por ourumov
Estoy hablando de CPUS en función normal, es decir para cualquier cosa menos T&L. Aunque de todos es sabido que el Gekko puede ayudar al Flipper con su capacidad que es exactamente en SIMD de:
485Mhz*4fpi por ciclo=1.940 GFLOPS.
Que no le sirven para nada ya que no puede crear vertices el Celeron de la "equixbos".
Pero de todas formas es muy meritorio, ya que como bien dices de T&L se encarga la XGPU.
733*4fpi por ciclo( 8 flops por 2 ciclos ( alternando 4 FMUL y 4 FMADD ))=2.923GFLOP
Escrito originalmente por ourumov
Creo que son 80...
Que yo sepa el MCPX da 4GOPS...
Escrito originalmente por ourumov
Lo mismo puede decir la PS2 cuando usa partículas a piñón...Alguien dijo Tanker del MGS2:S ???
Escrito originalmente por ourumov
Cuando salió PS2 ?¿ Y que entiendes por equipo medio ?
Escrito originalmente por ourumov
A ver, cada máquina tiene sus puntos fuertes, pero no me negarás que ha habido equipos de programación que han sacado un fantástico rendimiento de PS2 y que aún hoy sigue dando guerra con títulos com SH3, MGS3, Jak 2 o el inminente Ratchet & Clank 2.
Escrito originalmente por shadow land
Me estas diciendo q MGS 2 se ralentiza en el "tanket" en PS2? por que si lo dices por xbox (si, se ralentiza, y el juego esta tan mal echo, que hasta varian la velocidad de reloj de eventos :S), el engine esta portado por algún novato que te cagas, por que no es normal... aunque viendo la versión PC, q en el 95% de PC's del mundo con ATi, no funcionaba correctamente mostrando solo 256 colores y burradas por el estilo... cualquier cosa.
Por cierto, que le ves de espectacular a MGS 3? por que yo no le veo nada que no haya visto ya en MGS 2... y mgs 2 gráficamente, no me parece NADA del otro jueves, una excelente dirección artística que oculta muchisimas cosas a ojos inexpertos, pero nada más... lo mismo con SH3 o JAK 2...
Joder, no me entero de nada
La verdad es que desde que se hizo público el TFLOP de PS3 he sido (muy) escéptico al respecto (casi 200 veces la capacidad de PS2, cuando en un salto generacional se dobla o triplica la potencia normalmente... again). Pero esto... es un tema misterioso y oscuro, del que puede salir cualquier cosa (puede que lleguen al TFLOP o puede que se coman los mocos con un Cell de "gama baja"). Creo que ni en Sony saben por dónde les da el aire, y estan viviendo una incertidumbre, ya que, hasta que no sepan el alcance REAL de la tecnología CELL en una máquina de sus características (potencia, precio, consumo, escalabilidad...) no sabrán qué va a ser PS3.
Escrito originalmente por Zhul
PS2 se merienda a cualquier otro sistema a la hora de mover partículas, de ahí que MGS2 sufra ralentizaciones en Xbox, porque se nota que no se ha adaptado absolutamente NADA a su hard específico, y esa cantidad de partículas "pesa" (máxime sin optimizaciones y portando el código a saco) en Xbox.
Escrito originalmente por Zhul
MGS3 no lo veo nada espectacular, normalillo si acaso.
En cambio hay detalles en SH3 ó Jak2 que sí me parecen loables (teniendo en cuenta la máquina sobre la que corren).
Sí, claro que no van a tener un mísero efecto, porque PS2 no se puede permitir hacer bump-mapping o multitextura por soft, porque no se puede hacer hoy en día por soft una cosa que "debería" hacerse por hard sin menguar mucho la cantidad de recursos asignados al resto del juego.
Y aunque PS3 haga estos efectos por soft y sin despeinarse, seguirá siendo una aproximación equivocada.
Escrito originalmente por Zhul
Y sobre lo que ha posteado shadow (PS3 a 1GFLOP)... pues me he quedado así .
La verdad es que desde que se hizo público el TFLOP de PS3 he sido (muy) escéptico al respecto (casi 200 veces la capacidad de PS2, cuando en un salto generacional se dobla o triplica la potencia normalmente... again). Pero esto... es un tema misterioso y oscuro, del que puede salir cualquier cosa (puede que lleguen al TFLOP o puede que se coman los mocos con un Cell de "gama baja"). Creo que ni en Sony saben por dónde les da el aire, y estan viviendo una incertidumbre, ya que, hasta que no sepan el alcance REAL de la tecnología CELL en una máquina de sus características (potencia, precio, consumo, escalabilidad...) no sabrán qué va a ser PS3.
Escrito originalmente por ourumov
Se ha dicho que PS3 tendrá 8 APUs en el EE3 , pero el GS es todo un misterio. Si añade 8 APUS más entonces tendremos 512 GFLOPs.
Con esto quiero decir que Sony suelta las cosas con cuentagotas y puede que al final tengamos más de una sorpresa. Ya sea una GPU/GS no del todo inútil o unas APUs que dan más de 32 GFLOPs cada una.
Escrito originalmente por shadow land
en particulas, si las hiciesemos bien (DirectX 8 en particulas por hard va "bien", aunque es mejor mandarlas a la cpu si no me equivoco)... pero nada que haga ps2, no pueden hacerlo cualquiera de las otras dos maquinas...
lo vuelvo a decir, son juegos meritorios para tener que hacerlo TODO via software, pero es lo que digo y repito... es todo dirección artística, es como Gran Turismo, si en vez de un equipo con tropocientos artistas gráficos, lo hiciera DMA Design, sería gráficamente feo, pero el mismo juego... y bueno, solo hay que ver el GTA en Xbox y en PS2, va un mundo, y sigue siendo, "casi" la misma mierda... y en PS2 estaba "optimizado..." en xbox solo lo han portado bien, sin tirar cohetes tampoco... PS2 no tiene merito, tienen merito los programadores y equipos de arte q estan dejandose los cuernos gracias a una mala R&D de hardware en Sony...
Según comenta Ourumov, y por lo que he ido leyendo más en beyond3d, un "chip cell" consta de varios "nucleos"... si extrapolamos el proyecto "big-blue" (o como se llame para macroservidores de IBM basado en cell), 32 nucleos crean un chip, dando 32 gigaflops de potencia... y ps2 tiene "8 chips", lo cual da, 32*8=256GigaFlops, q no es moco de pavo para una CPU... pero habra que ver de lo que es capaz gráficamente respecto a las R500 de MS y al custom de Nintendo... por que seguramente sea eso más o menos lo que se meriende en potencia una GPU dentro de dos añitos... aunque por la senda que vamos, importan más las operaciones por segundo via "shaders", q el resto... pero bueno, DirectX 10 serán "cpuses gráficas"... ya veremos en que queda todo esto, pero si PS3 se queda en 256GIGAFlops... creo que vamos a estar ma o meno como en esta generación, pero sin tanta diferencia total... amos, q estaremos mas igualados...
De todas formas, no somos los unicos que pensamos que "aquí falta algo".
Escrito originalmente por ourumov
De hecho esta vez de quien depende Sony es otra vez de Toshiba...
Todavía nos quedarían 3 APU's
Escrito originalmente por ourumov
La gracia está en la cache que tiene cada APU cosa que a su vez acelerará más las cosas.
Es sabido que cuando la migración de datos entre RAM y cache es poca, el rendimiento se dispara. De ahí a que por ejemplo el P4 Extreme tubiera esa cantidad de caché.
Respecto lo que dices de distribución transparente de tareas esto es lo que pensaba (Compilador inteligente, JIT compiler o distribución automática)...Pues bien, Fafalada (el desarrollador del Axel Impact) no lo ve tan claro y sigue pensando que se tendrán que mojar y bajar hasta los mismos infiernos para hacer esta distribución eficiente.
Escrito originalmente por ourumov
Te quedan 27.
Escrito originalmente por colecconsolas
Me voy al Badulaque, con Hommer a ver a APU .
Si logran ser capaces de acceder a la misma memoria diferentes apu's, haceros a la idea, que tendrían 8 APU's con 32GIGAFlops independientes que podrían ser dedicados a:
1er APU: Gráficos 3D. Calculo, posicion y movimiento/anim/deformacion
2º APU: Sonido 3D 7.1 con recreación de superficies y demás.
3er APU: Físicas
4º APU: IA
5º APU: Rutinas estandar de cualquier videojuego
Todavía nos quedarían 3 APU's para cualquier cosa, como colisiones, aumentar de forma paralela la capacidad de calculo de alguna de las otras, y despues, el GS, que si sony solo tiene medio dedo de frente, hará una GPU medianamente programable, quizas no tanto como las de nintendo y MS, pero si lo suficiente para hacer las tareas más dolorosas solo mediante GPU, y dejar a la CPU hacer el resto de tareas gráficas, que es por anda según parece las ganas de Sony.
Escrito originalmente por shadow land
todos los equipos de desarrollo podrían realizar todas las tareas en paralelo mediante hilos separados pero a la vez sincronizados entre si mediante llamadas al SO y timmmings (algo así pero en cutre, lo realice yo en clase de programación avanzada en el ciclo formátivo. Matener distintos programas en sincronizado bajo linux, para obtener al final un unico resultado).
Escrito originalmente por colecconsolas
Shadow TU como siempre igula...
Escrito originalmente por Zhul
Mmm... como dice ourumov, no lo veo tan sencillo, sencillamente porque si distribuyes tareas en paralelo te puedes crear unos cuellos de botella muy gordos, si, por ejemplo, un juego tira mucho más de física que de, digamos, IA, pasarían dos cosas: o bien se infrautiliza el APU de la IA, o bien se produce un cuello de botella en el APU de la física.
Supongo que la cosa irá mediante organizadores y distribuidores internos, bien mediante compiladores o de forma interna (el propio sistema va distribuyendo el trabajo como mejor le conviene). En cualquier caso estoy convencido de que más de uno va a perder la cordura ante la tarea de crear distribuidores eficientes en un entorno con 32 APU's.
Escrito originalmente por Zhul
No es una mala aproximación, pero tiene inconvenientes.
De hecho, el primer juego que hice fue un matamarcianos, en el que cada elemento del juego (cada enenigo, disparo, item, cada gráfico del scroll... todo) se ejecutaba de forma independiente y paralela (cada una en un hilo). Y claro, está el problema de la sincronización, porque no todos los elementos requieren la misma cantidad de proceso... en fin... errores de novato .
Supongo que eso, para el programador final de PS3, será transparente y se distribuirá, preveo, desde dentro, porque de lo contrario, la capacidad total de la máquina no sería la suma de las capacidades de sus componentes, sino que dependería mucho de cada caso. [/B]