Hablemos del interior de Xbox One

Por encimilla trata de computacion en la nube y parece que metodos de compresion de informacion... Eso me ha parecido leer... Pero no soy un experto traductor.
No se, hoy no es mi mejor dia para leer y asimilar cosas muy tecnicas.

¿No esta hablando de chips programables?
Creo que habla de que la ley de Moore ya está de muerte, es decir que llegará un punto en que no se pueda seguir avanzando de la manera en que dice la Ley de Moore, pero Microsoft ha descubierto la manera de hacerlo y que con su metodo han conseguido aumentar el rendimiento de sus centros de datos hasta en un 95% y esto solo aumentó el gasto energético en un 10%, una autentica pasada si esto es cierto.
Aún queda por ver si esto es por donde irá Xbox One con directx12 y la nube, creo que dx12 sí mejorará mucho el rendimiento de XO, pero la auntentica revolución puede ser el Cloud Computing (la nube), Crackdown puede ser una buena muestra de lo que puede ser el futuro tecnologico de los videojuegos.

Saludos.

P.D.: Soy nuevo como usuario, aunque hace mucho que sigo el foro y me apasionan los debates tecnicos que os montais en este hilo.
vihuquinpa escribió:P.D.: Soy nuevo como usuario, aunque hace mucho que sigo el foro y me apasionan los debates tecnicos que os montais en este hilo.


Welcome Brother.
yo soy como tu, como no tengo ni papa, entro leo,me hago mis ilusiones y salgo sin decir nada :)
ShadowWish escribió:
vihuquinpa escribió:P.D.: Soy nuevo como usuario, aunque hace mucho que sigo el foro y me apasionan los debates tecnicos que os montais en este hilo.


Sisisi jajajaja, lo mismo hacia yo, hasta que hoy me atreví a abrir una cuenta.

Saludos.

Welcome Brother.
yo soy como tu, como no tengo ni papa, entro leo,me hago mis ilusiones y salgo sin decir nada :)
Nada que no se publica nada de la ISCA. que le vamos a hacer.
http://www.theregister.co.uk/2014/06/16 ... ult_fpgas/

Microsoft 'Catapults' Into The Future...

Microsoft has found a way to massively increase the compute capabilities of its data centers, despite the fact that Moore's Law is wheezing towards its inevitable demiseUnder new chief executive Satya Nadella, Microsoft is throwing billions of dollars at massive data centers in its attempt to become a cloud-first company.

Part of that effort – and that investment – is to figure out a way to jump-start consistent data-center compute-performance boosts.The solution that Microsoft Research has come up with is to pair field-programmable gate arrays with typical x86 processors, then let some data-center services such as the Bing search engine offload certain well-understood operations to the arrays.To say that the performance improvements in this approach have been noticeable would be a gross understatement.



Microsoft tells us that a test deployment on 1,632 servers was able to increase query throughput by 95 per cent, while only increasing power consumption by 10 per cent.
Eso lo han conseguido haciendo offload de tareas en coprocesadores (fpga). Pues XBOX ONE tiene 15 coprocesadores y para mi q era a eso a lo q se referian cuando hablaban de hacer offload a la nube local.
papatuelo escribió:Eso lo han conseguido haciendo offload de tareas en coprocesadores (fpga). Pues XBOX ONE tiene 15 coprocesadores y para mi q era a eso a lo q se referian cuando hablaban de hacer offload a la nube local.


Ahora comprendo, con razón!
xjhoan escribió:
papatuelo escribió:Eso lo han conseguido haciendo offload de tareas en coprocesadores (fpga). Pues XBOX ONE tiene 15 coprocesadores y para mi q era a eso a lo q se referian cuando hablaban de hacer offload a la nube local.


Ahora comprendo, con razón!


Cuidado que es solo una opinión personal, en ningún momento han dicho que esto tenga que ver con XBOX ONE.
No, es que es muy natural descargar a base de coprocesadores. Se ha hecho desde el inicio de los tiempos solo que se abandonó no se sabe muy bien por qué, seguramente para ahorrar costes, y ahora la idea es retomarlo.

Tenemos claros ejemplos, las consolas y recreativas usaban coprocesadores específicos y el PC no, por eso tirando de CPU para todo pues en ciertas tareas se notaba mucho. Más reciente está la inclusión de coprocesador de sonido en PC (las aceleradoras de sonido) que luego se suprimieron, para descontento de muchos.

No tengo muy claro el por qué se abandonó la idea de la delegación en coprocesadores especializados, pero es que de cara a la eficiencia y etc. es lo mejor de toda la vida. En servidores usan FPGA porque no sabes lo que vas a necesitar, por eso necesitas uno reprogramable en sus funciones, aunque su coste sea mucho mayor, no vas a racanear en algo como un servidor.
Inside the XB1. AMD and MS developer day analysis. 3rd wave games will use more Esram properly.

http://www.redgamingtech.com/inside-xbo ... al-part-1/


--------------------------------

Plus:

To Sum it up,wattage,SIMD Processing, Audio block as hint, Insider said 0.45 clock, all inline

Imagen

Creo que no está puesto, perdon si no lo he visto.
Esto parece sacado de mixtermedia, es asi?
Dicen que este proyecto catapulta es:

"These FPGAs are forty times faster than a CPU at processing Bing's custom algorithms, for example."

"So how does it work? Well, the system takes search queries from Bing and off loads the query to the FPGAs, which are custom programmed for the heavy computational work."

“The Catapult architecture is really much more general-purpose, and the kinds of workloads that Doug [Doug Burger, who is heading up Project Catapult] is envisioning that can be dramatically accelerated by this are much more wide-ranging.”


Por otro lado se habla de una configuración de memorias 8 gigas DDR3 y 32 megas sRam. La DDR3 va dispuesta en dos bancos que pueden trabajar conjuntamente o a la vez pero cada uno por su cuenta. Supongo que de esa forma se podran sumar ancho de banda, pero eso no sé si sería una borriqueria. Desde luego la CPU de XBOX ONE son dos cluster, si en la ONE la ram estuviera dispuesta de la misma forma, ¿Podría cada banco alimentar un cluster sumando así anchos de banda? Creo que esto no sería una locura teniendo en cuenta como DirectX optimiza el multihilo repartiendo de forma más eficiente el trabajo.
En otras palabras, coprocesadores que hacen Bing por hardware, en lugar de por software. O sea coprocesadores de función específica. Si es que ha sido más rápido de toda la vida.
Nuhar escribió:Esto parece sacado de mixtermedia, es asi?


Se nota, ¿verdad? :)
Que tienen que ver los servidores customizados para bing con la consola? XD

Google, facebook, amazon tambien tienen hardware customizado para sus servidores pero no veo que los mezclemos con los nexus, occulus, kindles respectivamente.

Porque aqui si? Me tiene asombrado el asunto xD
Zokormazo escribió:Que tienen que ver los servidores customizados para bing con la consola? XD

Google, facebook, amazon tambien tienen hardware customizado para sus servidores pero no veo que los mezclemos con los nexus, occulus, kindles respectivamente.

Porque aqui si? Me tiene asombrado el asunto xD


Todo eso se ha presentado en una jornada que se iniciaba con una Keynote: Una mirada a la tecnología de XBOX ONE en la que el invitado era el propio Doug Burger.

Doug Burger dice que ese es así en Bing, pero que tiene muchas otras aplicaciones. Desde luego no podemos negar que XBOX ONE tiene 15 coprocesadores para hacer offload de calculos, no es tán dificil suponer que el principio es el mismo.

Lo único que han hecho es mostrar que pueden utilizar coprocesadores para realizar tareas específicas de una manera más eficiente y liberar así la CPU de los calculos más pesados. Como ya sabemos XBOX ONE tiene 15 coprocesadores, así que puede aplicar el mismo principio.
En fin, sigo opinando que siguen/seguis mezclando mil historias distintas sin concretar nada, aparte de que nos estan vendiendo la invencion de la rueda. Porque el uso de coprocesadores para offload hace eones que se usa en informatica.

Que es un 80387? Un coprocesador matematico para offloads del 386
Que es una GPU? un coprocesador para offloads
Que es altivec en un ppc? Un coprocesador vectorial para offloads

Le han buscado una nueva aplicacion a nivel de servidores de bing, ok perfecto. Xbox one tiene coprocesadores para offloads. Ok perfecto. Mi 386 tambien tiene uno.
Zokormazo escribió:En fin, sigo opinando que siguen/seguis mezclando mil historias distintas sin concretar nada, aparte de que nos estan vendiendo la invencion de la rueda. Porque el uso de coprocesadores para offload hace eones que se usa en informatica.

Que es un 80387? Un coprocesador matematico para offloads del 386
Que es una GPU? un coprocesador para offloads
Que es altivec en un ppc? Un coprocesador vectorial para offloads

Le han buscado una nueva aplicacion a nivel de servidores de bing, ok perfecto. Xbox one tiene coprocesadores para offloads. Ok perfecto. Mi 386 tambien tiene uno.


hostia, aun te funciona el 386?
Nuhar escribió:hostia, aun te funciona el 386?


No creo, esta tirau en el garage xD
Has mezclado un poco coprocesadores con coprocesadores. Los hay más cercanos a software y más a hardware.

Al usar FPGA el objetivo es crear un coprocesador hardware, lo que significa que llega una entrada y con una serie de parámetros te saca un resultado a través de unidades cableadas y todo directo en cuanto es posible. Tampoco voy a entrar en detalles ahora de carga de registros, operaciones, y demás.

No sé si se entiende.

Cuanto más cercano a hardware, más cerrado de función pero más eficiente para ésta.
altivec, una gpu y 387, las tres son coprocesadores por hardware. Como es eso de coprocesador por software? Y eso de mezclar coprocesadores con coprocesadores? Ahi ya me he perdido xD

Yo no niego que hayan podido hacer mejoras en este aspecto. Pero el uso de coprocesadores per se no es tan revolucionario como lo pintan.

Pero bueno, todo esto venia porque no entendia a que venian las mejoras en los servidores de bing con la consola, pero ya me ha explicado papatuelo que es microsoft misma la que mezcla todo xD

EDIT: lo revolucionario en todo caso seria el uso de coprocesadores reprogramables (como si reprogramaramos la microcode?) y hacer uso de un coprocesador generico para procesamientos especificos.
Zokormazo escribió:altivec, una gpu y 387, las tres son coprocesadores por hardware. Como es eso de coprocesador por software? Y eso de mezclar coprocesadores con coprocesadores? Ahi ya me he perdido xD

Yo no niego que hayan podido hacer mejoras en este aspecto. Pero el uso de coprocesadores per se no es tan revolucionario como lo pintan.

Pero bueno, todo esto venia porque no entendia a que venian las mejoras en los servidores de bing con la consola, pero ya me ha explicado papatuelo que es microsoft misma la que mezcla todo xD

EDIT: lo revolucionario en todo caso seria el uso de coprocesadores reprogramables (como si reprogramaramos la microcode?) y hacer uso de un coprocesador generico para procesamientos especificos.


¿No t parece revolucionario la inclusión de una GPU(en su momento)?

Igual es momento de introducir nuevos elementos y no más de lo mismo. ¿Mas mhz? Eso esta pasado de moda.
No será revolucionario, pero si usandolo han mejorado la eficiencia en Bing en un 95% será que funciona sea la idea nueva o reutilizada.

De la misma forma no es un recurso habitual en las arquitecturas actuales de las que estamos hablando.
No sera un recurso habitual en algunas tareas que comunmente han sido de cpu, porque el uso de coprocesadores per se si es muy habitual.

DMA? Coprocesador
387? Coprocesador
GPU? Coprocesador
SCSI? Coprocesador
emu10k1? Coprocesador
Altivec, SSE y MMX? coprocesadores dentro de la cpu
Los chips de criptografia por hardware? Coprocesador.
Los de encodeo de video? Coprocesador.
ZOKOMARZO una te van a decir que llevas razón y vas a llevar la contra diciendo que no la llevas.
Por el amor de Dios, le sacas punta a todo!!!

Alguna configuración de videoconsola actual monta los 15 coprocesadores que monta XBOX ONE? Y no em digas que si lleva coprocesadores porque lleva una GPU o MMX en el procesador.

NO, verdad?

Pues eso es de lo que estamos hablando no de si dentro de una CPU hay coprocesadores o no. Estamos hablando de añadir otros, no los que habitualmente encontramos en una arquitectura normal.

Hablamos de tener una CPU una GPU y hacer offload de tareas a otros procesadores que se encarguen de tareas especificas que habitualmente se hacen en la propia CPU y GPU, no hablamos de si un controlador de memoria es un coprocesador.
Una preguntilla. Si todo lo dicho sobre la memoria ram de las FPGA se haya extrapolado al diseño de la Xbox One...


Imagen

Since the FPGA resides in
I/O space, the board needed working memory to accommodate
certain services. We chose to add local DRAM, as SRAM
QDR arrays were too expensive to achieve sufficient capacity.
8 GB of DRAM was sufficient to map the services we had
planned, and fit within our power and cost envelopes.
Figure 1 shows a logical diagram of the FPGA board along
with a picture of the manufactured board and the server it
installs into [20]. We chose a high-end Altera Stratix V D5
FPGA [3], which has considerable reconfigurable logic,
onchip memory blocks, and DSP units. The 8 GB of DRAM
consists of two dual-rank DDR3-1600 SO-DIMMs, which can
operate at DDR3-1333 speeds with the full 8 GB capacity, or
trade capacity for additional bandwidth by running as 4 GB
single-rank DIMMs at DDR3-1600 speeds. The PCIe and
inter-FPGA network traces are routed to a mezzanine connector on
the bottom of the daughtercard, which plugs directly
into a socket on the motherboard. Other components on the
board include a programmable oscillator and 32 MB of Quad
SPI flash to hold FPGA configurations. Because of the limited
physical size of the board and the number of signals that must
be routed, we used a 16-layer board design. Our target applications
would benefit from increased memory bandwidth, but
there was insufficient physical space to add additional DRAM
channels. We chose to use DIMMs with ECC to add resilience
as DRAM failures are commonplace at datacenter scales


Imagen
Imagen

Eso podria significar que la xbox one es capaz de trabajar a quad channel simultaneamente y desdoblarse bajando la frecuencia?? Tanto la esram como la ddr3, al parecer son quad channel
- ddr3 -> 4x64bit=256bit - esram ->4x256bit=1024bit

Desdobladas harian?
DDR3 8x64bit=512bit
ESRAM 8x64bit=2048bit
Claro que no hay mas consolas con 15 coprocesadores para hacer offloads. Y me parece muy bien.

Ahora bien, empezais a hablar de ello y terminais casi asegurando que es una primicia el uso de coprocesadores, una revolucion de microsoft, cuando se usan casi desde el comienzo de la informatica, solo quiero que eso quede claro. Ni microsoft ha inventado los coprocesadores ni su uso en arquitecturas ni la juana es el primer dispositivo en tener coprocesadores. El uso de coprocesadores es algo muy habitual en tareas especificas.

Lo que no seria tan habitual seria tener 15 FPGAs e ir reprogramandolas in situ segun el workflow que tengamos, que dicho sea de paso, tampoco ocurre en los papers de bing que han enseñado, donde tienen unas pools de FPGAs que se programan con el algoritmo de bing de tanto en tanto. Eso si seria una aplicacion mas revolucionaria (aunque le veo su problematica a ese caso tambien, por ejemplo con el DSP, que siempre sera DSP y por lo tanto esos FPGAs no estaran reprogramandose)

Pero el uso de coprocesadores, per se, no es nada del otro mundo.
Pero que nadie dice que sea algo extraordinario, inigualable, irrepetible y nunca visto.

Pero el que le puso unas ruedas a una mochila se forro y no quiere decir que las ruedas no existieran y tampoco quiere decir que no fueran tremendamente utilies.

Los coprocesadores exisitían y existen, pero ahora los han empleado de una manera determinada con una filosofía determinada y a una labor determinada obteniendo un un incremento en la eficiencia del 95%, ¿le resta valor a esto que los coprocesadores ya existieran?

Igualmente te digo que nadie afirma con el 100% de seguridad que ese trabajo se haya utilizado dentro de la xbox one.

Por cierto Zookomarzo, tu que sabes de estas cosas, ¿te has molestado en leer el PDF?
Zokormazo escribió:altivec, una gpu y 387, las tres son coprocesadores por hardware. Como es eso de coprocesador por software? Y eso de mezclar coprocesadores con coprocesadores? Ahi ya me he perdido xD

Yo no niego que hayan podido hacer mejoras en este aspecto. Pero el uso de coprocesadores per se no es tan revolucionario como lo pintan.

Pero bueno, todo esto venia porque no entendia a que venian las mejoras en los servidores de bing con la consola, pero ya me ha explicado papatuelo que es microsoft misma la que mezcla todo xD

EDIT: lo revolucionario en todo caso seria el uso de coprocesadores reprogramables (como si reprogramaramos la microcode?) y hacer uso de un coprocesador generico para procesamientos especificos.

Pues no es tan difícil.

Tú puedes tener un coprocesador como la FPU, con algunas unidades que ejecutan por hardware operaciones en punto flotante. Pero para ejecutar algo necesitas: cargar dato en registro, cargar dato en registro, cargar operación en la unidad de control microprogramada (que es más versátil pero más lenta, http://es.wikipedia.org/wiki/Unidad_de_control), mover datos entre sus ALUs...compara eso por ejemplo con una mini-FPU que sólo hiciera sumas en punto flotante, sería poner los 2 datos a sumar, y del tirón te sacaría el resultado.

En sonido, antes se ponía un generador de sonido acompañado de un Z80, eso es un coprocesador, sin embargo el Z80 puede hacer muchas otras cosas, pero para la tarea única de controlar el sonido es menos eficiente que lo que se ha hecho después, que son dedicados a sonido exclusivamente, pero que no puede hacer otras cosas que el Z80 sí puede.

Te lo resumo, un coprocesador para hacer lo mismo puede necesitar más o menos ciclos respecto a otro, cuanto más global (cercano a software) menos eficiente y viceversa. Así cuanto más cerrado y específico, más directo podrá ser todo porque habrá muchas cosas que podrás obviarlas y "cablear" en lugar de tener que ejecutar toda la parafernalia que tiene que hacer, por ejemplo, una FPU integrada en una CPU, que al fin y al cabo tiene que ejecutar todos los pasos solo que a la hora de hacer la operación te la hace en menos tiempo por tener el hardware para dicha operación.
@darksch: si estamos hablando de FPGAs precisamente estamos hablando de coprocesadores no especificos, programados especificamente para una tarea. Es lo que los define, que son programables. Y coprocesadores eficientes y que liberan muchisimo a la cpu las tenemos hace mil. El sistema SCSI por ejemplo, tan eficiente que los discos y el controlador "hablan" entre ellos sin carga en la cpu.

@papatuelo: He leido en diagonal, no he tenido tiempo de leermelo entero. Pero por lo que entendi (probablemente se me paso algo) lo que hacen es usar arrays de FPGAS preprogramados con su propia pool de memoria para ejecutar querys sobre el algoritmo de bing (lo que esta programado en los FPGAs), consiguiendo una mejora sustancial en rendimiento sobre la ejecucion de ese mismo algoritmo sobre la cpu.
Zokormazo escribió:@darksch: si estamos hablando de FPGAs precisamente estamos hablando de coprocesadores no especificos, programados especificamente para una tarea. Es lo que los define, que son programables. Y coprocesadores eficientes y que liberan muchisimo a la cpu las tenemos hace mil. El sistema SCSI por ejemplo, tan eficiente que los discos y el controlador "hablan" entre ellos sin carga en la cpu.

Norrr, sabía que se confundiría. Un FPGA es digamos una especia de componente hardware GLOBAL, preparado para CREAR cualquier hardware. Por eso la cantidad de puertas lógicas y componentes es extremadamente superior a lo que se necesitaría para lo mismo una vez fabricado. Se usa de hecho para crear las CPUs en laboratorio antes de empezar a fabricarlo. Sin embargo pues por eso mismo hace falta mucho más para configurar un hardware muy inferior en coste.

Por eso en XO no hay FPGA de seguro. En servidores es otra cosa, no racanean en algo tan importante y además eso les permite que si cambian algo o descubren que quieren crear otro coprocesador distinto, pues basta con reprogramar la FPGA, sin tener que ir servidor a servidor abriéndolo para cambiárselo.

Por poner ejemplo, FPGA que pueda comprarse uno apenas da para programar equipos de 8 y 16 bit. Es algo que se viene usando para "rescatar" viejos hardwares.
http://www.msxinfo.net/2013/03/18/altera-d1-arrived/
Coste de la Altera DE1, 125$
http://www.altera.com/education/univ/materials/boards/de1/unv-de1-board.html
Soy en único que en esa presentación del hardware ve que pone que es una maquina de 5,2 teraflods? Si es así menudo maquinon que es la xone.
salocin21 escribió:Soy en único que en esa presentación del hardware ve que pone que es una maquina de 5,2 teraflods? Si es así menudo maquinon que es la xone.

¿Donde pone eso?
hadock0 escribió:Inside the XB1. AMD and MS developer day analysis. 3rd wave games will use more Esram properly.

http://www.redgamingtech.com/inside-xbo ... al-part-1/


--------------------------------

Plus:

To Sum it up,wattage,SIMD Processing, Audio block as hint, Insider said 0.45 clock, all inline

http://goo.gl/lCb6oc

Creo que no está puesto, perdon si no lo he visto.


En este pantallazo no? O yo no estoy entendiendo lo de 5200 gigaflods
Eso no es información oficial. Así que no te fíes, puede ser fruto de una heroica ingesta de vodka.
:) ja ja ja se supone que sale directamente de la presentacion de AMD de ayer, por eso le había dado relevancia.
Que va, eso es de MisterXmedia.

De lo de ayer solo ha trascendido en tema de los FPGA
@dark: pero si no hablamos de los FPGA, que pinta todo el tocho que habla sobre ellas en servidores de bing en relacion a la xbox one? XD La analogia solo seria en estructura de coprocesadores, pero con procesadores especificos en vez de reprogramables?

En ese caso, no es mejor el caso de pools especificas y conexiones especificas como base que la analogia de la arquitectura de esos arrays de FPGAs de los servidores?
Zokormazo escribió:[...]
Lo que no seria tan habitual seria tener 15 FPGAs e ir reprogramandolas in situ segun el workflow que tengamos[...]


Es que eso es lo que tienen:
CHiMPS: A C-level compilation flow for hybrid CPU-FPGA architectures

Imagen
Imagen
Imagen
Habemus o no habemus FPGA?
Zokormazo escribió:Habemus o no habemus FPGA?


todo parece apuntar a que HABEMUS FPGA, pero oficial no hay nada.

tomar siempre con una pizca de sal...
darksch escribió:Por eso en XO no hay FPGA de seguro.


f5inet escribió:todo parece apuntar a que HABEMUS FPGA, pero oficial no hay nada.

tomar siempre con una pizca de sal...


Bueno, cuando llegueis a una conclusion me avisais. Porque respondo a uno sobre FPGAs y como va a ser eso si de eso no hay, a la siguiente supongo que no las hay y me dice el otro que como va a ser si esta casi claro que hay FPGAs xD

Asi que...
Zokormazo escribió:
darksch escribió:Por eso en XO no hay FPGA de seguro.


f5inet escribió:todo parece apuntar a que HABEMUS FPGA, pero oficial no hay nada.

tomar siempre con una pizca de sal...


Bueno, cuando llegueis a una conclusion me avisais. Porque respondo a uno sobre FPGAs y como va a ser eso si de eso no hay, a la siguiente supongo que no las hay y me dice el otro que como va a ser si esta casi claro que hay FPGAs xD

Asi que...


no te preocupes, que te aviso por MP cuando sepamos algo, puedes despreocuparte de este hilo [hallow]
f5inet escribió:
Zokormazo escribió:[...]
Lo que no seria tan habitual seria tener 15 FPGAs e ir reprogramandolas in situ segun el workflow que tengamos[...]


Es que eso es lo que tienen:
CHiMPS: A C-level compilation flow for hybrid CPU-FPGA architectures

Imagen
Imagen
Imagen



http://ulf.wiger.net/fp_seminar/singh_declarative_for_manycore.pdf

Andando!!!

Mirad Future Works.
papatuelo escribió:
f5inet escribió:
Zokormazo escribió:[...]
Lo que no seria tan habitual seria tener 15 FPGAs e ir reprogramandolas in situ segun el workflow que tengamos[...]


Es que eso es lo que tienen:
CHiMPS: A C-level compilation flow for hybrid CPU-FPGA architectures

Imagen
Imagen
Imagen



http://ulf.wiger.net/fp_seminar/singh_declarative_for_manycore.pdf

Andando!!!

Mirad Future Works.

Traducir que estoy harto de estudiar, y ya soy viejo.
Un paper que habla de programacion paralela aplicable a FPGAs, GPUs, CPUs, vamos, cualquier cosa paralelizable de esa manera: un code para muchos datos.

Porcierto, que usan una ATI 9600 y la referencia mas moderna es del 2006.

A donde quieres llegar con eso papatuelo? xD
Solo es el PDF de la imagen que puso F5inet.

Yo no quiero llegar a ningna parte.
Ah vale XD

Pos ese paper habla de paralelizacion en futuras arquitecturas (alla por el 2007 como mucho) de una manera tan generica que se puede aplicar a las actuales GPUs, FPGAs, incluso a CELL si nos ponemos xD
17587 respuestas