Un superordenador japonés consigue simular la mayor red neuronal

Copio y pego la noticia:

*Aunque la red creada es enorme, con 10.400.000.000.000 de sinapsis, sólo representa el 1% de la red neuronal del cerebro

Imagen

Usando todo el poder de cálculo del superordenador japonés K, un grupo de investigadores ha logrado la mayor simulación de una red neuronal conseguida hasta ahora. El proceso duró 40 minutos y consiguió simular un segundo de la actividad de una red biológica. Aunque la red simulada era enorme, sólo representa el 1 por ciento de la red neuronal del cerebro.

Los investigadores lograron simular una red consistente en 1.730.000.000 células nerviosas conectadas mediante 10.400.000.000.000 de sinapsis. Para llevar a cabo esta hazaña, el programa NEST utilizó 82.944 procesadores de la supercomputadora K. El proceso duró 40 minutos y completó la simulación de 1 segundo de actividad en una red neuronal biológica. La relevancia de utilizar un programa como NEST estriba en que se trata de un software de simulación de código abierto disponible gratuitamente para todos los científicos del mundo.

Aunque la red simulada es enorme, apenas representa el 1% de la red neuronal de un cerebro. Esto es así porque las células nerviosas se conectan al azar y, además, la simulación no pretendía proporcionar nuevos conocimientos sobre el cerebro en sí, sino poner a prueba los límites de la tecnología de simulación desarrollada por NEST y las capacidades de K. Durante el ensayo los investigadores reunieron una valiosa experiencia que les ayudará en la programación de nuevo software de simulación. Sin embargo, este logro ha proporcionado a los neurocientíficos una idea muy aproximada de lo que será posible hacer en el futuro, con la nueva generación de ordenadores, los llamados exa-escala.

«Si los equipos PETA escala, como el K, son capaces de representar ya el 1% de la red neuronal completa de un cerebro humano, entonces sabemos que la simulación de todo el cerebro a nivel de células nerviosas individuales y sus sinapsis será posible con los ordenadores exa-escala, que esperemos estén disponibles en la próxima década», explica Markus Diesmann, director de la investigación en colaboración con Abigail Morrison, ambos del Instituto de Neurociencia y Medicina de Jülich, Alemania.

Memoria de 24 bytes
La simulación de una red neuronal grande, y la de un proceso como el aprendizaje, requiere de inmensas cantidades de memoria informática. Las sinapsis, las estructuras de interconectividad entre dos neuronas, se modifican constantemente por la interacción neuronal, y los simuladores deben tener en cuenta estas modificaciones. Pero más importante que el número de neuronas en la red simulada es el hecho de que, durante la simulación, cada sinapsis entre las neuronas excitadoras requirió 24 bytes de memoria. Esto permitió al equipo conseguir una descripción matemática exacta de la red. En total, el simulador coordinó el uso de alrededor de un petabyte de la memoria principal de K que, para hacerse una idea, equivale a la suma de la memoria de unos 250.000 PCs.

Kenji Doya, del Instituto de Tecnología de Okinawa, que actualmente lidera un proyecto que pretende esclarecer el control neuronal y el mecanismo de la enfermedad de Parkinson, afirma que «estos experimentos abren el camino para simulaciones combinadas entre el cerebro y el sistema músculo-esquelético utilizando el equipo K. Además, se demuestra que la neurociencia puede hacer pleno uso de los superordenadores peta-escala que existen actualmente».

El logro obtenido por el supercomputador K en combinación con el software NEST ofrece una nueva tecnología para la investigación del cerebro en Japón, y es una noticia muy alentadora para el Proyecto Cerebro Humano (HBP) de la Unión Europea, que está previsto que comience el próximo mes de octubre y que utilizará como supercomputadora central la que está instalada en el Forschungszentrum de Jülich. Los investigadores en Japón y Alemania tienen previsto continuar con su exitosa colaboración en la próxima era de los ordenadores exa-escala.



Usando NEST (software de simulación de estructuras de datos), el equipo dirigido por Markus Diesmann en colaboración con Abigail Morrison (Instituto de Neurociencia y Medicina de Jülich) simularon exitosamente una red de 1.730 millones de células nerviosas conectadas por 10.4 billones de sinapsis. Para conseguirlo, el programa utilizó 82.944 procesadores [...] El proceso duró 40 minutos, el equivalente a 1 segundo de actividad neuronal en tiempo biológico real.


Fuente: http://www.meneame.net/story/simulacion-red-neuronal-artificial-mas-grande-hasta-fecha-eng

http://www.abc.es/ciencia/20130806/abci-mayor-neuronal-201308051959.html

Molaria que con todo estos avances se pudiera crear un robot con la inteligencia humana aunque falta mucho para que lo veamos.
Interesante...que complejo construir una red neuronal externa... y otros que la tienen para hacer bonito...que mal repartido esta el mundo...


Todo lo que van a necesitar tiene que evolucionar a la par sino sera inviable... necesitan almacenar grandes cantidades de datos y gestionarlos, eso significa mejorar los algoritmos.
Umhh, superordenadores simulando un cerebro en la proxima decada. Entonces dale otra decada mas o dos y seguramente sea posible tenerlo en tamaño PC :D.

PD: quiero congelarme como Fry para ver el futuro xD
que guapo, espero morirme y poder guardar mi imformacion cerebral en uno de esos
24 bytes de memoria??? WTF
yoijin escribió:24 bytes de memoria??? WTF




Cada sinapsis.

¿Que querías, que se pasaran un mkv a 1080p entre las neuronas? [+risas]
Datos del PC:
Arquitectura Sparc64 Fujitsu de ocho núcleos
Nº procesadores 68.544
Rendimiento 10 petaFLOPS1
Sistema operativo Linux
TOP500
Actual 3
Mejor 1
Listas 2 (Jun 2011)

Casi como el mío
Estos ordenadores rularán la nueva generación a tope?
Si en clase de IA ya nos conformábamos con emular 5 células... estos japos como siempre lo llevan todo a otro nivel [+risas]
Yo creo que decir que en 10 años emulan el cerebro humano al completo es ser exageradamente optimistas, la informática avanza rápido pero en 10 años ni de coña puede hacer que pasen del 1% al 100% que se den con un canto en los dientes si pasan del 1% al 15% (y ya estoy siendo optimista yo) [+risas]
mola.

I robot, esta más cerca.

(ahora falta q fabriquen una motoko kusanagi para q lleve ese supercerebro, pues podrían superar la capacidad humana normal)

gracias por la noticia.
Con un buen presupuesto lo que podría llegar a hacerse. Pero eso en muchos países no interesa, como el nuestro. Es mucho dinero a largo plazo.

Me quedo fascinado con países como Japón & cia que saben ver cuales son las prioridades (equipos para predicción de terremotos, tsunamis, etc...).

Aquí nuestro MareNostrum agonizaba hace unos años y que si no es por IBM y la UPC solo serviría para el museo hoy en día.
Molaria que con todo estos avances se pudiera crear un robot con la inteligencia humana aunque falta mucho para que lo veamos.


Estaría genial poder cambiar nuestros cerebros por superordenadores. Podríamos tener un puerto USB para cargar en nuestra memoria los apuntes y no tener que estudiar xD
Masterlukz escribió:
Molaria que con todo estos avances se pudiera crear un robot con la inteligencia humana aunque falta mucho para que lo veamos.


Estaría genial poder cambiar nuestros cerebros por superordenadores. Podríamos tener un puerto USB para cargar en nuestra memoria los apuntes y no tener que estudiar xD


Para que luego se te corrompa o te formatees en una noche de borrachera. [carcajad]

Bueno, siempre he pensado que a lo mejor algún día llegaremos a poder almacenar cosas a lo Johnny Mnemonic.

[fumando]
Si lo que se pretende en un futuro es simular un cerebro humano, será gastarse miles de millones en algo que se dedicará a buscar vídeos de gatos y porno.
jarna3 escribió:Si lo que se pretende en un futuro es simular un cerebro humano, será gastarse miles de millones en algo que se dedicará a buscar vídeos de gatos y porno.


Se trata de simular el funcionamiento, no de como piensan los usuarios en general.

Gatitossss!!! [fumando]
otro problema de esos cerebros es q podrian hackearse. lo primero es q fuera posible curar enfermedades degenerativas del cerebro o anular la parte q este dañada y sustituirla por esto, no se como un chip.
jarna3 escribió:Si lo que se pretende en un futuro es simular un cerebro humano, será gastarse miles de millones en algo que se dedicará a buscar vídeos de gatos y porno.


simplemente épico xD.
dark-kei escribió:Si en clase de IA ya nos conformábamos con emular 5 células... estos japos como siempre lo llevan todo a otro nivel [+risas]
Yo creo que decir que en 10 años emulan el cerebro humano al completo es ser exageradamente optimistas, la informática avanza rápido pero en 10 años ni de coña puede hacer que pasen del 1% al 100% que se den con un canto en los dientes si pasan del 1% al 15% (y ya estoy siendo optimista yo) [+risas]

Igual meto la pata pero... si hay un objetivo, igual se concentran en conseguirlo y se hace avanzar más rápido. No sé. Molaría.

Por otra parte, a ver si alguien me puede ayudar a entenderlo:

Hay reproducido un segundo de funcionamiento de una red neuronal que representa el 1% de un cerebro ¿sí? Y esto lo han hecho en 40 minutos. ¿Sí?

Entonces ¿por qué no simular durante 3 horas y tener unos segundos más? (igual es una pregunta tonta, pero ya que estamos, tengo curiosidad).
Pink Agustín está baneado por "Crearse un clon para saltarse un baneo"
¿No dice la ley de Moore que la potencia de los ordenadores (si, no tengo ni papa de informática XD) se multiplica por 2 cada año? A mi me salen 14 añitos para llegar a más del 100% XD
oscx7 está baneado del subforo por "Troll"
Esta claro que lo que puede benificar a las personas tambien puede hacerles dano



Masterlukz escribió:Estaría genial poder cambiar nuestros cerebros por superordenadores. Podríamos tener un puerto USB para cargar en nuestra memoria los apuntes y no tener que estudiar xD


Que no cuenten conmigo ni de broma, ni loca


Pink Agustín escribió:¿No dice la ley de Moore que la potencia de los ordenadores (si, no tengo ni papa de informática XD) se multiplica por 2 cada año? A mi me salen 14 añitos para llegar a más del 100% XD



El problema no es la potencia, hoy dia podrian ser mucho mas pontentes, el problema no es la potencia, el problema es la refrigeracion


Por cierto, la potencia no sirve de nada si no sabes usarlo, mantenerlo, y cosas asi XD , a esto no se le puede poner el GoW, windows y toda la basura restante
VozdeLosMuertos escribió:Entonces ¿por qué no simular durante 3 horas y tener unos segundos más? (igual es una pregunta tonta, pero ya que estamos, tengo curiosidad).


Quiza carecia de interes el tiempo, a lo mejor con medio segundo les habia bastado (no deja de ser una prueba de concepto).

Y si, la ley de Moore hace años que se esta saturando por la potencia que demandan las maquinas y sobretodo por la densidad de potencia (mas watio por m2). Sigue creciendo la cosa a buen ritmo, pero no como antes.
JuyMa escribió:Hola Skynet.


Hola Terminators
22 respuestas