Facebook apaga una inteligencia artificial que había inventado su propio idioma

Facebook apaga una inteligencia artificial que había inventado su propio idioma

El lenguaje del sistema parece una corrupción del inglés pero carente de sentido por la extraña repetición de pronombres y determinantes

En el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, EE.UU., un proyecto para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación dio un giro inesperado, para sorpresa de la empresa que lo financió en parte: Facebook.

Los responsables del proyecto tuvieron que apagar el proceso porque la inteligencia artificial había desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero mucho más apto y lógico para la tarea que debía desempeñar.

El lenguaje parece una corrupción del inglés -el idioma en el que se programó originalmente la inteligencia artificial- pero carente de sentido por la extraña repetición de pronombres y determinantes.

Al analizar las oraciones, sin embargo, los investigadores descubrieron que en el aparente desorden había una estructura lógica coherente que permitía a la inteligencia artificial negociar entre distintos agentes usando menos palabras o con menor riesgo de equivocación.

"No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural" y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea, aseguró en la publicación digital FastCo uno de los responsables del proyecto.

Los investigadores apuntan a que el fenómeno es similar al que favorece la creación de abreviaturas o de una determinada jerga entre ciertas comunidades humanas, solo que a una velocidad mucho mayor y sin supervisión ni control alguno por parte de otros individuos.

El incidente, lejos de ser una mera curiosidad, subraya uno de los problemas de la inteligencia artificial. Salvo que se limite su capacidad de optimización, es probable que futuras rutinas desarrollen formas de comunicación propias mucho más eficientes entre sí y alejadas del lenguaje humano.

Dio la casualidad que justo esta misma semana Mark Zuckerberg, fundador de Facebook, y Elon Musk, el creador de Tesla y SpaceX, mantuvieron un debate en la red sobre los peligros que podría tener el desarrollo de lo que se conoce como una inteligencia artificial "fuerte", es decir, una inteligencia artificial multipropósito que iguale o exceda a la inteligencia humana promedio.

Musk consideró que podría tener graves consecuencias para el futuro de la civilización humana. Zuckerberg, en cambio, cree que esa visión catastrofista es contraproducente y retrasará los beneficios que proporcionarán máquinas cada vez más inteligentes.

http://www.iprofesional.com/notas/253486-Facebook-apaga-una-inteligencia-artificial-que-habia-inventado-su-propio-idioma

Yo sólo digo que...
Imagen
[sati]
Yo quería ver un fragmento del idioma, seria interesante :x
Sé que todo esto suena muy sofisticado y futurista, pero en mi opinión, la inteligencia artificial nunca podrá igualar, ni mucho menos superar a la real.
Salvo que se limite su capacidad de optimización, es probable que futuras rutinas desarrollen formas de comunicación propias mucho más eficientes entre sí y alejadas del lenguaje humano.

Y no es ese el objetivo del ejercicio? Hacer que sea mucho más eficiente?

Ok, no podrán entender nada. Pero si habían hecho eso para ser mucho más eficiente que algo rutinario o puestos humanos no entiendo que lo paren o limiten.
exitfor escribió:
Salvo que se limite su capacidad de optimización, es probable que futuras rutinas desarrollen formas de comunicación propias mucho más eficientes entre sí y alejadas del lenguaje humano.

Y no es ese el objetivo del ejercicio? Hacer que sea mucho más eficiente?

Ok, no podrán entender nada. Pero si habían hecho eso para ser mucho más eficiente que algo rutinario o puestos humanos no entiendo que lo paren o limiten.

Es que si no lo paran no tienen noticia [fiu]
hasta que no lo paren... y nos usen como baterias.
Valmont escribió:Yo sólo digo que...
Imagen
[sati]

El sistema creado por Google ha creado una interlengua propia para mejorar la traducción del inglés al japonés sin pasar por diccionarios. Mira a ver cómo te quedas :).
Curioso. Precisamente estos días está habiendo un debate entre Elon Musk y Zuckerberg sobre IA. Musk básicamente está hablando de la que se podría liar si se permite a una IA desarrollarse de manera autónoma sin control humano, pero eso a Zuckerberg no parece preocuparle demasiado (y seguramente con razón, porque no parece posible que una IA llegue a alcanzar consciencia de sí misma algún día).
Tony Skyrunner escribió:Curioso. Precisamente estos días está habiendo un debate entre Elon Musk y Zuckerberg sobre IA. Musk básicamente está hablando de la que se podría liar si se permite a una IA desarrollarse de manera autónoma sin control humano, pero eso a Zuckerberg no parece preocuparle demasiado (y seguramente con razón, porque no parece posible que una IA llegue a alcanzar consciencia de sí misma algún día).

Quizás me tachen de loco, pero creo que Zuckerberg ha hablado por hablar, con unos conocimientos bastante limitados sobre el tema, a diferencia del señor Musk.

Un saludo.
El objeto del estudio era ver como se comunicaban en ingles y recopilar datos, si empiezan a usar un lenguaje diferente ya no es valido para el estudio y lo resetearon.

No es que fuera a escaparse por los cables de corriente y hacerse con el control del sistema financiero del pais

:O

Lo mas interesante de la noticia es esto y es un aviso para navegantes.

"El incidente, lejos de ser una mera curiosidad, subraya uno de los problemas de la inteligencia artificial. Salvo que se limite su capacidad de optimización, es probable que futuras rutinas desarrollen formas de comunicación propias mucho más eficientes entre sí y alejadas del lenguaje humano."

El que dice "comunicacion" puede ser cualquier cosa para la hayan sido programadas.
clamp escribió:Lo mas interesante de la noticia es esto y es un aviso para navegantes.

"El incidente, lejos de ser una mera curiosidad, subraya uno de los problemas de la inteligencia artificial. Salvo que se limite su capacidad de optimización, es probable que futuras rutinas desarrollen formas de comunicación propias mucho más eficientes entre sí y alejadas del lenguaje humano."


Sería tan sencillo como hacer lo que sugiere Musk, prepararnos y regular éste tipo de tecnología antes de que sea demasiado tarde. Ya se sabe, es mejor prevenir que lamentar.

Un saludo.
El tema es evitar que una IA con capacidad de aprendizaje y autoexpansion tome conciencia de si misma y la determinación de defenderse de forma autónoma, ni mas ni menos.
es que lo primero que no tiene sentido es que una IA tenga 'capacidad de autoexpansion' eso suena demasiado proximo a un comportamiento virico.

aqui nadie ha jugado al halo o que?

una IA debe tener parametros de contencion y directrices de lo que no debe hacer.
Veamos, no exaltarse. Lo que ha pasado es que programaron a una IA para hablar con otras en ingles, y esta IA ha empezado a variar el idioma, ya que lo encuentra ineficiente, creando un idioma mas directo y con menos dobles sentidos.

Imagen

Una IA tenderá a aprender, no es malo, lo malo es lo que aprenda

Imagen

, o que una IA que no sabes como va a responder le des acceso a sistemas de armas, como quieren los americanos, que los drones decidan si disparan o no sin intervencion humana.

Saludos
Lo que es más preocupante es que gente como Zuckerberg que está invirtiendo en IA (para ganar unos cuantos miles de millones en los próximos años) no tenga claros los riesgos del tema o le reste importancia al asunto.
No es Elon Musk el único que ha advertido, en su dia Hawking ya dijo "La inteligencia artificial augura el fin de la raza humana".
Tagx escribió:Volveré [chulito]


Nadie ha entendido que citaba Terminator 2. [+furioso]
Peter Anderson escribió:Sé que todo esto suena muy sofisticado y futurista, pero en mi opinión, la inteligencia artificial nunca podrá igualar, ni mucho menos superar a la real.

Sobreestimas la naturaleza humana.
Es que hay una gran diferencia entre que una IA genere un lenguaje para agilizar y optimizar un proceso dentro de sus funciones asignadas y otra que genere sentimientos.

Las máquinas no pueden sentir, solo imitar, por ende

Pueden generar deseos?

No exactamente, pero dentro de sus funciones de auto-optimizacion y perfeccionamiento acabarían por comprender que somos un problema para la eficiencia, de ahí el temor de que lleguen a intentar erradicarnos o sustituirnos.
Si os interesa ver hasta dónde podría llegar una inteligencia artificial, ved la película "Demon Seed" [sonrisa]
Mejor el libro, y a poder ser la versión inicial.
Yo veo más grave que este tipo de sistemas adaptables a "aprender" sean utilizados para malos propósitos, imaginen un virus cibernético como wannacry, que mute y de adapte a intentos de apagado.

Esto puede ser peligroso.
21 respuestas