Google: El cerebro artificial que aterra (y fascina) a investigadores

http://www.elconfidencial.com/tecnologi ... tm_medium=

AlphaGo (IA) ha derrotado al campeon mundial de GO con un movimiento que ha enmudecido a los comentaristas, y ha dejado al campeon durante 15 minutos improvisando para finalmente, terminar derrotado sin remedio. Los expertos decian que era imposible, y que estan impresionados, porque el GO es un juego que no es matematica pura, sino que requiere creatividad humana, y la maquina ha conseguido emplearla en ese movimiento.

Luego se comenta como funciona dicha IA, como los mayores cientificos del mundo le tienen miedo a la inteligencia artificial, y como se han recogido firmas de todos ellos, para evitar que esta, caiga en manos del ejercito.

@Dio_Brand Te copio el resumen que esta completito
Realmente acojonante. Veo claro que el fin de nuestra raza esta ya escrita. Si no es por guerras entre nosotros, sera por que nos cargaremos el planeta. Y si no sera por que las maquinas se revelaran contra sus creadores, lo cual no me extraña. Cada vez me gusta menos este mundo que estamos jodiendo. Puede que las maquinas se apoderen del control de este planeta para evitar la destruccion de la tierra.
#308765# está baneado del subforo por "cibervoluntario y mensajero del odio"
Me gustaria que desarrollaras la noticia y contases un poco de que va, en vez de poner un link y au... }:/
Noriko escribió:Me gustaria que desarrollaras la noticia y contases un poco de que va, en vez de poner un link y au... }:/


AlphaGo (IA) ha derrotado al campeon mundial de GO con un movimiento que ha enmudecido a los comentaristas, y ha dejado al campeon durante 15 minutos improvisando para finalmente, terminar derrotado sin remedio. Los expertos decian que era imposible, y que estan impresionados, porque el GO es un juego que no es matematica pura, sino que requiere creatividad humana, y la maquina ha conseguido emplearla en ese movimiento.

Luego se comenta como funciona dicha IA, como los mayores cientificos del mundo le tienen miedo a la inteligencia artificial, y como se han recogido firmas de todos ellos, para evitar que esta, caiga en manos del ejercito.
Ya queda menos para que podamos tener un terminator.
Dio_Brand escribió:
Noriko escribió:Me gustaria que desarrollaras la noticia y contases un poco de que va, en vez de poner un link y au... }:/


AlphaGo (IA) ha derrotado al campeon mundial de GO con un movimiento que ha enmudecido a los comentaristas, y ha dejado al campeon durante 15 minutos improvisando para finalmente, terminar derrotado sin remedio. Los expertos decian que era imposible, y que estan impresionados, porque el GO es un juego que no es matematica pura, sino que requiere creatividad humana, y la maquina ha conseguido emplearla en ese movimiento.

Luego se comenta como funciona dicha IA, como los mayores cientificos del mundo le tienen miedo a la inteligencia artificial, y como se han recogido firmas de todos ellos, para evitar que esta, caiga en manos del ejercito.

Lo que no se es por qué sale ahora cuando la partida fue hace unos meses y ya se comentó por aquí.
dark_hunter escribió:
Dio_Brand escribió:
Noriko escribió:Me gustaria que desarrollaras la noticia y contases un poco de que va, en vez de poner un link y au... }:/


AlphaGo (IA) ha derrotado al campeon mundial de GO con un movimiento que ha enmudecido a los comentaristas, y ha dejado al campeon durante 15 minutos improvisando para finalmente, terminar derrotado sin remedio. Los expertos decian que era imposible, y que estan impresionados, porque el GO es un juego que no es matematica pura, sino que requiere creatividad humana, y la maquina ha conseguido emplearla en ese movimiento.

Luego se comenta como funciona dicha IA, como los mayores cientificos del mundo le tienen miedo a la inteligencia artificial, y como se han recogido firmas de todos ellos, para evitar que esta, caiga en manos del ejercito.

Lo que no se es por qué sale ahora cuando la partida fue hace unos meses y ya se comentó por aquí.


La partida es para inflar la noticia, el añadido es que han abierto un centro con 1800 ingenieros dedicados a esto
La verdad es que yo admiro a Google por esto que ha conseguido. Sus avances en IA son brutales y me encantaría ver el código fuente de AlphaGO, tiene que ser una cosa increible.
Zoser escribió:Ya queda menos para que podamos tener un terminator.


La verdad es que los ingenieros de Google también ven las mismas pelis que nosotros, y están trabajando en un sistema para poder desconectar una IA fuera de control.

http://www.businessinsider.com/google-d ... arm-2016-6
Patchanka escribió:
Zoser escribió:Ya queda menos para que podamos tener un terminator.


La verdad es que los ingenieros de Google también ven las mismas pelis que nosotros, y están trabajando en un sistema para poder desconectar una IA fuera de control.

http://www.businessinsider.com/google-d ... arm-2016-6


Una IA puede, pero si se logra crear una IA superinteligente nada de lo que hayamos podido pensar para desactivarla funcionará por la propia naturaleza de ésta, la clave está en diseñarla de forma que sus "valores" sean beneficiosos para la humanidad y no pueda llegar a conclusiones que nos causen un perjuicio, en esta charla se explica bastante bien https://www.youtube.com/watch?v=MnT1xgZgkpk
Patchanka escribió:
Zoser escribió:Ya queda menos para que podamos tener un terminator.


La verdad es que los ingenieros de Google también ven las mismas pelis que nosotros, y están trabajando en un sistema para poder desconectar una IA fuera de control.

http://www.businessinsider.com/google-d ... arm-2016-6


Pues suerte. Internet se creó precisamente para ser una red nodal que no pudiera ser anulada en caso de guerra nuclear y desastre total.
kai_dranzer20 está baneado por "Game Over"
Y de qué se trata ese juego o lo que sea Go ?
kazuya000 escribió:Realmente acojonante. Veo claro que el fin de nuestra raza esta ya escrita. Si no es por guerras entre nosotros, sera por que nos cargaremos el planeta. Y si no sera por que las maquinas se revelaran contra sus creadores, lo cual no me extraña. Cada vez me gusta menos este mundo que estamos jodiendo. Puede que las maquinas se apoderen del control de este planeta para evitar la destruccion de la tierra.


Si las máquinas adquirieran "aquello" que nos hace actuar como humanos, evitar la destrucción de la Tierra no estaría precisamente entre una de sus obligaciones estrictas.
Si como premisas le pones a la IA conservar al planeta una de las alternativas más lógicas, matemáticamente hablando, es extinguir la raza humana como esta planteada, si acaso 2-3 millones de personas que sirvan para los menesteres que la IA disponga ...pero esta claro que estamos modificando nuestro entorno por encima de nuestras posibilidades.
Madre mía, qué miedo...Al final se nos irá de las manos y se nos revelarán, sobretodo si los destinamos a la conservación del planeta, como ya se ha dicho. Seremos los primeros perjudicados [mad]
XxTheZokoxX escribió:http://www.elconfidencial.com/tecnologia/2016-06-20/inteligencia-artificial-google-deep-learning-redes-neuronales_1218797/?utm_source=dlvr.it&utm_medium=

AlphaGo (IA) ha derrotado al campeon mundial de GO con un movimiento que ha enmudecido a los comentaristas, y ha dejado al campeon durante 15 minutos improvisando para finalmente, terminar derrotado sin remedio. Los expertos decian que era imposible, y que estan impresionados, porque el GO es un juego que no es matematica pura, sino que requiere creatividad humana, y la maquina ha conseguido emplearla en ese movimiento.

Luego se comenta como funciona dicha IA, como los mayores cientificos del mundo le tienen miedo a la inteligencia artificial, y como se han recogido firmas de todos ellos, para evitar que esta, caiga en manos del ejercito.

@Dio_Brand Te copio el resumen que esta completito


Por favor, menuda tontería de noticia.

El día que alguien haga una IA GENERALISTA hablamos, mientras tanto toda esa noticia y tu mensaje simplemente es falso.
Me imagino a todos con la gotita de sudor pensando: "Ay Dios, ¿hemos programado ese movimientos dentro de sus posibilidades?" y miradas matadoras mientras se acercan al enchufe para tirar de él.
NWOBHM escribió:Pues suerte. Internet se creó precisamente para ser una red nodal que no pudiera ser anulada en caso de guerra nuclear y desastre total.


Por definición, una IA necesitaría poder de procesamiento suficiente para funcionar. "Infectar" la internet no haría que la IA pudiera replicarse infinitamente, simplemente podría guardar su código en servidores por todo el mundo. Y un programa que no se ejecuta no sirve para nada más que ocupar espacio en disco.
Findeton escribió:
XxTheZokoxX escribió:http://www.elconfidencial.com/tecnologia/2016-06-20/inteligencia-artificial-google-deep-learning-redes-neuronales_1218797/?utm_source=dlvr.it&utm_medium=

AlphaGo (IA) ha derrotado al campeon mundial de GO con un movimiento que ha enmudecido a los comentaristas, y ha dejado al campeon durante 15 minutos improvisando para finalmente, terminar derrotado sin remedio. Los expertos decian que era imposible, y que estan impresionados, porque el GO es un juego que no es matematica pura, sino que requiere creatividad humana, y la maquina ha conseguido emplearla en ese movimiento.

Luego se comenta como funciona dicha IA, como los mayores cientificos del mundo le tienen miedo a la inteligencia artificial, y como se han recogido firmas de todos ellos, para evitar que esta, caiga en manos del ejercito.

@Dio_Brand Te copio el resumen que esta completito


Por favor, menuda tontería de noticia.

El día que alguien haga una IA GENERALISTA hablamos, mientras tanto toda esa noticia y tu mensaje simplemente es falso.


1° Si tu eres capaz de hacer una IA semejante, hablamos.

2° El mensaje es un resumen para no hacer copypaste de la pagina
XxTheZokoxX escribió:1° Si tu eres capaz de hacer una IA semejante, hablamos.


El software que han usado es software libre así que si, cualquiera puede hacer una IA semejante, no tienes más que ejecutar el software adecuado. Es un poco más complicado que eso en la práctica porque la red neuronal hay que entrenarla y ajustar parámetros, pero si.

XxTheZokoxX escribió:2° El mensaje es un resumen para no hacer copypaste de la pagina


¿Sabes que existe una diferencia entre una IA especializada y una IA generalista?

Si no lo sabes, entiendo que te hayas tragado la basura de artículo. Si lo sabes, estarás de acuerdo en que el artículo es basura sensacionalista.
Joder, y yo que hasta pierdo jugando al tic tac toe (tres en raya) contra "internet"... [qmparto]
Findeton escribió:
XxTheZokoxX escribió:1° Si tu eres capaz de hacer una IA semejante, hablamos.


El software que han usado es software libre así que si, cualquiera puede hacer una IA semejante, no tienes más que ejecutar el software adecuado. Es un poco más complicado que eso en la práctica porque la red neuronal hay que entrenarla y ajustar parámetros, pero si.

XxTheZokoxX escribió:2° El mensaje es un resumen para no hacer copypaste de la pagina


¿Sabes que existe una diferencia entre una IA especializada y una IA generalista?

Si no lo sabes, entiendo que te hayas tragado la basura de artículo. Si lo sabes, estarás de acuerdo en que el artículo es basura sensacionalista.


Pues haz tu propia IA y dejanos a los mortales divagar sobre ello, es que somos tan vulgares que nos tragamos la noticia, porque nos sorprende lo que se ha conseguido.
De todas las coñas apocalípticas ésta es la única que considero una amenaza real.
XxTheZokoxX escribió:Pues haz tu propia IA y dejanos a los mortales divagar sobre ello, es que somos tan vulgares que nos tragamos la noticia, porque nos sorprende lo que se ha conseguido.


Y a mi también me sorprende lo que se ha conseguido, y es un avance grande.

Pero de ahí a que sea algo que "aterre" a los investigadores o nosequé historias de skynet... facepalm.

Vuelvo a decir: ¿sabes la diferencia entre una IA especialista y una IA generalista? El día que exista una IA generalista, tendrá a lo mejor sentido empezar a divagar con que si skynet o nosequé, pero por ahora lo único que existen son IAs especialistas que solo saben hacer un tipo muy concreto de cosas y punto. Porque realmente no entienden qué leches están haciendo.

Por poner un ejemplo que es legendario en la literatura de IA. Hay IAs que son bots de conversación, tú les hablas y ellos te responden. "Saben" hablar español/ingles/chino, lo que sea. Pero en realidad no saben hablar ni pensar ni nada de eso, lo que pasa es otra cosa.

Lo que pasa es como si te dan un libro de chino, escrito totalmente en chino y con caracteres chinos, y sin que tengas posibilidad de preguntar a nadie nada. A partir de ese libro, podrás aprender a hablar chino, pero no tendrás ni idea de qué estás diciendo: puedes ver que si en una frase hay una palabra A, en la siguiente hay a veces la palabra B. Entonces si alguien te manda una frase con la palabra A, tú sabes que en tu respuesta puedes meter la palabra B. Eso es lo que hace el bot de conversación. El punto es que igual que tú no sabes qué leches significa esa palabra A o B porque son malditos caracteres chinos sin significado para ti, cuando un bot de conversación te responde tampoco sabe qué leches está diciendo. Es simplemente un algoritmo tuneado.

Y por eso no me da miedo la IA específica. Que es el único tipo de IA que existe actualmente. La IA generalista daría miedo porque sí entendería qué es lo que está haciendo, pero ese tipo de IA no existe más que como concepto teórico.
@Findeton Lo de aterra, es por el hecho del uso que se le puede dar como la armamentistica, y como hemos visto ese movimiento no programado, imagina los estragos que podría hacer si a la IA le diera por bombardear una zona de su país, porque es una estrategia que confundiría al rival o atacar a población densa porque así elimina potenciales soldados, por ello el miedo

Nadie ha hablado en el articulo de skynet, solo los foreros.
Estoy de acuerdo con Findeton, lo que hay ahora mismo no es más que una especie de Tamagotchi tuneado, aún falta muchiiiisimo para que lleguemos a una IA real a la que podamos temer.

Y sobre la noticia, pues nada sorprendente, yo mismo muchas veces cuando programo uno de mis juegos a veces me sorprende como reacciona la IA de los personajes, les meto tantas directrices que a veces hacen cosas sorprendentes, aunque al igual es porque soy muy pastelazo programando XD
XxTheZokoxX escribió:@Findeton Lo de aterra, es por el hecho del uso que se le puede dar como la armamentistica, y como hemos visto ese movimiento no programado, imagina los estragos que podría hacer si a la IA le diera por bombardear una zona de su país, porque es una estrategia que confundiría al rival o atacar a población densa porque así elimina potenciales soldados, por ello el miedo

Nadie ha hablado en el articulo de skynet, solo los foreros.


Lo que te debería aterrar es el político que quiera poner a una red neuronal a cargo de misiles nucleares. No te debe aterrar la red neuronal, igual que no te aterra un pato, lo que te tendría que aterrar es el político que pone a un pato a cargo de los misiles nucleares.

Y políticos idiotas hay desde siempre. Por tanto, nada nuevo.
Yo creo que con los sustos que tuvieron durante la guerra fría (estuvimos a punto de irnos a la mierda 5 o 6 veces) ya han escarmentado.
dark_hunter escribió:Yo creo que con los sustos que tuvieron durante la guerra fría (estuvimos a punto de irnos a la mierda 5 o 6 veces) ya han escarmentado.


Los de la guerra fría si, pero los de ahora... Seguro se creen dioses y verás la que se va a liar como se tomen una serie de malas decisiones
XxTheZokoxX escribió:
dark_hunter escribió:Yo creo que con los sustos que tuvieron durante la guerra fría (estuvimos a punto de irnos a la mierda 5 o 6 veces) ya han escarmentado.


Los de la guerra fría si, pero los de ahora... Seguro se creen dioses y verás la que se va a liar como se tomen una serie de malas decisiones

Lo digo porque durante la guerra fría se dispararon varias veces las alarmas de los sistemas de alerta temprana (en algún caso, muy parecido a lo de juegos de guerra) y estuvieron a punto de lanzar los misiles, pero habían tenido suficiente cabeza para que la decisión última la tuviera una persona y no el ordenador.

Eso los dirigentes lo saben.
Sigo pensando que estamos muy lejos de ver una IA que sea lo suficientemente capaz de ser "consciente" de que ya de base, es una IA. Es decir, es como pretender que un "animal" sea consciente de que es, que representa, que hace en el mundo y que peldaño ocupa en la piramide alimenticia.

Que una IA pueda llegar a desarrollar cierta "logica" es una cosa ... de ahi a que sea "inteligente" es algo que no creo ni que yo vaya a verlo. De igual modo ... nos sorprendemos de que niños pequeños o bebes (al igual que animales) sean capaces de hacer "algo" poco cotidiano, imaginate una IA.

Recuerdo bien que se hablaba de lo mismo cuando en los 90 IBM lograba vencer en partidas de ajedrez a los mejores del mundo ... donde ha quedado todo eso?

A lo que me refiero, es que al final, las simulaciones realizadas a modo de IA son algo que no deja de estar predefinido por una respuesta aceptable dentro de unos criterios establecidos previamente. Lo que para MI es una IA real, es que sobre algo "no establecido", haya una respuesta logica con un error que de repetirse, pueda plantear una forma de mejorar ese error hasta conseguir el resultado deseado.

Para mi este tipo de fenomenos actuales, son increiblemente complejos de entender (como para un niño comprender un idioma como el chino siendo español) sin saber como funciona una IA, pero este patron de conducta es como tirar una moneda al aire y decidir cara o cruz .... el resultado es tan esperado como inesperado, pero de ahi a que pueda alcanzar una "logica" sin la intervencion humana ...... muy lejos lo veo.
Edy escribió:Sigo pensando que estamos muy lejos de ver una IA que sea lo suficientemente capaz de ser "consciente" de que ya de base, es una IA. Es decir, es como pretender que un "animal" sea consciente de que es, que representa, que hace en el mundo y que peldaño ocupa en la piramide alimenticia.

Que una IA pueda llegar a desarrollar cierta "logica" es una cosa ... de ahi a que sea "inteligente" es algo que no creo ni que yo vaya a verlo. De igual modo ... nos sorprendemos de que niños pequeños o bebes (al igual que animales) sean capaces de hacer "algo" poco cotidiano, imaginate una IA.

Recuerdo bien que se hablaba de lo mismo cuando en los 90 IBM lograba vencer en partidas de ajedrez a los mejores del mundo ... donde ha quedado todo eso?

A lo que me refiero, es que al final, las simulaciones realizadas a modo de IA son algo que no deja de estar predefinido por una respuesta aceptable dentro de unos criterios establecidos previamente. Lo que para MI es una IA real, es que sobre algo "no establecido", haya una respuesta logica con un error que de repetirse, pueda plantear una forma de mejorar ese error hasta conseguir el resultado deseado.

Para mi este tipo de fenomenos actuales, son increiblemente complejos de entender (como para un niño comprender un idioma como el chino siendo español) sin saber como funciona una IA, pero este patron de conducta es como tirar una moneda al aire y decidir cara o cruz .... el resultado es tan esperado como inesperado, pero de ahi a que pueda alcanzar una "logica" sin la intervencion humana ...... muy lejos lo veo.


Una IA que responda ante algo no establecido(es decir, una IA Fuerte) no existe a día de hoy, y además muchos informáticos teóricos opinan que es imposible al menos hasta que entendamos al 100% la capacidad cognitiva humana, que es algo de lo que hoy se sabe bastante poco. Yo, siendo esta la especialidad que elegí en mi carrera universitaria, creo que no lo veremos nunca, ni nosotros ni nuestros hijos ni nuestros nietos. Tampoco soy un megaexperto, pero es lo que opino.

Las IA's a día de hoy son capaces de mejorar su comportamiento a cada ensayo que experimentan(es decir, una IA que juega al ajedrez mejora con cada partida), pero siempre sobre un problema de base para el que se entrena a esa IA concreta. Mas allá no se puede ir, no se sabe siquiera si es posible.
Edy escribió:Sigo pensando que estamos muy lejos de ver una IA que sea lo suficientemente capaz de ser "consciente" de que ya de base, es una IA. Es decir, es como pretender que un "animal" sea consciente de que es, que representa, que hace en el mundo y que peldaño ocupa en la piramide alimenticia.

Que una IA pueda llegar a desarrollar cierta "logica" es una cosa ... de ahi a que sea "inteligente" es algo que no creo ni que yo vaya a verlo. De igual modo ... nos sorprendemos de que niños pequeños o bebes (al igual que animales) sean capaces de hacer "algo" poco cotidiano, imaginate una IA.

Recuerdo bien que se hablaba de lo mismo cuando en los 90 IBM lograba vencer en partidas de ajedrez a los mejores del mundo ... donde ha quedado todo eso?

A lo que me refiero, es que al final, las simulaciones realizadas a modo de IA son algo que no deja de estar predefinido por una respuesta aceptable dentro de unos criterios establecidos previamente. Lo que para MI es una IA real, es que sobre algo "no establecido", haya una respuesta logica con un error que de repetirse, pueda plantear una forma de mejorar ese error hasta conseguir el resultado deseado.

Para mi este tipo de fenomenos actuales, son increiblemente complejos de entender (como para un niño comprender un idioma como el chino siendo español) sin saber como funciona una IA, pero este patron de conducta es como tirar una moneda al aire y decidir cara o cruz .... el resultado es tan esperado como inesperado, pero de ahi a que pueda alcanzar una "logica" sin la intervencion humana ...... muy lejos lo veo.

De acuerdo en casi todo, una IA generalista por ahora es algo utópico, y no sólo por cuestiones de potencia de cálculo.

También te digo que lo de AlphaGo está a años luz de lo de Kasparov. Los programas de ajedrez funcionan por fuerza bruta y se les programan las reglas para maximizar posibilidades. Aquí nadie le ha enseñado a jugar al Go a la máquina, ha aprendido a base de ver jugadas de maestros y posteriormente jugar consigo mismo. Aquí hay aprendizaje, en los programas de ajedrez convencionales no, porque al tener muchas menos jugadas distintas es posible el juego por fuerza bruta.
Edy escribió:Sigo pensando que estamos muy lejos de ver una IA que sea lo suficientemente capaz de ser "consciente" de que ya de base, es una IA. Es decir, es como pretender que un "animal" sea consciente de que es, que representa, que hace en el mundo y que peldaño ocupa en la piramide alimenticia.

Que una IA pueda llegar a desarrollar cierta "logica" es una cosa ... de ahi a que sea "inteligente" es algo que no creo ni que yo vaya a verlo. De igual modo ... nos sorprendemos de que niños pequeños o bebes (al igual que animales) sean capaces de hacer "algo" poco cotidiano, imaginate una IA.

Recuerdo bien que se hablaba de lo mismo cuando en los 90 IBM lograba vencer en partidas de ajedrez a los mejores del mundo ... donde ha quedado todo eso?

A lo que me refiero, es que al final, las simulaciones realizadas a modo de IA son algo que no deja de estar predefinido por una respuesta aceptable dentro de unos criterios establecidos previamente. Lo que para MI es una IA real, es que sobre algo "no establecido", haya una respuesta logica con un error que de repetirse, pueda plantear una forma de mejorar ese error hasta conseguir el resultado deseado.

Para mi este tipo de fenomenos actuales, son increiblemente complejos de entender (como para un niño comprender un idioma como el chino siendo español) sin saber como funciona una IA, pero este patron de conducta es como tirar una moneda al aire y decidir cara o cruz .... el resultado es tan esperado como inesperado, pero de ahi a que pueda alcanzar una "logica" sin la intervencion humana ...... muy lejos lo veo.


No sabemos qué es la inteligencia, así que yo tampoco afirmaría que una IA genérica (que es lo que describes) fuera imposible en un computador determinista. Lo mismo sí es posible.

De hecho, ahondando en el tema de "respuesta establecida", no sabemos si el universo en si es determinista (lo cual significa que "el destino existe") pero según lo que sabemos la consciencia humana se forma a partir de un sistema que sí parece ser determinista: nuestro cerebro.

El problema en realidad no parece estar en si el sistema es determinista o no, sino en que la complejidad computacional del sistema (ej, el cerebro humano) es tal que es (por decirlo suavemente) poco práctico intentar calcular cuál va a ser dicha respuesta.

Es decir, tú puedes pensar que el cerebro humano es un "sistema determinista" pero de alta complejidad computacional y que lo simplificas como si fuera una "caja negra" (como si fuera imposible saber cómo funciona por dentro, aunque sea un sistema determinista) a la que tú le das unos datos de entrada (vision, oído, tacto, olfato...) y te da unos datos de salida (la respuesta de esa persona) que son impredecibles y que ante dos veces que le metas la misma entrada puede no responder igual porque ese cerebro/persona/caja negra aprende.

Y en ese sentido, es verdad que las IAs, las redes neuronales, se parecen cada vez más al cerebro humano. En el sentido de que de primeras tienes una red neuronal básica con unos parámetros por defecto para cada neurona, pero conforme la "entrenas", aprende de forma autónoma, y al final tienes que tratar al sistema (de redes neuronales) como una caja negra igual que el cerebro humano porque a través de ese entrenamiento la red neuronal ha llegado a un estado tan complejo que en realidad nadie entiendo cómo funciona (aunque sea un sistema determinista, software ejecutado en un PC). Es decir, que llegas a un punto en el que la única forma de saber cuál será la reacción del sistema (la red neuronal) es preguntar a la red neuronal.

Pero vuelvo a decir, aunque estas redes neuronales sean la polla en verso, sólo nos sirven en la actualidad para resolver problemas bastante específicos. No constituyen una AGI, no son una IA generalista.
nicaro3 está baneado por "saltarse un ban con un clon"
dark_hunter escribió:
XxTheZokoxX escribió:
dark_hunter escribió:Yo creo que con los sustos que tuvieron durante la guerra fría (estuvimos a punto de irnos a la mierda 5 o 6 veces) ya han escarmentado.


Los de la guerra fría si, pero los de ahora... Seguro se creen dioses y verás la que se va a liar como se tomen una serie de malas decisiones

Lo digo porque durante la guerra fría se dispararon varias veces las alarmas de los sistemas de alerta temprana (en algún caso, muy parecido a lo de juegos de guerra) y estuvieron a punto de lanzar los misiles, pero habían tenido suficiente cabeza para que la decisión última la tuviera una persona y no el ordenador.

Eso los dirigentes lo saben.


El progreso es imparable,es decir la robótica,la nanotecnologìa es el futuro ,eso no se puede parar.Otra cosa esque el lìmite de nuestra raza está en otra raza inteligente y beligerante.
dark_hunter escribió:
XxTheZokoxX escribió:
dark_hunter escribió:Yo creo que con los sustos que tuvieron durante la guerra fría (estuvimos a punto de irnos a la mierda 5 o 6 veces) ya han escarmentado.


Los de la guerra fría si, pero los de ahora... Seguro se creen dioses y verás la que se va a liar como se tomen una serie de malas decisiones

Lo digo porque durante la guerra fría se dispararon varias veces las alarmas de los sistemas de alerta temprana (en algún caso, muy parecido a lo de juegos de guerra) y estuvieron a punto de lanzar los misiles, pero habían tenido suficiente cabeza para que la decisión última la tuviera una persona y no el ordenador.

Eso los dirigentes lo saben.


La estupidez humana no tiene límites. Eso es lo preocupante.
Respondiendo a varios de los mensajes que me habeis respondido, dire que en cuestiones deterministas o de (incluso) libre albedrio, en el caso de que se desarrollase una IA con cierto aprendizaje, al establecerse un codigo base identico en ambos casos, los resultados de ambas IAs deberian ser exactos, cuando en un caso "humano" racional/irracional los resultados pueden ser completamente opuestos (dependiendo del tipo de resultado que consideremos correcto).

Lo realmente preocupante, es que algun dia una IA sea consciente de que "mentir" es perfectamente viable como respuesta irracional a un resultado del que no conoce su resultado real. Por consiguiente, si eso ocurriera, estariamos ante un verdadero problema importante, pero como digo ... ser "consciente" de esa capacidad, desde mi punto de vista es inviable a corto plazo (que no imposible).

Es mas, ... siempre que en el foro de Peliculas se habla de 2001, Odisea en el espacio .... algo que realmente me deja perplejo (incluso con todo lo que con los años se ha ido cumpliendo de la pelicula), es precisamente HAL9000. El concepto de IA inteligente al nivel en el que se representa en la pelicula es sencillamente brillante.

No quiero imaginarme que seamos dependientes de IAs que sean capaces de ejercer de psicologos, cuando realmente podrian hacerlo con un patron de respuestas preestablecido por un buscador como Google, encontrando la respuesta "mas coherente" de las supuestamente disponibles por los miles de psicologos que haya en Internet.

Como digo, no podemos preocuparnos a corto plazo por que una IA pueda descontrolarse, pero si podemos preocuparnos de que una IA tome una decision equivocada cuando el patron de conducta correcto es claramente identificable por un factor humano.
Esto es el comienzo de un nuevo tipo de bomba atómica.
demorador escribió:Esto es el comienzo de un nuevo tipo de bomba atómica.


La boma IAtómica [qmparto]

A los que les interesen estos temas leed Yo Robot, de Isaac Asimov. El señor Asimov era el p*to amo, el libro es de 1950 pero los temas tratados en el libro son tan actuales como el debate que ahora se lleva en este hilo. Es una colección de relatos cortos que tratan de las tres leyes de la robotica y como los robots (y los humanos) lidian con ellas. El tercer relato, "Razón", es co-jo-nu-do.
Edy escribió:Respondiendo a varios de los mensajes que me habeis respondido, dire que en cuestiones deterministas o de (incluso) libre albedrio, en el caso de que se desarrollase una IA con cierto aprendizaje, al establecerse un codigo base identico en ambos casos, los resultados de ambas IAs deberian ser exactos, cuando en un caso "humano" racional/irracional los resultados pueden ser completamente opuestos (dependiendo del tipo de resultado que consideremos correcto).

Lo realmente preocupante, es que algun dia una IA sea consciente de que "mentir" es perfectamente viable como respuesta irracional a un resultado del que no conoce su resultado real. Por consiguiente, si eso ocurriera, estariamos ante un verdadero problema importante, pero como digo ... ser "consciente" de esa capacidad, desde mi punto de vista es inviable a corto plazo (que no imposible).

Es mas, ... siempre que en el foro de Peliculas se habla de 2001, Odisea en el espacio .... algo que realmente me deja perplejo (incluso con todo lo que con los años se ha ido cumpliendo de la pelicula), es precisamente HAL9000. El concepto de IA inteligente al nivel en el que se representa en la pelicula es sencillamente brillante.

No quiero imaginarme que seamos dependientes de IAs que sean capaces de ejercer de psicologos, cuando realmente podrian hacerlo con un patron de respuestas preestablecido por un buscador como Google, encontrando la respuesta "mas coherente" de las supuestamente disponibles por los miles de psicologos que haya en Internet.

Como digo, no podemos preocuparnos a corto plazo por que una IA pueda descontrolarse, pero si podemos preocuparnos de que una IA tome una decision equivocada cuando el patron de conducta correcto es claramente identificable por un factor humano.

No tiene por qué, los valores de las neuronas virtuales se asignan de forma aleatoria, y con el aprendizaje de van modelando. Pero ahí tienes la aleatoriedad. Ten en cuenta que nadie programó para jugar al Go a la IA (a diferencia de programas de ajedrez y eso), sino que fue aprendiendo.
mintiendo está baneado por "troll racista"
y que hay de malo en que las maquinas nos masacren y tomen el control?
podran hacer viajes en el espacio de miles de años sin problemas. se reproduciran por millones. mayor eficiencia.
nosotros las creamos. siempre les contaran a los extraterrestres que se encuentren que nosotros fuimos sus padres y que tuvieron que quitarnos de en medio porque haciamos las cosas peor que ellos.
con suerte nos tendran en algun zoo y nos daran de comer y nos cuidaran pero sin permitirnos hacer guerras ni arrasar el planeta.
es parte de la evolucion. o es que alguno de los aqui presentes pone a los monos por encima de las personas?
no entiendo ese miedo a que nos maten. si es lo mas logico. si es que lo hacemos todo mal. cada actuacion que tenemos esta movida por el odio y el miedo. no hacemos nada que no sea en nuestro propio beneficio egoista.
cuanto antes pase mejor. no hay forma de evitarlo es nuestro destino
Pues ale, ve comenzando.
mintiendo escribió:y que hay de malo en que las maquinas nos masacren y tomen el control?
podran hacer viajes en el espacio de miles de años sin problemas. se reproduciran por millones. mayor eficiencia.
nosotros las creamos. siempre les contaran a los extraterrestres que se encuentren que nosotros fuimos sus padres y que tuvieron que quitarnos de en medio porque haciamos las cosas peor que ellos.
con suerte nos tendran en algun zoo y nos daran de comer y nos cuidaran pero sin permitirnos hacer guerras ni arrasar el planeta.
es parte de la evolucion. o es que alguno de los aqui presentes pone a los monos por encima de las personas?
no entiendo ese miedo a que nos maten. si es lo mas logico. si es que lo hacemos todo mal. cada actuacion que tenemos esta movida por el odio y el miedo. no hacemos nada que no sea en nuestro propio beneficio egoista.
cuanto antes pase mejor. no hay forma de evitarlo es nuestro destino


Yo entiendo que a no ser que fueramos un impedimento para esa evolución no tendría por que haber problemas. Siempre va a ser más beneficioso para todos la cooperación que la guerra digo yo, si tan inteligentes van a ser supongo que pensarían así.
Zénar Sounds escribió:
mintiendo escribió:y que hay de malo en que las maquinas nos masacren y tomen el control?
podran hacer viajes en el espacio de miles de años sin problemas. se reproduciran por millones. mayor eficiencia.
nosotros las creamos. siempre les contaran a los extraterrestres que se encuentren que nosotros fuimos sus padres y que tuvieron que quitarnos de en medio porque haciamos las cosas peor que ellos.
con suerte nos tendran en algun zoo y nos daran de comer y nos cuidaran pero sin permitirnos hacer guerras ni arrasar el planeta.
es parte de la evolucion. o es que alguno de los aqui presentes pone a los monos por encima de las personas?
no entiendo ese miedo a que nos maten. si es lo mas logico. si es que lo hacemos todo mal. cada actuacion que tenemos esta movida por el odio y el miedo. no hacemos nada que no sea en nuestro propio beneficio egoista.
cuanto antes pase mejor. no hay forma de evitarlo es nuestro destino


Yo entiendo que a no ser que fueramos un impedimento para esa evolución no tendría por que haber problemas. Siempre va a ser más beneficioso para todos la cooperación que la guerra digo yo, si tan inteligentes van a ser supongo que pensarían así.


De hecho una IA superinteligente encontraría la forma de que la humanidad viviese en las mejores condiciones posibles gestionando los recursos del planeta, ya que optimizando su gestión hay suficiente para un número de personas mucho mayor que el actual y de forma sostenible.
Cualquier IA "inteligente" se daria cuenta que la raza humana es el cancer del planeta ... y cualquiera (IA o ser superior) en su sano juicio nos daria muerte directa si de lo que se pretende es que el ecosistema logico del globo sea correcto.
Edy escribió:Respondiendo a varios de los mensajes que me habeis respondido, dire que en cuestiones deterministas o de (incluso) libre albedrio, en el caso de que se desarrollase una IA con cierto aprendizaje, al establecerse un codigo base identico en ambos casos, los resultados de ambas IAs deberian ser exactos, cuando en un caso "humano" racional/irracional los resultados pueden ser completamente opuestos (dependiendo del tipo de resultado que consideremos correcto).


Si pones a un ser humano X en un estado Y concreto y le das unos inputs A, tendrás un resultado B. Que sepamos, siempre se repita el experimento en esas mismas condiciones (X,Y, A), el resultado será B.

La diferencia, antes de que niegues lo que he dicho, es que actualmente los humanos somos "irrepetibles" y nos es imposible reproducir el estado de un humano. Pero por lo que sabemos, si pudiéramos reproducir el estado, el resultado ante el mismo input sería el mismo.
Ashdown está baneado por "faltas de respeto"
Yo no acabo de tener muy claro que seamos tan, tan deterministas como comentas. Sobre todo por la imposibilidad de repetir el estado Y una vez hemos pasado por el estado B.
70 respuestas
1, 2