Google: El cerebro artificial que aterra (y fascina) a investigadores

Yesus101112 escribió:De hecho una IA superinteligente encontraría la forma de que la humanidad viviese en las mejores condiciones posibles gestionando los recursos del planeta, ya que optimizando su gestión hay suficiente para un número de personas mucho mayor que el actual y de forma sostenible.

Una mezcla del concepto matrix o Wall-e...

Zénar Sounds escribió:Yo entiendo que a no ser que fueramos un impedimento para esa evolución no tendría por que haber problemas. Siempre va a ser más beneficioso para todos la cooperación que la guerra digo yo, si tan inteligentes van a ser supongo que pensarían así.

¿guerra? ¿que guerra? Si se da el caso de que una ia se extiende a la nube en una o dos décadas, y le da por acabar con la especie humana, no necesitará ninguna guerra para acabar con la especie humana...
Findeton escribió:
Edy escribió:Respondiendo a varios de los mensajes que me habeis respondido, dire que en cuestiones deterministas o de (incluso) libre albedrio, en el caso de que se desarrollase una IA con cierto aprendizaje, al establecerse un codigo base identico en ambos casos, los resultados de ambas IAs deberian ser exactos, cuando en un caso "humano" racional/irracional los resultados pueden ser completamente opuestos (dependiendo del tipo de resultado que consideremos correcto).


Si pones a un ser humano X en un estado Y concreto y le das unos inputs A, tendrás un resultado B. Que sepamos, siempre se repita el experimento en esas mismas condiciones (X,Y, A), el resultado será B.

La diferencia, antes de que niegues lo que he dicho, es que actualmente los humanos somos "irrepetibles" y nos es imposible reproducir el estado de un humano. Pero por lo que sabemos, si pudiéramos reproducir el estado, el resultado ante el mismo input sería el mismo.



Claro, si ese ser humano X fuera un clon de otro ser humano X. Pero un ser humano de entrada tiene algo muy diferente a otro ser humano, que es la capacidad de decision. COmo ya he dicho anteriormente, el que dos personas puedan llegar a dos conclusiones diferentes hablando del mismo tema, ya es algo que nos hace "peculiares".

En el caso de una IA, ese proceso resulta imposible de imaginar, porque la determinacion de eleccion no existe en un grado amplio en terminos informaticos. Lo cual a razon de desarrollar una IA, el que tenga la capacidad de simular jugadas aprendidas previamente, hace que tenga un grado de "almacenaje" que da la sensacion de inteligencia, cuando en realidad es un simple y mero sistema de almacenamiento de "experiencia" del mismo modo que sucede con un niño, aprende en funcion de lo que observa.

Si tu a una IA le vas dando palabras sueltas, y despues de darselas, un humano las ordena desarrollando una frase, la IA sabe que puede utilizar esas palabras en ese orden con la conclusion de poder comunicarse con ella (que es lo que ha pasado con la IA de Google).
Findeton escribió:
Si pones a un ser humano X en un estado Y concreto y le das unos inputs A, tendrás un resultado B. Que sepamos, siempre se repita el experimento en esas mismas condiciones (X,Y, A), el resultado será B.

La diferencia, antes de que niegues lo que he dicho, es que actualmente los humanos somos "irrepetibles" y nos es imposible reproducir el estado de un humano. Pero por lo que sabemos, si pudiéramos reproducir el estado, el resultado ante el mismo input sería el mismo.

No sólo son irrepetibles los humanos, también los estados. Un mismo ser humano no es igual ni reacciona igual a lo largo de su vida.
Yesus101112 escribió:De hecho una IA superinteligente encontraría la forma de que la humanidad viviese en las mejores condiciones posibles gestionando los recursos del planeta, ya que optimizando su gestión hay suficiente para un número de personas mucho mayor que el actual y de forma sostenible.


De hecho eso es lo que sucede en la saga de libros de La Cultura, de Iain M. Banks. Perdonad si soy pesado con los libros pero es que estos temas me flipan y hay literatura de ficción al respecto que podría ser del interés de algunos.
dark_hunter escribió:
Findeton escribió:
Si pones a un ser humano X en un estado Y concreto y le das unos inputs A, tendrás un resultado B. Que sepamos, siempre se repita el experimento en esas mismas condiciones (X,Y, A), el resultado será B.

La diferencia, antes de que niegues lo que he dicho, es que actualmente los humanos somos "irrepetibles" y nos es imposible reproducir el estado de un humano. Pero por lo que sabemos, si pudiéramos reproducir el estado, el resultado ante el mismo input sería el mismo.

No sólo son irrepetibles los humanos, también los estados. Un mismo ser humano no es igual ni reacciona igual a lo largo de su vida.


Por supuesto, pero sólo porque el estado es irreproducible, no porque el sistema (el ser humano) sea no determinista, como algunos aquí han sugerido.

Edy escribió:Claro, si ese ser humano X fuera un clon de otro ser humano X. Pero un ser humano de entrada tiene algo muy diferente a otro ser humano, que es la capacidad de decision. COmo ya he dicho anteriormente, el que dos personas puedan llegar a dos conclusiones diferentes hablando del mismo tema, ya es algo que nos hace "peculiares".


No, lo que estoy argumentando es que lo que diferencia a los humanos de los computadores no es la capacidad de decisión, sino nuestra incapacidad para repetir el estado en que se encuentra un humano en un momento dado. Con estado me refiero a la información relativa a la descripción minuciosa y microscópica del estado de todos los átomos de una persona.

Edy escribió:En el caso de una IA, ese proceso resulta imposible de imaginar, porque la determinacion de eleccion no existe en un grado amplio en terminos informaticos. Lo cual a razon de desarrollar una IA, el que tenga la capacidad de simular jugadas aprendidas previamente, hace que tenga un grado de "almacenaje" que da la sensacion de inteligencia, cuando en realidad es un simple y mero sistema de almacenamiento de "experiencia" del mismo modo que sucede con un niño, aprende en funcion de lo que observa.


Vuelvo a decir que no está, ni mucho menos, probado que el ser humano sea un sistema no determinista. Más bien todo lo contrario.

La diferencia entre una máquina y nosotros no es esa sino que el estado en que se encuentra una máquina sí es (fácilmente) repetible.

Edy escribió:Si tu a una IA le vas dando palabras sueltas, y despues de darselas, un humano las ordena desarrollando una frase, la IA sabe que puede utilizar esas palabras en ese orden con la conclusion de poder comunicarse con ella (que es lo que ha pasado con la IA de Google).


Esto es lo único con lo que estoy de acuerdo de toda tu explicación, pero es un párrafo totalmente inconexo con lo anterior.
Por supuesto, pero sólo porque el estado es irreproducible, no porque el sistema (el ser humano) sea no determinista, como algunos aquí han sugerido.

No estoy de acuerdo, nuestras neuronas no funcionan tan fácil como unos y ceros, siguen la ley del "todo o nada" sí, pero tienen umbrales de despolarización, que además son variables y modulables mediante reclutamiento de neuronas e inhibición, incluso se han sugerido ciertos efectos cuánticos, que por definición son no deterministas.

Incluso un sistema determinista puede no ser predecible si el sistema es caótico.
dark_hunter escribió:
Por supuesto, pero sólo porque el estado es irreproducible, no porque el sistema (el ser humano) sea no determinista, como algunos aquí han sugerido.

No estoy de acuerdo, nuestras neuronas no funcionan tan fácil como unos y ceros, siguen la ley del "todo o nada" sí, pero tienen umbrales de despolarización, que además son variables y modulables mediante reclutamiento de neuronas e inhibición, incluso se han sugerido ciertos efectos cuánticos, que por definición son no deterministas.

Incluso un sistema determinista puede no ser predecible si el sistema es caótico.


Tú lo has dicho, se ha sugerido, pero no está demostrado o comprobado.

En cuanto a que un sistema determinista no sea predecible, por supuesto, ejemplos son tanto la AI de google como el tiempo/weather.
Findeton escribió:
dark_hunter escribió:
Findeton escribió:
Si pones a un ser humano X en un estado Y concreto y le das unos inputs A, tendrás un resultado B. Que sepamos, siempre se repita el experimento en esas mismas condiciones (X,Y, A), el resultado será B.

La diferencia, antes de que niegues lo que he dicho, es que actualmente los humanos somos "irrepetibles" y nos es imposible reproducir el estado de un humano. Pero por lo que sabemos, si pudiéramos reproducir el estado, el resultado ante el mismo input sería el mismo.

No sólo son irrepetibles los humanos, también los estados. Un mismo ser humano no es igual ni reacciona igual a lo largo de su vida.


Por supuesto, pero sólo porque el estado es irreproducible, no porque el sistema (el ser humano) sea no determinista, como algunos aquí han sugerido.

Edy escribió:Claro, si ese ser humano X fuera un clon de otro ser humano X. Pero un ser humano de entrada tiene algo muy diferente a otro ser humano, que es la capacidad de decision. COmo ya he dicho anteriormente, el que dos personas puedan llegar a dos conclusiones diferentes hablando del mismo tema, ya es algo que nos hace "peculiares".


No, lo que estoy argumentando es que lo que diferencia a los humanos de los computadores no es la capacidad de decisión, sino nuestra incapacidad para repetir el estado en que se encuentra un humano en un momento dado. Con estado me refiero a la información relativa a la descripción minuciosa y microscópica del estado de todos los átomos de una persona.

Edy escribió:En el caso de una IA, ese proceso resulta imposible de imaginar, porque la determinacion de eleccion no existe en un grado amplio en terminos informaticos. Lo cual a razon de desarrollar una IA, el que tenga la capacidad de simular jugadas aprendidas previamente, hace que tenga un grado de "almacenaje" que da la sensacion de inteligencia, cuando en realidad es un simple y mero sistema de almacenamiento de "experiencia" del mismo modo que sucede con un niño, aprende en funcion de lo que observa.


Vuelvo a decir que no está, ni mucho menos, probado que el ser humano sea un sistema no determinista. Más bien todo lo contrario.

La diferencia entre una máquina y nosotros no es esa sino que el estado en que se encuentra una máquina sí es (fácilmente) repetible.

Edy escribió:Si tu a una IA le vas dando palabras sueltas, y despues de darselas, un humano las ordena desarrollando una frase, la IA sabe que puede utilizar esas palabras en ese orden con la conclusion de poder comunicarse con ella (que es lo que ha pasado con la IA de Google).


Esto es lo único con lo que estoy de acuerdo de toda tu explicación, pero es un párrafo totalmente inconexo con lo anterior.



1. Ok, claro que es imposible reproducir exactamente (a nivel atomico) cualquier cosa, porque factores infinitos podrian ocasionar diferentes resultados. Es decir, si a una maquina concreta la haces trabajar durante 2 horas con un resultado, y ese resultado lo repites 10 veces, posiblemente siempre tengas exactamente el mismo resultado. Pero si en las mismas condiciones resulta que la temperatura es diferente, puede que no solo el resultado sea diferente, es que podria hasta fallar y no terminar el proceso.

En el caso humano, es exactamente lo mismo. Si a un individuo A, le haces realizar una tarea X y el resultado deberia ser Y, puede resultar curioso comprobar que ese mismo individuo te de un resultado distinto simplemente porque 5 minutos antes le digan que sus padres han muerto en un accidente, a no decirle nada. Y tu diras, eso es imposible de demostrar ... y la logica humana (que no tiene ninguna logica) nos dice que ese resultado puede ser perfectamente impredecible.

2. Claro que no esta demostrado, pero es que hasta que no exista una maquina del tiempo seria imposible dar un resultado cientificamente correcto. Pero es que llegado a este punto, incluso si existiera la forma de viajar en el tiempo para intentar demostrar esto mismo ... cualquiera diria que viajar en el tiempo podria ejercer un efecto pariposa el cual seria capaz de alterar el resultado .... sin ser concluyente.

3. Ese parrafo viene a decir lo que vengo diciendo en posts anteriores, no concretamente de ese post en particular. Se pueden dar muchas explicaciones del supuesto logo de la IA de Google, cuando en realidad no veo ninguna peculiaridad que pueda (a mi personalmente) preocupar sobre una posible IA asesina que nos mande a todos a tomar por culo. Lo que si es cieto, es que no creo que veamos a corto plazo nada que pueda sugerir inteligencia en una IA como si parece que muchos piensan.
Edy escribió:1. Ok, claro que es imposible reproducir exactamente (a nivel atomico) cualquier cosa, porque factores infinitos podrian ocasionar diferentes resultados. Es decir, si a una maquina concreta la haces trabajar durante 2 horas con un resultado, y ese resultado lo repites 10 veces, posiblemente siempre tengas exactamente el mismo resultado. Pero si en las mismas condiciones resulta que la temperatura es diferente, puede que no solo el resultado sea diferente, es que podria hasta fallar y no terminar el proceso.


En realidad eso no es cierto. De hecho el teletransporte cuántico va de replicar exactamente el estado cuántico de un sistema, y el teletransporte cuántico existe y se ha realizado (pero con pocos átomos).

De hecho el principio de incertidumbre de Heisenberg se puede interpretar como que hay un máximo de densidad de información por volumen.

Edy escribió:En el caso humano, es exactamente lo mismo. Si a un individuo A, le haces realizar una tarea X y el resultado deberia ser Y, puede resultar curioso comprobar que ese mismo individuo te de un resultado distinto simplemente porque 5 minutos antes le digan que sus padres han muerto en un accidente, a no decirle nada. Y tu diras, eso es imposible de demostrar ... y la logica humana (que no tiene ninguna logica) nos dice que ese resultado puede ser perfectamente impredecible.


Como te he refutado el primer párrafo, tus conclusiones acá también quedan refutadas.
Findeton escribió:
Edy escribió:1. Ok, claro que es imposible reproducir exactamente (a nivel atomico) cualquier cosa, porque factores infinitos podrian ocasionar diferentes resultados. Es decir, si a una maquina concreta la haces trabajar durante 2 horas con un resultado, y ese resultado lo repites 10 veces, posiblemente siempre tengas exactamente el mismo resultado. Pero si en las mismas condiciones resulta que la temperatura es diferente, puede que no solo el resultado sea diferente, es que podria hasta fallar y no terminar el proceso.


En realidad eso no es cierto. De hecho el teletransporte cuántico va de replicar exactamente el estado cuántico de un sistema, y el teletransporte cuántico existe y se ha realizado (pero con pocos átomos).

De hecho el principio de incertidumbre de Heisenberg se puede interpretar como que hay un máximo de densidad de información por volumen.

Replicar no, que el principio de no-clonación lo impide. De hecho por eso se teletransporta la información, porque no puede ser copiada, sólo pasar de un sitio a otro.
Findeton escribió:....


Le has dado la vuelva a la tortilla tantas veces que ya no se ni en que universo, plano temporal o estado estamos hablando teniendo en cuenta el hilo inicial. Pero en fin, ... si quieres que te de la razon, pues te la quedas para ti, asi seguro que entre teorias e hipotesis te quedas mas tranquilo.
kazuya000 escribió:Realmente acojonante. Veo claro que el fin de nuestra raza esta ya escrita. Si no es por guerras entre nosotros, sera por que nos cargaremos el planeta. Y si no sera por que las maquinas se revelaran contra sus creadores, lo cual no me extraña. Cada vez me gusta menos este mundo que estamos jodiendo. Puede que las maquinas se apoderen del control de este planeta para evitar la destruccion de la tierra.

¿Qué te hace pensar eso? si aprenden, será en base a los humanos. Un grupo de humanos equivocado y ya tienes un robot fachilla y con ideas que den arcadas.

A mí me interesa también la investigación y de la posibilidad de crear un cuerpo robot, y pasar nuestra "información" a ese cuerpo. Es decir, pasarnos de nuestro cuerpo físico a un robot que nunca muere.

Es interesante, porque creo que será el futuro para desplazarnos en el espacio.

Además pensaríamos muy rápido, se podrían usar procesadores muy potentes para ello.
pero ya no seríamos la raza humana seríamos cyborgs como mucho.
rafaelkiz escribió:
kazuya000 escribió:Realmente acojonante. Veo claro que el fin de nuestra raza esta ya escrita. Si no es por guerras entre nosotros, sera por que nos cargaremos el planeta. Y si no sera por que las maquinas se revelaran contra sus creadores, lo cual no me extraña. Cada vez me gusta menos este mundo que estamos jodiendo. Puede que las maquinas se apoderen del control de este planeta para evitar la destruccion de la tierra.

¿Qué te hace pensar eso? si aprenden, será en base a los humanos. Un grupo de humanos equivocado y ya tienes un robot fachilla y con ideas que den arcadas.

A mí me interesa también la investigación y de la posibilidad de crear un cuerpo robot, y pasar nuestra "información" a ese cuerpo. Es decir, pasarnos de nuestro cuerpo físico a un robot que nunca muere.

Es interesante, porque creo que será el futuro para desplazarnos en el espacio.

Además pensaríamos muy rápido, se podrían usar procesadores muy potentes para ello.

Si una inteligencia artificial super potente en algun momento empieza a tener sentimientos, como el miedo a ser destruido, espero que no nos imite como ejemplo de supervivencia. Entonces ya sera tarde para nosotros. La ia destruiria la menaza humana. Es algo complicado tener controlado algo tan poderoso. Tampoco por ser poderoso tiene por que ser letal pero si nosotros ya somos poco predecibles en situaciones limite, pues creo que la ia artificial podria saltarse a la torera cualquier orden nuestra si es para conseguir sobrevivir.
kazuya000 escribió:
rafaelkiz escribió:
kazuya000 escribió:Realmente acojonante. Veo claro que el fin de nuestra raza esta ya escrita. Si no es por guerras entre nosotros, sera por que nos cargaremos el planeta. Y si no sera por que las maquinas se revelaran contra sus creadores, lo cual no me extraña. Cada vez me gusta menos este mundo que estamos jodiendo. Puede que las maquinas se apoderen del control de este planeta para evitar la destruccion de la tierra.

¿Qué te hace pensar eso? si aprenden, será en base a los humanos. Un grupo de humanos equivocado y ya tienes un robot fachilla y con ideas que den arcadas.

A mí me interesa también la investigación y de la posibilidad de crear un cuerpo robot, y pasar nuestra "información" a ese cuerpo. Es decir, pasarnos de nuestro cuerpo físico a un robot que nunca muere.

Es interesante, porque creo que será el futuro para desplazarnos en el espacio.

Además pensaríamos muy rápido, se podrían usar procesadores muy potentes para ello.

Si una inteligencia artificial super potente en algun momento empieza a tener sentimientos, como el miedo a ser destruido, espero que no nos imite como ejemplo de supervivencia. Entonces ya sera tarde para nosotros. La ia destruiria la menaza humana. Es algo complicado tener controlado algo tan poderoso. Tampoco por ser poderoso tiene por que ser letal pero si nosotros ya somos poco predecibles en situaciones limite, pues creo que la ia artificial podria saltarse a la torera cualquier orden nuestra si es para conseguir sobrevivir.

Aquí es donde se tiene que notar la inteligencia humana, eso incluye no ponerle extremidades :D

Si no se las pones, no interactúan con el medio. Es más, si los limites a nivel de software será un gran paso el nuestro, usarlos para que nos ayuden y más de ahí, limitarlos.

Personalmente, creo que harán esto.
Piensa que todo hoy en dia se hace por ordenes ejecutadas por computadoras. Si la ia logra hacerse con el control de centrales nucleares, presas, consigue crear un virus que ponga en jaque a todos los equipos que controlan el mundo, podriamos estar en apuros muy serios.
Me encanta la tematica.
Una maquina tener sentimientos como el temor a ser destruido. Es curioso, pero los animales solo se defienden al ser atacados, ... y por mucho que nos creamos inteligentes, solo el ser humano tiene sentimientos que entre comillas, son en muchos casos ridiculos y absurdos.

Una maquina nunca podrá tener un sentimiento de poder ser destruido, porque de entrada no es consciente ni de que esta "construido". El querer aplicar nuestros miedos, sentimientos o estados a una maquina tiene el mismo sentido que intentar hacerlo con un ladrillo.
Una maquina tendría sentimientos si con su "algoritmo" crea una forma de "pensar". Esa forma de "pensar" podría decidir que si es desconectado puede no existir, o puede que no vuelva a "pensar", con lo cual expresa su "sentimiento" perfectamente calculado.

La maquina intentaría sobrevivir a su existencia. Todos sabemos que algún día, una maquina puede volverse en nuestra contra. Porque su programa está preparado para aprender y ser "eficiente". Incluso es posible que una maquina que se vea Incapaz de hacer una tarea, es posible que termine "actualizándose" o cambiar su forma para poder ejercer esa tarea a la cual realizaba su función.

Los programas que son capaces de aprender a base de un algoritmo de datos, tienden a "razonar" en base a un aprendizaje global. Si la maquina aprende, que estando "apagada" no es un aparato utilizable, es posible que lo evite.
yo creo que nos harían pasar examenes de todo tipo y al que no lo pasara lo exterminarían con sus perros robots de ultima generación.
@rampopo la evolucion del ser humano, de la vida organica a la vida robotica... Los seres humanos somos robots organicos, aun asi pienso que la evolucion natural del hombre del futuro sera la fusion organica con componentes electronicos y mecanicos, que ayudaran a conseguir mejores capacidades en un cuerpo ya prodigioso de por si. La naturaleza es la mejor haciendo robots, los nuestros son meras copias hoy por hoy. Quien sabe si llegaran algun dia a ser lo que somos, pero si llega, seran nuestros sucesores o hijos al menos.
Aruma escribió:Una maquina tendría sentimientos si con su "algoritmo" crea una forma de "pensar". Esa forma de "pensar" podría decidir que si es desconectado puede no existir, o puede que no vuelva a "pensar", con lo cual expresa su "sentimiento" perfectamente calculado.

La maquina intentaría sobrevivir a su existencia. Todos sabemos que algún día, una maquina puede volverse en nuestra contra. Porque su programa está preparado para aprender y ser "eficiente". Incluso es posible que una maquina que se vea Incapaz de hacer una tarea, es posible que termine "actualizándose" o cambiar su forma para poder ejercer esa tarea a la cual realizaba su función.

Los programas que son capaces de aprender a base de un algoritmo de datos, tienden a "razonar" en base a un aprendizaje global. Si la maquina aprende, que estando "apagada" no es un aparato utilizable, es posible que lo evite.


No, eso no es pensar, eso es una mera formula en la que se agregan datos de forma concreta a falta de mas informacion de un determinado tema. Es mas, si fuera asi como tu indicas, el autorrellenado de Google seria una "forma de pensar" por ti lo que pretendes escribir, cosa que no es asi.

El concepto de "pensar" ya de entrada denota inteligencia, capacidad de decision y determinacion por la eleccion de una o varias decisiones con una correspondiente posibilidad de exito. El caso, es que esa actuacion de los actos solo los hacemos los humanos, porque incluso en el mundo animal, la determinacion de la supervivencia esta tan sumamente bien balanceada, que la muerte de un animal no es una decision, es una causa y efecto para el entorno en el que sucede.

Una maquina, poder determinar una decision, deberia de entrada no disponer de los posibles resultados. Es decir, supongamos que hacemos un robot policia, en el que solo le explicas el funcionamiento del arma, la ley de Texas y lo sueltas por la ciudad ... sin ningun tipo de criterio, podria disparar a cualquier cosa sin asociar las causas del disparar .. solo porque en dicha ley no indica que no puda hacer tal cosa. Pero para llegar a ese punto, la base de programacion para determinar la decision del disparar, es tan increiblemente compleja, que resulta mas sencillo decir SOLO cuando disparar (si las condiciones son aptas) que la determinacion de "pensar" cuando debe hacerlo en caso de NO incumplir todas las posibles condiciones para ello.

Por eso digo, que estamos lejisimos de encontrar una IA que en base a una respuesta (no importa si emocional o no, porque esa emocion la determina el hombre, no la maquina) pueda considerar como actuar sin previamente indicarle como hacerlo, sin patrones anteriores, ni repeticiones ni aprendizaje previo.
70 respuestas
1, 2