› Foros › Off-Topic › Miscelánea
TECNOLOGÍA | Campaña contra la investigación de armas autónomas
'No a los robots asesinos'
- En Stop Killer Robots participan 22 ONGs de todo el mundo.
- Países como EE.UU, China o Alemania están desarrollando robots militares.
- Según los expertos las armas autónomas saldrán al mercado en 20 años.
Según las tres leyes de la robótica del autor de ciencia ficción Isaac Asimov, un robot no puede hacer daño a un ser humano debe obedecer las órdenes dadas por ellos y debe proteger su propia existencia, en la medida en que esta no ponga en peligro vidas humanas. Sin embargo, el cine, la literatura y la televisión ha sido testigos de cómo las inteligencias artificiales terminan poniendo estas leyes en contra de la humanidad. Para el colectivo Stop Killer Robots esta situación va más allá de la ciencia ficción. Por ello un colectivo conformado por 22 organizaciones sin ánimo de lucro en el mundo ha lanzado una campaña para prevenir que los gobiernos continúen desarrollando la tecnología robótica aplicada al campo de batalla.
Human Rights Watch es el coordinador de la Campaña que pide la prohibición preventiva y exhaustiva sobre la producción de armas completamente autónomas. El objetivo es conseguir la firma de un tratado internacional y la implementación de leyes nacionales y otras medidas que oficialicen la prohibición mundialmente. "Creo que la sociedad civil tiene el derecho y la obligación de actuar cuando consideran que el gobierno o los militares se están comportando de forma incorrecta en su nombre", ha señalado Jody Williams ganadora del Premio Nobel de Paz por la campaña contra la prohibición de las minas terrestres.
Pronto serán una realidad
Las armas totalmente autónomas aún no ha sido completamente desarrolladas y las grandes potencias, como Estados Unidos, no han tomado la decisión de implementarlas. Pero en las ultimas décadas, el aumento en el uso de drones y vehículos armados no tripulados ha cambiado dramáticamente la guerra y han traído nuevos retos humanitarios y jurídicos. Los militares están desarrollando o ya han desplegado precursores que ilustran el impulso hacia una mayor autonomía de las máquinas en el campo de batalla.
"Varios gobiernos, incluído Estados Unidos, están muy emocionados por moverse en esta dirección, están muy entusiasmos por sacar a los soldados del campo de batalla y remplazarlos por máquinas con el fin de disminuir las bajas", ha señalado Steve Goose, Director de la División de Armas de Human Right Watch. Para Goose, los militares están implementando cada vez una mayor autonomía en las armas, pero "se debe dibujar una línea muy clara en cuanto a las armas totalmente autónomas. Estas podrían llevar la tecnología demasiado lejos", ha afirmado.
Estados Unidos es líder en el desarrollo tecnológico de robots militares. Otros países como China, Alemania, Israel, Corea del Sur, Rusia y Reino Unido también han realizado investigaciones al respecto. La compañía británica BAE Systems estará probando sus aviones intercontinentales de combate autónomo, Taranis, en Australia esta primavera. EE.UU. ya han iniciado la fase de pruebas del Phantom Rayand X-47B, una nave subsónica totalmente autónoma que aparecerá en el campo de batalla para el 2019. La compañía china Shenyang Aircraft está trabajando en los primeros aviones no tripulados de combate supersónico, Anjian.
Si algo falla, ¿quién es el responsable?
Muchos expertos predicen que la plena autonomía de las armas podría lograrse dentro de 20 a 30 años, algunos creen que incluso antes. El gran problema que Stop Killer Robots destaca en la utilización de esta tecnología es que las armas autónomas no serían capaces de cumplir con el derecho internacional humanitario (DIH) y otras medidas de seguridad necesarias para proteger a los civiles en los conflictos armados.
"No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil" ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. "Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle", ha aclarado.
Según los expertos las máquinas del futuro pueden ser capaces de algunos tipos de discriminación, pero es muy poco probable que tengan el juicio, capacidad de razonamiento y conocimiento de la situación que los humanos emplean en la realización de evaluaciones de proporcionalidad.
Otro factor de preocupación para el colectivo es la responsabilidad que se derive de posibles accidentes o la mala utilización de los robots, debido a que serían muchos los grupos y organizaciones involucrados en la producción, distribución y operación de armas autónomas. "¿Si un robot se equivoca quién es el responsable? Seguramente no será el robot. Pero podría ser el comandante que lo envió o el fabricante, podría ser el programador que reprogramó la misión. O una bala habría podido dañar el ordenador del robot causando que se volviera loco", ha señalado Sharkey.
'Sé que podemos detenerlos'
A este respecto, Human Rights Watch ya había advertido en un informe publicado en noviembre de 2012 que los robots carecerían de las cualidades humanas necesarias para realizar controles legales y no legales sobre la muerte de civiles. Además, los obstáculos para identificar a los responsables por los daños causados por estas armas debilitaría el poder de la ley para disuadir futuras violaciones.
Para hacer frente a los temores de los retractores las armas autónomas, el Departamento de Defensa de Estados Unidos aprobó en noviembre pasado una normativa en la que se recoge la obligación de que los futuros diseños incluyan siempre algún grado de control por parte de operadores humanos. Pero para Human Rights Watch, la aclaración evidencia que el Gobierno estadounidense comparte la creciente preocupación de que armas completamente autónomas puedan poner en peligro a los civiles de diversas maneras.
Sin embargo, las peticiones en contra de los robots asesinos no han tenido gran acogida. En febrero de este año, el Comité Internacional para el Control de Armas Robot (IRAC), hizo un llamado a los ingenieros y científicos para que se sumaran a una petición para la prohibición del desarrollo y despliegue de sistemas de armas en los que la decisión de aplicar la fuerza se haga de manera automática. La petición, publicada en línea, tan solo ha conseguido 210 firmas de científicos provenientes de más de 35 países en dos meses.
Pero el colectivo Stop Killing Robots se mantiene positivo y ha planeado actividades políticas y académicas hasta noviembre de este año. Para Jody Williams el único camino posible es la prohibición de los robots de guerra ya desde los laboratorios de investigación. La activista ha asegurado que es posible conseguir el éxito, tal como sucedio con causas anteriores como la de la prohibición de las minas terrestres. "Sé que con los robots asesinos podemos hacer lo mismo, sé que podemos detenerlos antes de que alcancen a llegar al campo de batalla", ha asegurado.
"No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil" ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. "Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle", ha aclarado.
"No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil" ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. "Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle", ha aclarado.
SpitOnLinE escribió:Los drones ya son una realidad, ya han salido varias noticias que USA los esta usando para matar a los "terroristas".
Por ejemplo desde 2004 se han usado en Pakistan: http://en.wikipedia.org/wiki/Drone_attacks_in_Pakistan
Negar que debe de existir una discusión y regular el uso de estas maquinas es negar la realidad.
El gran problema de los drones es que la guerra se "desnaturaliza", así que ahora los enemigos son objetivos, son una serie de pixeles en una pantalla, que muchas veces las cámaras no alcanzan la resolución necesaria para saber si realmente el objetivo es el acertado.
noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.
Reakl escribió:noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.
No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.
El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?
No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.
caren103 escribió:El día que los carguen de pepinos nucleares, los conecten todos a una inteligencia artificial centralizada y ésta tome conciencia de sí misma, las películas de Terminator dejarán de ser de ciencia-ficción.
athlor escribió:Reakl escribió:noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.
No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.
El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?
No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.
me sigo quedando con la parte de la peli "yo, robot" en que el robot salva al prota y deja morir a la niña porque éste tenía un % más alto de sobrevivir. Vale que es una peli, pero no deja de ser el comportamiento lógico para un sistema informático.
La moralidad es algo sumamente complejo de modelar.
jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...
Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.
Los robots que se utilizan en el ejército son meras armas. Con el mismo alma que una ametralladora o una bomba atómica.
Así que pedir que los robots no maten mientras se prolifera en cientos de armas distintas mucho más mortales es una contradicción.
Perfect Ardamax escribió:...caren103 escribió:El día que los carguen de pepinos nucleares, los conecten todos a una inteligencia artificial centralizada y ésta tome conciencia de sí misma, las películas de Terminator dejarán de ser de ciencia-ficción.
KAISER-77 escribió:Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.
Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...
KAISER-77 escribió:Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.
Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...
Reakl escribió:KAISER-77 escribió:Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.
Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...
Personalmente prefiero que se maten robots entre ellos que a personas, claro está.
Reakl escribió:noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.
No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.
El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?
No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.
athlor escribió:me sigo quedando con la parte de la peli "yo, robot" en que el robot salva al prota y deja morir a la niña porque éste tenía un % más alto de sobrevivir. Vale que es una peli, pero no deja de ser el comportamiento lógico para un sistema informático.
La moralidad es algo sumamente complejo de modelar.
Perfect Ardamax escribió:El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.
Saludos
Reakl escribió:Personalmente prefiero que se maten robots entre ellos que a personas, claro está.
Gurlukovich escribió:Perfect Ardamax escribió:El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.
Saludos
Cualquier sistema militar que se precie estará protegido contra algo tan previsible como un EMP. Sería inútil si no fuera así.
Además, el juicio final no extinguía a los humanos, simplemente su sociedad es destruida y quedan simplemente como un grupo desorganizado y confuso frente a una única potencia militar, skynet.
Hadesillo escribió:Si algún día se acaba el mundo será por esto.SpitOnLinE escribió:Los drones ya son una realidad, ya han salido varias noticias que USA los esta usando para matar a los "terroristas".
Por ejemplo desde 2004 se han usado en Pakistan: http://en.wikipedia.org/wiki/Drone_attacks_in_Pakistan
Negar que debe de existir una discusión y regular el uso de estas maquinas es negar la realidad.
El gran problema de los drones es que la guerra se "desnaturaliza", así que ahora los enemigos son objetivos, son una serie de pixeles en una pantalla, que muchas veces las cámaras no alcanzan la resolución necesaria para saber si realmente el objetivo es el acertado.
Los drones son aviones por control remoto. Por la notícia he entendido que están desarrollando drones de éstos que van por IA. Y eso empieza a dar miedo.
jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...
Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.
Perfect Ardamax escribió:Gurlukovich escribió:Perfect Ardamax escribió:El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.
Saludos
Cualquier sistema militar que se precie estará protegido contra algo tan previsible como un EMP. Sería inútil si no fuera así.
Además, el juicio final no extinguía a los humanos, simplemente su sociedad es destruida y quedan simplemente como un grupo desorganizado y confuso frente a una única potencia militar, skynet.
Si te fijas en el argumento de terminator veras que skynet tiene esa potencia porque es un sistema descentralizado que aprovecha la potencia de todos los jodidos ordenadores del mundo ademas de que su enemigo es la raza humana (no la sociedad como tal).
Aun suponiendo que fuese suficiente con solo la capacidad de los sistemas militares tendrías el problema de que con toda la infraestructura destruida seria imposible crear mas robots así como mantenerse porque por muy aislado y bien protegido que se encuentre algo al final en ultima instancia necesita fuentes del exterior.
Por lo que rapidamente los humanos tenderían a agruparse y atacar los únicos sitios que tendrian actividad robotica importante (dado que skynet tenderia a proteger esos sistemas que le dan sustentación) en el momento en que esto sucediese skynet aunque matara mil humanos por cada robot perdido estaria estrategicamente acabado puesto que no tiene capacidad de expandirse y cuando los humanos lograran destruir unas pocas bases su capacidad de calculo no seria suficiente para mantenerse a si misma GAME OVER.
Una Situación tal y como la plantea la saga Terminator es Insostenible y a medio plazo acaba dando la victoria a los Humanos.
La única posibilidad de que algo como lo sucedido en la película terminator se de es que la sociedad este totalmente robotizada y los humanos ya no hagan nada delegando todos los trabajos y responsabilidades a los robot.
Entonces y solo entonces si skynet se hiciese con el control de todos los robot tendría todos las infraestructuras bajo su mando con lo cual rápidamente si que podría liquidarnos puesto que ya no nos necesita para nada (todo lo hacen robot que skynet controla).
Saludos
jnderblue escribió:jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...
Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.
Además que gran parte de su obra cuentística se basa en demostrar la inutilidad de esas leyes poniendo a los robots en situaciones complejas.
KoX escribió:Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.
En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...
Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...
Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.
En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.
Pero es a los robots civiles donde se le aplica las 3 leyes.
goto escribió:jnderblue escribió:jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...
Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.
Además que gran parte de su obra cuentística se basa en demostrar la inutilidad de esas leyes poniendo a los robots en situaciones complejas.
Situaciones paradojicas, no complejas.
Vamos a ver, aqui estais fumando porros como camiones, el problema no es vuestro, el problema es que las noticias que están sacando de este tema las están redactando fumetas, y claro, pasa lo que pasa.
No se tiene pensado dotar de autonomia absoluta a nada, por ahora, que es lo que se está haciendo en algunos caso, se están haciendo misiones no "pilotadas" (al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo) pero supervisadas por un controlador que puede tomar el control del drone en cualquier momento.
No se va a dotar a los sistemas terrestres de ningun tipo de inteligencia ni capacidad de decisión que no se deseé por parte de los diseñadores, y estos equipos se controlan desde un centro, al igual que vosotros jugais con la consola, la única diferencia es que en lugar de jugar estan viendo las imagenes de las camaras de los equipos, y punto.
Dios, que flipada de hilo.....
Sobre las leyes de la robótica, no son aplicables aún y no podrán serlo en muchísimo tiempo porque es necesario que el robot tenga cierta consciencia.
Si un robot carece de ella, simplemente no son "necesarias" en el sentido de que, con programar "no hagas esto" o "no hagas lo otro" es mas que suficiente.
No confundais la cienca ficción con la realidad, por diosKoX escribió:Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.
En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...
Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...
Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.
En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.
Pero es a los robots civiles donde se le aplica las 3 leyes.
a) Nunca será útil que una máquina tome decisiones por ti, por lo que nunca sucederá, se les podrá (que se hace) programar una cadena de N situaciones (que se hace) y dos opciones, que el siga A-B-C o que tu decidas pasar de A a C por la razón que sea, pero lo decidirás TU, nunca el, porque las máquinas son tontas y por mas o menos que nos guste, no pueden adquirir inteligencia propia por arte de birlibirloque, no es posible y no será posible si no se quiere que sea posible.
Que en las pelis lo hacen por Chas!, pero son peliculas, no la realidad, por mas pajas mentales que se haga uno ¿Tu que te crees, que el windows que tienes en la mesa te va a decir un dia "¡Oh! ¿Quien soy? ¿Que soy yo y mis circustancias?", pues lo mismo un drone...
b) Existen drones de infantería, bastante “feos” (unas orugas y una ametralladora encima, funcional y punto, que es lo que hace falta) y son radiocontrol, prácticamente no los han desplegado por el tema de la pérdida de control del equipo (Pero ya se han utilizado un par de veces). Y ese escenario está contemplado, tienen dos opciones, tras N minutos sin contacto, explotan y tras N minutos sin contacto, pues anda, lo has perdido, por eso aún no se utilizan de forma independiente al 100% (con independiente me refiero a no tener equipo desplegado con el radiocontrol)
(Con perdida de control me refiero a que pierdas la señal, no que la maquina diga "Aha! Es la hora de tomar el control y dominar... EL MUNDO!! AHAHAHAHA)
...al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo...
KoX escribió:Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.
En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...
Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...
Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.
En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.
Pero es a los robots civiles donde se le aplica las 3 leyes.
raday escribió:...al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo...
Para mi eso es terrorismo... es como poner un coche bomba delante de una comisaria. INDISCRIMINADO.
Entiendo que a algunos les flipe la tecnología militar, por que quieras o no las armas gustan, pero no jodamos, está mal... Ya me parece una mierda el tema de la supremacía aerea y ver videos como el del apache tiroteando civiles (aquella camara de fotos que parecía un bazooka) y luego tiroteando una ambulancia.
Estas tecnologías que alejan al ASESINO de su victima (por que disparar a alguien desarmando en la una plaza es asesinar, no un acto de guerra) lo deshumanizan.. En el fondo adoctrinar a un padre que ha perdido un hijo para que se inmole viene a ser la versión económica y de un solo uso de un dron...