'No a los robots asesinos drones'

daniel_mallorca está baneado por "Saltarse el ban con un clon"
TECNOLOGÍA | Campaña contra la investigación de armas autónomas

'No a los robots asesinos'

Imagen

Imagen

- En Stop Killer Robots participan 22 ONGs de todo el mundo.
- Países como EE.UU, China o Alemania están desarrollando robots militares.
- Según los expertos las armas autónomas saldrán al mercado en 20 años.


Según las tres leyes de la robótica del autor de ciencia ficción Isaac Asimov, un robot no puede hacer daño a un ser humano debe obedecer las órdenes dadas por ellos y debe proteger su propia existencia, en la medida en que esta no ponga en peligro vidas humanas. Sin embargo, el cine, la literatura y la televisión ha sido testigos de cómo las inteligencias artificiales terminan poniendo estas leyes en contra de la humanidad. Para el colectivo Stop Killer Robots esta situación va más allá de la ciencia ficción. Por ello un colectivo conformado por 22 organizaciones sin ánimo de lucro en el mundo ha lanzado una campaña para prevenir que los gobiernos continúen desarrollando la tecnología robótica aplicada al campo de batalla.

Human Rights Watch es el coordinador de la Campaña que pide la prohibición preventiva y exhaustiva sobre la producción de armas completamente autónomas. El objetivo es conseguir la firma de un tratado internacional y la implementación de leyes nacionales y otras medidas que oficialicen la prohibición mundialmente. "Creo que la sociedad civil tiene el derecho y la obligación de actuar cuando consideran que el gobierno o los militares se están comportando de forma incorrecta en su nombre", ha señalado Jody Williams ganadora del Premio Nobel de Paz por la campaña contra la prohibición de las minas terrestres.

Pronto serán una realidad

Las armas totalmente autónomas aún no ha sido completamente desarrolladas y las grandes potencias, como Estados Unidos, no han tomado la decisión de implementarlas. Pero en las ultimas décadas, el aumento en el uso de drones y vehículos armados no tripulados ha cambiado dramáticamente la guerra y han traído nuevos retos humanitarios y jurídicos. Los militares están desarrollando o ya han desplegado precursores que ilustran el impulso hacia una mayor autonomía de las máquinas en el campo de batalla.

"Varios gobiernos, incluído Estados Unidos, están muy emocionados por moverse en esta dirección, están muy entusiasmos por sacar a los soldados del campo de batalla y remplazarlos por máquinas con el fin de disminuir las bajas", ha señalado Steve Goose, Director de la División de Armas de Human Right Watch. Para Goose, los militares están implementando cada vez una mayor autonomía en las armas, pero "se debe dibujar una línea muy clara en cuanto a las armas totalmente autónomas. Estas podrían llevar la tecnología demasiado lejos", ha afirmado.

Estados Unidos es líder en el desarrollo tecnológico de robots militares. Otros países como China, Alemania, Israel, Corea del Sur, Rusia y Reino Unido también han realizado investigaciones al respecto. La compañía británica BAE Systems estará probando sus aviones intercontinentales de combate autónomo, Taranis, en Australia esta primavera. EE.UU. ya han iniciado la fase de pruebas del Phantom Rayand X-47B, una nave subsónica totalmente autónoma que aparecerá en el campo de batalla para el 2019. La compañía china Shenyang Aircraft está trabajando en los primeros aviones no tripulados de combate supersónico, Anjian.

Si algo falla, ¿quién es el responsable?

Muchos expertos predicen que la plena autonomía de las armas podría lograrse dentro de 20 a 30 años, algunos creen que incluso antes. El gran problema que Stop Killer Robots destaca en la utilización de esta tecnología es que las armas autónomas no serían capaces de cumplir con el derecho internacional humanitario (DIH) y otras medidas de seguridad necesarias para proteger a los civiles en los conflictos armados.

"No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil" ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. "Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle", ha aclarado.

Según los expertos las máquinas del futuro pueden ser capaces de algunos tipos de discriminación, pero es muy poco probable que tengan el juicio, capacidad de razonamiento y conocimiento de la situación que los humanos emplean en la realización de evaluaciones de proporcionalidad.

Otro factor de preocupación para el colectivo es la responsabilidad que se derive de posibles accidentes o la mala utilización de los robots, debido a que serían muchos los grupos y organizaciones involucrados en la producción, distribución y operación de armas autónomas. "¿Si un robot se equivoca quién es el responsable? Seguramente no será el robot. Pero podría ser el comandante que lo envió o el fabricante, podría ser el programador que reprogramó la misión. O una bala habría podido dañar el ordenador del robot causando que se volviera loco", ha señalado Sharkey.

'Sé que podemos detenerlos'

A este respecto, Human Rights Watch ya había advertido en un informe publicado en noviembre de 2012 que los robots carecerían de las cualidades humanas necesarias para realizar controles legales y no legales sobre la muerte de civiles. Además, los obstáculos para identificar a los responsables por los daños causados ​​por estas armas debilitaría el poder de la ley para disuadir futuras violaciones.

Para hacer frente a los temores de los retractores las armas autónomas, el Departamento de Defensa de Estados Unidos aprobó en noviembre pasado una normativa en la que se recoge la obligación de que los futuros diseños incluyan siempre algún grado de control por parte de operadores humanos. Pero para Human Rights Watch, la aclaración evidencia que el Gobierno estadounidense comparte la creciente preocupación de que armas completamente autónomas puedan poner en peligro a los civiles de diversas maneras.

Sin embargo, las peticiones en contra de los robots asesinos no han tenido gran acogida. En febrero de este año, el Comité Internacional para el Control de Armas Robot (IRAC), hizo un llamado a los ingenieros y científicos para que se sumaran a una petición para la prohibición del desarrollo y despliegue de sistemas de armas en los que la decisión de aplicar la fuerza se haga de manera automática. La petición, publicada en línea, tan solo ha conseguido 210 firmas de científicos provenientes de más de 35 países en dos meses.

Pero el colectivo Stop Killing Robots se mantiene positivo y ha planeado actividades políticas y académicas hasta noviembre de este año. Para Jody Williams el único camino posible es la prohibición de los robots de guerra ya desde los laboratorios de investigación. La activista ha asegurado que es posible conseguir el éxito, tal como sucedio con causas anteriores como la de la prohibición de las minas terrestres. "Sé que con los robots asesinos podemos hacer lo mismo, sé que podemos detenerlos antes de que alcancen a llegar al campo de batalla", ha asegurado.

http://www.elmundo.es/elmundo/2013/04/24/navegante/1366799209.html

Son un conjunto de normas escritas por Isaac Asimov:

La ley cero:

0- Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Tres leyes de la robótica:

1- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

3- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.


http://es.wikipedia.org/wiki/Tres_leyes_de_la_rob%C3%B3tica
Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...

Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.

Los robots que se utilizan en el ejército son meras armas. Con el mismo alma que una ametralladora o una bomba atómica.
Así que pedir que los robots no maten mientras se prolifera en cientos de armas distintas mucho más mortales es una contradicción.
kai_dranzer20 está baneado por "Game Over"
claro, a ese montòn de viejitos no los volterìa a ver nadie .

si ponen a varias rubias desnudas veràn como salen en los telediarios de todo el mundo :)

de todas formas, ni en 100 años podràn hacer un terminator medio funcional XD

parece que quedaròn traumados a ver "Yo robot"
el mejor robot asesino es hoy y siempre

Imagen
Yo tengo un robot asesino de estos en casa, cuando lo enchufo el cabron siempre va directo a por mi [qmparto]

Imagen
Y digo yo, ¿No sería más eficiente pedir el cese de las guerras? Es decir, ¿hablamos de la construcción de armas de matar y lo que les preocupa a esta gente es que se vuelvan contra ellos? Es como si en una convención de armas de fuego se pide el cese de la producción de armas por miedo a que se dispare hacia atrás.

Me parece repugnante.
Llevo tiempo bromeando con mi teoría de "el propósito del hombre es crear una raza inmortal, todopoderosa, que trascienda todos sus límites y, después, los hombres deberían dejar de existir para que la raza nueva pueda crecer por sí misma, siguiendo el ciclo natural de evolución/extinción".

Sé que es muy tétrica, derrotista y tal pero ¿en serio es TAN descabellada?. Cada vez es más evidente que los hombres somos capaces de todo menos de perpetuarnos a nosotros mismos. Que se ponga tanto énfasis en la creación de armamento autónomo no hace más que reforzar la idea ésa que he dicho y que ojalá se mantenga utópica.
Creo que han visto demasiadas películas...
futuro mad max está baneado del subforo por "cibervoluntario"
es eso, o enviar soldados a morir
la gente ve demasiadas pelis
La guerra es el negocio más estable y lucrativo que existe.

Para rato paran la producción de estas mierdas. Eso sí, dirán que los diseñan y crean para eso mismo. Para minimizar bajas e impactos en la economía.

Menudo cachondeo de mundo :S
Los drones ya son una realidad, ya han salido varias noticias que USA los esta usando para matar a los "terroristas".
Por ejemplo desde 2004 se han usado en Pakistan: http://en.wikipedia.org/wiki/Drone_attacks_in_Pakistan
Negar que debe de existir una discusión y regular el uso de estas maquinas es negar la realidad.

El gran problema de los drones es que la guerra se "desnaturaliza", así que ahora los enemigos son objetivos, son una serie de pixeles en una pantalla, que muchas veces las cámaras no alcanzan la resolución necesaria para saber si realmente el objetivo es el acertado.
"No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil" ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. "Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle", ha aclarado.


Anda que...
No estuve viendo nada sobre esas armas drones que citan, pero ¿armas de ataque automático? Es bien sencillo, que se controlen remotamente y ya no tienen esos problemas.

Exactamente esto:
"No existen funciones en la inteligencia artificial o en la robótica que puedan discriminar entre un combatiente o un civil" ha explicado Noel Sharkey, profesor de inteligencia artificial y robótica de la Universidad de Sheffield. "Sería imposible [para un robot] diferenciar entre una niña apuntando con un helado al robot o alguien apuntándole con un rifle", ha aclarado.

Es mucho mas eficiente (¿y eficaz?) algo manual.
Poner a personas a decidir sobre quién vive y quién muere es lamentable; poner a máquinas ante la misma coyuntura es aberrante.
Creo que tienen en demasiada alta estima a los humanos, les preocupan mucho los errores de las máquinas, pero errare humanum est. Y no errare, también, desde chisparse a joder por gusto. Más vale centrarse en prevenir conflictos que en su desarrollo leal.
Si algún día se acaba el mundo será por esto.
SpitOnLinE escribió:Los drones ya son una realidad, ya han salido varias noticias que USA los esta usando para matar a los "terroristas".
Por ejemplo desde 2004 se han usado en Pakistan: http://en.wikipedia.org/wiki/Drone_attacks_in_Pakistan
Negar que debe de existir una discusión y regular el uso de estas maquinas es negar la realidad.

El gran problema de los drones es que la guerra se "desnaturaliza", así que ahora los enemigos son objetivos, son una serie de pixeles en una pantalla, que muchas veces las cámaras no alcanzan la resolución necesaria para saber si realmente el objetivo es el acertado.

Los drones son aviones por control remoto. Por la notícia he entendido que están desarrollando drones de éstos que van por IA. Y eso empieza a dar miedo.
noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.

No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.

El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?

No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.
El día que los carguen de pepinos nucleares, los conecten todos a una inteligencia artificial centralizada y ésta tome conciencia de sí misma, las películas de Terminator dejarán de ser de ciencia-ficción XD .
Reakl escribió:
noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.

No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.

El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?

No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.

me sigo quedando con la parte de la peli "yo, robot" en que el robot salva al prota y deja morir a la niña porque éste tenía un % más alto de sobrevivir. Vale que es una peli, pero no deja de ser el comportamiento lógico para un sistema informático.
La moralidad es algo sumamente complejo de modelar.
No termino de entender el jaleo que se ha montado con los drones estos.
No hay más que ver por ahí vídeos de soldados de EEUU friendo a grupos de civiles desde helicópteros en la distancia sin que los otros ni se lo huelan. ¿cuál es la diferencia?

No hay que pedir que se paren de desarrollar drones, hay que pedir que se terminen las políticas belicistas de ciertos países, no hay más.
Recordemos que Asimov es un escritor de ficción.
caren103 escribió:El día que los carguen de pepinos nucleares, los conecten todos a una inteligencia artificial centralizada y ésta tome conciencia de sí misma, las películas de Terminator dejarán de ser de ciencia-ficción XD .


El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.

Saludos
athlor escribió:
Reakl escribió:
noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.

No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.

El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?

No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.

me sigo quedando con la parte de la peli "yo, robot" en que el robot salva al prota y deja morir a la niña porque éste tenía un % más alto de sobrevivir. Vale que es una peli, pero no deja de ser el comportamiento lógico para un sistema informático.
La moralidad es algo sumamente complejo de modelar.


Hombre, tenían que haber incorporado la variable quien vivirá más tiempo independientemente de las posibilidades de sobrevivir, y ya estaba. Mira que no es difícil, ni que fuera una decisión basada en el corazón, cuando es pura y fría lógica.
jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...

Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.

Los robots que se utilizan en el ejército son meras armas. Con el mismo alma que una ametralladora o una bomba atómica.
Así que pedir que los robots no maten mientras se prolifera en cientos de armas distintas mucho más mortales es una contradicción.



+1
nada mas que añadir, todo muy acertado
Perfect Ardamax escribió:
caren103 escribió:El día que los carguen de pepinos nucleares, los conecten todos a una inteligencia artificial centralizada y ésta tome conciencia de sí misma, las películas de Terminator dejarán de ser de ciencia-ficción XD .
...


Reportado por chafarme la película XD (es broma).


Tú no conoces a Skynet: es muy sibilina y todo estaría planificado para sobrevivir, aunque fuera en el interior de los ordenadores de las bases militares a prueba de ataques nucleares de los EEUU XD .
Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.

Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...
KAISER-77 escribió:Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.

Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...

Personalmente prefiero que se maten robots entre ellos que a personas, claro está.
KAISER-77 escribió:Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.

Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...


Te falta una:
g) ¿Cual es el coste de equipar un soldado? 5000€ (a boleo, por poner una cifra). ¿Cual es el coste de un robot? 500.000€ Ergo... ¿cómo gana más pasta el complejo militar-industrial?
Reakl escribió:
KAISER-77 escribió:Se que me vaís a llamar de todo pero todo se reduce a:
a) Cual es el coste politico de un robot destruido? 0€
b) Cual es el coste de entrenar a un robot? 0€ (se puede hacer con simuladores y con aire acondicionado en las Vegas)
c) Cuando hay que pagaar a sus familias? 0€
d) Los robots tiene moral, principios o problemas? No
e) Los robots se cansan o te salen respondones? No
f) Es más caro entrenar un soldado o un robot? Por ahora un robot, pronto será al revés.

Nos guste o no, las guerras se van a librar con robots... al menos en un mando. El día que cueste menos un robot que un soldado, ese día los soldados no serán necesarios y no se usarán. No veo mal la idea, salvo por el detalle de que se pierde la poca humanidad que quedaba en la guerra...

Personalmente prefiero que se maten robots entre ellos que a personas, claro está.

En lo de eliminar al rival muchas veces entra también su población civil. Y eso con robots es peligroso.
Pero sí, en las guerras del futuro veremos muchas cosas de la scifi. Robots, exo-esqueletos...
La guerra ha evolucionado a ser cada vez más bestias. Seguro que no son tan sangrientas como las medievales, pero al fin y al cabo aquello eran 2000 tios (hablando de una tropa de las más grandes, un ejército real) contra otros 2000. Fue a más a más hasta que en el XIX estuvimos viendo a generaciones enteras lanzarse contra pelotones de fusilamiento muriendo por millones en guerras como la de secesión americana, la franco-prusiana o las guerras imperialistas rusas. Y así hasta el desastre de la I Guerra mundial, donde viendo el percal dijimos eh eh eh, calma. Como se nos vaya las manos con ésto contra la población civil va a ser un exterminio total.
Reakl escribió:
noentiendero escribió:Es mucho mas eficiente (¿y eficaz?) algo manual.

No es cierto. Calcula el tiempo en lo que tardas en hacer una división con lapiz y papel y compáralo con lo que tarda en hacerlo un ordenador.

El ejemplo de la niña y el helado es sumamente estúpido. Claro está que una máquina puede equivocarse. ¿Y una persona no? ¿nunca se ha matado a nadie por confundirlo con un atacante?

No es por defender las guerras, pero una máquina siempre podrá llegar a ser mucho más eficiente para según que taréas. Y creo personalmente, que en caso de guerra hay otras prioridades que preocuparse por la cantidad de niños con helado que hay en una base militar enemiga. Empezando por la prevención de la propia guerra y terminando por quíen demonios ha llevado a una niña a un emplazamiento militar, y si es un refugio, por qué demonios se está atacando a un refugio por muchos militares que pueda haber.


Me refiero a que humanamente (quiero decir que lo hagan personas porque muy humano no sería) se seleccionen blancos manualmente. ¿Equivocarse? Depende de la fiabilidad del visor del objetivo.
Digo yo que mucho antes de preocuparse por la llegada de los Terminators al mundo real, podríamos preocuparnos por erradicar la figura del niño combatiente, que lleva entre nosotros desde que el mundo es mundo.

Ah, que eso no es novedad y preocupa menos a esta gente. Po fale...
Siempre que ests bichos necesiten la confirmación por parte de un humano para abrir fuego me parece "razonable" su uso militar
El día del juicio final es inevitable...
Imagen
athlor escribió:me sigo quedando con la parte de la peli "yo, robot" en que el robot salva al prota y deja morir a la niña porque éste tenía un % más alto de sobrevivir. Vale que es una peli, pero no deja de ser el comportamiento lógico para un sistema informático.
La moralidad es algo sumamente complejo de modelar.

No estoy de acuerdo, si puede hacer un sistema tan avanzado como los de la peli de yo robot puedes dotarlos de moralidad y emociones sin muchos problemas, son unos sistemas bastante simples, de hecho diría que son de lo más básico. Me es más fácil imaginar a un humano sin emociones ni moral que a un robot, al fin y al cabo, los sociopatas existen, hoy en día, estamos rodeados de ellos.

Perfect Ardamax escribió:El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.

Saludos

Cualquier sistema militar que se precie estará protegido contra algo tan previsible como un EMP. Sería inútil si no fuera así.
Además, el juicio final no extinguía a los humanos, simplemente su sociedad es destruida y quedan simplemente como un grupo desorganizado y confuso frente a una única potencia militar, skynet.
Estáis hablando de ciencia ficción, no de realidad...
Reakl escribió:Personalmente prefiero que se maten robots entre ellos que a personas, claro está.

Perdona pero me parece que ese comentario peca de ingenuidad.
Gurlukovich escribió:
Perfect Ardamax escribió:El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.

Saludos

Cualquier sistema militar que se precie estará protegido contra algo tan previsible como un EMP. Sería inútil si no fuera así.
Además, el juicio final no extinguía a los humanos, simplemente su sociedad es destruida y quedan simplemente como un grupo desorganizado y confuso frente a una única potencia militar, skynet.


Si te fijas en el argumento de terminator veras que skynet tiene esa potencia porque es un sistema descentralizado que aprovecha la potencia de todos los jodidos ordenadores del mundo ademas de que su enemigo es la raza humana (no la sociedad como tal).
Aun suponiendo que fuese suficiente con solo la capacidad de los sistemas militares tendrías el problema de que con toda la infraestructura destruida seria imposible crear mas robots así como mantenerse porque por muy aislado y bien protegido que se encuentre algo al final en ultima instancia necesita fuentes del exterior.
Por lo que rapidamente los humanos tenderían a agruparse y atacar los únicos sitios que tendrian actividad robotica importante (dado que skynet tenderia a proteger esos sistemas que le dan sustentación) en el momento en que esto sucediese skynet aunque matara mil humanos por cada robot perdido estaria estrategicamente acabado puesto que no tiene capacidad de expandirse y cuando los humanos lograran destruir unas pocas bases su capacidad de calculo no seria suficiente para mantenerse a si misma GAME OVER.
Una Situación tal y como la plantea la saga Terminator es Insostenible y a medio plazo acaba dando la victoria a los Humanos.

La única posibilidad de que algo como lo sucedido en la película terminator se de es que la sociedad este totalmente robotizada y los humanos ya no hagan nada delegando todos los trabajos y responsabilidades a los robot.
Entonces y solo entonces si skynet se hiciese con el control de todos los robot tendría todos las infraestructuras bajo su mando con lo cual rápidamente si que podría liquidarnos puesto que ya no nos necesita para nada (todo lo hacen robot que skynet controla).

Saludos
Hadesillo escribió:Si algún día se acaba el mundo será por esto.
SpitOnLinE escribió:Los drones ya son una realidad, ya han salido varias noticias que USA los esta usando para matar a los "terroristas".
Por ejemplo desde 2004 se han usado en Pakistan: http://en.wikipedia.org/wiki/Drone_attacks_in_Pakistan
Negar que debe de existir una discusión y regular el uso de estas maquinas es negar la realidad.

El gran problema de los drones es que la guerra se "desnaturaliza", así que ahora los enemigos son objetivos, son una serie de pixeles en una pantalla, que muchas veces las cámaras no alcanzan la resolución necesaria para saber si realmente el objetivo es el acertado.

Los drones son aviones por control remoto. Por la notícia he entendido que están desarrollando drones de éstos que van por IA. Y eso empieza a dar miedo.


Tienes razón.
Pero creo que va a pasar bastante tiempo antes de que los drones puedan ir sin ningun tipo de seguimiento. Ahora mismo el problema que deben solucionar para la planificación de rutas y demás no esta "solucionado" de una forma satisfactoria, aún el problema es demasiado complejo de tratar pese a existir aproximaciones sin muy buenos resultados.
Para cuando SkyNet fue consciente de su capacidad, se había esparcido por millones de servidores informáticos por todo el planeta. Ordenadores corrientes en edificios de oficinas, en cibercafes, en todas partes. Todo era sofware, y ciberespacio. No había núcleo del sistema. No se podía desconectar. El ataque empezó a las 18:18, tal como él había dicho. El Día del Juicio, el día que la raza humana quedó prácticamente destruída por las armas que había fabricado para protegerse. Debí darme cuenta de que nuestro destino nunca fue evitar el Dia del Juicio. Era simplemente sobrevivir a él. Juntos. El Terminator lo sabía. Intentó decirnoslo, pero yo no quise escucharle. Puede que el futuro ya esté escrito. No lo sé. Solo se lo que el Terminator me enseñó. Nunca dejes de luchar. Y nunca lo haré. La batalla no ha hecho mas que empezar.

Imagen
jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...

Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.

Además que gran parte de su obra cuentística se basa en demostrar la inutilidad de esas leyes poniendo a los robots en situaciones complejas.
Perfect Ardamax escribió:
Gurlukovich escribió:
Perfect Ardamax escribió:El fallo radica en que la detonación de esas armas nucleares también destruiría a esa inteligencia artificial debido a los pulsos EMP y los pocos sistemas que sobrevivieses no tendrían la potencia conjunta suficiente para que esa inteligencia artificial fuese tan potente.
Y de poder seguir siéndolo como se abastecer porque que yo sepa una de las claves de la guerra nuclear es la aniquilación total de la capacidad ofensivo/defensiva del enemigo por lo que si destruye su propia infraestructura para crear mas armas indirectamente nos da la victoria a los humanos.
Lo único que podría funcionar seria una táctica de aniquilación total en la que todos quedáramos destruidos (incluyendo la propia inteligencia artificial).
Pero a parte de ser un sin sentido actualmente es imposible puesto que serian necesario superar en más de 10 veces el arsenal nuclear mundial actual para tener una posibilidad "probable" de extinguir al ser humano.
Así pues por mucho que se hiciese eso actualmente no niego que estaríamos muy jodidos "millones de muertos" pero algo estilo terminator en la practica es imposible.

Saludos

Cualquier sistema militar que se precie estará protegido contra algo tan previsible como un EMP. Sería inútil si no fuera así.
Además, el juicio final no extinguía a los humanos, simplemente su sociedad es destruida y quedan simplemente como un grupo desorganizado y confuso frente a una única potencia militar, skynet.


Si te fijas en el argumento de terminator veras que skynet tiene esa potencia porque es un sistema descentralizado que aprovecha la potencia de todos los jodidos ordenadores del mundo ademas de que su enemigo es la raza humana (no la sociedad como tal).
Aun suponiendo que fuese suficiente con solo la capacidad de los sistemas militares tendrías el problema de que con toda la infraestructura destruida seria imposible crear mas robots así como mantenerse porque por muy aislado y bien protegido que se encuentre algo al final en ultima instancia necesita fuentes del exterior.
Por lo que rapidamente los humanos tenderían a agruparse y atacar los únicos sitios que tendrian actividad robotica importante (dado que skynet tenderia a proteger esos sistemas que le dan sustentación) en el momento en que esto sucediese skynet aunque matara mil humanos por cada robot perdido estaria estrategicamente acabado puesto que no tiene capacidad de expandirse y cuando los humanos lograran destruir unas pocas bases su capacidad de calculo no seria suficiente para mantenerse a si misma GAME OVER.
Una Situación tal y como la plantea la saga Terminator es Insostenible y a medio plazo acaba dando la victoria a los Humanos.

La única posibilidad de que algo como lo sucedido en la película terminator se de es que la sociedad este totalmente robotizada y los humanos ya no hagan nada delegando todos los trabajos y responsabilidades a los robot.
Entonces y solo entonces si skynet se hiciese con el control de todos los robot tendría todos las infraestructuras bajo su mando con lo cual rápidamente si que podría liquidarnos puesto que ya no nos necesita para nada (todo lo hacen robot que skynet controla).

Saludos

Personalmente no considero la tercera película, ni ninguna posterior ni mucho menos la serie como canon. Dicho esto, lo primero es que los humanos estarían totalmente desorganizados y confundidos después del juicio final, nadie sabría por que pasó, no habrían comunicaciones a larga distancia, incluso si unos pocos humanos como John Connors y personal relacionado con skynet supieran la verdad, todos los tomarían por locos hasta que las máquinas realmente empezaran la guerra, ni tendrían una estructura de inteligencia para trazar dónde skynet tiene su base. Mientras tanto skynet, usando su ejército básico robotizado y lo que fuera que pudiera controlar podría esclavizar poblaciones humanas enteras y dedicarlas a la producción de los primeros modelos. Una vez con una infraestructura para ello, podría dedicarse al exterminio de los humanos sin depender de ellos. Le llevaría años, tiempo más que suficiente para que los humanos se dieran cuenta del problema, muchos escapados de los campos empezarían a organizar una resistencia y coordinarse.

Además, al final los humanos ganan la guerra, el viaje en el tiempo fue una medida desesperada de skynet, con lo que cuadraría en tu escenario.
Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.

En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...

Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...

Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.

En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.

Pero es a los robots civiles donde se le aplica las 3 leyes.
jnderblue escribió:
jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...

Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.

Además que gran parte de su obra cuentística se basa en demostrar la inutilidad de esas leyes poniendo a los robots en situaciones complejas.

Situaciones paradojicas, no complejas.

Vamos a ver, aqui estais fumando porros como camiones, el problema no es vuestro, el problema es que las noticias que están sacando de este tema las están redactando fumetas, y claro, pasa lo que pasa.

No se tiene pensado dotar de autonomia absoluta a nada, por ahora, que es lo que se está haciendo en algunos caso, se están haciendo misiones no "pilotadas" (al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo) pero supervisadas por un controlador que puede tomar el control del drone en cualquier momento.

No se va a dotar a los sistemas terrestres de ningun tipo de inteligencia ni capacidad de decisión que no se deseé por parte de los diseñadores, y estos equipos se controlan desde un centro, al igual que vosotros jugais con la consola, la única diferencia es que en lugar de jugar estan viendo las imagenes de las camaras de los equipos, y punto.

Dios, que flipada de hilo.....

Sobre las leyes de la robótica, no son aplicables aún y no podrán serlo en muchísimo tiempo porque es necesario que el robot tenga cierta consciencia.
Si un robot carece de ella, simplemente no son "necesarias" en el sentido de que, con programar "no hagas esto" o "no hagas lo otro" es mas que suficiente.
No confundais la cienca ficción con la realidad, por dios

KoX escribió:Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.

En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...

Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...

Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.

En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.

Pero es a los robots civiles donde se le aplica las 3 leyes.

a) Nunca será útil que una máquina tome decisiones por ti, por lo que nunca sucederá, se les podrá (que se hace) programar una cadena de N situaciones (que se hace) y dos opciones, que el siga A-B-C o que tu decidas pasar de A a C por la razón que sea, pero lo decidirás TU, nunca el, porque las máquinas son tontas y por mas o menos que nos guste, no pueden adquirir inteligencia propia por arte de birlibirloque, no es posible y no será posible si no se quiere que sea posible.
Que en las pelis lo hacen por Chas!, pero son peliculas, no la realidad, por mas pajas mentales que se haga uno ¿Tu que te crees, que el windows que tienes en la mesa te va a decir un dia "¡Oh! ¿Quien soy? ¿Que soy yo y mis circustancias?", pues lo mismo un drone...
b) Existen drones de infantería, bastante “feos” (unas orugas y una ametralladora encima, funcional y punto, que es lo que hace falta) y son radiocontrol, prácticamente no los han desplegado por el tema de la pérdida de control del equipo (Pero ya se han utilizado un par de veces). Y ese escenario está contemplado, tienen dos opciones, tras N minutos sin contacto, explotan y tras N minutos sin contacto, pues anda, lo has perdido, por eso aún no se utilizan de forma independiente al 100% (con independiente me refiero a no tener equipo desplegado con el radiocontrol)
(Con perdida de control me refiero a que pierdas la señal, no que la maquina diga "Aha! Es la hora de tomar el control y dominar... EL MUNDO!! AHAHAHAHA)
goto escribió:
jnderblue escribió:
jorcoval escribió:Supongo que hablar de las 3 leyes de la robótica en este caso es para darle más promoción...

Las 3 leyes de la robótica son pura y dura ciencia ficción. Los robots de Asimov son humanoides que incluso llegan a desarrollar sentimientos.

Además que gran parte de su obra cuentística se basa en demostrar la inutilidad de esas leyes poniendo a los robots en situaciones complejas.

Situaciones paradojicas, no complejas.

Vamos a ver, aqui estais fumando porros como camiones, el problema no es vuestro, el problema es que las noticias que están sacando de este tema las están redactando fumetas, y claro, pasa lo que pasa.

No se tiene pensado dotar de autonomia absoluta a nada, por ahora, que es lo que se está haciendo en algunos caso, se están haciendo misiones no "pilotadas" (al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo) pero supervisadas por un controlador que puede tomar el control del drone en cualquier momento.

No se va a dotar a los sistemas terrestres de ningun tipo de inteligencia ni capacidad de decisión que no se deseé por parte de los diseñadores, y estos equipos se controlan desde un centro, al igual que vosotros jugais con la consola, la única diferencia es que en lugar de jugar estan viendo las imagenes de las camaras de los equipos, y punto.

Dios, que flipada de hilo.....

Sobre las leyes de la robótica, no son aplicables aún y no podrán serlo en muchísimo tiempo porque es necesario que el robot tenga cierta consciencia.
Si un robot carece de ella, simplemente no son "necesarias" en el sentido de que, con programar "no hagas esto" o "no hagas lo otro" es mas que suficiente.
No confundais la cienca ficción con la realidad, por dios

KoX escribió:Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.

En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...

Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...

Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.

En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.

Pero es a los robots civiles donde se le aplica las 3 leyes.

a) Nunca será útil que una máquina tome decisiones por ti, por lo que nunca sucederá, se les podrá (que se hace) programar una cadena de N situaciones (que se hace) y dos opciones, que el siga A-B-C o que tu decidas pasar de A a C por la razón que sea, pero lo decidirás TU, nunca el, porque las máquinas son tontas y por mas o menos que nos guste, no pueden adquirir inteligencia propia por arte de birlibirloque, no es posible y no será posible si no se quiere que sea posible.
Que en las pelis lo hacen por Chas!, pero son peliculas, no la realidad, por mas pajas mentales que se haga uno ¿Tu que te crees, que el windows que tienes en la mesa te va a decir un dia "¡Oh! ¿Quien soy? ¿Que soy yo y mis circustancias?", pues lo mismo un drone...
b) Existen drones de infantería, bastante “feos” (unas orugas y una ametralladora encima, funcional y punto, que es lo que hace falta) y son radiocontrol, prácticamente no los han desplegado por el tema de la pérdida de control del equipo (Pero ya se han utilizado un par de veces). Y ese escenario está contemplado, tienen dos opciones, tras N minutos sin contacto, explotan y tras N minutos sin contacto, pues anda, lo has perdido, por eso aún no se utilizan de forma independiente al 100% (con independiente me refiero a no tener equipo desplegado con el radiocontrol)
(Con perdida de control me refiero a que pierdas la señal, no que la maquina diga "Aha! Es la hora de tomar el control y dominar... EL MUNDO!! AHAHAHAHA)


joer dejanos fliparnos ¿no? XD

A) Estamos en la edad de piedra en cuanto robótica y IA...pero que se estan tomando muchos esfuerzos en mejorar las IA es cierto.
B) Que ahora sea una programación de N situaciones sí, pero opino que en un futuro tomar ciertas decisiones por parte de los drones puede ser ventajoso. No digo que de derrepente sea "¡leches, si pienso!! entonces existo que les peten a los humanos!!". Pero una de esas posibles decisiones sea elegir entre A o B.

La retirada por ejemplo de una posisción, un escuadrón dron defiende una avanzadilla de suministros, y una retirada de la avanzada de humanos perdiendo terreno. Los drones se encargarán de defender la posición y salvaguardar la retirada retrasando el avanze enemigo para que se pongan más humanos a salvo. Repentina pérdida de contacto de control en el momento del ataque enemigo antes de tiempo además. Sus N directrices eran defender suministros hasta su huida(A) y/o apoyar la retirada(B). Ante el pronto ataque enemigo los drones mediante cálculos (que al fin y al cabo es lo que hace nuestro cerebro) deciden una opción entre A y B adelantarse algo en la línea para apoyar a los que aún retroceden pero no alejarse demasiado de los suministros para defender esa posición.
Eso sin contar las miles de decisiones como posición de cobertura por el terreno, posición mejor de defensa según el ataque enemigo...

¿Que lo que digo puede que no ocurra? Bueno, es posible, pero también es posible que ocurra ¿no?
...al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo...

Para mi eso es terrorismo... es como poner un coche bomba delante de una comisaria. INDISCRIMINADO.

Entiendo que a algunos les flipe la tecnología militar, por que quieras o no las armas gustan, pero no jodamos, está mal... Ya me parece una mierda el tema de la supremacía aerea y ver videos como el del apache tiroteando civiles (aquella camara de fotos que parecía un bazooka) y luego tiroteando una ambulancia.

Estas tecnologías que alejan al ASESINO de su victima (por que disparar a alguien desarmando en la una plaza es asesinar, no un acto de guerra) lo deshumanizan.. En el fondo adoctrinar a un padre que ha perdido un hijo para que se inmole viene a ser la versión económica y de un solo uso de un dron...
KoX escribió:Solo quiero añadir un apunte para aquellos que dicen son drones dirigidos. Por ahora sí.

En un momento dado a los militares les puede ser útil que tomen ciertas decisicones por su parte. En una guerra el enemigo también puede tener tecnologia para ir anulando drones o las comunicaciones entre ellos o vete a saber...

Al principio serán decisiones simples al cortarse las comunicaciones, seguir en vuelo, dirigirse a otro sitio...

Pero ¿y si algún dia se hacen drones de infanteria? dirigidos por humanos, aunque los drones no tengan forma humana. Pasará lo mismo, en un combate se pierde la comunicación por lo que sea, esos drones deberán tener autonomia de elección o por lo menos de seguir el plan previsto.

En consecuencia serán robots asesinos ya que no pueden aplicarle las 3 leyes.

Pero es a los robots civiles donde se le aplica las 3 leyes.

¿Tanques? Dirigidos a distancia, o con IAs (como los Tachikoma) XD
No creo que nunca hagan robots antropomorfos para la guerra, no parecen prácticos. O ruedas (o ruedas de oruga) o con 4 patas para superfícies que no sean llanas. De forma antropomorfa, exoesqueletos para soldados como mucho.
raday escribió:
...al drone le dan las instrucciones, despega solo, va solo al objetivo, dispara solo y regresa solo...

Para mi eso es terrorismo... es como poner un coche bomba delante de una comisaria. INDISCRIMINADO.

Entiendo que a algunos les flipe la tecnología militar, por que quieras o no las armas gustan, pero no jodamos, está mal... Ya me parece una mierda el tema de la supremacía aerea y ver videos como el del apache tiroteando civiles (aquella camara de fotos que parecía un bazooka) y luego tiroteando una ambulancia.

Estas tecnologías que alejan al ASESINO de su victima (por que disparar a alguien desarmando en la una plaza es asesinar, no un acto de guerra) lo deshumanizan.. En el fondo adoctrinar a un padre que ha perdido un hijo para que se inmole viene a ser la versión económica y de un solo uso de un dron...



A mi, desde mi punto de vista, me parece una falta de respeto utilizar estas cosas, pero, que quieres que te diga, es la guerra, y la guerra es así, nos guste mas o menos.

Por cierto, en la guerra no existe el asesinato siempre y cuando la persona a la que ataques sea combatiente tambien, porque al que vas a matar con un drone tampoco te iba a dar un ramo de rosas cuando te viera.
Creo tambien que teneis (bueno, tenemos, porque a mi tambien me pasa) un problema de conceptos con estos temas, cuando se habla de drones mentalmente se visualiza a Estados Unidos y, por ende "malos malisimos", y al que van a atacar es una familia con dos hijas tiernisimas.
Se peude estar a favor o encontra de la robotización del ejercito, pero es una realidad por la que tendrán que pasar todos ¿O te crees que los cañones de 80Cm se inventaron en pro del noble arte de la guerra? No, se inventaron para matar desde lejos y a los maximos posibles.
Pues esto simplemente es una evolucion de "mata tu, que no te maten a ti", que es, al final, en lo que consiste la guerra.
61 respuestas
1, 2