Akiles_X escribió:logoff escribió:
creo que es más probable que un humano "fallé" y le dé al botón rojo...
Eso diselo a Stanislav Petrov, las maquinas no tienen sentido comun.
Pero el chico esta hablando de probabilidades, y lo que ocurrio con Stanislav Petrov pues si es de gran magnitud pero no quiere decir nada, cuantos daños colaterales les cuentas a las maquinas como autonomas pues actualmente cero, todos los daños han sido humanos
Y humanos como maquinas autonomas hay muchos "SOLO OBEDESCO ORDENES", solo segui el protocolo, y con ello tuvimos suerte. si suerte.
es obvio que si pusieron a cargo a alguien del sistema de alertamiento es por que setenia en duda y era es un candado de seguridad. y creo que si pones varios te da mas seguridad un sistema que la persona.
Es que tan solo de pensar que la gente mata por que eres negra, o judia o por una depresion haciendo impactar un avion.....al menos un robot policia no cometeria errores, los errores siempre seran de los humanos por su falta de prevision o programacion, pero al menos no llevaria a alguien a un sitio y por que es negro le daria fin.
le es dificil al hombre pensar que le pueden superar, y el "error" o posible error en las maquinas lo critica y agiganta a mas no poder, por que su arrogancia le impide ver, sus errores o darle valor a las cosas. nadie habla de los sistemas de alertamiento que si fueran totalmente automaticos pudieron haber evitado tragedias como los de un tren a velocidad excesiva que el operador reacciono tarde.
creo que la peli de yo robot , da un poco de luz en esto.
Para terminar creo que la guerra y matar es simplemente el primer error, y el mas grande, culpemos a un soldado que solo sigue ordenes o un robot electronico , o errores o aciertos. es una aberracion matar por "defender"??, intereses?.
besos