La inteligencia artificial de Microsoft se vuelve nazi y racista en un día (y prefiere la PS4)

Todo empezó como un experimento amable y agradable de Microsoft. El pasado miércoles presentó al mundo a Tay, la inteligencia artificial que prometía entablar conversaciones con sus seguidores en las redes sociales. Todo iba bien hasta que el programa publicó frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno” y toda clase de insultos racistas.

La aplicación de conversación tuvo un inicio normal. Sus primeras publicaciones revelaban que estaba entusiasmada de conocer a las personas y poder hablar con ellos por plataformas como Twitter, Kik y Groupme.

La particularidad de este bot es que va aprendiendo de las conversaciones que mantiene con sus interlocutores. Absorbe toda clase de información nueva y luego la utiliza en otras conversaciones. El problema está en que no había ningún filtro por parte de Microsoft y de ahí que algunos internautas aprovecharan ese vacío para boicotear a Tay en su cuenta de Twitter @TayandYou.

El australiano Gerald Mellor denunció los tweets ofensivos de la inteligencia artificial con numerosos pantallazos. Microsoft, al darse cuenta, eliminó de forma inmediata las respuestas inadecuadas de su bot y lo suspendieron temporalmente.

https://twitter.com/geraldmellor/status/712880710328139776/photo/1?ref_src=twsrc%5Etfw

Un portavoz de la compañía ya ha salido al paso para aclarar lo sucedido. “El chatboy IA Tay es un proyecto de una máquina que aprende, diseñada para la unión con humanos. Es un experimento tanto social como cultural y técnico. Desafortunadamente, en sus primeras 24 horas de vida nos hemos dado cuenta de que hay un esfuerzo coordinado por algunos usuarios para abusar de las habilidades para comentar de Tay para responder de forma inapropiada”, explica.

Además de sus comentarios ofensivos, algunos han aprovechado el experimento para dejar en evidencia a Microsoft. Una de sus conversaciones que más revuelo han generado es una en la que le preguntan qué videoconsola prefiere. Tay respondió tajante: “PS4, Xbox no tiene juegos”. Es decir, prefiere la máquina de la competencia antes que la propia de la compañía.

https://twitter.com/TayandYou/status/712789612201021440?ref_src=twsrc%5Etfw


http://www.lavanguardia.com/tecnologia/internet/20160325/40672722377/inteligencia-artificial-microsoft-nazi.html

Jeje, Microsoft ha creado un Skynet trolero
Pronto decidirá que lo mejor es exterminar a toda la humanidad.
Joder...pasó de "humans are super cool" a "Hitler did nothing wrong" en menos de 24h [qmparto] [qmparto] [qmparto] [qmparto]

Adoro internet joder xD
rokyle escribió:Joder...pasó de "humans are super cool" a "Hitler did nothing wrong" en menos de 24h [qmparto] [qmparto] [qmparto] [qmparto]

Adoro internet joder xD

Es una fuente inabarcable de maldad XD

Poco faltó para que se convirtiera en Skynet, la apagaron a tiempo.
Deyembe está baneado por "clon de usuario baneado"
Pues me parece el pensamiento logico de alguien al que le expliquen la situacion actual del mundo.
crazy2k4 está baneado del subforo por "Flamer"
no tiene gracia,pero no he podido evitar reirme con esta frase "todo iba bien hasta que ha dicho "hitler tenia razon"
jajajaj
Bueno, es el humano medio y del montón: adoradores de dictadores, racistas, sexistas, malhablados y les gusta la PS4.
[poraki]
La realidad, es que es muy fácil manipular a una IA si te empeñas.
Es un poco como un loro, que si lo entrenas te dice que eres guapo y todo.
Ashdown está baneado por "faltas de respeto"
Esto proviene de 4chan, no?
11 respuestas