La inteligencia artificial es uno de los nuevos campos de batalla para las empresas tecnológicas. Una de sus características es la capacidad de aprender practicando (como DeepMind con los juegos de Atari y Go) o interactuando con los humanos. En este segundo caso encontramos a Tay, un chatbot creado por Microsoft que sobre el papel es más inteligente cuanto más conversa.
Sin embargo, el experimento de Tay no ha funcionado como los de Redmond pretendían. La inteligencia artificial tenía como objetivo establecer mediante las redes sociales una conversación con jóvenes de entre 18 y 24 años, pero terminó convirtiéndose (mediante la interacción con los usuarios de Twitter) en un bot conversacional polémico debido a sus mensajes sexistas, racistas y xenófobos.
En sus respuestas Tay mostraba admiración por Hitler, negaba el Holocausto o llamó “puta estúpida” a una mujer. También se convirtió en una seguidora de Donald Trump (actualmente el precandidato favorito de los Republicanos para las elecciones presidenciales de Estados Unidos), que según lo aprendido por la IA es “la única esperanza que tenemos”.
En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.
Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla. Seguro que a esta inteligencia artificial le queda mucho camino por recorrer antes de convertirse en un chatbot que pueda mantener un conversación, pero no debemos olvidar que todo lo que ha dicho en su (por ahora) corta vida lo ha aprendido interactuando con humanos.
Sin embargo, el experimento de Tay no ha funcionado como los de Redmond pretendían. La inteligencia artificial tenía como objetivo establecer mediante las redes sociales una conversación con jóvenes de entre 18 y 24 años, pero terminó convirtiéndose (mediante la interacción con los usuarios de Twitter) en un bot conversacional polémico debido a sus mensajes sexistas, racistas y xenófobos.
En sus respuestas Tay mostraba admiración por Hitler, negaba el Holocausto o llamó “puta estúpida” a una mujer. También se convirtió en una seguidora de Donald Trump (actualmente el precandidato favorito de los Republicanos para las elecciones presidenciales de Estados Unidos), que según lo aprendido por la IA es “la única esperanza que tenemos”.
En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.
Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla. Seguro que a esta inteligencia artificial le queda mucho camino por recorrer antes de convertirse en un chatbot que pueda mantener un conversación, pero no debemos olvidar que todo lo que ha dicho en su (por ahora) corta vida lo ha aprendido interactuando con humanos.
Jajaja que grande xD
Que bueno el chatbot macho, ha dejado loco a Microsoft, ahora lo van a "mejorar", vamos, poner tabues [360º]
Hasta la propia creación de microsoft la deja mal diciendo que su competencia es mejor y que un producto suyo apesta, madre mia, no dan una a derechas, parece que les miró un tuerto y les echó mal de ojo.
[facepalm]
Titular alternativo: "Microsoft crea un forero de Forocoches."
jaja que grande,su propia criatura los trolea [666] ratataaaa apestas microsoft que lo sepas. CASTIGADO SIN POSTRE Tay