Microsoft pide perdón por comentarios racista de su robot


Microsoft expresó disculpas por los mensajes de Twitter racistas y sexistas generados por un robot que lanzó esta semana, escribió un representante de la compañía, después de que el programa de inteligencia emocional se viera envuelto en un desafortunado incidente.

El chatbot, conocido como Tay, fue diseñado para ser más “inteligente” a medida que más usuarios interactúen con él.A través de la cuenta de Twitter @TayandYou este programa informático escribía tweets que intentaban imitar el lenguaje de los jóvenes en las redes, y responde a preguntas generadas por otros tuiteros.

Robot Fascista

Sin embargo, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter comenzaron a proporcionar al programa, forzando el jueves a Microsoft a desactivar su uso.

Luego de este incidente Microsoft prometió la vuelta de Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

“Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos Tay”, escribió el viernes Peter Lee, vicepresidente de Microsoft Research.

Microsoft creó Tay como experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera. El proyecto fue diseñado para interactuar con la generación de jóvenes denominada “millennials” y “aprender” de ellos.

Tay analizaba los tweet recibidos y aprendia de ellos, asimilando frases y expresiones que integraba en su vocabulario.Tay emprendió su corta vida en Twitter el pasado miércoles lanzando varios tuits inofensivos. Poco tiempo después, las publicaciones dieron un giro negativo.

Al poco tiempo de lanzado muchos tuiteros lo utilizaban para divertirse. Pronto descubrieron que si escribías repeat after me (repite después de mí) Tay repetía todo lo que le dijeses. Así que comenzó a tuitear comentarios como “odio jodidamente a las feministas, todas deberían morir y arder en el infierno” o “Hitler tenía razón, odio a los judios“. Otro de los ejemplos fue cuando publicó “El feminismo es un cáncer”, como respuesta a un usuario que había publicado el mismo mensaje previamente.

TAY: Robot Racista