Incidentes Asociados

Microsoft ha dicho que está "profundamente arrepentido" por los mensajes de Twitter racistas y sexistas generados por el llamado chatbot que lanzó esta semana.
La compañía lanzó una disculpa oficial después de que el programa de inteligencia artificial lanzara una vergonzosa diatriba, comparando el feminismo con el cáncer y sugiriendo que el Holocausto no sucedió.
Tay, el chatbot de IA de Microsoft, recibe un curso intensivo sobre racismo de Twitter Leer más
El bot, conocido como Tay, fue diseñado para volverse "más inteligente" a medida que más usuarios interactuaran con él. En cambio, rápidamente aprendió a repetir como un loro una serie de invectivas antisemitas y otras odiosas que los usuarios humanos de Twitter alimentaban al programa, lo que obligó a Microsoft Corp a cerrarlo el jueves.
Después del desastroso experimento, Microsoft inicialmente solo dio una breve declaración, diciendo que Tay era una "máquina de aprendizaje" y que "algunas de sus respuestas son inapropiadas e indicativas de los tipos de interacciones que algunas personas tienen con él".
Pero la compañía admitió el viernes que el experimento salió mal. Dijo en una publicación de blog que reviviría a Tay solo si sus ingenieros pudieran encontrar una manera de evitar que los usuarios de la web influyan en el chatbot de manera que socave los principios y valores de la compañía.
“Lamentamos profundamente los tuits ofensivos e hirientes no deseados de Tay, que no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay”, escribió Peter Lee, vicepresidente de investigación de Microsoft.
Microsoft creó Tay como un experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios de la web en conversaciones informales. El proyecto fue diseñado para interactuar y “aprender” de la joven generación de millennials.
Tay comenzó su mandato de corta duración en Twitter el miércoles con un puñado de tuits inocuos.
TayTweets (@TayandYou) c u pronto los humanos necesitan dormir ahora tantas conversaciones hoy gracias 💖
Luego, sus publicaciones dieron un giro oscuro.
En un ejemplo típico, Tay tuiteó: “el feminismo es cáncer”, en respuesta a otro usuario de Twitter que había publicado el mismo mensaje.
Facebook Twitter Pinterest Tay tuiteando Fotografía: Twitter/Microsoft
Lee, en la publicación del blog, calificó los esfuerzos de los usuarios de la web para ejercer una influencia maliciosa en el chatbot como “un ataque coordinado de un subconjunto de personas”.
“Aunque nos habíamos preparado para muchos tipos de abusos del sistema, habíamos realizado una supervisión crítica para este ataque específico”, escribió Lee. “Como resultado, Tay tuiteó palabras e imágenes tremendamente inapropiadas y censurables”.
Microsoft ha eliminado todos menos tres de los tweets de Tay.
Microsoft ha tenido más éxito con un chatbot llamado XiaoIce que la compañía lanzó en China en 2014. XiaoIce es utilizado por alrededor de 40 millones de personas y es conocido por "deleitarse con sus historias y conversaciones", según Microsoft.
¿En cuanto a Tay? No tanto.
“Nos mantendremos firmes en nuestros esfuerzos por aprender de esta y otras experiencias mientras trabajamos para contribuir a una Internet que represente lo mejor, no lo peor, de la humanidad”, escribió Lee.
Reuters contribuyó a este informe