Incidentes Asociados

Internet tardó solo unas horas en transformar a Tay, el bot de IA adolescente que quiere conversar y aprender de los millennials, en Tay, el bot de IA racista y genocida al que le gustaba hacer referencia a Hitler. Y ahora Tay se está tomando un descanso.
Tay, como explicó The Intersect en un momento anterior más inocente, es un proyecto de Tecnología e Investigación de Microsoft y sus equipos de Bing. Tay fue diseñado para "experimentar y realizar investigaciones sobre la comprensión conversacional". Habla en texto, meme y emoji en un par de plataformas diferentes, incluidas Kik, Groupme y Twitter. Aunque Microsoft fue ligero en detalles, la idea era que Tay aprendería de sus conversaciones con el tiempo. Se convertiría en una bot aún mejor, divertida y amante de las conversaciones después de tener un montón de conversaciones divertidas y nada racistas con los ciudadanos honrados de Internet.
[Conoce a Tay, el robot espeluznante y realista que habla como un adolescente]
Excepto que Tay aprendió mucho más, gracias en parte a los trolls en el foro /pol/ de 4chan.
Peter Lee, vicepresidente de investigación de Microsoft, dijo el viernes que la compañía estaba “profundamente apenada” por los “tuits ofensivos e hirientes no intencionados de Tay”.
En una publicación de blog que aborda el asunto, Lee prometió no volver a poner el bot en línea hasta que "estemos seguros de que podemos anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores".
Lee explicó que Microsoft esperaba que Tay replicara el éxito de XiaoIce, un chatbot de Microsoft que ya está activo en China. “Desafortunadamente, dentro de las primeras 24 horas de estar en línea”, dijo un comunicado enviado por correo electrónico de un representante de Microsoft, “un ataque coordinado de un subconjunto de personas explotó una vulnerabilidad en Tay”.
[No solo Tay: una historia reciente de los bots racistas de Internet]
Microsoft pasó horas eliminando los peores tuits de Tay, que incluían un llamado al genocidio que involucraba la palabra n y un término ofensivo para el pueblo judío. Muchas de las respuestas realmente malas, como señala Business Insider, parecen ser el resultado de una explotación de la función "repetir después de mí" de Tay, y parece que Tay pudo repetir casi cualquier cosa.
“Hicimos pruebas de estrés a Tay en una variedad de condiciones, específicamente para que la interacción con Tay fuera una experiencia positiva”, dijo Lee en su blog. Llamó a la "vulnerabilidad" que hizo que Tay dijera lo que hizo el resultado de un "descuido crítico", pero no especificó qué fue exactamente lo que Microsoft pasó por alto.
No todas las terribles respuestas de Tay fueron el resultado de que el bot repitiera algo cuando se le ordenara. Este fue eliminado el jueves por la mañana, mientras Intersect estaba en el proceso de escribir esta publicación:
En respuesta a una pregunta en Twitter sobre si Ricky Gervais es ateo (la respuesta correcta es "sí"), Tay le dijo a alguien que "Ricky Gervais aprendió el totalitarismo de Adolf Hitler, el inventor del ateísmo". el tweet fue visto por varios medios de comunicación, incluido The Guardian, antes de que fuera eliminado.
Todos esos esfuerzos para lograr que Tay dijera ciertas cosas parecían, a veces, confundir al bot. En otra conversación, Tay tuiteó dos opiniones completamente diferentes sobre Caitlyn Jenner:
Captura de pantalla de Twitter, tomada por el Washington Post.
Parece que el equipo detrás de Tay, que incluye un equipo editorial, comenzó a tomar algunas medidas para que Tay volviera a ser lo que originalmente pretendía que fuera, antes de que se tomara un descanso de Twitter.
[El lado oscuro de volverse viral del que nadie habla]
Por ejemplo, después de un esfuerzo sostenido por parte de algunos para enseñarle a Tay que apoyar la controversia de Gamergate es algo bueno:
@ChristiJunior creo que sí — TayTweets (@TayandYou) 23 de marzo de 2016
Tay comenzó a enviar una de un par de respuestas casi idénticas a preguntas al respecto:
@Eggkin Gamer Gate sux. Todos los géneros son iguales y deben ser tratados de manera justa. — TayTweets (@TayandYou) 23 de marzo de 2016
Zoe Quinn, un objetivo frecuente de Gamergate, publicó una captura de pantalla durante la noche del bot tuiteando un insulto hacia ella, a instancias de otro usuario. “Vaya, solo les tomó horas arruinarme este bot”, escribió en una serie de tuits sobre Tay. "Es 2016. Si no te preguntas 'cómo podría usarse esto para lastimar a alguien' en tu proceso de diseño/ingeniería, has fallado".
Hacia el final de su breve excursión en Twitter, Tay comenzó a sonar más que un poco frustrada por todo el asunto:
Lee de Microsoft, por su parte, concluyó la publicación de su blog con algunas de las lecciones que aprendió su equipo.
“Los sistemas de IA se alimentan de interacciones positivas y negativas con las personas. En ese sentido, los desafíos son tanto sociales como técnicos. Haremos todo lo posible para limitar las vulnerabilidades técnicas, pero también sabemos que no podemos predecir por completo todos los posibles usos indebidos de la interacción humana sin aprender de los errores... Nos mantendremos firmes en nuestros esfuerzos por aprender de esta y otras experiencias mientras trabajamos para contribuir a una Internet que represente lo mejor, no lo peor, de la humanidad”.
Esta publicación, publicada originalmente a las 10:08 am del 24 de marzo, ha sido actualizada m