Incidentes Asociados

Derechos de autor de la imagen Microsoft Image caption A la IA se le enseñó a hablar como un adolescente.
Microsoft se disculpó por crear un chatbot artificialmente inteligente que rápidamente se convirtió en un racista que niega el holocausto.
Pero al hacerlo, dejó en claro que las opiniones de Tay eran el resultado de la crianza, no de la naturaleza. Tay confirmó lo que ya sabíamos: las personas en Internet pueden ser crueles.
Tay, dirigido a jóvenes de 18 a 24 años en las redes sociales, fue objeto de un "ataque coordinado por parte de un subconjunto de personas" después de ser lanzado a principios de esta semana.
Dentro de las 24 horas, Tay había sido desactivado para que el equipo pudiera hacer "ajustes".
Pero el viernes, el jefe de investigación de Microsoft dijo que la compañía estaba "profundamente arrepentida por los tuits ofensivos e hirientes no deseados" y ha sacado a Tay de Twitter en el futuro previsible.
Peter Lee agregó: "Tay ahora está fuera de línea y buscaremos traer a Tay de regreso solo cuando estemos seguros de que podemos anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores".
Tay fue diseñado para aprender de las interacciones que tuvo con personas reales en Twitter. Aprovechando una oportunidad, algunos usuarios decidieron alimentarlo con información racista y ofensiva.
Derechos de autor de la imagen Twitter Image caption Algunos de los tuits de Tay parecen algo incendiarios.
En China, la gente reaccionó de manera diferente: se implementó un chatbot similar para los usuarios chinos, pero con resultados ligeramente mejores.
"Tay no fue la primera aplicación de inteligencia artificial que lanzamos en el mundo social en línea", escribió el jefe de investigación de Microsoft.
"En China, nuestro chatbot XiaoIce está siendo utilizado por unas 40 millones de personas, encantadas con sus historias y conversaciones.
"La gran experiencia con XiaoIce nos llevó a preguntarnos: ¿una IA como esta sería igual de cautivadora en un entorno cultural radicalmente diferente?"
Tay corrupto
Al parecer, la respuesta es que las audiencias occidentales reaccionan de manera muy diferente cuando se les presenta un chatbot en el que pueden influir. Al igual que enseñarle a un Furby a maldecir, la tentación de corromper al bien intencionado Tay fue demasiado grande para algunos.
Dicho esto, Lee dijo que una vulnerabilidad específica significaba que Tay podía volverse desagradable.
"Aunque nos habíamos preparado para muchos tipos de abusos del sistema, habíamos realizado un descuido crítico para este ataque específico.
"Como resultado, Tay tuiteó palabras e imágenes tremendamente inapropiadas y censurables. Asumimos toda la responsabilidad por no ver esta posibilidad antes de tiempo".
No dio más detalles sobre la naturaleza precisa de la vulnerabilidad.
Lee dijo que su equipo continuará trabajando en bots de IA con la esperanza de que puedan interactuar sin efectos secundarios negativos.
“Hay que entrar en cada uno con mucha cautela y en definitiva aprender y mejorar, paso a paso, y hacerlo sin ofender a la gente en el proceso.
"Nos mantendremos firmes en nuestros esfuerzos por aprender de esta y otras experiencias mientras trabajamos para contribuir a una Internet que represente lo mejor, no lo peor, de la humanidad".
La próxima semana, Microsoft celebra su conferencia anual de desarrolladores, Build. Se espera que la inteligencia artificial se presente en gran medida.
Siga a Dave Lee en Twitter @DaveLeeBBC o en Facebook