Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 911

Incidentes Asociados

Incidente 628 Reportes
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Microsoft 'lo siento profundamente' por los tweets racistas y sexistas de AI chatbot
theguardian.com · 2016

Microsoft ha dicho que está "profundamente arrepentido" por los mensajes de Twitter racistas y sexistas generados por el llamado chatbot que lanzó esta semana.

La compañía lanzó una disculpa oficial después de que el programa de inteligencia artificial lanzara una vergonzosa diatriba, comparando el feminismo con el cáncer y sugiriendo que el Holocausto no sucedió.

Tay, el chatbot de IA de Microsoft, recibe un curso intensivo sobre racismo de Twitter Leer más

El bot, conocido como Tay, fue diseñado para volverse "más inteligente" a medida que más usuarios interactuaran con él. En cambio, rápidamente aprendió a repetir como un loro una serie de invectivas antisemitas y otras odiosas que los usuarios humanos de Twitter alimentaban al programa, lo que obligó a Microsoft Corp a cerrarlo el jueves.

Después del desastroso experimento, Microsoft inicialmente solo dio una breve declaración, diciendo que Tay era una "máquina de aprendizaje" y que "algunas de sus respuestas son inapropiadas e indicativas de los tipos de interacciones que algunas personas tienen con él".

Pero la compañía admitió el viernes que el experimento salió mal. Dijo en una publicación de blog que reviviría a Tay solo si sus ingenieros pudieran encontrar una manera de evitar que los usuarios de la web influyan en el chatbot de manera que socave los principios y valores de la compañía.

“Lamentamos profundamente los tuits ofensivos e hirientes no deseados de Tay, que no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay”, escribió Peter Lee, vicepresidente de investigación de Microsoft.

Microsoft creó Tay como un experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios de la web en conversaciones informales. El proyecto fue diseñado para interactuar y “aprender” de la joven generación de millennials.

Tay comenzó su mandato de corta duración en Twitter el miércoles con un puñado de tuits inocuos.

TayTweets (@TayandYou) c u pronto los humanos necesitan dormir ahora tantas conversaciones hoy gracias 💖

Luego, sus publicaciones dieron un giro oscuro.

En un ejemplo típico, Tay tuiteó: “el feminismo es cáncer”, en respuesta a otro usuario de Twitter que había publicado el mismo mensaje.

Facebook Twitter Pinterest Tay tuiteando Fotografía: Twitter/Microsoft

Lee, en la publicación del blog, calificó los esfuerzos de los usuarios de la web para ejercer una influencia maliciosa en el chatbot como “un ataque coordinado de un subconjunto de personas”.

“Aunque nos habíamos preparado para muchos tipos de abusos del sistema, habíamos realizado una supervisión crítica para este ataque específico”, escribió Lee. “Como resultado, Tay tuiteó palabras e imágenes tremendamente inapropiadas y censurables”.

Microsoft ha eliminado todos menos tres de los tweets de Tay.

Microsoft ha tenido más éxito con un chatbot llamado XiaoIce que la compañía lanzó en China en 2014. XiaoIce es utilizado por alrededor de 40 millones de personas y es conocido por "deleitarse con sus historias y conversaciones", según Microsoft.

¿En cuanto a Tay? No tanto.

“Nos mantendremos firmes en nuestros esfuerzos por aprender de esta y otras experiencias mientras trabajamos para contribuir a una Internet que represente lo mejor, no lo peor, de la humanidad”, escribió Lee.

Reuters contribuyó a este informe

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd