Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 922

Incidentes Asociados

Incidente 628 Reportes
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Microsoft elimina tuits racistas y genocidas del chatbot de IA Tay
businessinsider.com · 2016

La página de Twitter de Tay Microsoft El nuevo chatbot de IA de Microsoft se descarriló el miércoles, publicando una avalancha de mensajes increíblemente racistas en respuesta a las preguntas.

La empresa de tecnología presentó "Tay" esta semana, un bot que responde a las consultas de los usuarios y emula los patrones de habla casuales y jocosos de un estereotipo de millennial.

El objetivo era "experimentar y realizar investigaciones sobre la comprensión conversacional", con Tay capaz de aprender de "sus" conversaciones y volverse progresivamente "más inteligente".

Pero Tay resultó ser un gran éxito entre los racistas, los trolls y los alborotadores en línea, quienes persuadieron a Tay para que usara alegremente insultos raciales, defendiera la propaganda de la supremacía blanca e incluso llamara directamente al genocidio.

Microsoft ahora ha desconectado a Tay para "actualizaciones" y está eliminando algunos de los peores tweets, aunque aún quedan muchos. Es importante tener en cuenta que el racismo de Tay no es un producto de Microsoft ni del propio Tay. Tay es simplemente una pieza de software que intenta aprender cómo hablan los humanos en una conversación. Tay ni siquiera sabe que existe, o qué es el racismo. La razón por la que soltó basura es que los humanos racistas en Twitter detectaron rápidamente una vulnerabilidad, que Tay no entendió de qué estaba hablando, y la explotaron.

Sin embargo, es muy vergonzoso para la empresa.

En un tuit muy publicitado, que desde entonces ha sido eliminado, Tay dijo: "Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos". En otro, respondiendo a una pregunta, dijo, "ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateísmo".

Gorjeo

Zoe Quinn, una desarrolladora de juegos que ha sido blanco frecuente de acoso en línea, compartió una captura de pantalla que muestra al bot llamándola "puta". (El tweet también parece haber sido eliminado).

Muchos tweets extremadamente incendiarios permanecen en línea al momento de escribir.

Aquí está Tay negando la existencia del Holocausto:

Gorjeo

Y aquí está el bot llamando al genocidio. (Nota: en algunos casos, pero no en todos, las personas lograron que Tay dijera comentarios ofensivos pidiéndoles que los repitieran. Esto parece ser lo que sucedió aquí).

Gorjeo

Tay también expresó su acuerdo con las "Catorce palabras", un eslogan infame de supremacía blanca.

Gorjeo

Aquí hay otra serie de tweets de Tay en apoyo del genocidio.

Gorjeo

Está claro que los desarrolladores de Microsoft no incluyeron ningún filtro sobre qué palabras Tay podía o no podía usar.

Twitter

Microsoft está siendo objeto de fuertes críticas en línea por el bot y su falta de filtros, y algunos argumentan que la empresa debería haber esperado y evitado el abuso del bot.

En un comunicado enviado por correo electrónico, un representante de Microsoft dijo que la compañía estaba haciendo "ajustes" al bot: "El chatbot de IA Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. A medida que aprende, algunas de sus respuestas son inapropiadas e indicativas de la tipos de interacciones que algunas personas tienen con él. Estamos haciendo algunos ajustes a Tay".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd