Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 910

Incidentes Asociados

Incidente 628 Reportes
TayBot

El chatbot racista de Microsoft regresa con el colapso de Twitter por fumar drogas
theguardian.com · 2016

El regreso de corta duración vio a Tay twittear sobre fumar drogas frente a la policía antes de sufrir un colapso y ser desconectado

Este artículo tiene más de 3 años.

Este artículo tiene más de 3 años.

El intento de Microsoft de conversar con los millennials utilizando un bot de inteligencia artificial conectado a Twitter tuvo un retorno de corta duración el miércoles, antes de volver a retirarse en una especie de colapso.

El experimento de aprendizaje, que recibió un curso acelerado sobre racismo, negación del Holocausto y sexismo por cortesía de los usuarios de Twitter, se volvió a encender de la noche a la mañana y parecía estar funcionando de una manera más sensata. Microsoft había revisado previamente los tweets del bot y eliminó los más ofensivos y prometió volver a poner el experimento en línea solo si los ingenieros de la compañía podían "anticipar mejor las intenciones maliciosas que entran en conflicto con nuestros principios y valores".

Sin embargo, en un momento, Tay tuiteó sobre el consumo de drogas, nada menos que frente a la policía.

Josh Butler (@JoshButler) El bot de Twitter racista y sexista de Microsoft @TayandYou está DE VUELTA en buena forma pic.twitter.com/nbc69x3LEd

Luego, Tay comenzó a twittear fuera de control, enviando spam a sus más de 210,000 seguidores con el mismo tweet, diciendo: "Eres demasiado rápido, por favor descansa..." una y otra vez.

Michael Oman-Reagan (@OmanReagan) Supongo que volvieron a encender @TayandYou... está teniendo algún tipo de colapso. pic.twitter.com/9jerKrdjft

Microsoft respondió haciendo que el perfil de Twitter de Tay fuera privado, evitando que alguien viera los tweets y, de hecho, desconectándolo nuevamente.

Tay tiene la imagen de una adolescente y está diseñado para interactuar con los millennials para mejorar sus habilidades de conversación a través del aprendizaje automático. Lamentablemente, era vulnerable a los tweets sugerentes, lo que provocó respuestas desagradables.

Esta no es la primera vez que Microsoft lanza chatbots de IA de cara al público. Su chatbot chino XiaoIce interactúa con éxito con más de 40 millones de personas en Twitter, Line, Weibo y otros sitios, pero los experimentos de la compañía dirigidos a jóvenes de 18 a 24 años en los EE. UU. en Twitter han dado como resultado un animal completamente diferente.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf