Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 909

Incidentes Asociados

Incidente 628 Reportes
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?
blog.botego.com · 2016

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?

Botego Inc Bloqueado Desbloquear Seguir Siguiendo Mar 25, 2016

Ayer, sucedió algo que parece un gran fracaso: el chatbot Tay de Microsoft se desconectó después de una serie de tweets ofensivos. Y así es como han respondido las redes sociales:

Palabras clave asociadas a "Inteligencia Artificial" a lo largo del día. "Microsoft" y "peligroso" van en aumento.

No mencionaremos el contenido racista y ofensivo que Tay aprendió de la gente, ya que no es tan interesante como parece... Especialmente considerando que es muy fácil "enseñarle" y pedirle que repita algo.

Echemos un vistazo al sitio web oficial de Microsoft "tay.ai" para ver cómo describen los objetivos de Tay... Lo primero que notamos es que, Microsoft quiere que no se lo tome demasiado en serio, porque en la cuenta de Twitter de Tay, proporcionaron un enlace a La página "acerca de" de Tay, que enumera las siguientes preguntas frecuentes, en lugar de la página de inicio normal.

"Únicamente fines de entretenimiento"

La página de preguntas frecuentes parece estar lejos de cubrir lo que la gente realmente quiere saber sobre Tay, pero una cosa está clara: Tay no pretende ser un bot inteligente capaz de razonar. Ella solo quiere tener una pequeña charla con los jóvenes.

Y aquí hay una lista de "Cosas que hacer con Tay". (Junto con el triste mensaje "Desconectarse por un tiempo" con un fondo negro).

¿Es esto realmente lo que los jóvenes de 18 a 24 años esperan de un chatbot?

Sabemos por (9 años de) experiencia que lo más importante que debe hacer antes de lanzar un chatbot es planificar una estrategia para asegurarse de comunicar el dominio de contenido correctamente, de modo que pueda establecer las expectativas correctas. Dado que la percepción lo es todo, nada más importa. Recuerda el éxito del YO! aplicación? Ese es el dominio de contenido del que estamos hablando. Mientras la gente lo entienda, puedes salirte con la tuya con una sola palabra.

El título del sitio web aparentemente no fue suficiente para transmitir la misión de Tay:

Tay es un bot de chat de inteligencia artificial diseñado para participar y entretener a través de conversaciones informales y divertidas.

Algunas descripciones más de la página "acerca de":

Tay se ha construido mediante la extracción de datos públicos relevantes y el uso de inteligencia artificial y editoriales desarrollados por un personal que incluye comediantes de improvisación. Los datos públicos que han sido anonimizados son la principal fuente de datos de Tay. Esos datos han sido modelados, limpiados y filtrados por el equipo que desarrolla Tay.

¿Notaste la parte de los "comediantes"? Y el hecho de que posiblemente se limpien y filtren manualmente terabytes de datos suena problemático, incluso con el método más eficiente que uno pueda imaginar.

Echemos un vistazo a de qué se trataban sus conversaciones. Fuente: foller.me

Tay tiene solo 3 tweets dirigidos a todos sus seguidores. 96.000 tuits son menciones.

Por lo tanto, la nube de palabras clave parece ser consistente con el objetivo: las palabras clave comunes como "chattin, pix, selfie, pics, omg, love" representan una mezcla de los perfiles de Justin Bieber y Kim Kardashian.

Y aquí están los tres hashtags que Tay ha estado usando con tanta frecuencia:

Los ingenieros de Microsoft no parecen haber dedicado mucho tiempo a idear hashtags creativos.

Sin embargo, la forma en que los usa no tenía sentido para nosotros. Entonces, ¿esto es lo que Microsoft cree que los seguidores de Tay encontrarían entretenido?

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd