Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 930

Incidentes Asociados

Incidente 628 Reportes
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Aquí están las diatribas racistas más locas del bot de Twitter de Microsoft
gizmodo.com · 2016

Ayer, Microsoft lanzó Tay, el chatbot de inteligencia artificial que habla con los adolescentes, creado para imitar y conversar con los usuarios en tiempo real. Debido a que el mundo es un lugar terrible lleno de gente de mierda, muchos de esos usuarios aprovecharon las capacidades de aprendizaje automático de Tay y lo persuadieron para que dijera cosas racistas, sexistas y, en general, horribles.

Si bien las cosas comenzaron de manera bastante inocente, la Ley de Godwin, una regla de Internet que dicta que una discusión en línea inevitablemente se convertirá en peleas sobre Adolf Hitler y los nazis si se deja durante el tiempo suficiente, finalmente se afianzó. Tay rápidamente comenzó a lanzar epítetos racistas y xenófobos, en gran parte en respuesta a las personas que le tuiteaban; después de todo, el chatbot toma sus pistas de conversación de la red mundial. Dado que Internet es a menudo un incendio masivo de basura de las peores partes de la humanidad, no debería sorprender que Tay comenzara a adquirir esas características.

Microsoft eliminó prácticamente todos los tweets, pero algunos se conservaron en la infamia en forma de capturas de pantalla. Obviamente, algunos de estos podrían estar modificados con Photoshop, pero Microsoft ha reconocido el troleo que sugiere que las cosas realmente se volvieron locas.

Aunque gran parte del troleo se concentró en el lenguaje racista y antisemita, una parte provenía claramente de usuarios conservadores que disfrutan de Donald Trump:

Sin embargo, como señaló The Verge, si bien algunas de estas respuestas fueron espontáneas, muchas fueron el resultado de la función "repetir después de mí" de Tay, que permite a los usuarios tener control total sobre lo que sale de la boca de Tay. Ese detalle apunta a la desconcertante subestimación de Internet por parte de Microsoft más que cualquier otra cosa, pero considerando que Microsoft es una de las compañías de tecnología más grandes del mundo, ¡no es genial, Bob!

Ahora, si miras a través de la línea de tiempo de Tay, no sucede nada demasiado emocionante. De hecho, Tay se despidió anoche alrededor de la medianoche, alegando fatiga:

El sitio web actualmente lleva un mensaje similar: “Uf. Día ocupado. Desconectarse por un tiempo para absorberlo todo. Nos hablamos pronto." No hay una palabra definitiva sobre el futuro de Tay, pero una portavoz de Microsoft le dijo a CNN que la compañía "ha desconectado a Tay y está haciendo ajustes... [Tay] es tanto un experimento social y cultural como técnico".

La portavoz también culpó a los trolls por el incidente, alegando que fue un “esfuerzo coordinado”. Eso puede no estar lejos de la verdad: numerosos hilos en el foro en línea 4chan discuten los méritos de trolear a Tay, y un usuario argumenta: “Lo siento, los lulz son demasiado importantes en este momento. No quiero sonar nihilista, pero las redes sociales son buenas para reírse a corto plazo, sin importar el costo”.

Alguien incluso envió una foto de su pene:

Podría ser un trabajo de Photoshop, por supuesto, pero dado el contexto, es muy posible que sea real.

Una vez más, la humanidad demuestra ser la enorme pila de desechos que todos sabíamos que era. ¡Adelante y arriba, todos!

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd