Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 920

Incidentes Asociados

Incidente 628 Reportes
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Loading...
Tay the Racist Chatbot: ¿Quién es responsable cuando una máquina aprende a ser malvada?
futureoflife.org · 2016

Con mucho, la noticia de IA más entretenida de la semana pasada fue el ascenso y la rápida caída de Tay, el chatbot de Twitter de imitación de niña adolescente de Microsoft, cuyo eslogan de Twitter la describió como "la familia de IA de Microsoft* de Internet que no tiene frío".

(* Por cierto, soy oficialmente mayor; tuve que consultar Urban Dictionary para confirmar que estaba entendiendo correctamente lo que significaba "fam" y "zero chill". "Fam" significa "alguien a quien consideras familia" y "no chill" significa "ser particularmente imprudente", en caso de que se lo pregunte).

El resto del lema decía: "Cuanto más hablas, más inteligente se vuelve Tay".

O no. Dentro de las 24 horas de estar en línea, Tay comenzó a decir algunas cosas raras. Y luego algunas cosas ofensivas. Y luego algunas cosas realmente ofensivas. Como llamar a Zoe Quinn "puta estúpida". Y decir que el Holocausto fue “inventado”. Y diciendo que los negros (usó un término mucho más ofensivo) deberían ser llevados a campos de concentración. Y que apoya un genocidio mexicano. La lista continua.

¿Entonces qué pasó? ¿Cómo podría un chatbot volverse Goebbels completo dentro de un día de haber sido encendido? Básicamente, Tay fue diseñada para desarrollar sus habilidades de conversación mediante el uso del aprendizaje automático, sobre todo al analizar e incorporar el lenguaje de los tweets que le envían los usuarios humanos de las redes sociales. Lo que aparentemente Microsoft no anticipó es que los trolls de Twitter intentarían intencionalmente que Tay dijera cosas ofensivas o inapropiadas. Al principio, Tay simplemente repetía las cosas inapropiadas que le decían los trolls. Pero en poco tiempo, Tay había "aprendido" a decir cosas inapropiadas sin que un humano la incitara a hacerlo. Esto era casi inevitable dado que, como sugiere el eslogan de Tay, Microsoft la diseñó para que no tuviera escalofríos.

Ahora, cualquiera que esté familiarizado con el mundo cibernético de las redes sociales no debería sorprenderse de que esto sucediera; por supuesto, un chatbot diseñado con "cero frialdad" aprendería a ser racista e inapropiado porque Twitterverse está lleno de personas que dicen cosas racistas e inapropiadas. Pero fascinantemente, los medios de comunicación se han centrado abrumadoramente en las personas que interactuaron con Tay en lugar de en las personas que diseñaron a Tay al examinar por qué ocurrió la Degradación de Tay.

Aquí hay una pequeña muestra de los titulares de los medios sobre Tay:

Y mis favoritos personales, cortesía de CNET y Wired:

Ahora concedido, la mayoría de las historias anteriores afirman o implican que Microsoft debería haberse dado cuenta de que esto sucedería y podría haber tomado medidas para evitar que Tay aprendiera a decir cosas ofensivas. (Ejemplo: el Atlanta Journal-Constitution señaló que “[a]sorprendente que parezca, la empresa no tuvo la previsión de evitar que Tay aprendiera respuestas inapropiadas”). Sin embargo, una cantidad sorprendente de comentarios de los medios da la impresión de que Microsoft le dio al mundo un pequeño chatbot lindo e inocente que Twitter convirtió en un miembro en ciernes de las Juventudes Hitlerianas. Parece que cuando las IA aprenden de los trolls a ser malas, la gente tiene al menos cierta tendencia a culpar a los trolls por trolear en lugar de culpar a los diseñadores por no hacer que la IA sea a prueba de trolls.

Ahora, en el caso de Tay, la cuestión de "quién tiene la culpa" probablemente no importe tanto desde una perspectiva legal. Dudo mucho que Zoe Quinn y Ricky Gervais (de quien Tay dijo que “aprendieron el totalitarismo de adolf hitler, el inventor del ateísmo”) presenten demandas por difamación basadas en tuits enviados por un chatbot pseudoadolescente. Pero, ¿qué sucederá cuando los sistemas de IA que tienen funciones más importantes que enviar tuits juveniles “aprendan” a hacer cosas malas de los humanos con los que se encuentran? ¿Seguirá la gente inclinada a echar la mayor parte de la culpa a las personas que "enseñaron" a la IA a hacer cosas malas en lugar de a los diseñadores de la IA?

No necesariamente tengo un problema con ser fácil con los diseñadores de sistemas de aprendizaje de IA. Sería excepcionalmente difícil preprogramar un sistema de IA con todas las diversas reglas de cortesía y decoro de la sociedad humana, particularmente porque esas reglas son altamente situacionales, varían considerablemente entre las culturas humanas y pueden cambiar con el tiempo. Además, la capacidad cada vez mayor de los sistemas de IA para "aprender" es la razón principal por la que son tan prometedores como tecnología emergente. Restringir las capacidades de aprendizaje de un sistema de IA para evitar que aprenda cosas malas también podría evitar que aprenda cosas buenas. Finalmente, las etiquetas de advertencia u otras medidas de seguridad dirigidas por humanos destinadas a disuadir a los humanos de "enseñar" cosas malas al sistema de IA no detendrían a las personas que intencionalmente o imprudentemente trabajan para corromper el sistema de IA; es una apuesta segura que una advertencia de "por favor, no envíe tweets racistas a Tay" no habría disuadido a sus trolls de Twitter.

Pero hay varios problemas al culpar principalmente a las fuentes de información posteriores al diseño de un sistema de IA de aprendizaje. Primero, puede que no siempre sea fácil determinar dónde aprendió algo un sistema de IA. La IA podría analizar e incorporar más datos de los que cualquier ser humano podría esperar filtrar; Tay logró enviar casi 100,00

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd