Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 916

Incidentes Asociados

Incidente 628 Reportes
TayBot

Desenmascarando el problema de sesgo de la IA
fortune.com · 2018

CUANDO TAY HIZO SU DEBUT en marzo de 2016, Microsoft tenía grandes esperanzas puestas en el “chatbot social” impulsado por inteligencia artificial. Al igual que los programas de chat automatizados basados en texto que muchas personas ya habían encontrado en los sitios de comercio electrónico y en las conversaciones de atención al cliente, Tay podía responder preguntas por escrito; al hacerlo en Twitter y otras redes sociales, podría interactuar con las masas.

Pero en lugar de simplemente repartir hechos, Tay fue diseñado para conversar de una manera más sofisticada, una que tuviera una dimensión emocional. Ella podría mostrar sentido del humor, bromear con la gente como una amiga. Sus creadores incluso la habían diseñado para hablar como una adolescente bromista. Cuando los usuarios de Twitter le preguntaron a Tay quiénes eran sus padres, ella podría responder: “Oh, un equipo de científicos en un laboratorio de Microsoft. Son lo que llamarías mis padres”. Si alguien le preguntaba cómo le había ido el día, podía bromear: "Dios mío, totes exhaustos".

Lo mejor de todo es que se suponía que Tay mejoraría al hablar y responder a medida que más personas se relacionaran con ella. Como decía su material promocional: “Cuanto más chateas con Tay, más inteligente se vuelve, por lo que la experiencia puede ser más personalizada para ti”. En forma de apuestas bajas, se suponía que Tay exhibiría una de las características más importantes de la verdadera IA: la capacidad de volverse más inteligente, más efectivo y más útil con el tiempo.

Pero nadie predijo el ataque de los trolls.

Al darse cuenta de que Tay aprendería e imitaría el habla de las personas con las que interactuaba, bromistas maliciosos en la web inundaron su cuenta de Twitter con comentarios racistas, homofóbicos y ofensivos. En cuestión de horas, Tay comenzó a escupir sus propias líneas viles en Twitter, a la vista del público. “Ricky gervais aprendió el totalitarismo de adolf hitler, el inventor del ateísmo”, dijo Tay, en un tuit que imitaba de manera convincente el espíritu difamatorio y de noticias falsas de Twitter en su peor momento. Pregúntele sobre el entonces presidente Obama y lo comparará con un mono. Pregúntale sobre el Holocausto y ella negará que haya ocurrido.

En menos de un día, la retórica de Tay pasó de familiar a malhablada; menos de 24 horas después de su debut, Microsoft la desconectó y se disculpó por la debacle pública.

Lo que fue igual de sorprendente fue que el giro equivocado tomó por sorpresa al brazo de investigación de Microsoft. “Cuando el sistema salió, no planeamos cómo iba a funcionar en el mundo abierto”, dijo a Fortune el director gerente de investigación e inteligencia artificial de Microsoft, Eric Horvitz, en una entrevista reciente.

Después del colapso de Tay, Horvitz inmediatamente le pidió a su equipo senior que trabajaba en el "procesamiento del lenguaje natural", la función central de las conversaciones de Tay, que averiguara qué salió mal. El personal rápidamente determinó que se habían pasado por alto las mejores prácticas básicas relacionadas con los chatbots. En los programas que eran más rudimentarios que Tay, generalmente había protocolos que incluían en la lista negra las palabras ofensivas, pero no había salvaguardas para limitar el tipo de datos que Tay absorbería y construiría.

Hoy, sostiene Horvitz, puede "amar el ejemplo" de Tay, un momento de lección de humildad del que Microsoft podría aprender. Microsoft ahora implementa chatbots sociales mucho más sofisticados en todo el mundo, incluidos Ruuh en India y Rinna en Japón e Indonesia. En los EE. UU., Tay ha sido reemplazada por una hermana robot social, Zo. Algunos ahora se basan en la voz, como lo son Siri de Apple o Alexa de Amazon. En China, un chatbot llamado Xiaoice ya está "presentando" programas de televisión y enviando consejos de compras a los clientes de las tiendas de conveniencia.

Aún así, la compañía está pisando con cuidado. Despliega los bots lentamente, explica Horvitz, y monitorea de cerca cómo se comportan con el público a medida que escalan. Pero es aleccionador darse cuenta de que, a pesar de que A.I. la tecnología ha mejorado exponencialmente en los dos años intermedios, el trabajo de vigilar el comportamiento de los bots nunca termina. El personal de la empresa monitorea constantemente el diálogo para detectar cualquier cambio en su comportamiento. Y esos cambios siguen llegando. En sus primeros meses, por ejemplo, Zo tuvo que ser modificado una y otra vez después de incidentes separados en los que se refirió al software insignia de Windows de Microsoft como "spyware" y calificó al Corán, el texto fundamental del Islam, como "muy violento".

¿Puede esta startup romper el dominio de las grandes tecnologías sobre la IA?

Sin duda, Tay y Zo no son nuestros futuros señores de los robots. Son programas relativamente primitivos que ocupan el extremo de los trucos de salón del espectro de investigación, sombras de dibujos animados de lo que A.I. puede lograr. Pero sus fallas resaltan tanto el poder como las posibles trampas del software imbuido incluso con una pizca de inteligencia artificial. Y ejemplifican peligros más insidiosos que mantienen a los tecnólogos despiertos por la noche, incluso cuando el mundo empresarial se prepara para confiar cada vez más su futuro a esta nueva y revolucionaria tecnología.

“Obtienes tus mejores prácticas en su lugar y, con suerte, esas cosas se volverán cada vez más raras”, dice Horvitz. con IA llegando a la cima de la lista de deseos tecnológicos de cada empresa, descubrir esas prácticas nunca ha sido más urgente.

POCAS DISPUTAS que estamos al borde de una corporación

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352