Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 624

Incidentes Asociados

Incidente 3733 Reportes
Female Applicants Down-Ranked by Amazon Recruiting Tool

Amazon elimina la herramienta de reclutamiento de 'IA sexista' que mostraba prejuicios contra las mujeres
telegraph.co.uk · 2018

Amazon eliminó una herramienta interna "sexista" que usaba inteligencia artificial para clasificar las solicitudes de empleo.

La IA fue creada por un equipo de la oficina de Amazon en Edimburgo en 2014 como una forma de clasificar automáticamente los CV y seleccionar a los candidatos más prometedores.

Sin embargo, rápidamente aprendió a preferir a los candidatos masculinos sobre los femeninos, según miembros del equipo que hablaron con Reuters.

Se dieron cuenta de que estaba penalizando los CV que incluían la palabra "femenino", como "capitana del club de ajedrez femenino". Según los informes, también rebajó la calificación de los graduados de dos universidades exclusivamente para mujeres.

El problema surgió del hecho de que el sistema se entrenó con datos enviados por personas durante un período de 10 años, la mayoría de los cuales procedían de hombres.

La IA se modificó en un intento de corregir el sesgo. Sin embargo, el año pasado, Amazon perdió la fe en su capacidad de ser neutral y abandonó el proyecto por completo.

Se cree que los reclutadores de Amazon usaron el sistema para ver las recomendaciones al contratar, pero no se basaron en las clasificaciones. Actualmente, las mujeres constituyen el 40% de la fuerza laboral de Amazon.

Stevie Buckley, cofundadora del sitio web de empleo del Reino Unido, Honest Work, que utilizan empresas como Snapchat para reclutar para puestos tecnológicos, dijo que "la premisa básica de esperar que una máquina identifique a los solicitantes de empleo sólidos en función de las prácticas históricas de contratación en su empresa es un método infalible para escalar rápidamente el sesgo inherente y las prácticas de contratación discriminatorias”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f